Czy algorytmy cyfrowe mogą pomóc chronić dzieci takie jak Gabriel Fernandez przed nadużyciami?

Każdego roku około 7 milionów dzieci jest zgłaszanych władzom ds. Opieki nad dziećmi w związku z możliwym wykorzystywaniem, ale w jaki sposób władze określają, czy dzieci lubią Gabriel Fernandez znajdują się w poważnym niebezpieczeństwie i potrzebują interwencji?





Wiele organów zajmujących się opieką nad dziećmi polega na ocenach ryzyka przeprowadzonych przez pracowników przeszkolonych do obsługi linii telefonicznych, w których zgłaszane jest podejrzenie krzywdzenia, ale niektórzy uważają, że może być lepszy sposób.

„Istnieje obszerna literatura, która sugerowała, że ​​ludzie nie są szczególnie dobrymi kryształowymi kulami” - mówi Emily Putnam-Hornstein, dyrektor Sieć danych dzieci i profesor nadzwyczajny na USC, powiedział w nowej serii dokumentów Neflix „The Trials of Gabriel Fernandez”. „Zamiast tego nauczmy algorytmu, aby zidentyfikować, które z tych dzieci pasują do profilu, w którym ryzyko długiego łuku sugerowałoby przyszłe zaangażowanie systemu”.



Fernandez był 8-letnim chłopcem pobitym i torturowanym przez siebie na śmierć matka i jej chłopak pomimo wielokrotnych telefonów jego nauczyciela i innych osób do władz zgłaszających podejrzenie nadużycia. Nowa, sześcioczęściowa seria bada życie Fernandeza i straszliwą śmierć, ale też przyjrzymy się jej z szerszej perspektywy problemy systemowe w ramach systemu opieki nad dziećmi, które mogłyby odegrać pewną rolę.



Putnam-Hornstein twierdzi, że jedną ze strategii skuteczniejszej identyfikacji dzieci, które są najbardziej zagrożone, może być użycie specjalnie stworzonych algorytmów, które wykorzystują rejestry administracyjne i eksplorację danych do określenia oceny ryzyka dla każdego dziecka.



„W rzeczywistości mamy około 6-7 milionów dzieci, które każdego roku są zgłaszane jako domniemane maltretowanie lub zaniedbanie w Stanach Zjednoczonych, a historycznie sposób, w jaki podejmowaliśmy niektóre z naszych decyzji dotyczących badań przesiewowych, jest po prostu oparty na rodzaju oceny jelit” - powiedziała. „Predykcyjne modelowanie ryzyka mówi tylko:„ Nie, nie, nie, przyjmijmy do tego bardziej systematyczne i empiryczne podejście ””.

jest bursztynowy, różowobiały lub czarny

Putnam-Hornstein i Rhema Vaithianathan, współdyrektor Centrum analizy danych społecznościowych , udało się zrealizować ten pomysł w hrabstwie Allegheny w Pensylwanii. Para wykorzystała tysiące skierowań dotyczących krzywdzenia dzieci do zaprojektowania algorytmu, który określiłby ocenę ryzyka dla każdej rodziny zgłoszonej do okręgowych służb ochrony dzieci, zgodnie z Centrum Dziennikarstwa Zdrowia .



„Uwzględnia się około stu różnych czynników” - wyjaśnił w serii dokumentów Marc Cherna, dyrektor Departamentu Usług Społecznych hrabstwa Allegheny. „Niektóre podstawowe przykłady to historia dobra dziecka, historia rodziców, z pewnością zażywanie narkotyków i uzależnienie, rodzinne choroby psychiczne, więzienie i wyroki skazujące, a zwłaszcza jeśli dochodzi do napaści i tym podobnych”.

Ze względu na dużą liczbę zgłoszeń organy ds. Opieki nad dziećmi w całym kraju mają za zadanie określić, czy rodzina powinna zostać poddana badaniu przesiewowemu na podstawie skargi, czy też powinna zostać poddana kontroli przesiewowej.

Ted Cruz był Zodiakiem

Według danych, w 2015 r. 42% z 4 milionów zarzutów otrzymanych w całym kraju dotyczących 7,2 miliona dzieci zostało przebadanych The New York Times .

Jednak dzieci nadal umierają z powodu wykorzystywania dzieci.

System używany w hrabstwie Allegheny został zaprojektowany w celu dokładniejszego przewidywania, które rodziny mogą w przyszłości zaangażować się w system poprzez analizę danych.

„To, co mają przesiewacze, to mnóstwo danych” - powiedział Vaithianathan w wywiadzie dla The Times. „Jednak nawigacja i ustalenie, które czynniki są najważniejsze, jest dość trudne. W ciągu jednej rozmowy z C.Y.F. , możesz mieć dwoje dzieci, domniemanego sprawcę, będziesz mieć mamę, możesz mieć inną dorosłą osobę w gospodarstwie domowym - wszyscy ci ludzie będą mieli historię w systemie, którą osoba sprawdzająca połączenie może zbadać. Ale ludzki mózg nie jest tak zręczny w wykorzystywaniu i nadawaniu sensu wszystkim danym ”.

Narzędzie do badań przesiewowych rodziny Allegheny wykorzystuje technikę statystyczną zwaną „eksploracją danych”, aby przyjrzeć się wzorcom historycznym i „spróbować przewidzieć, co może się wydarzyć” w danym przypadku, powiedziała w serii dokumentów.

Każdy przypadek otrzymuje ocenę ryzyka w zakresie od 1 do 20 - klasyfikując każdy przypadek jako wysokiego, średniego lub niskiego ryzyka.

Rachel Berger, pediatra ze Szpitala Dziecięcego w Pittsburghu, powiedziała The Times w 2018 r., Że analiza predykcyjna jest cenna, ponieważ eliminuje część subiektywności, która zwykle pojawia się w procesie.

„Wszystkie te dzieci żyją w chaosie” - powiedziała. „W jaki sposób C.Y.F. wybrać, które z nich są najbardziej zagrożone, gdy wszystkie mają czynniki ryzyka? Nie możesz uwierzyć w ilość subiektywizmu, która wiąże się z decyzjami dotyczącymi ochrony dzieci. Dlatego uwielbiam analizy predykcyjne. W końcu wnosi trochę obiektywizmu i nauki do decyzji, które mogą tak niewiarygodnie zmienić życie ”.

Ale byli też krytycy, którzy twierdzą, że korzystanie z analiz predykcyjnych opiera się na danych, które mogą już być stronnicze. Wcześniejsze badania wykazały, że mniejszości i rodziny o niskich dochodach są często nadreprezentowane w gromadzonych danych, co może prowadzić do uprzedzeń wobec rodzin afroamerykańskich lub innych rodzin mniejszościowych, zgodnie z serią dokumentów.

„Ludzkie uprzedzenia i uprzedzenia dotyczące danychiść ramię w ramię ze sobą, ”Kelly Capatosto, starszy pracownik naukowy w Kirwan Institute for the Study of Race and Ethnicity na Ohio State University, powiedział, według Center for Health Journalism. „Przy tych decyzjach myślimy o inwigilacji i kontaktach z systemem - z policją, agencjami opieki nad dziećmi, wszelkimi agencjami pomocy społecznej. Będzie nadreprezentowany w społecznościach (o niskich dochodach i mniejszościowych). Niekoniecznie wskazuje, gdzie te przypadki mają miejsce ”.

Erin Dalton, zastępca dyrektora biura analiz, technologii i planowania okręgu Allegheny przyznał, że stronniczość jest możliwa.

„Z pewnością w naszych systemach jest tendencja. Wykorzystywanie dzieci jest postrzegane przez nas i nasze dane jako funkcja rzeczywistego znęcania się nad dziećmi, to funkcja tego, kto zostanie zgłoszony ”- powiedziała w serialu Netflix.

Ale hrabstwo powiedziało również Center for Health Journalism, że odkryło, że otrzymywanie świadczeń publicznych obniża wskaźniki ryzyka prawie dla swoich rodzin.

THrabstwo jest „bardzo wrażliwe” na ten problem i na bieżąco analizuje system, aby określić, czy grupy były celem nieproporcjonalnych ataków, powiedział Cherna również w serii dokumentów.

niewolnictwo jest legalne w niektórych krajach

System hrabstwa Allegheny jest własnością samego hrabstwa, ale krytykowano również inne prywatne systemy kontroli.

Departament Dzieci i Usług Rodzinnych stanu Illinois ogłosił w 2018 r., Że nie będzie już korzystał z pakietu analiz predykcyjnych opracowanego przez organizację non-profit Eckerd Connects i jej partnera nastawionego na zysk MindShare Technology, po części dlatego, że firma odmówiła podania szczegółów dotyczących czynników. zostały użyte w ich formule, według The Times.

System podobno zaczął określać tysiące dzieci jako wymagające pilnej ochrony, dając ponad 4100 dzieciom w Illinois 90 procent lub więcej prawdopodobieństwa śmierci lub obrażeń, Chicago Tribune zgłoszone w 2017 roku.

Jednak inne dzieci, które nie otrzymały wyników wysokiego ryzyka, nadal umierały z powodu wykorzystywania.

„Analityka predykcyjna (nie) przewidywała żadnego złego przypadku”, dyrektor Departamentu Dzieci i Usług Rodzinnych Beverly „B.J.” Walker powiedział Tribune. „Postanowiłem nie kontynuować tej umowy”.

Daniel Hatcher, autor „ Przemysł ubóstwa: wykorzystywanie najbardziej narażonych obywateli Ameryki ”Porównał niektóre systemy analityczne do„ czarnej skrzynki ”, mówiąc w serii dokumentów, że nie zawsze jest jasne, w jaki sposób podejmują decyzje.

„Nie mają sposobu, aby dowiedzieć się, w jaki sposób faktycznie decydują o poziomie opieki, który ma ogromny wpływ na daną osobę” - powiedział.

Putnam-Hornstein przyznała, że ​​systemy analizy predykcyjnej nie są w stanie określić przyszłego zachowania, ale uważa, że ​​jest to cenne narzędzie, które pozwala badaczom przesiewowym podejmować bardziej świadome decyzje o tym, które dzieci mogą być najbardziej zagrożone.

lucy na niebie na podstawie

„Mam nadzieję, że te modele pomogą naszemu systemowi zwrócić większą uwagę na stosunkowo niewielką grupę skierowań, w przypadku których ryzyko jest szczególnie wysokie, i będziemy w stanie poświęcić więcej zasobów tym dzieciom i rodzinom w sposób zapobiegawczy” - powiedziała. do Centrum Dziennikarstwa Zdrowotnego. „Nie chcę, aby ktokolwiek sprzedawał za dużo w prognozowaniu modelowania ryzyka. To nie jest kryształowa kula. Nie rozwiąże wszystkich naszych problemów. Ale na marginesie, jeśli pozwoli nam to podjąć nieco lepsze decyzje i zidentyfikować przypadki wysokiego ryzyka oraz oddzielić je od przypadków niskiego ryzyka i odpowiednio dostosować, może to być ważny krok w tej dziedzinie ”.

Popularne Wiadomości