Bolehkah Algoritma Digital Membantu Melindungi Kanak-kanak Seperti Gabriel Fernandez Daripada Penyalahgunaan?

Setiap tahun kira-kira 7 juta kanak-kanak dilaporkan kepada pihak berkuasa kebajikan kanak-kanak untuk kemungkinan penderaan, tetapi bagaimana pihak berkuasa menentukan sama ada kanak-kanak suka Gabriel Fernandez berada dalam bahaya besar dan memerlukan campur tangan?





Banyak pihak berkuasa kebajikan kanak-kanak bergantung pada penilaian risiko yang diberikan oleh kakitangan yang dilatih untuk menguruskan talian telefon di mana disyaki penyalahgunaan dilaporkan, tetapi ada yang percaya mungkin ada cara yang lebih baik.

'Ada sejumlah besar literatur yang kita lihat menunjukkan bahawa manusia bukanlah bola kristal yang sangat baik,' Emily Putnam-Hornstein, pengarah Rangkaian Data Kanak-kanak dan seorang profesor bersekutu di USC, mengatakan dalam siri dokumen Neflix baru 'The Trials of Gabriel Fernandez.' 'Sebaliknya, apa yang kita katakan adalah mari kita latih algoritma untuk mengenal pasti kanak-kanak mana yang sesuai dengan profil di mana risiko lengkok panjang akan menunjukkan penglibatan sistem di masa depan.'



Fernandez adalah seorang budak lelaki berusia 8 tahun yang dipukul dan diseksa hingga mati olehnya ibu dan dia teman lelaki , walaupun ada panggilan berulang kali oleh gurunya dan yang lain kepada pihak berkuasa yang melaporkan disyaki penyalahgunaan. Siri enam bahagian baru ini mengkaji kehidupan Fernandez dan kematian yang mengerikan, tetapi ia juga melihat lebih mendalam masalah sistemik dalam sistem kebajikan kanak-kanak yang boleh memainkan peranan.



gambar tempat kejadian jenayah taman tengah jogger

Putnam-Hornstein berpendapat bahawa satu strategi untuk mengenal pasti kanak-kanak yang berisiko paling berkesan boleh menggunakan algoritma yang dibuat khas yang menggunakan rekod pentadbiran dan perlombongan data untuk menentukan skor risiko bagi setiap anak.



'Kami sebenarnya mempunyai sekitar 6 atau 7 juta kanak-kanak yang dilaporkan dituduh melakukan penderaan atau pengabaian setiap tahun di A.S. dan secara historis cara kami membuat beberapa keputusan pemeriksaan kami hanya berdasarkan pada penilaian usus,' katanya. 'Pemodelan risiko ramalan hanya mengatakan, 'Tidak, tidak, tidak, mari kita mengambil pendekatan yang lebih sistematik dan empirikal untuk ini.''

Putnam-Hornstein dan Rhema Vaithianathan, pengarah bersama Pusat Analisis Data Sosial , dapat menerapkan idea tersebut di Allegheny County, Pennsylvania. Pasangan ini menggunakan ribuan rujukan penganiayaan kanak-kanak untuk merancang algoritma yang akan menentukan skor risiko bagi setiap keluarga yang dilaporkan ke perkhidmatan perlindungan kanak-kanak di daerah ini, menurut Pusat Kewartawanan Kesihatan .



'Terdapat seratus atau lebih faktor yang diteliti,' kata Marc Cherna, pengarah Jabatan Perkhidmatan Manusia Daerah Allegheny, dalam siri dokumen. 'Beberapa contoh asas adalah sejarah kesejahteraan kanak-kanak, sejarah ibu bapa, penggunaan dadah dan ketagihan, penyakit mental keluarga, penjara dan sabitan, dan terutama jika ada serangan dan perkara seperti itu.'

Karena banyaknya panggilan, pihak berwajib anak-anak di seluruh negara ditugaskan untuk menentukan apakah sebuah keluarga harus diperiksa untuk penyelidikan berdasarkan keluhan tersebut, atau disaring.

apa salahnya suara jason beghe

Pada tahun 2015, 42% daripada 4 juta tuduhan yang diterima di seluruh negara yang melibatkan 7.2 juta kanak-kanak disaring, menurut The New York Times .

Namun, kanak-kanak terus mati akibat penderaan kanak-kanak.

Sistem yang digunakan di Allegheny County dirancang untuk lebih tepat meramalkan keluarga mana yang kemungkinan akan terlibat dalam sistem masa depan melalui analisis data.

'Apa yang dimiliki oleh penyaring adalah banyak data,' kata Vaithianathan kepada The Times. 'Tetapi, agak sukar untuk menavigasi dan mengetahui faktor mana yang paling penting. Dalam satu panggilan ke C.Y.F. , anda mungkin mempunyai dua anak, seorang pelaku yang diduga, anda akan mempunyai ibu, anda mungkin mempunyai orang dewasa lain di dalam rumah tangga - semua orang ini akan mempunyai sejarah dalam sistem yang boleh disiasat oleh orang yang menelefon panggilan tersebut. Tetapi otak manusia tidak pandai memanfaatkan dan memahami semua data. '

Alat penyaringan keluarga Allegheny menggunakan teknik statistik yang disebut 'perlombongan data' untuk melihat corak sejarah untuk 'berusaha membuat ramalan tentang apa yang mungkin terjadi' dalam hal tertentu, katanya dalam seri dokumen.

Setiap kes diberi skor risiko antara satu hingga 20 - mengkategorikan setiap kes sebagai risiko tinggi, risiko sederhana atau risiko rendah.

Rachel Berger, seorang pakar pediatrik di Children’s Hospital of Pittsburgh, memberitahu The Times pada tahun 2018 bahawa apa yang membuat analisis ramalan berharga adalah bahawa ia menghilangkan beberapa subjektiviti yang biasanya masuk ke dalam proses.

'Semua anak-anak ini hidup dalam keadaan huru-hara,' katanya. “Bagaimana C.Y.F. pilih yang mana yang paling berisiko apabila semuanya mempunyai faktor risiko? Anda tidak boleh mempercayai jumlah subjektiviti yang diambil dalam keputusan perlindungan kanak-kanak. Itulah sebabnya saya suka analitik ramalan. Ini akhirnya membawa objektif dan sains kepada keputusan yang boleh mengubah hidup dengan luar biasa. '

Tetapi ada juga pengkritik yang berpendapat bahawa menggunakan analitik ramalan bergantung pada data yang mungkin sudah berat sebelah. Penyelidikan yang lalu menunjukkan bahawa keluarga minoriti dan berpendapatan rendah sering kali terlalu banyak diwakili dalam data yang dikumpulkan, yang berpotensi menimbulkan bias terhadap keluarga Afrika-Amerika atau keluarga minoriti lain, menurut siri dokumen tersebut.

“Bias manusia dan bias databerganding bahu antara satu sama lain, ”Kelly Capatosto, rakan penyelidikan kanan di Kirwan Institute for the Study of Race and Ethnicity di Ohio State University, mengatakan, menurut Pusat Jurnalisme Kesihatan. 'Dengan keputusan ini, kami memikirkan pengawasan dan kontak sistem - dengan polisi, badan kesejahteraan anak, dan mana-mana agensi yang berkhidmat untuk kesejahteraan sosial. Ini akan terlalu banyak diwakili dalam komuniti (berpendapatan rendah dan minoriti). Ini tidak semestinya menunjukkan di mana kejadian ini berlaku. '

Erin Dalton, timbalan pengarah analisis, teknologi dan perancangan pejabat Allegheny County, mengakui bahawa bias mungkin berlaku.

'Sudah pasti, ada berat sebelah dalam sistem kami. Penderaan kanak-kanak dilihat oleh kami dan data kami bukan fungsi penderaan kanak-kanak yang sebenarnya, ini adalah fungsi siapa yang akan dilaporkan, ”katanya dalam siri Netflix.

Tetapi daerah itu juga memberitahu Pusat Jurnalisme Kesihatan bahawa ia mendapati bahawa menerima faedah awam menurunkan skor risiko bagi hampir keluarganya.

Tdia daerah 'sangat sensitif' terhadap masalah itu dan melakukan analisis berterusan terhadap sistem untuk menentukan apakah kumpulan telah disasarkan secara tidak proporsional, Cherna juga mengatakan dalam seri dokumen.

Sistem Allegheny County dimiliki oleh daerah itu sendiri, tetapi ada juga kritikan terhadap sistem penyaringan swasta yang lain.

adakah pembunuh bersiri di boston

Jabatan Perkhidmatan Kanak-kanak dan Keluarga Illinois mengumumkan pada tahun 2018 bahawa ia tidak akan lagi menggunakan pakej analitik ramalan yang dikembangkan oleh Eckerd Connects, syarikat bukan untung, dan rakan untungnya MindShare Technology, sebahagiannya kerana syarikat itu enggan memberikan perincian faktor-faktor apa digunakan dalam formula mereka, menurut The Times.

Sistem ini dilaporkan mulai menetapkan ribuan kanak-kanak sebagai memerlukan perlindungan segera, memberikan lebih daripada 4,100 kanak-kanak Illinois kemungkinan kematian atau kecederaan 90 peratus atau lebih besar, The Chicago Tribune dilaporkan pada tahun 2017.

Namun, kanak-kanak lain yang tidak mendapat skor berisiko tinggi akhirnya mati akibat penderaan.

'Analisis ramalan (tidak) meramalkan salah satu kes buruk,' pengarah Jabatan Perkhidmatan Kanak-kanak dan Keluarga Beverly 'B.J.' Walker memberitahu Tribune. 'Saya telah memutuskan untuk tidak meneruskan kontrak itu.'

mayat di foto tempat kejadian jenayah tong

Daniel Hatcher, pengarang “ Industri Kemiskinan: Eksploitasi Warganegara Paling Rentan di Amerika 'Membandingkan beberapa sistem analitik dengan' kotak hitam, 'yang mengatakan dalam siri dokumen bahawa bagaimana mereka membuat keputusan tidak selalu jelas.

'Mereka tidak punya cara untuk mengetahui bagaimana mereka benar-benar menentukan tahap perawatan yang memberi kesan besar pada seseorang individu,' katanya.

Putnam-Hornstein mengakui bahawa sistem analitik ramalan tidak dapat menentukan tingkah laku masa depan, tetapi dia yakin ia adalah alat yang berharga yang membolehkan penyaring membuat keputusan yang lebih tepat mengenai anak-anak yang mungkin berisiko paling besar.

'Harapan saya ialah model-model ini akan membantu sistem kita memberi perhatian lebih kepada rujukan yang agak kecil di mana risikonya sangat tinggi dan kita akan dapat menumpukan lebih banyak sumber daya kepada anak-anak dan keluarga dengan cara pencegahan,' katanya, menurut ke Pusat Kewartawanan Kesihatan. 'Saya tidak mahu ada yang menjual model risiko ramalan. Ia bukan bola kristal. Ini tidak akan menyelesaikan semua masalah kita. Tetapi secara kecil-kecilan, jika ini memungkinkan kita membuat keputusan yang sedikit lebih baik dan mengenal pasti kes-kes berisiko tinggi dan menyelesaikannya dari kes-kes berisiko rendah dan menyesuaikannya dengan sewajarnya, ini boleh menjadi perkembangan penting di lapangan. '

Jawatan Popular