Yüzlerce araştırmacı, 15 yıllık binlerce veri kullanarak çocukların ve ailelerin hayat çizgisini tahmin etmeye çalıştı. Ancak hiçbir sonuç anlamlı bir doğruluğa ulaşamadı.
Politikacılar ve hükümetler genellikle istihdam ve suç oranları gibi sosyal sonuçlara olan etkileri tahmin etmek için sosyal bilimcilerin çalışmalarından yararlanır. Bu sayede farklı faktörlerden birinin gidişatı değiştirilebilirse, sonuçları geliştirmek için müdahaleler önerilebilir.

Son yıllarda makine öğreniminin hızlı yükselişiyle daha fazla miktarda veriden yararlanarak kesin tahminler yapılabiliyor. Bu tür modeller günümüzde sanıkların ikinci bir suç nedeniyle tutuklanması veya bir çocuğun evde istismara uğrayama ihtimalini tahmin etmek için kullanılıyor. Belirli bir durumda yeterli veri sağlanabilirse algoritmanın insanlardan daha iyi tahminler ortaya koyacağı veya daha istatistiksel analizler sunacağı düşünülüyor.
Sosyoloji araştırması
Ulusal Bilimler Akademisi Bildiriler Kitabı’nda yayınlanan yeni bir çalışma bu yaklaşımın etkilerine şüpheli yaklaşıyor. Yürütülen çalışmada, Princeton Üniversitesi’ndeki üç sosyolog yüzlerce araştırmacıdan 4.000’den fazla ailede yaklaşık 13.000 veri noktası kullanarak çocuklar, ebeveynler ve haneler için altı yaşam sonucu tahmin etmeleri istendi. Princeton Üniversitesi’ndeki 15 yıllık bir sosyoloji çalışmasından veriler kullanıldı. Beş ay boyunca bilgisayar bilimcileri, istatistikçiler ve hesaplamalı sosyologlar dahil yüzlerce araştırmacı, tahmin için en iyi tekniklerini sundular. Buna rağmen araştırmacılar basit istatistikler veya ileri düzey makine öğrenimi kullanarak bile makul bir doğruluk seviyesine yaklaşamadı.

Kar amacı gütmeyen yapay zeka kuruluşu Partnership araştırma başkanı Alica Xiang, “Yapılan çalışma, makine öğrenme araçlarının sihirli araçlar olmadığını ortaya koydu.” dedi.
Çalışma gruplarından hiçbirinin sonuçlarda yüksek doğruluk elde edememesi, sonuçların şans eseri denk gelmediğini doğruladı.
AI’nın toplumda kullanımını inceleyen uzmanlar için sonuçlar şaşırtıcı değil. Alicia Xiang, ceza adalet sistemindeki en doğru risk değerlendirme algoritmalarının bile % 60 ila % 70 oranında doğru çıktığını söylüyor.
“Irkçı bir yapı”
Yapay zekanın sosyal etkisini inceleyen AI Now enstitüsünün politika direktörü Rashida Richardson, tahmin sorununun çerçevelenme şeklindeki endişelerine dikkat çekiyor. Politika direktörü bunu, başarı ve performansı ölçmek için ırkçı bir yapı olarak nitelendirdi.
Richardson ayrıca, “Çok miktarda veriye ve karmaşık makine öğrenimine ahip olmak doğru tahmini garanti etmez. Makine öğrenimi konusunda çok fazla deneyime sahip olmayan politika yapıcıların bu konuda gerçekçi olmayan beklentileri olabilir.” dedi.
Sonuçlar, makine öğrenmesine dayalı olsun ya da olmasın, öngörücü algoritmaların politika dünyasında asla yararlı araçlar olmayacağı anlamına gelmiyor. Bazı araştırmacılar, sosyoloji araştırması amacıyla toplanan verilerin, politika yapımında tipik olarak analiz edilen verilerden farklı olarak ele alınması gerektiğini söylüyor.
Cevap yazın