Yapay zeka, bir çocuğun hayatının nasıl şekilleneceğini tahmin edemiyor

yapay zeka çocuk gelişimi

Yüzlerce araştırmacı, 15 yıllık binlerce veri kullanarak çocukların ve ailelerin hayat çizgisini tahmin etmeye çalıştı. Ancak hiçbir sonuç anlamlı bir doğruluğa ulaşamadı.

Politikacılar ve hükümetler genellikle istihdam ve suç oranları gibi sosyal sonuçlara olan etkileri tahmin etmek için sosyal bilimcilerin çalışmalarından yararlanır. Bu sayede farklı faktörlerden birinin gidişatı değiştirilebilirse, sonuçları geliştirmek için müdahaleler önerilebilir.

Son yıllarda makine öğreniminin hızlı yükselişiyle daha fazla miktarda veriden yararlanarak kesin tahminler yapılabiliyor. Bu tür modeller günümüzde sanıkların ikinci bir suç nedeniyle tutuklanması veya bir çocuğun evde istismara uğrayama ihtimalini tahmin etmek için kullanılıyor. Belirli bir durumda yeterli veri sağlanabilirse algoritmanın insanlardan daha iyi tahminler ortaya koyacağı veya daha istatistiksel analizler sunacağı düşünülüyor.

Sosyoloji araştırması

Ulusal Bilimler Akademisi Bildiriler Kitabı’nda yayınlanan yeni bir çalışma bu yaklaşımın etkilerine şüpheli yaklaşıyor. Yürütülen çalışmada, Princeton Üniversitesi’ndeki üç sosyolog yüzlerce araştırmacıdan 4.000’den fazla ailede yaklaşık 13.000 veri noktası kullanarak çocuklar, ebeveynler ve haneler için altı yaşam sonucu tahmin etmeleri istendi. Princeton Üniversitesi’ndeki 15 yıllık bir sosyoloji çalışmasından veriler kullanıldı. Beş ay boyunca bilgisayar bilimcileri, istatistikçiler ve hesaplamalı sosyologlar dahil yüzlerce araştırmacı, tahmin için en iyi tekniklerini sundular. Buna rağmen araştırmacılar basit istatistikler veya ileri düzey makine öğrenimi kullanarak bile makul bir doğruluk seviyesine yaklaşamadı.

Kar amacı gütmeyen yapay zeka kuruluşu Partnership araştırma başkanı Alica Xiang, “Yapılan çalışma, makine öğrenme araçlarının sihirli araçlar olmadığını ortaya koydu.” dedi.

Çalışma gruplarından hiçbirinin sonuçlarda yüksek doğruluk elde edememesi, sonuçların şans eseri denk gelmediğini doğruladı.

AI’nın toplumda kullanımını inceleyen uzmanlar için sonuçlar şaşırtıcı değil. Alicia Xiang, ceza adalet sistemindeki en doğru risk değerlendirme algoritmalarının bile % 60 ila % 70 oranında doğru çıktığını söylüyor.

“Irkçı bir yapı”

Yapay zekanın sosyal etkisini inceleyen AI Now enstitüsünün politika direktörü Rashida Richardson, tahmin sorununun çerçevelenme şeklindeki endişelerine dikkat çekiyor. Politika direktörü bunu, başarı ve performansı ölçmek için ırkçı bir yapı olarak nitelendirdi.

 Richardson ayrıca, “Çok miktarda veriye ve karmaşık makine öğrenimine ahip olmak doğru tahmini garanti etmez. Makine öğrenimi konusunda çok fazla deneyime sahip olmayan politika yapıcıların bu konuda gerçekçi olmayan beklentileri olabilir.” dedi.

Sonuçlar, makine öğrenmesine dayalı olsun ya da olmasın, öngörücü algoritmaların politika dünyasında asla yararlı araçlar olmayacağı anlamına gelmiyor. Bazı araştırmacılar, sosyoloji araştırması amacıyla toplanan verilerin, politika yapımında tipik olarak analiz edilen verilerden farklı olarak ele alınması gerektiğini söylüyor.

Merve Şimşek
Merve Şimşek, 1996 yılı Muğla doğumludur. Yıldız Teknik Üniversitesi’ndeki mimarlık eğitimini 2019 yılında tamamladı. Eğitimi sırasında mimari ofislerde gerçekleştirdiği staj çalışmalarına ek olarak Natura ve YAPI dergilerinin editör ekibinde yer aldı. Halen Natura Dergi’nin editörlüğünü yürütüyor. Mimari, sanat, edebiyata ek olarak teknoloji ve bilim konularına ilgi duyuyor. İngilizce ve İspanyolca biliyor.