Deepfake teknolojisi toplumsal tahribat yaratabilir

deepfake teknolojisi toplumsal karmaşa

Dünyaca ünlü spor kanalı ESPN’de State Farm isimli sigorta şirketi, çok konuşulan bir TV reklamı yayılmadı. Reklam, 1998’de kaydedilen ESPN analistlerinin 2020 yılı hakkında doğru tahminleri üzerineydi. Son teknoloji yapay zeka kullanılarak geliştirilen klip, gerçeği yansıtmıyordu.

ESPN’de yayınlanan reklamda yapay zekanın önemli ve bir o kadar da tehlikeli olan deepfake teknolojisiyle geliştirildi. Deeptake, insanların gerçekte söylemedikleri veya yapmadıkları şeyleri söyleyip yapan gerçekçi fotoğraf ve video oluşturmayı sağlıyor. Bilgisayar ve internet bağlantısı olan herkesin yapabileceği bu “gerçeği çarpıtma” teknolojisi heyecan verici gözükse de kötü sonuçlara yol açabilir.

İngilizce “Deep learning” ve “fake” kelimelerinin bir kombinasyonundan oluşan deepfakes, 2017 yılının sonlarında ortaya çıktı. Üretken çekişmeli ağ veya GAN olarak bilinen yenilikçi derin öğrenme yöntemiyle geliştirilerek sunuldu.

Son zamanlarda birkaç deepfake videosu, viral haline gelerek milyonlarca kişi tarafından izlendi. Bu videolar Barack Obama’nın Donald Trump’a küfür etmesi, Mark Zuckerberg’in Facebook üzerine itirafları ve bazı ünlüleri talk Show açıklamalarıydı.

Online platformlardan deepfake içeriği önlenemez bir şekilde artıyor. Geçtiğimiz 9 ayda deepfake video sayısı yedi bin civarından on dört bine çıktı.

Videoların çoğu şaşırtıcı olsa da videoların çoğunun sahte olduğunu anlayabiliriz. Yine de uzmanlar yakın zamanda sahte videoların gerçeğinden ayırt edilemiycek hale geleceğini belirtiyor.

Gördüğünüze inanmamanız gerekiyor

Çoğu yeni teknolojide olduğu gibi deepfake teknolojisinin de yaygın olarak kullanılan ilk örneği pornografi kategorisi oldu. Özellikle ünlü kişilerin seks videoları oldukça yayıldı. Daha sonra bu teknolojinin kullanımı kargaşa yaratma potansiyelinni yüksek olduğu siyası kategoriye ilerledi.

İnternette yayılabilecek ve gerçekliğine inanılacak bir siyasi videonun zararları çok büüyk olabilir. Bir seçimden önce rüşvet veya cinsel tacizde bulunan politikacı görüntüleri, gerçek olmayan savaş görüntüleri büyük bir karmaşaya yol açabilir.

Bu konuda fikir belirten teknologlar da konunun ciddiyetinin altına çiziyor. Uzmanlar, “Dünyanın dört bir yanından gelen video, ses ve görüntülere inanamıyor oluşumuz ciddi bir güvenlik riski yaratır.” diyor. Teknolojinin kullanılmaya devam edilmesi halinde halkın, gerçek olan ile sahte arasındaki farkı algılaması zorlaşacak olması da tehlike arz ediyor.

Artık gördüğümüze inanamayacağımız bir gelecekte, toplulukların yanlış kararlar vermesi endişe verici olacaktır.

Kedi-fare oyunu

Deepfakes’i mümkün kılan temel teknoloji, derin öğrenmenin bir bölüm olan üretken çekişmeli ağlar (GAN)’dır. 2014 yılında GAN’ların geliştirilmesiyle sinir ağları sadece algılama değil yaratma gücünü de kazandı. GAN, biri jeneratör diğer ayrımcı olarak iki sinir ağını kullanıyor. Daha sonra belirli bir veri kümesinden başlayarak matematiksek olarak mevcut görüntülere benzeyen yeni görüntüler oluşturmayı sağlar.

İki sinir ağında jeneratör, ayrımcıyı kandırmaya çalışıyor, ayrımcı, jeneratörün yaratımlarını susturmaya çalışır. Böylece ağlar yinelemeli olarak birbirlerine karşı çalıştıkça birbirlerinin yeteneklerini geliştiriyor. Sonunda da sentetik olarak oluşturulan fotoğrafların orijinallerden ayırt edilemez hale geliyor.

Deepfake teknolojisinin yanıltıcılığından korunmak için araştırmacılar yine yapay zekadan faydalanmamız gerektiğini söylüyor. Üretilen görüntülerde gölge, yüz hareketleri gibi özellikleri değerlendirebilen algılama sistemleri bu konuda bir çözüm sunabilir.

Truepic ve Deeptrace gibi bazı girişimler deepfake’e karşı savunma yazılımları üzerine çalışıyor.

Gelecekte deepfake

Teknolojik çözümlerin yanı sıra deepfake tehlikelerinden korunmak için hangi yasal, politik ve ossyal adımları atabiliriz?

Bu konuda deepfake videoların oluşturulması ve yayılmasının yasadışı sayan yasalar oluşturulabilir. Ancak bu yasaların anayasal ve pratik zorlukları var. Online içeriklerin yasaklanması anayasal ifade özgürlüklerinin kısıtlanması anlamına geleceği için uygun olmaz. Ayrıca anayasaya girse de deepfake yasaklarının, internetin anonim ve sınırsız bir dünya oluşuyla ne kadar geçerli olacağı tartışılır.

Yasal çözümlerin yanında toplumun bu konuda bilinçlendirilmesi büyük önem taşıyor.

Kısa vadede en etkili çözüm ise, Facebook, Google ve Twitter gibi büyük teknoloji platformlarının bu içeriklerin yayılmasını önlemek için önlemler alması olabilir. Ancak bu konuda da şüphesiz sansür endişeleri ortaya çıkacaktır.

Merve Şimşek
Merve Şimşek, 1996 yılı Muğla doğumludur. Yıldız Teknik Üniversitesi’ndeki mimarlık eğitimini 2019 yılında tamamladı. Eğitimi sırasında mimari ofislerde gerçekleştirdiği staj çalışmalarına ek olarak Natura ve YAPI dergilerinin editör ekibinde yer aldı. Halen Natura Dergi’nin editörlüğünü yürütüyor. Mimari, sanat, edebiyata ek olarak teknoloji ve bilim konularına ilgi duyuyor. İngilizce ve İspanyolca biliyor.