Deepfakeler mi daha tehlikeli deepfake yaftaları mı?

Yapay zeka sahteciliğinin gelişmesi, kullanıcıları gerçek içeriklerden de şüphelenmeye sürükleyebilir. Üstelik bu şüpheyi içeriklerin kendi değil, mevcut peşin yargılarımız belirliyor.


24/06/2021 08:30 5 dk okuma

Bu içerik 1 yıldan daha eski tarihlidir.

Kırılgan bir siyasi ve ekonomik atmosferde, 2018’in son aylarında hasta olduğu açıklanan Gabon Devlet Başkanı Ali Bongo, bir süredir ortalarda yoktu. Yetkililerden gelen tutarsız açıklamaların ardından Bongo'nun öldüğü söylentileri yayıldı. Ocak 2019'da, geleneksel yeni yıl konuşmasıyla halkın karşısına çıkan Bongo’nun videosu, beklenenin aksine öldüğü iddialarını daha da güçlendirdi. 

gabon baskan deepfake

Gabon Devlet Başkanı Ali Bongo’nun deepfake olduğu iddia edilen görüntüleri. 

Bongo’nun normalden farklı göründüğü, videonun deepfake olduğu iddiası hükümetin halktan bir şeyler sakladığı şüphelerini körükledi. Bir hafta sonra ordu, videoyu gerekçe göstererek başarısızlıkla sonuçlanacak bir darbe girişimi başlattı. Yapılan incelemelerin hiçbirinde videoda manipülasyon olduğu sonucuna ulaşılamadı ancak video deepfake etiketini yemişti bir kere. 

Gabon'da yaşananlar, deepfake fikrinin büyütebileceği şüpheyi ve şüphenin yaratabileceği riskleri göstermek için iyi bir örnekti.  

Deepfake içerikler mükemmel olmaktan uzak

Deepfake’ler yayılmaya başladığında bilgi ekosistemindeki ilk endişe, özellikle seçim dönemlerinde, ikna edici bir şekilde seçmenlerin görüşlerini değiştirecek deepfake içerikler üretilmesiydi. Ancak henüz deepfake içerikler, bilgi kirliliği yaratan diğer içerik türlerinden çok da farklı bir performans sergilemedi ve korkulan olmadı. ‘Gerçek’ yanılgısını tam anlamıyla yaratacak deepfake içerikler üretmek hala çok zor. Üstelik bu içerikleri tespit etmek için kullanılabilecek birçok ipucu var. 

İlginizi çekebilir: Rehber: Deepfake ve cheapfake’leri tespit etme yolları

Deepfake içerikler hakkında yürütülen araştırma, yanıltıcı bilgilere aldanmamızın nedenlerinin, üretimlerinin arkasındaki teknolojiden daha çok, bizi güvenmeye veya güvenmemeye götüren zihinsel süreçler olduğunu ortaya koyuyor. 

ABD’de 5 bin 750 katılımcıyla gerçekleştirilen bir araştırma, deepfake içeriklerin seçmenleri yanlış bilgiye inandırma konusunda emsalsiz bir yeteneğe sahip olmadığını gösteriyor. Hangi içeriğin gerçek hangisinin deepfake olduğunu ayırt etmeleri istenen katılımcıların yanıtlarında dikkati çeken, katılımcıların ait oldukları siyasi tarafı kötü gösteren gerçek bir videoyu “sahte” ilan etme olasılıklarının daha yüksek olması. 

Eski ABD Başkanı Barack Obama'nın eski Rusya Devlet Başkanı Dmitry Medvedev ile seçim sonrası bir anlaşma hakkındaki imalarını gösteren sızdırılmış gerçek görüntülerin gerçek olduğuna inanan cumhuriyetçi katılımcı oranı yüzde 58 iken, demokratlarınki yalnız yüzde 22. Ya da eski başkan Donald Trump’ın Apple CEO’su Tim Cook’un adını yanlış söylediği videonun gerçek olduğunu tespit eden demokratların oranı yüzde 87, cumhuriyetçilerin ise yüzde 51. 

Yani karşımıza çıkan içeriği değerlendirirken algımızı içeriğin altında yatan teknolojinin kendinden çok, mevcut görüş ve inançlarımız şekillendiriyor. Araştırma ekibi gerçek videolar ile deepfake’leri birbirinden ayırmada kritik rolü, siyasi ve dijital okuryazarlığın oynadığını vurguluyor. 

İlginizi çekebilir: Siyasi fikirlere bağlılığımız gerçeklik algımızı etkiler mi?

Deepfake içerik uzmanı Henry Ajder, “Deepfake’ler sahte medyanın gerçek gibi görünmesi açısından risk oluşturuyor; ancak şu anda daha somut tehdit, deepfake fikrinin gerçek içerikleri sahte göstermek için nasıl kullanılabileceğidir" diyor. Deeptrace tarafından 2019’da yayınlanan rapor deepfake'lerin siyasi etkisi hakkında spekülasyon yapan haberlerin, deepfake'lerin etkili olduğu gerçek vakaları gölgede bıraktığını ortaya koyuyor. 

Deepfake yaftalaması kötüye kullanılabilir 

Daha önce deepfakelerin ne olduğunu ve nasıl tespit edilebileceğini incelediğimiz yazıda teknoloji şirketlerinin ve araştırmacıların deepfake’lerin sahte içerikleri gerçek gibi göstererek yaratabileceği risklere odaklandığını, deepfake içerikleri tespit etmeye yarayan araçlar geliştirildiğinden bahsetmiştik. Ancak uzmanların ikinci bir endişesi daha var. 

İnsanlara hak ihlallerini kayıt altına alma konusunda destek olan sivil toplum örgütü Witness, polis şiddetine maruz kalan vatandaşların, bir memurun bir sivili öldürürken çektikleri herhangi bir videonun artık soruşturma için yeterli olmayacağından endişe ettiğini, gerçek kanıtların sahte olarak reddedilebileceğine dair korkunun, yürüttükleri atölye çalışmalarında tekrar eden bir tema haline geldiğini belirtiyor. Kuruluşun Program Direktörü Sam Gregory;  “İnsanların yolsuzluğu göstermek için kullanmaya çalıştıkları her şey hakkında 'deepfake’ diyebilmek güçlülerin eline başka bir silah daha veriyor.”

Kasti şüphe yaratmak, sahte videolar üretmek kadar tehlikeli 

Yapay zeka teknolojileri kullanılarak oluşturulan deepfake içerikler ve Gabon örneğinde olduğu gibi onlarla birlikte gelen deepfake yaftaları son yıllarda gündem olsa da benzer şekilde montaj iddiaları, her tartışma konusu belge, fotoğraf, ses kaydı ya da video için dile getiriliyor. 

Deepfake gibi teknolojilerin gelişmesi, aslında gerçek olan içeriklerin çeşitli manipülasyonlarla üretildiği iddialarını destekleyecek bir argüman haline gelip, gerçek ve uydurma arasındaki çizgiyi belirsizleştirebiliyor.

Belirsizliği giderebilmek için sahte içeriklerin sahte olduğunu tespit edebilecek yetkinliğe sahip olmak önemli. Önemli olan bir diğer nokta ise içeriği tahrif etmenin de içeriğin doğruluğuna ilişkin şüphe uyandırmanın da kasıtlı olarak kafa karışıklığı yaratmak amacıyla kullanılabileceğini akılda tutmak. 

Kapak illüstrasyonu: Yann Bastard