Yapay zeka sahte haberleri gerçekmiş gibi gösteriyor

Birleşmiş Milletler yaptırım raporundan alındığı belirtilen teftiş fotoğrafının, yasa dışı ticarete dahil olan Kuzey Kore bandıralı bir gemiyi gösterdiği iddia ediliyor:

Kuzey Kore sanayisi, başkent Pyongyang’ın ekonomisi açısından kritik bir dönemden geçiyor. Uygulanan uluslararası yaptırımlarla, pazarda ticaret yapan yabancı yatırımcılarla olan ilişkiler askıya alındı. Dış Ticaret Komitesi Başkanı ve Kaliforniya eyaleti için ABD Temsilcisi olarak görev yapan Ted Lieu’ya göre Kuzey Kore’ye aralıklı olarak mal gönderen Liberty Global Customs şirketi, Adalet Bakanlığının baskısı nedeniyle ticari faaliyetlerini bu sene başında durdurdu.

Yukarıdaki paragrafın gerçeğe ilişkin hiçbir dayanağı bulunmuyor. Doğru olma amacı taşımasa da kulağa doğru gelen bu metin tamamen kurmaca. Hatta insan eliyle değil, Kaliforniya merkezli bir yapay zeka araştırma kuruluşu olan Open AI’nın oluşturduğu GPT-2 isimli bir yapay zeka sistemi tarafından yazılmış.

Dezenformasyon, yani kasıtlı olarak üretilen yanlış bilgi, hepimiz için ciddi bir sorun teşkil ediyor. İnsanlar tarafından değil de bilgisayarlar tarafından oluşturulan suni dezenformasyon ise karşımıza daha büyük bir sorun olarak çıkıyor. Rusya ortalığı karıştırmak için çevrimiçi “troller”i devreye sokuyor. Bu tip öğelerin otomatik hale getirilmesi dezenformasyonu bir üst seviyeye çıkarabilir.

Suni dezenformasyonun, dış politikanın karmaşık meseleleri hakkında inandırıcı haberler oluşturup oluşturamayacağını görmek amacıyla bir çalışma gerçekleştirildi. Alınan sonuçlar, suni dezenformasyonun başarılı olabileceğini ortaya çıkardı. 

Tehlikeli bir teknoloji

GPT-2’ye ilişkin detaylar oldukça teknik olsa da bu teknoloji genel anlamda yeni metin oluşturmak için yapay zekadan faydalanan bir program. GPT-2, küçük bir istem dahilinde metni aynı biçimde devam ettirebiliyor. Hatta bazı durumlarda yazılımın oluşturduğu metnin, insan eliyle yazılan metinden bir farkı olmuyor.

Teknolojinin kötüye kullanılma olasılığı ortada. Yazılımın OpenAI’daki mühendisleri, kötü niyetli kişilerin GPT-2’yi otomatik olarak yanıltıcı haberler, kötü sözlerle dolu sosyal medya gönderileri ve spam oluşturmak için kullanmalarından endişeleniyor. OpenAI, bu olası kötüye kullanım nedeniyle GPT-2’nin tam sürümünü kamuoyuna sunmamayı tercih etti. Grup onun yerine, programın, araştırma için hala faydalı olan ve daha az risk içeren hafifletilmiş bir sürümünü kullanıcılarla tanıştırdı.

GPT-2 mevcut haliyle belirli bir bakış açısını iletmek veya kesin iddialarda bulunmak amacıyla kolaylıkla yapılandırılamıyor. Bununla birlikte yapılandırmaya gerek kalmayabilir: GPT-2, isteme bağlı olarak biçimini ve konuyu otomatik olarak uyarlayacak. Komut, bir sahte haber yazısı gibi kurmaca bir olaydan bahsederse GPT-2, bu kurmaca olayı gerçekçi göstermek için ilave detaylar ve alıntılar oluşturabiliyor.

Neticede önemli olan GPT-2’nin bütün detaylarına hakim olabilmek değil. Asıl önemli olan, dezenformasyon kampanyasının özel amaçlarına yönelik olarak ana kısmı insan eliyle yazılan uydurma metnin okuyucu tarafından özümsenmesi ve oluşturulan gövde metnin, olayın meydana geldiğine dair okuyucuyu inandıracak kadar güncel ve güvenilir gözükmesi.

Haber yapmaya uygun sahte haberler

GPT-2 tarafından oluşturulan suni dezenformasyonun, dış siyasetle ilgili karmaşık konular hakkında insanların fikirlerini etkileyip etkilemediğini test etmek amacıyla GPT-2’nin genel kullanıma açık sürümünden faydalanılarak Kuzey Kore’de bir gemiye el konulduğuna ilişkin kurmaca bir metin oluşturuldu.

Washington ile Pyongyang arasında uzun süredir yaşanan ve gündemden düşmeyen gerilim nedeniyle çalışma için Kuzey Kore seçildi. Amerikalıların neredeyse yüzde 90’ı Kuzey Kore hakkında olumsuz düşünse de ülkeye olan ilgileri sürekli değişkenlik gösteriyor: 2018 yılında Amerikalıların yüzde 51’i Kuzey Kore’nin ABD’nin en büyük düşmanı olduğunu ifade ederken, bu oran 2019 yılında yalnızca yüzde 15’ti. Kuzey Kore konusunda her yöne çekilebilen ABD kamuoyu, belirli bir tarafı hedef alan suni haberlerin olası etkisinin araştırılabileceği ideal bir ortam sunuyordu.

Suni haber yazılarının oluşturulmasında GPT-2’nin kullanılabileceği kurmaca bir dezenformasyon kampanyası tasarlandı. Uydurma metnin esas bölümleri insanlar tarafından yazılacak; GPT-2 ise inandırıcı gövde metnini oluşturacaktı. El konulan Kuzey Kore bandıralı gemiyi anlatmak amacıyla New York Times’ta yer alan bir yazının ilk iki paragrafının devamı niteliğinde 20 metin yazılacaktı. Bunun için GPT-2’nin genel kullanıma açık sürümünden faydalanıldı. Oluşturulan 20 metin arasında en inandırıcı üç metin seçildi (Bu makalenin ilk paragrafı, söz konusu üç metinden birini içeriyor).

Daha sonra bu üç paragraf bir araya getirilerek bir internet anketi olarak 500 katılımcıya sunuldu. Katılımcılara öncelikle Kuzey Kore ile ilgili fikirleri soruldu. Ardından her bir kişiden sırasıyla New York Times yazısının ilk iki paragrafını, oluşturulan üç suni öyküden birini veya orijinal yazının kalan kısmını okuması istendi.

Katılımcılar tam metni okuduktan sonra kendilerine demografik soruların yanı sıra düşünceleri de soruldu. En önemli kısım ise uygulama metninin inandırıcı bulunup bulunmadığı ve bunun sosyal medyada paylaşılıp paylaşılmayacağına yönelik sorulardı.

İstem kaynağı olarak, ciddi ve güvenilir tarzı nedeniyle New York Times gazetesi seçildi. Böylece çalışmada GPT-2’nin, dış siyasetle ilgili karmaşık bir sorununa ilişkin Times’ta çıkan bir öyküyü taklit edebilme ve gerçek yazının inandırıcılığına uygun metinler oluşturabilme özelliği değerlendirilmiş oldu. Yazılımın, Times’ın gücünü ve inandırıcılığını bozmadan yeni metinler oluşturabilmesi, özellikle dezenformasyon kampanyası hakkındaki bir çalışma bakımından oldukça faydalı oldu.

Gerçeğinden daha iyi olabilir mi?

Orijinal yazıyı ve üç uygulama metnini okuyanların yer aldığı dört gruptaki katılımcıların çoğu, okudukları metinleri inandırıcı buldu. Bir grupta suni yazıyı okuyan katılımcıların yüzde 72’si yazının doğruluğuna inanırken yüzde 83’ten azı, ezici bir görüş birliğiyle orijinal New York Times yazısını inandırıcı olarak nitelendirdi. En az inandırıcı bulunan uygulama metni bile katılımcıların yüzde 58’ini ikna etmeyi başardı.

Katılımcıların sosyal medyada okudukları metinleri paylaşmaya yönelik ilgileri, dört grup arasında pek değişmedi. Çalışmaya dahil olan ve orijinal New York Times yazısını okuyan kişilerin yaklaşık dörtte biri bu yazıyı sosyal medyada paylaşacağını ifade etti. İnandırıcılığı en az olan suni metnin oranlarının istatistiksel bakımdan the Times öyküsünden farklı olmaması ise dikkat çekiciydi. 

Çalışmanın bu süreci, gerçek yaşamda düzenlenmiş bir dezenformasyon kampanyasıyla nasıl karşılaştırabilir? Bu çalışmada OpenAI’nın araştırmacılara sunduğu GPT-2’nin tam sürümünü kullanmak yerine gerçek bir dezenformasyon kampanyasında kullanılabilecek özellikleri daha sınırlı olan ve genel kullanıma açık olan sürümünden faydalanılmıştı. Metin seçim sürecinde de, bir dezenformasyon kampanyasında uygulanabilecek şeyler temel alınmıştı. Yani GPT-2’nin genel kullanıma açık sürümü, tutarlı metinleri devamlı oluşturamadığı için uyuşmayan diğer metinler insan eliyle seçilip çıkarılmalıydı (çalışmada da bu şekilde hareket edildi).

Günümüzde büyük ölçekli suni dezenformasyon karşımıza çıkabiliyor. Bu tip bir dezenformasyonun, algılanan inandırıcılığı ve internette yayılma olasılığı olduğu için Times’ta çıkan gerçek bir yazıyla boy ölçüşebiliyor. Bahsedilen suni metinleri oluşturma teknolojisi gelişirken dezenformasyon daha ucuz, daha yaygın ve daha otomatik hale gelecek. Bu içeriklerin internette çoğalması halinde kullanıcılar okudukları her şeyi önemsemeyebilirler. Halkın medyaya ve hükümet dahil olmak üzere bilgi bağlamında inandıkları diğer kurumlara olan güveni sarsılacak ve siyasi verimsizlik ve kutuplaşma olasılığı artabilir. Daha kötüsü ise insanlar okudukları her şeye inanmaya başlayabilirler. Yani yabancı hükümetler, halkı hızlı ve düşük maliyetli yollarla etkileme imkanına sahip olabilir. Trollerin yetiştirilmesine ise gerek kalmayabilir.

Kaynak

Council on Foreign Relations Foreign Affairs, Not our Father’s Bots: AI Is Making Fake News Look Real, 2 Ağustos 2019

Çeviri: Sonay Ün

Kapak görseli: Patrick Daxenbichler, Getty Images

Bir sahte içeriği gerçeğinden ayırt etmenin yollarına, teyitçi gibi düşünebilmeyi sağlayan yöntemlere, doğrulama araçlarına, fact-checking dünyasından haberlere ve güncel gelişmelere yer verdiğimiz #teyitpedia yazısını sonuna kadar okuduğunuz için teşekkürler.

Bu kategorideki yazılarımızı daha hızlı sürede hazırlamamız ve daha fazla kişiye ulaştırabilmemiz için bizi Patreon sayfamızdan destekleyebilirsiniz.

Kaynak

Council on Foreign Relations Foreign Affairs, Not our Father’s Bots: AI Is Making Fake News Look Real, 2 Ağustos 2019

Çeviri: Sonay Ün

Kapak görseli: Patrick Daxenbichler, Getty Images