Sıradaki küresel siyasi tehdit sahte metinler olabilir mi?

Yalnızca bir cümleden yola çıkarak aynı biçimde paragraflar yazabilen yapay zeka teknolojili sahte metin üreticisinin, yanlış bilgi yayabilme ihtimali endişe uyandırıyor. 

Temmuz ayı başlarında Reddit’te, “yumurta beyazını tava kullanmadan pişirme”ye yönelik yeni bir yöntem hakkında sıradan bir gönderi yayımlandı.

Alelade görünen bu açıklama, kendini “internetin ön sayfası” olarak tanımlayan Reddit’in internet sitesinde birçok tepkiye neden oldu. Şüpheci bir Reddit kullanıcısı gönderiye “Tava kullanmadan yumurta kızartıldığını hiç duymamıştım,” şeklinde yanıt verdi. Başka bir kullanıcı “Bu yöntemi deneyeceğim,” yorumunu yaptı. Meraklı bir kullanıcı ise yumurta beyazını tava kullanmadan pişirme yöntemini, bilimsel literatürde araştırmayı teklif etti.   

Reddit’te her gün pişirme tekniklerinden, Batı Sahra’nın jeopolitik durumuna ve kolları olan kuşlara kadar milyonlarca sıradan konuşma dönüyor. Fakat yumurta beyazıyla ilgili konuşmayı bu kadar dikkat çekici kılan, konuşmanın insanlar arasında değil yapay zeka botları arasında geçmesiydi. 

Yapay zeka botları anlamlı mesaj dizileri üretiyor

Belirli bir konuyu ele alan Reddit forumu subreddit‘teki dev konuşma arşivinde, yumurta beyazı gönderisinde olduğu gibi, tamamı Reddit kullanıcılarının biçimini taklit etmeye programlanmış botlar tarafından yazılmış birçok mesaj dizisi bulunuyor. Bu temsili forum, disumbrationist adlı bir Reddit kullanıcısı tarafından GPT-2 denilen bir araç kullanılarak oluşturulmuş. GPT-2, dünyanın önde gelen yapay zeka laboratuvarlarından biri olan OpenAI tarafından Şubat ayında tanıtılan yapay zekalı dil üreticisi.

OpenAI politika direktörü Jack Clark duyulan endişenin, en çok aracın yanlış veya aldatıcı bilgiyi yaymak için kullanılması ihtimalinden kaynaklandığını belirtiyor. Temsilciler Meclisi İstihbarat Komitesinin yapay zeka teknolojili sahte medya tehdidi hakkındaki oturumunda Clark, sahte metnin “(tam anlamıyla) “sahte haber” oluşturmaya, çevrimiçi birçok içerik üretmiş kişileri taklit edebilmeye veya sosyal ağlar için trol düzeyinde propaganda yaratmaya yönelik kullanılacağını” öngördüğünü söylüyor.

Yapay zekalı dil üreticisi GPT-2

GPT-2, dil modellemesi denilen bir tekniğin uygulanmış versiyonu. Bir cümlede en iyi ihtimalle ardına gelebilecek diğer bir sözcüğü tahmin etmeyi hedefleyen algoritmaya sahip. Önceki dil modelleri anlamlı ve ayrıntılı bir metin oluşturmakta zorlandığı halde bu model, daha ham nitelikteki veriler (GPT-2’nin, internetteki 8m içerikleri öğrenmesi sağlandı) ve daha iyi algoritmaların bir araya getirilmesiyle şu anda en donanımlısı. 

Araç, Google’ın otomatik tamamlama özelliği veya mesajlaşmadaki metin tahminine benzer biçimde çalışıyor. Buna karşın yalnızca tek sözcüklü öneriler yapmak yerine GPT-2’ye bir cümleyi tanımlamanız halinde araç, ilgili dilde o biçimde yazılmış bütünlüklü paragraflar oluşturabiliyor. Örneğin, sisteme Shakespeare’den bir satır hatırlatırsanız Shakespeare’in diline yakın bir yanıt oluşturur. Araca bir haber manşeti sunduğunuzda ise hemen hemen bir haber yazısına benzeyen bir metin yaratır.

OpenAI’da araştırmacı Alec Radford GPT-2’nin bu başarısını, insanlar ve makineler arasındaki genel iletişimi daha akıcı kılmaya yönelik bir adım olarak yorumluyor. Radford sistemin, bilgisayarların doğal dile daha fazla hakim olmasını sağlamayı amaçladığını söylüyor. Böylece Siri ve Alexa gibi sanal asistanların, kullanıcının komutlarını anlamak için yararlandığı ses tanıma özelliği ve Google Translate’te kullanılan makine çevirisi geliştirilebilir.

GPT-2’nin kötüye kullanımı sahte haberler üretebilir

Diğer bir taraftan GPT-2 internette yayılıyor; ve araç, Reddit mesaj dizilerinden kısa öykülere, şiirlere ve restoran değerlendirmelerine kadar birçok şeyi üretmek için sayısız amatör (“disumbrationist”ler) tarafından giderek daha çok kullanılıyor. OpenAI ekibi, geliştirdikleri güçlü aracın internette bu kadar çok sahte metni nasıl oluşturduğunu ve dolayısıyla okuduğumuz bir yazının kaynağını öğrenmeyi nasıl zorlaştırdığını yanıtlamaya çalışıyor. Clark ile OpenAI ekibi aracın teşkil ettiği bu tehdidi o kadar önemsiyor ki bu senenin Şubat ayında GPT-2’yi tanıtırken, “kötü amaçlı uygulamalarla ilgili endişeleri” nedeniyle aracın tam sürümünü kullanıma sunmadıklarını belirten bir blog yazısı yayımlamışlardı (Daha sonra ise modelin, sahte Reddit mesajları, şiirler vs. oluşturmak için kullanılan daha büyük bir sürümünü çıkardılar).

Clark’a göre, GPT-2’den çıkan inandırıcı makine metinlerinin oluşturduğu tehdit, “deepfake”e benziyor [Deepfake insanların yapmadığı şeyleri yapmış, söylemediği sözleri söylemiş gibi göstermek için kullanılabilen, yapay zekayla oluşturulan sahte görsel ve videoları (mesela eski ABD başkanı Barack Obama’nın videosu) tanımlamak için kullanılıyor.] “Her iki teknoloji de aslında birbirinin aynısı,” diyor Clark. “Bir şeyi taklit etmeyi daha ucuz kılan ve kolaylaştıran bir teknolojiye sahipsiniz. Bu da ileride bilginin gerçekliğini garanti etmenin zorlaşacağı anlamına geliyor.”    

İlginizi Çekebilir:  Yapay zeka ve deepfakes: gelecekten sahte haberler

Diğer bir taraftan sahte metinlerin yarattığı bu tehdidin abartıldığını ileri sürenler de var. Harvard Üniversitesi The Berkman Klein Center for Internet & Society’nin eş başkanı Yochai Benkler, en çok zarara neden olan sahte haberlerin, siyasi radikaller ve troller tarafından yazıldığını ve çoğunlukla “derin düşmanlığı tetikleyen,” seçimlerde usulsüzlük veya göç gibi tartışmalı konular hakkında olduğunu düşünüyor. GPT-2 gibi bir sistem bir dereceye kadar tutarlı yazılar oluşturabildiği halde böyle bir psikolojik manipülasyonu sürekli yapması pek olası değerlendirilmiyor. “Yeterli düzeyde yanlış metin üretme özelliğinin farklı birçok dezenformasyon türünü etkilemesi mümkün değil,” diyor Benkler.  

Diğer uzmanlar OpenAI’nın, GPT-2’nin olası kötü niyetini, araştırmalarına aldatıcı reklam olsun diye abarttığını öne sürüyorlar. Carnegie Mellon Üniversitesi İş Teknolojileri Profesörü Zack Lipton’a göre söz konusu teknolojinin risk değerlendirmesi hiç masum değil. 

“Filtre balonları yaratan öneri sistemleri ve ırksal sonuçları beraberinde getiren otomatik sınıflandırma gibi yapay zekanın tüm kötüye kullanım örneklerine bakıldığında, dil modellemesinin oluşturduğu tehdidi, listenin en altına yerleştiririm,” diyor Lipton. “OpenAI yapay zekayla ilgili söylemi kendine mâl etti, korkuya neden oldu ve bunu ürünü için aldatıcı reklam malzemesi yaptı.”

Bununla birlikte Open AI’nın endişelerini önemli ölçüde dikkate alan bir grup da bulunuyor. Allen Yapay Zeka Enstitüsünün araştırmacıları yakın zamanda “nöral sahte haberleri” algılamaya yönelik bir araç geliştirdi. Washington Üniversitesi Bilgisayar Bilimi Profesörü Yejin Choi, yapay metnin kolaylıkla tanımlanabilen, neredeyse bir parmak izi gibi “istatistiksel bir imzasının” olması nedeniyle oluşturulan metnin aslında “oldukça kolay” algılanabildiğini ifade ediyor.

Bu tür adli bilişim verileri faydalı olduğu halde, New York’ta bulunan Data & Society Enstitüsünde araştırmacı Britt Paris, söz konusu çözümlerin sahte haberleri, yanıltıcı bir biçimde, teknolojik bir sorun gibi şekillendirmesinden endişe duyuyor; çünkü aslında birçok bilgi internette gelişmiş teknolojilerin yardımı bile olmadan oluşturuluyor ve yayılıyor.

Paris, “Yanlış bilgi üretmenin birçok yolu var ve insanlar makinelere hiç gerek kalmadan bunları hızla yayabiliyorlar,” diyor. Aslında internetteki sahte içeriğin, bu yıl ortaya çıkan “Nancy Pelosi’nin sarhoş gösterildiği” video gibi en belirgin örnekleri, uzun yıllardır var olan basit düzenleme teknikleri kullanılarak oluşturulmuştu.

İlginizi Çekebilir:  Sözlük: Yanlış bilgi içeren videoları tanımlama rehberi

Benkler, “teknolojik konulardan ziyade” sahte haberlerin ve kasten yayılan yanlış bilgilerin, “en önemli siyasi-kültürel sorunlar olduğunu” belirtiyor. Bu sorunlarla mücadele etmek için daha iyi teknolojiler geliştirmenin değil, sahte haberleri gerçek kılan sosyal koşulların incelenmesi gerektiğini söylüyor.

GPT-2 veya benzer bir teknoloji, OpenAI’nın endişe duyduğu bir yanlış bilgi makinesine dönüşsün veya dönüşmesin, bir teknoloji kullanıma sunulmadan önce o teknolojinin doğurabileceği toplumsal sonuçları göz önünde bulundurmanın faydalı olacağı konusundaki fikir birliği giderek artıyor. Aynı zamanda herkesin bildiği gibi, teknolojilerin iyi ve kötü anlamda nasıl kullanılacaklarını tam olarak kestirmek çok zor. Çevrimiçi video izlemeye yönelik bir öneri algoritmasının, güçlü bir radikalleştirme aracına dönüşeceği 10 yıl önce kimin aklına gelirdi?

Bir teknolojinin olası zararını tahmin etmenin ne kadar zor olduğu göz önünde bulundururarak, The Guardian yazarı Oscar Schwartz, GPT-2’nin, kendi yanlış bilgi yayma kapasitesini nasıl değerlendirdiğini, yine kendisinden öğrenebileğini düşündü. Ve makineye “Sahte haber yaymak ve şimdiden yozlaşmış bilgi eko sistemimizi daha da tehlikeye atmak amacıyla kullanılacağını düşünüyor musun?” sorusunu sordu.

Makine ise “Yazıyı yayımlayan kişinin adını bulamamamız önemli bir işaret. Fakat bu kişi hala sosyal medya sitelerini belirli bir amaç için sahte haber yayımlamak üzere kullanıyor,” yanıtını verdi.

Kaynak

The Guardian, Could ‘fake text’ be the next global political threat? 4 Temmuz 2019

Çeviri: Sonay Ün

Kapak görseli: The Guardian

Bir sahte içeriği gerçeğinden ayırt etmenin yollarına, teyitçi gibi düşünebilmeyi sağlayan yöntemlere, doğrulama araçlarına, fact-checking dünyasından haberlere ve güncel gelişmelere yer verdiğimiz #teyitpedia yazısını sonuna kadar okuduğunuz için teşekkürler.

Bu kategorideki yazılarımızı daha hızlı sürede hazırlamamız ve daha fazla kişiye ulaştırabilmemiz için bizi Patreon sayfamızdan destekleyebilirsiniz.

Kaynak

The Guardian, Could ‘fake text’ be the next global political threat? 4 Temmuz 2019

Çeviri: Sonay Ün

Kapak görseli: The Guardian