Konuşan ve yazan makineler yanlış bilgi sorununu büyütebilir

Teknoloji uzmanları uzun süredir, insanlar gibi seri konuşan makineler icat etmeyi hayal ediyor. Herkesin bildiği gibi, bu hayali ilk kez gerçekleştirmeye çalışanlar söz konusu hedefin ne kadar zor olduğunu tahmin edemedi. Yine de içinde bulunduğumuz 2019 yılında bu hedefe yalnızca birkaç adım kaldığını görüyoruz. Dünyanın lider teknoloji şirketleri, akıllı olsun veya olmasın, insanlar gibi etkili bir biçimde konuşabilen ve yazabilen bir yazılım oluşturma çalışmalarını hız kesmeden sürdürüyor.

Peki bu durumda sorun ne? Bu konuşkan makinelerin başarıyla kullanıma sunulması halinde doğabilecek tehlikelerle baş etmeye henüz hazır değiliz. Bahsedilen yeniliğe ilişkin temel teknolojileri gözden geçirmek, muhtemel problemleri öngörmemizde bize yardımcı olabilir.

Amazon şüphesiz, sesli asistan endüstrisinde başı çeken bir şirket. Amazon’un dijital sesli asistanı Alexa’yı geliştiren ekibin üst yöneticileri, Alexa’yı daha çok konuşkan hale getirme planlarını açıkça ifade ediyor. Merkezi Seattle’da bulunan teknoloji devi, en iyi ve en başarılı akademisyenleri harekete geçirmek üzere üç yıl önce “Alexa Challenge” isimli bir yarışma düzenlemeye başladı. Yarışmanın amacı Alexa’yı “kamuya açık konuşmalarda” daha etkili kılarak çeşitli konuların serbestçe ele alınmasını sağlamak.

Konuşmaya dayalı bu botlar incelendiğinde karşımıza, düşük teknolojili saptanmış yanıtlar ve en ileri teknolojili yapay zeka öğrenme algoritmalarının bileşimi çıkıyor. Tahmin sinir ağları, en iyi botların anında tatmin edici yanıtlar oluşturmasını sağlıyor. Yazılım, metin oluşturmak için internet sitelerinden ve açık içerik veri tabanlarından faydalanıyor. Yaygın olarak kullanılan kaynaklar ham film senaryolarına ait kurgusal konuşmaların yer aldığı Cornell Movie Dialogs, sosyal haber sitesi Reddit ve sinema ve TV filmleri veritabanı IMDB. Botlar film diyaloglarını, Reddit’teki yorumları ve diğer içerikleri hızlıca bir araya getirerek süregiden bir konuşmaya oldukça uygun açıklamalar ve yanıtlar meydana getiriyor.

Kimi zaman “robo-writer” olarak adlandırılan, içerik üreten diğer botlar otomatik olarak rapor ve makale yazmak için finansal veri ve spor skorları kullanıyor. Elde edilen bu metinlerin, insanlar tarafından hazırlanan versiyonlarından neredeyse hiçbir farkı yok.

OpenAI tarafından yakın zamanda yürütülen bir araştırma, bu yeni dünyanın potansiyel tehlikelerini gözler önüne seriyor. Kar amacı gütmeyen ekip yazılımı gündemdeki güçlü bir iddiayı otomatik olarak üretmek üzere oluşturdu. Aslında yazılım o kadar kullanışlı ki OpenAl, bunun sahte haber üretmek üzere kötüye kullanılmasından endişelendiği için yazılımın tam kodunu kamuoyuna duyurmamayı tercih etti.

Başarıyla konuşan ve yazan makineler gelecekte hayatımıza girmesi, üstesinden gelmesi hiç kolay görünmeyen birçok sorunu beraberinde getiriyor. Üzerinde düşünülmesi gereken birçok noktadan yalnızca bazılarını aşağıda listeledik:

  • Geliştirilmiş konuşma teknolojilerinin, kötü niyetli ve ikna edici sahte haber üreten botlar oluşturmadıklarından nasıl emin olabiliriz?
  • Şirketler, kendi adlarına konuşan sahte botlardan kendilerini nasıl korurlar? Bir konuşmada kötü niyetli taraflardan alınan uygunsuz beyanları kopyalama hatası yapan Microsoft’un yapay zeka botu Tay buna örnek verilebilir.  
  • Makinelerin yalnızca duymak istediğimiz şeyleri bize söyleyerek bizi memnun etmeye çalıştığı senaryoları nasıl engelleyebiliriz? Yapay zeka şirketi Deep Mind, öneri motorları hakkında gerçekleştirdiği bir çalışmayı yayımladı. Çalışma, bu sistemlerin, kişiyi farklı görüşlerden uzak tutan yankı fanuslarının oluşumundaki rolüne dikkat çekiyor.
  • Gereksiz sözlerle dolu olan bu makinelerin, insanlara ait tüm söylemleri en küçük paydaya bölmelerini önlemek için hangi yöntemleri devreye sokabiliriz? Otomatik yanıtlar üretmek için kullanılan yazılımın, ağırlıklı olarak insanlar tarafından oluşturulan en sıradan içerikleri ve konuşmaları kapsayan veri kümelerine dayandığını hatırlayalım.

Bu güçlü teknolojileri oluşturan ekipler, söz konusu sistemleri kullanıcılara gerçekten faydalı olacak şekilde nasıl geliştirmeleri gerektiğine odaklanmalı. Sahte haberleri yayan botlar oluşturulabiliyorsa bu yanlışlıkları ortaya çıkaran bir teknoloji neden yaratılmasın? Bir adım daha ileri giderek tek taraflı bakış açıları öne çıkarılabilir mi? Böyle bir uygulama bilgi tüketicilerini, eleştirel düşünmekten vazgeçme tuzağına düşürebilir mi?

Aşağıdaki gibi başlıkları bulunan taraflı yazıları tespit eden akıllı bir bot oluşturulduğunu farz edin:

  • Belediye Başkanı, katil köpeklerden kurtulma çağrısında bulundu.
  • Belediye Başkanı, iftira atılan köpek sahiplerini tedirgin ediyor.

“Tarafsızlık” botu bunlara karşılık sizin dikkatinizi aşağıdaki başlıkla üçüncü bir içeriğe çekebilir:

  • Belediye Başkanı, pitbullara ilişkin tartışmalı yasakları değerlendiriyor.

İnternet kullanıcılarının haberin sunumundaki taraflılığı fark etmelerine yardım etmek üzere tasarlanan yapay zeka tabanlı bir bot, karşı bir adım olabilir; ve hatta düşünceleri etkilemeyi veya toplumsal ve siyasi bölünmeyi artırmayı hedefleyen konuşma ve yazma özellikli botlara karşı caydırıcı olabilir.

İnsanlar tarafından oluşturulan her teknolojinin avantajlarının yanında dezavantajlarının da bulunması çok doğal. Konuşma özellikli makinelerin popüler olacağı bir döneme yaklaşırken artık bu makinelerin dezavantajları üzerinde düşünmek ve bu sorunlarla mücadele etmeye yönelik araçlar tasarlamak gerekiyor.

Kaynak

Harward Business Review, Machines that speak and write will make misinformation worse, Amy Stapleton

Çeviri: Sonay Ün

Kapak görseli: Tim Robberts / Getty Images

Bir sahte içeriği gerçeğinden ayırt etmenin yollarına, teyitçi gibi düşünebilmeyi sağlayan yöntemlere, doğrulama araçlarına, fact-checking dünyasından haberlere ve güncel gelişmelere yer verdiğimiz #teyitpedia yazısını sonuna kadar okuduğunuz için teşekkürler.

Bu kategorideki yazılarımızı daha hızlı sürede hazırlamamız ve daha fazla kişiye ulaştırabilmemiz için bizi Patreon sayfamızdan destekleyebilirsiniz.

Kaynak

Harward Business Review, Machines that speak and write will make misinformation worse, Amy Stapleton

Çeviri: Sonay Ün

Kapak görseli: Tim Robberts / Getty Images