Facebook yanlış bilgi karşıtı politikalarında değişikliğe gidiyor

TEYİT’İN SORUMLULUK REDDİ: Bu makale ilk olarak 10 Nisan 2019’da Poynter’de yayınlanmıştır. Teyit, Facebook’un üçüncü taraf haber doğrulama programının Türkiye’deki partneridir.

Facebook yılın ikinci çeyreğine, platformun yanlış bilgilendirme ile mücadele yöntemlerine ilişkin değişiklikleri duyurarak başlıyor.

Facebook, 10 Nisan 2019 Çarşamba günü platformda yayılan yanlış bilgiler içeren haber, görsel ve videolarla mücadele etmek için atılan pek çok yeni adımı ve değişiklikleri duyurduğu yaklaşık 2 bin kelimelik bir metni Poynter ile paylaştı.

Yapılan değişikliklerden bazıları şu şekilde:

  • Facebook yanlış bilginin sıkça yayıldığı gruplara erişimi azaltıyor.
  • Kullanıcıların en çok hangi haber kaynaklarına güvendiklerini belirlemede, kitle kaynak kullanımının nasıl faydalı olabileceğini araştırıyor.
  • Şirket, kullanıcıları gördükleri içerik hakkında bilgilendirmek amacıyla Messenger’a, gruplara ve Haber Kaynağı’na yeni göstergeler ekliyor.

Facebook sözcüsü Mari Melguizo, Poynter’a gönderdiği bir e-postada “Gündemimizde, çok sayıda ürün güncellemesine karşın bir-iki temel değişime gitmek var.” dedi. “Bu çabalar, insanları güvende tutmaya ve uygulamalarımız aracılığıyla aktarılan bilgilerin doğruluğunu korumaya odaklanıyor.”

Bu temel değişimlerin her birinin yanlış bilginin yayılması ile mücadeledeki rolü, gazeteciler, akademisyenler ve teknoloji uzmanları tarafından sağlanan arkaplan bilgisiyle ve her bir alt başlığa ilişkin ek okumalarla okuyucuya sunuluyor. Facebook’un blog yazısının tamamına buradan erişebilirsiniz.

Facebok, yanlış bilginin yayıldığı gruplara erişimi kısıtlıyor

Facebook’un duyurduğu en büyük değişikliklerden biri, art arda yanlış bilgiler içeren haber, resim ve videoları yayan grupların erişimini azaltmaya başlayacağıydı.

Facebook’un bilgi bütünlüğünden sorumlu başkan yardımcısı Guy Rosen ve haber akışının bütünlüğünden sorumlu Tessa Lyons, “Bir gruptaki insanlar bağımsız doğruluk denetleme platformları tarafından yanlış olarak değerlendirilen bir içeriği art arda paylaştıklarında, bu grubun içeriklerinin genel haber akışındaki dağılımını azaltacağız.” dedi.

Sosyal medya devi, geçtiğimiz birkaç ay boyunca, pek çoğu gruplarda tartışılmaya başlanan ve platformun geri kalanına hızla yayılan aşı karşıtı komplo teorileri nedeniyle eleştirilere maruz kalmıştı. Hem medya baskısı hem de Amerikalı politikacılardan gelen baskılar sonucu şirket, Mart 2019 başında aşı karşıtı propagandaların yayılmasını frenlemeye ilişkin bir planın ana hatlarını kamuoyuyla paylaştı.

Bu plan dahilinde Facebook, aşı karşıtı yanlış bilginin paylaşıldığı grupların öneriler algoritmasından kaldırılacağını duyurmuştu. Bu önlem söz konusu grupların platformdan tamamen kaldırılması anlamına gelmiyordu. Ancak Facebook bu grupların yanlış içerikleri yayma konusunda oynayabileceği rolü kabullenmiş oldu.

BuzzFeed News, Mart 2018’de, platformun “spamler, sahte haberler, komplo teorileri, sağlıkla ilgili yanlış bilgiler, taciz, hackleme, trolleme, dolandırıcılık ve diğer tehditler için biçilmiş kaftan hâline geldiğini” yazmıştı. Peki ama neden?

Güvenlik alanında araştırmalar yürüten Renee DiResta, BuzzFeed’e yaptığı açıklamada, “Propaganda ve yanlış bilgi yaymak isteyenlerin büyük bir kitleye ihtiyaçları var ve Facebook grupları onlara bu kitleyi hazır hâlde sunuyor” dedi. “İlgili gruplara katılıp rahatlıkla paylaşım yapabildiğinizde, iletinizi yaymak için bir reklam kampanyası başlatmanıza gerek kalmıyor.”

Şirket, haber akışında yanlış içeriklerin yayılmasını önlemek amacıyla bazı önlemler almış olsa da, çarşamba gününe kadar, gruplar özelinde yanlış bilgi ile mücadele adına somut bir adım atmamıştı.

Gruplar üzerinde çalışan eski bir Facebook çalışanı, Ocak ayında Poynter’e “Yanlış haber, yanlış bilgi, her neyse, bunlardan kurtulmak için somut herhangi bir çaba sarf edilmedi” dedi. “Durum çok daha kötü, çünkü yanlış bilgi ve sahte içerik haber akışında kalıyor ve orada saklanıyor… Bu en az yanlış bilgi üreten bir makine kadar kötü.”

Facebook gruplarından sorumlu şirket sözcüsü Leonard Lam, Poynter’e haber akışı ve benzeri ürünler özelinde uygulanan yanlış bilgi karşıtı politikalarının tüm platform için geçerli olduğunu söyledi. Bu demek oluyor ki, Facebook ile partnerliği süren teyit siteleri tarafından yanlış ya da sakıncalı olduğu ortaya çıkarılan içerik, görsel ve videolar, ilgili platformlar tarafından sakıncalı olarak işaretlenmiş biçimde görüntülenebilecek. Bu durum gruplar için de geçerli olacak.

Bu işaretler aynı zamanda hangi grupların yanlış bilgiyi tekrar tekrar yaydığını anlamada kullanılacak, ki bu Facebook’un gruplarda yanlış bilgilendirme ile mücadele özelinde attığı ilk adımlardan biri.

Güvenilir haberler için kitle kaynak kullanımı

Çarşamba günkü açıklamada dikkat çeken bir diğer nokta ise, Facebook’un dünya genelinde doğruluk kontrolü platformları ile yürütülen işbirliği ve çalışmaları genişleteceğini duyurması. Bunun, şirketin platformdaki yanlış bilgi ile mücadele etmek adına attığı adımlardan en göze çarpanı olduğu söylenebilir.

Facebook, Aralık 2016’da PolitiFact, Snopes ve Factcheck.org gibi Amerikalı teyit organizasyonları ile işbirliği yaptığı programı başlattı. Amaç platformdaki yanlış haberleri tanımlamak, ortaya çıkarmak ve erişimini azaltmaktı. Bir içerik yanlış olarak işaretlendiğinde, haber akışında içeriğin erişimi azalır ve teyitçilerin kontrol listesine eklenir. (Açıklama: Projeye katılmak için Poynter’ın Uluslararası Doğruluk Kontrolü Ağı’nın İlkeler Kılavuzu’nun altına imza atmış olmak zorunludur.)

O günden bugüne, Facebook teyit organizasyonları ile işbirliğini, bu organizasyonlara yanıltıcı görselleri ve videoları ortaya çıkarma konusunda da yetki vererek genişletti. Söz konusu işbirliği, dünya çapında 23 dilde yazılmış 47 proje ile daha da büyüdü. Snopes ve CBS gibi projeler farklı sebeplerden dolayı işbirliğini sonlandırsa da, Associated Press gibi haber ajansları ortaklığa bağlılıklarını sürdürüyor.

Yanlış bilgi karşıtı yeni bir özellik, bu ortaklığı desteklemeye yardımcı olabilir.

Rosen ve Lyons, hazırladıkları blog yazısında “Dünya çapında yeterli sayıda profesyonel teyitçi bulunmuyor ve tüm iyi gazetecilik örneklerinde olduğu gibi teyit işi zaman alıyor” diyor ve ekliyor “Onların çalışmalarını desteklemek adına umut vaat eden, 2017’den beri üzerinde çalıştığımız bir fikir, Facebook kullanıcılarından oluşan grupların sürece dahil olması ile, yanlış bilgi içerdiği düşünülen içeriklerin gazetecilere özgü araçlar kullanılarak incelenmesini, kanıtlarla desteklenmesini ya da aksinin ispatını içeriyor.”

Facebook’un CEO’su Mark Zuckerberg, ilk kez öne sürdükten neredeyse bir yıl sonra, Şubat 2019’da paylaştığı bir Facebook videosunda bu fikri yeniden gündeme getirdi. Fakat fikir gazeteciler arasında pek popüler değildi, çünkü birçoğu, sıradan Facebook kullanıcılarının haber kaynaklarının güvenilirliğini değerlendirirken yanlılıklarını bir kenara koyamayacaklarını düşünüyordu.

Ancak Şubat 2018’de yayınlanan yeni bir çalışmanın sonuçları bunun aksini iddia ediyor.

David Rand, Massachusetts Teknoloji Enstitüsü’nde doçent doktor olarak çalışıyor ve “Söz konusu ana akım medya ve haber kaynakları olduğunda, insanlar arasında ciddi fikir farklılıkları var. Ancak bulgularımıza göre, demokrat, cumhuriyetçi ya da profesyonel teyitçi fark etmeksizin herkesin hemfikir olduğu nokta sahte içeriklerin yayıldığı ve fanatizmin kontrolü altında olan sitelere güvenmemek gerektiği” diye belirtiyor bir basın açıklamasında.

Çarşamba günkü blog paylaşımına göre, Facebook kullanıcı denetimi fikri üzerinde durmaya devam edecek ve bu konuda akademisyenlere, teyitçilere, gazetecilere ve sivil toplum kuruluşlarına danışacak.

“Uyguladığımız sistem her ne olursa olsun, bilginin manipülasyonu karşısında önlemler almamız, kişisel önyargıları uzak tutmamız ve azınlıkların seslerinin duyulması şart” diyor Rosen ve Lyons.

Facebook’taki içeriklere dair daha fazla arka plan bilgisi

Geçmişte, teknoloji şirketleri platformlarında paylaşım yapan kaynaklar hakkında daha fazla arka plan bilgisi sağlamak için Vikipedia gibi web sitelerine başvurdu. Facebook da Çarşamba günü yaptığı açıklamada, buna benzer yöntemlerin sinyallerini verdi.

“Biz insanlara, ne okuyacaklarına, neye güveneceklerine ve neyi paylaşacaklarına karar verme sürecinde yardımcı olacak özelliklere ve ürünlere yatırım yapıyoruz” diye belirtiyor Rosen ve Lyons.

Facebook, The Trust Project’ten alınan, platformdaki yayıncıların etik politikaları, mülkiyet ve finansman yapısı hakkındaki bilgileri eklemek için geçtiğimiz yıl nisan ayında duyurduğu bağlam sekmesini güncelledi. Şirket, Ocak 2018’de başlattığı nitelik sekmesi sayesinde sayfa sahiplerine, sayfadaki paylaşımlardan hangilerinin teyitçiler tarafından çürütüldüğü bilgisini verebiliyor. Şirket Messenger’da da doğrulanmış anlamına gelen rozetler ile taklit ve sahtekârlığın önüne geçmeyi hedefliyor.

Ayrıca, WhatsApp’tan alınan bir fikirle, Facebook iletilen mesajlara da uyarı işaretleri eklemeye başlıyor. WhatsApp benzer bir özelliği, yanlış bilginin yayılmasını azaltma amacıyla, geçtiğimiz temmuz ayında sunmuştu.

Kullanıcılara sosyal medya üzerindeki yayımcılar hakkında daha fazla bilgi vermenin ve yanlış bilgi paylaşmalarını engellemenin kolay bir yolu gibi görünse de, Facebook’un bağlam tuşu gibi göstergelerin de üzerinde oynanma potansiyeli var.

Geçtiğimiz yaz birileri Kaliforniya Cumhuriyetçi Parti’nin Vikipedi sayfasında partinin nazizmi desteklediğini öne sürerek partiyi karaladı. Vikipedi’deki vandalizm vakalarının çoğu oldukça hızlı bir şekilde yakalanırken, bu içeriğin Google’a ulaşması engellenemedi ve nazizm sözcüğü “Kaliforniya Cumhuriyetçiler” gibi aramaların sonuçları arasında yerini aldı.

Bu örnek oldukça nadir görülen bir durumdan. Ancak gün içinde Vikipedi gibi sayfalarda kullanıcılar tarafından yapılan düzenlemelerin sayısına bakıldığında, teknoloji şirketlerinin bütün karalama kampanyalarını ve vandalizm vakalarını yakalaması zor görünüyor.

Kopenhag Üniversitesi’nde araştırma görevlisi Magnus Pharao Hansen, Haziran ayında Poynter’a konuştuğunda, “Tabii ki bu sahte haberlerle mücadele etmek için oldukça zayıf kalan bir yöntem çünkü Vikipedi’nin kendisi -sayfanın da kabullendiği gibi- tam anlamıyla güvenilir bir bilgi kaynağı değil” demişti. “Vikipedi aldatıcı içeriklerin paylaşılmasına elverişli ve hâli hazırda birçok yanlış bilginin barındığı bir ortam, dolayısıyla bunun uydurma haberlerle mücadelede ciddi bir yöntem olduğu söylenemez.”

Ayrıca, Facebook’un sayfa nitelikleri sekmesi gibi özellikler yanlış bilginin yayılmasını önlemede daha etkili bir yöntem.

Mart 2019’da, ABD Temsilciler Meclisi Üyesi Alexandria Ocasio-Cortez hakkında, hızla yayılan bir içerik, Factcheck.org tarafından yanlış olduğu ortaya çıkarıldıktan sonra paylaşılan sayfadan kaldırıldı. Üstelik bu ilk kez yaşanan bir durum değil. Yanlış bilgiyi yayan Facebook sayfaları, şirketin işbirliği içinde olduğu teyitçiler tarafından içeriklerinin yanlış olduğunun ortaya çıkmasının ardından bu içerikleri kaldırıyor, bazıları ise web alan adlarını tamamen değiştiriyor.

Kaynak

Poynter, Facebook announces sweeping changes to its anti-misinformation policies, Daniel Funke

Çeviri: Özge Çakır

Kapak görseli: Shutterstock

Bir sahte içeriği gerçeğinden ayırt etmenin yollarına, teyitçi gibi düşünebilmeyi sağlayan yöntemlere, doğrulama araçlarına, fact-checking dünyasından haberlere ve güncel gelişmelere yer verdiğimiz #teyitpedia yazısını sonuna kadar okuduğunuz için teşekkürler.

Bu kategorideki yazılarımızı daha hızlı sürede hazırlamamız ve daha fazla kişiye ulaştırabilmemiz için bizi Patreon sayfamızdan destekleyebilirsiniz.

Kaynak

Poynter, Facebook announces sweeping changes to its anti-misinformation policies, Daniel Funke

Çeviri: Özge Çakır

Kapak görseli: Shutterstock