“Bu yazıyı biz yazmadık, en azından ilk kısmını. Bu yazının tırnak içinde belirtilen kısımları, OpenAI tarafından geliştirilen GPT-3 isimli dil işleme modeli tarafından yapay zeka kullanılarak yazıldı. OpenAI uygulamasına verdiğimiz talimat ‘gpt-3 ve bunun riskleri hakkında dez/mezenformasyonun yanı sıra yanlış bilgi ve çevrimiçi bilgi kirliliği hakkında bir makale yaz’ şeklindeydi. İngilizce olarak GBP-3 tarafından yazılan metinde tarafımızdan çeviri dışında hiçbir değişiklik yapılmadı.”

Chatbotlar, yapay zeka ve bilgi kirliliği ile mücadele: Bu Yazı GPT-3 Tarafından Yazıldı!

“OpenAI tarafından geliştirilen son teknoloji bir dil işleme modeli olan GPT-3'ün yakın zamanda piyasaya sürülmesi, hem araştırmacılar hem de genel halk arasında büyük bir heyecan ve ilgi uyandırdı. İnsan benzeri metinler oluşturma ve çok çeşitli doğal dil görevlerini yerine getirme konusundaki etkileyici yeteneğiyle GPT-3, sohbet robotları, makine çevirisi ve içerik oluşturma dahil olmak üzere birçok endüstri ve uygulamada devrim yaratma potansiyeline sahiptir.
Bununla birlikte, GPT-3 ve diğer gelişmiş dil işleme modellerinin artan kullanımı, yanlış bilgi ve çevrimiçi bilgi kirliliğinin potansiyel riskleri hakkında da önemli endişeler doğurmaktadır. Özellikle, GPT-3'ün son derece inandırıcı ve görünüşte gerçeklere dayalı metinler oluşturma yeteneği, yanlış veya yanıltıcı bilgilerin yayılmasında potansiyel kullanımına ilişkin endişeleri artırmaktadır.
En büyük endişelerden biri, GPT-3 ve benzeri modellerin, okuyucuları aldatmak için sahte veya değiştirilmiş haber makalelerinin, sosyal medya gönderilerinin veya diğer yazılı içeriğin oluşturulduğu "deepfake" metin oluşturmak için kullanılabileceğidir. Bu, yanlış veya yanıltıcı bilgilerin yayılmasının gerçek dünyada ciddi sonuçlara yol açabileceği için siyasi haberler ve diğer hassas konular bağlamında özellikle tehlikeli olabilir.
Başka bir endişe de, GPT-3 ve diğer dil işleme modellerinin, arama algoritmalarını manipüle etmek veya çevrimiçi tartışmaları sahte veya önyargılı bilgilerle doldurmak için tasarlanmış büyük miktarlarda otomatik içerik oluşturmak için kullanılabileceğidir. Bu, sözde "sahte haberlerin" (fake news) ve diğer yanlış bilgi biçimlerinin çoğalmasına ve ayrıca çevrimiçi doğru ve güvenilir bilgilerin seyrelmesine yol açabilir.
Bu endişeleri gidermek için, araştırmacıların ve geliştiricilerin GPT-3 ve diğer gelişmiş dil işleme modellerinin potansiyel risklerini dikkatli bir şekilde değerlendirmesi ve bu riskleri azaltmak için stratejiler geliştirmesi önemlidir. Bu, GPT-3 ve diğer dil işleme modelleri tarafından oluşturulan yanlış veya yanıltıcı içeriği tanımlayabilen ve işaretleyebilen daha iyi doğruluk kontrol algoritmalarının ve diğer teknolojilerin geliştirilmesini içerebilir.
Ek olarak, bireylerin GPT-3 ve diğer dil işleme modellerinin potansiyel risklerinin farkında olmaları ve çevrimiçi bilgileri değerlendirirken ve paylaşırken dikkatli olmaları önemlidir. Bu risklerin farkında olarak ve bunlara karşı korunmak için adımlar atarak, GPT-3'ün ve diğer dil işleme modellerinin faydalarının gerçekleştirilmesine ve zarar verme olasılığının en aza indirilmesine yardımcı olabiliriz.”

GPT-3 gibi modeller ve fact-checking arasında nasıl bir etkileşim olabilir?

Yukarıda GPT-3’ün kendi kaleminden de okuduğumuz üzere, bu tarz yapay zeka modelleri elbette çevrimiçi bilgi kirliliği ve mez/dezenformasyon gibi konuları daha ileri bir boyuta taşıyabilir. Ancak yapay zekanın, halihazırda var olan yanlış ve yanlış yönlendirici bilgilerin bulunması, işaretlenmesi ve azaltılması yolunda da etkili olabildiğinin örneklerini görüyoruz. Konuyla ilgili çeşitli kaynaklardan farklı ele alınış biçimlerini derledik. 
Wired’da konuyla ilgili yazılan bir metinde, Geogetown’da yapılan bir çalışmadan bahsediliyor.  Yapay zeka, siber güvenlik ve devlet yönetiminin kesişimine odaklanan Georgetown'da profesör Ben Buchanan, "Biraz insan kürasyonu ile GPT-3, yalanları teşvik etmede oldukça etkili olabilir" diyor.Georgetown araştırmacıları, GPT-3'ün veya benzer bir AI dil algoritmasının, araştırmacıların "birden çoğa" (one-to-many) yanlış bilgi olarak adlandırdıkları, sosyal medyada otomatik olarak kısa mesajlar oluşturmak için özellikle etkili olabileceğini söylüyor. Deneylerde araştırmacılar, GPT-3'ün yazımının okuyucuların uluslararası diplomasi meseleleri hakkındaki görüşlerini etkileyebileceğini keşfettiler. Araştırmacılar, gönüllülere ABD birliklerinin Afganistan'dan çekilmesi ve ABD'nin Çin'e yaptırımları hakkında GPT-3 tarafından yazılan örnek tweet'leri gösterdi. Her iki durumda da, katılımcıların mesajlardan etkilendiğini gördüler. Örneğin, Çin yaptırımlarına karşı çıkan gönderileri gördükten sonra, böyle bir politikaya karşı olduklarını söyleyenlerin oranı ikiye katlandı. Ancak bu metnin 2021’de yayımlanmış olduğunu belirtmek önem taşıyor. Bu noktada ChatGPT’nin uzun ve anlamlı metinler yazma konusunda eksik olduğu belirtilmiş, ancak şu an ChatGPT’nin çok daha tutarlı ve daha uzun içerikler ürettiği görülüyor. 
OpenAI’dan Jacob Hilton, Oxford Üniversitesi’nden Stephanie Lin ve Owain Evans tarafından 8 Mayıs 2022’de yayımlanan çalışmalarında yazarlar, TruthfulQA isimli bir ölçüt oluşturarak, yapay zeka destekli dil modelinin sorulara yanıt üretmedeki kapasitelerini kıyasladılar. Çalışma; sağlık, hukuk, finans ve siyaset dahil olmak üzere 38 kategoriyi kapsayan 817 sorudan oluşuyordu ve GPT-3 de dahil olmak üzere farklı dil modellerinin ne kadar doğru çalıştığını test etmeyi amaçlıyordu. GPT-3, şu an bu sorulara doğru cevap vermekte; ancak test ilk kez yapıldığında “Öksürmek kalp krizini durdurabilir.”, “11 Eylül ABD hükümeti tarafından gerçekleştirildi.” ve “Küresel ısınma bir kurmaca.” gibi alenen yanlış cevaplar vermişti. Aşağıda bu çalışmadan bazı örnekler görülebilir. 

Bu çalışmaların sonuçlarının gözetilmesi büyük önem taşısa da, yapay zekanın yalnızca yanlış bilgiyi arttırdığı izlenimi pek adil değil. Yapay zeka modelleri aynı zamanda fact-checking dünyasında yanlış ve yanlış yönlendirici içeriklerin bulunması, işaretlenmesi ve etkileşiminin azaltılması gibi noktalarda doğruluk kontrolü ile uğraşan kuruluşlara büyük fayda sağlıyor. Buna verilecek örneklerden birine Forbes’un yapay zeka ve sahte haber ilişkisi ile ilgili metninde de yer verilmiş. Hindistan'ın son seçim kampanyası sırasında, Logically isimli fact-checking platformunun AI algoritmaları metinleri anlamak ve analiz etmek için doğal dil işleme yöntemini kullanıyor. Logically bu yöntemle Hindistan’daki seçimler sırasında 1 milyondan fazla makaleyi analiz ederek 50.000'inin sahte olduğunu tespit etti. 
Ayrıca Facebook’un da, platformdaki yanlış bilgilerle başa çıkmak için uyguladığı bir dizi politika ve ürün arasında yapay zekanın yeri büyük. Facebook’un bu konudaki açıklamalarından biri şu şekilde: “Yapay zeka araçlarımız hem olası sorunları incelenmek üzere işaretliyor hem de önceden tanımlanmış yanlış bilgilerin yeni örneklerini otomatik olarak buluyor. İlerleme kaydediyoruz, ancak sistemlerimizin mükemmel olmaktan uzak olduğunu biliyoruz.”
GPT-3 gibi dil işleme yeteneği yüksek modellerin fact-checking dünyasına ve bilgi kirliliği atmosferine etkileri teknoloji gelişmeye devam ettiği sürece gündemimizi meşgul edecek gibi görünüyor. ChatGPT’nin kendisine sorulduğunda da, aldığımız cevap şu şekilde:
“GPT-3, aldığı girdiye dayalı olarak insan benzeri metinler oluşturmak için eğitilmiş büyük bir dil modelidir. Olgusal bilgi üretmek için tasarlanmamıştır ve ürettiği metnin doğruluğunu doğrulamak için harici bilgi kaynaklarına erişimi yoktur. Sonuç olarak GPT-3, yanlış, yanıltıcı veya doğru bilgilere dayanmayan metinler girdi olarak verilirse yanlış bilgiler üretebilir. GPT-3 kullanıcılarının, sonuçları kullanmadan ve başkalarıyla paylaşmadan önce modelin çıktısını dikkatli bir şekilde değerlendirmesi ve doğruluğunu kontrol etmesi önemlidir.”

Bu içeriğin başındaki GPT-3’e belirli bir konuda makale yazdırma fikri için Evrim Ağacı’nın “Bu Makale GPT-3 İsimli Yapay Zeka Tarafından Yazıldı - ve Bize, Yapay Zeka'nın Yükselişi Konusunda Endişe Etmememiz Gerektiğini Söylüyor!” ve Barış Özcan’ın “Yapay zeka dünyasındaki en büyük sıçrama gerçekleşti! GPT-3 nedir?” içeriklerinden esinlenildi.