Elon Musk’ın satın almasının ardından adı X olarak değişen Twitter, yalnızca ismiyle değil, kullanıcı deneyimini etkileyen birçok yönüyle dönüşüm geçirdi. Bu değişiklikler, birçok kullanıcının platformu olumsuz deneyimlemesine neden oldu. Hatta bu dönüşüm o kadar dikkat çekiciydi ki, 2023’te American Dialect Society, 2024’te ise Avustralyalı Macquarie Sözlük, Twitter ve benzeri platformların zamanla kötüleşmesini tanımlamak için “enshittification” kelimesini yılın kelimesi olarak seçti.
X’e dönüşüm sürecinde platforma ChatGPT’ye rakip olması amacıyla Grok adlı bir yapay zeka da entegre edildi. Elon Musk, Grok’un aynı zamanda yanlış bilgiyle mücadelede bir doğrulama aracı olarak kullanılmasını hedefliyordu. Mart 2024 itibarıyla Grok’un X kullanıcılarının gönderilerine doğrudan yanıt verebileceği duyuruldu ve kısa sürede kullanıcılar Grok’u içerik doğrulamak amacıyla da kullanmaya başladı.

Bu konuda şu içeriği faydalı bulabilirsin

X’te Hakikat Arayışı: Topluluk Notları
Grok Seçimleri Etkiliyordu
Grok’un gönderiler üzerinden kullanıcılarla doğrudan etkileşime girmeye başlamasının ardından, Hindistan ve Türkiye gibi birçok ülkede kullanıcılar yapay zekaya zorlayıcı ve politik sorular yöneltmeye başladı. Grok, kimi zaman bu sorulara dikkatli ve dengeli yanıtlar verirken, kimi zaman da verdiği cevaplarla yeni tartışmaların fitilini ateşledi.
Tartışmaların bir diğer odağında ise kullanıcıların Grok’u haber doğrulama aracı olarak kullanması yer alıyor. Özellikle ABD seçim sürecinde, Grok’un verdiği bazı cevaplar yanlış bilginin yayılmasını hızlandırdı. Örneğin, dokuz eyalette oy pusulalarına yeni bir adayın eklenemeyeceğine dair görseller X platformunda hızla yayılırken, Grok da bu bilgiyi doğruymuş gibi onayladı. Ancak kısa süre sonra Minnesota Eyalet Sekreterliği Ofisi, bu iddianın yanlış olduğunu açıkladı; çünkü oy pusulasına aday eklemek için belirlenen son tarih henüz geçmemişti.
Bu olayın ardından, bazı eyalet sekreterleri ve onların bağlı olduğu Ulusal Eyalet Sekreterleri Birliği (NASS), Grok’un yanlış bilgileri işaretleme süreciyle ilgili olarak X platformu ve Elon Musk ile iletişime geçti. Sekreterler, bu girişimlerini kamuoyuyla da paylaştı. Gruptaki dokuz eyalet sekreterinden beşi, X’e ve Elon Musk’a hitaben yazılan bir açık mektuba imza attı. Mektupta, Grok’un ChatGPT gibi diğer yapay zeka araçlarıyla benzer bir sorumluluk üstlenmesi gerektiği vurgulandı. Ayrıca, seçimle ilgili sorular yönelten kullanıcılara, güvenilir ve tarafsız bir oy verme bilgi kaynağı olan “Can I Vote” sayfasına yönlendirme yapılması talep edildi. 
Uluslararası Doğruluk Kontrolü Ağı (IFCN) Direktörü Angie Holan, TechCrunch’a yaptığı açıklamada yapay zeka destekli araçların en büyük risklerinden birine dikkat çekti. Holan, “Grok gibi yapay zeka asistanları, doğal dili kullanmakta ve bir insanın konuşmasına benzeyen cevaplar vermekte gerçekten çok başarılı. Bu nedenle, verdikleri yanıtlar doğru olmasalar bile ikna edici ve gerçekçi gelebiliyor. İşte tehlike tam da burada başlıyor,” ifadelerini kullandı.
Yapay zeka asistanlarının aksine, haber doğrulaması yapan insanlar süreci birden fazla güvenilir kaynağa dayanarak yürütüyor. Ayrıca doğrulayıcılar, okuyucuya karşı sorumluluk taşıdıklarının bilinciyle hareket ediyor ve araştırmayı yalnızca yeterli bilgiye ulaştıklarında sonlandırıyorlar. Oysa yapay zeka asistanları için bu tür etik sorumluluk ve editoryal muhakeme süreçleri henüz aynı şekilde işlemiyor.
Hindistan’da yayın yapan ve IFCN imzacısı olan doğruluk kontrolü sitesi Alt News’in kurucusu Pratik Sinha, Grok’un yalnızca kendisine sağlanan veriler kadar güvenilir olabileceğini belirtti. Sinha, “Peki hangi verilerin sağlanacağına kim karar verecek? İşte tam bu noktada hükümet müdahalesi gibi faktörler devreye giriyor. Şeffaflık yoksa güven de olmaz. Çünkü şeffaflıktan yoksun her sistem, kolayca yönlendirilebilir ve manipülasyona açık hâle gelir,” dedi.
Grok Yanlış Bilgi Yayıyor
Grok’la ilgili endişe yaratan bir diğer nokta, ChatGPT veya benzeri sohbet botlarının aksine kapalı bir alanda değil, kamuya açık bir platformda yanıt vermesi. Yapay zeka asistanını bireysel olarak kullanan bir kişi, aldığı bilginin tamamen doğru olmayabileceğinin farkında olabilir. Ancak aynı yanıt, X platformunda herkese açık şekilde paylaşıldığında, diğer kullanıcılar bu bilgiyi sorgulamadan doğru kabul edebilir. Bu durum, yanlış bilginin hızla yayılmasına zemin hazırlıyor.
CHP İstanbul İl Başkanı Özgür Çelik’in, Filistin’e destek için Beyoğlu Tünel Meydanı’nda protestocularla birlikte yürümek istemesi ve bu konuda polisle yaptığı görüşmenin ardından, kendisine iletildiği iddia edilen “Tüm hazırlıkları yaptılar, girecekler. Diyalog kapıları kapandı. Artık bir adım geri atamayız.” şeklindeki mesaj, bir X kullanıcısı tarafından sosyal medyada paylaşıldı. Ardından bir başka kullanıcı, bu ifadelerin ne anlama geldiğini Grok’a sordu. Grok ise bu açıklamayı, “Türkiye-PKK barış sürecine işaret ediyor” şeklinde yorumladı. Bu yanıt, hem bağlamdan kopukluğu hem de potansiyel yanlış anlamalara yol açabilecek içeriğiyle yeni bir tartışma başlattı.
Başka bir örnekte, Bir X kullanıcısı boykot edilen Espressolab’e destek olmak için bazı kişilern Espressolab önünde namaz kıldığını ifade eden bir video paylaştı. Bu durumun doğruluğunu merak eden bir kişi ise Grok’a durumu sorduğunda ‘Ramazan’da Türkiye’de gençlerin Espressolab önünde Teravih sonrası namaz kılması yaygın bir uygulama.’ cevabını aldı. Üstelik, bağımsız doğrulama kuruluşlar tarafından incelenen bu iddia yanlıştı.
Ekrem İmamoğlu’nun tutuklanmasının ardından ülke genelinde çok sayıda protesto düzenlendi. Bu gösterilerin gerçekleştiği yerlerden biri de ODTÜ olarak öne çıktı. Sosyal medyada ODTÜ’den olduğu öne sürülen bir video yayıldı. Bir X kullanıcısı, videonun kaynağını Grok’a sorduğunda, yapay zekâ şu yanıtı verdi: “Evet, video büyük ihtimalle Türkiye’den. 20 Mart 2025’te Türkiye’deki protestolarla uyuşuyor; bir gösterici biber gazını yakalayıp geri atıyor.” Ancak diğer kullanıcılar bu bilginin yanlış olduğunu belirtmesine rağmen, Grok yanıtını sürdürdü ve düzeltme yapmadı.
Grok’un doğrulama aracı olarak konumlandırılması, yapay zekânın bilgi ekosistemindeki rolünü yeniden düşünmemizi gerektiriyor. Özellikle kamuya açık platformlarda verilen yanıtların, bağlamdan kopuk ya da yanlış olması, yalnızca bireysel değil, toplumsal düzeyde de bilgi kirliliğini artırma riski taşıyor. Yapay zekâ sistemlerinin doğruluk ve güvenilirlik iddiası taşıyabilmesi için şeffaflık, kaynak çeşitliliği ve insan denetimi gibi ilkelerle desteklenmesi şart. Aksi halde Grok örneğinde olduğu gibi, yanlış bilgiyi hızla ve ikna edici bir dille yayabilen sistemler, hakikate değil, algıya hizmet eden araçlara dönüşebilir.