Dezenformasyon ile biz ülkece mücadele ederken, dünya siyasetinde de ülkeler arası iletişim stratejilerinde aynı amansız mücadeleye şahit oluyoruz. Yeni başlayan ABD/İsrail – İran geriliminde de bu dezenformasyon örneklerini açıkça gördük. Daha savaşın henüz başındayken İsrail, İran içerisinde popüler olarak kullanılan bir namaz uygulamasını hackleyerek dezenformasyon içerikli bilgilerle algı operasyonları yapmaya çalıştı. Yayınlanan sahte ses dosyalarıyla toplum içerisinde bir infial yaratılmaya çalışıldığına şahit olduk. Bu durumun, resmen ülke güvenliğinin ihlali boyutunda bir “dijital cephe” olduğunu söylemek mümkündür.
Bilginin hızlandığını ancak doğruluğunun teyit edilme uygulamasında zorluklar yaşandığını görüyoruz. Dünya Ekonomik Forumu’nun 2026 yılı küresel riskler algı araştırmasında, dezenformasyonun ulusal güvenlik açısından ikinci büyük risk olarak değerlendirildiğini görmekteyiz. Ülkelerin de bu riskin ve büyüklüğünün artık farkında olduğuna şahit oluyoruz. İnternet üzerinde sınırsız bilgi üretilirken, hangi bilginin doğru olduğu noktasında ciddi bir araştırma yapılması gerekirken, bir de yapay zeka içerikli sahte verilerin üretilmesi; insanların her bilgiyi “check etme” (teyit etme) gereksinimini tamamiyle doğurmuştur.
Bu süreçte toplumsal direncin önemi daha da artmaktadır. Üniversitelerde ve kamu kurumlarında halkı bilinçlendirmek ve dezenformasyona karşı bir direnç oluşturulması elzemdir. Yapay zeka artık sadece yanlış bilgi vermekle kalmıyor, doğrudan “hakikati” hedef alıyor. Doğru bilgiyi yaymak adına mücadele ederek, tek bir merkezden bilginin teyit edilmesi bir ihtiyaç haline gelmiştir. Dezenformasyon artık bir yan ürün veya ikincil bilgi olmaktan çıkıp, bizzat bir savaş cephesine dönüşmüş durumdadır. Toplumsal olarak halkı yanlış yönlendirmek amacıyla, algı operasyonu yapan hesapların aynı paylaşımları eş zamanlı yayarak hedefe ulaştırma stratejilerini sürdürdüğünü görüyoruz.
Ülkemizde de aynı şekilde dezenformasyon ile ilgili zaman zaman yoğun mücadeleler verilmek zorunda kalındığına şahitlik ediyoruz. Yalan bilgilerin hızlıca dolaşıma sokulduğu operasyon hesaplarıyla, halkı yanlış bilgilendirme çabalarını gördük. Örnek vermek gerekirse; Türkiye’nin gübre krizi yaşadığı, bu yüzden gıda çeşitliliği ve stoklarında sıkıntılar olacağı bilgisi tamamiyle dezenformasyon içerikli bir iddiaydı. Yetkili kamu kurumlarının, Cumhurbaşkanlığı İletişim Başkanlığı Dezenformasyonla Mücadele Merkezi’nin ve Tarım Bakanlığı gibi kurumların açıklamalarıyla bu yalanın çürütüldüğüne şahit olduk. Yine Türkiye’nin sınır güvenliği konusunda ciddi bir zafiyet gösterdiği algısı halka yayılmak istendi; sanki her gelenin rahatlıkla sınırdan geçebildiği algısı oluşturulmaya çalışıldı. Bu iddia da yine yetkili makamlarca çürütülmüştür. Benzer şekilde Antalya’da savunma sanayimizin gururu Hürjet’in deneme uçuşları sırasında, “Antalya semalarında F-16’lar uçuyor” bilgisi yayılarak toplum yanlış yönlendirilmeye çalışıldı. Ancak bu bilginin de milli ve yerli üretimimiz olan Hürjet’in test uçuşu olduğu açıklanarak manipülasyon engellendi. Görüldüğü üzere ülkemiz içinde bu operasyonlar yapılırken, küresel boyutta ve özellikle savaş esnasında bu gibi dezenformasyonlar çok daha büyük risklere ve hayati hatalara yol açmaktadır. Gelinen noktada her bilgi teyide muhtaçtır.
Kitleleri ve ulusları yönlendirmek, savaşta psikolojik üstünlüğü sağlayabilmek için bu yöntemler ülkeler tarafından bile isteye yapılmaktadır. Teknolojinin gelişmesi ve yapay zeka programlarıyla gerçekten farksız görüntüler üretilmesi sonucu, aşırı içerik üretimiyle hakikatin parçalandığı bir dönemde yaşıyoruz. Adeta çöp yığınları gibi biriken sahte içeriklerin arasında doğru bilgiyi arar konuma geldik. Elbette yüzyıllar önce de savaşlarda düşmanın psikolojisini bozmak ve moral çöküntüsü yaşatmak vardı; ancak şu an bu durum algoritmalar, yapay zeka ve yüz binlerce bot hesapla sınırsızca yapılıyor. Bu sahte içeriklerin içine özel iletişim mesajları yerleştiriliyor. Derinlemesine incelendiğinde, duygu analizi yapılarak her bir sahte içeriğin o anki duruma göre öfke, korku veya sinir uçlarına dokunacak şekilde üretildiğini görüyoruz. Dünya arenasında yeri geldiğinde “mağdur” rolü oynamak adına duygusal mesajlar, yeri geldiğinde ise yeni bir taarruz öncesi “kullanılmamış büyük silahların hazırlığı” gibi öfke dolu içerikler servis ediliyor.
Temelde yıllardır insanlığa öğretilen doktrin şuydu: “Eğer elinde bir video veya görsel kanıt varsa o doğrudur; sadece söylem ise yanlıştır.” Gözle görülebilir bir kanıtın olması, mahkemelerin karar vermesinden televizyon programlarındaki algıya kadar en önemli roldü. Şimdi bu doktrin sarsılmaya başlandı. Yapay zeka ile hiç yaşanmamış olayların dahi gerçeğinden ayırt edilmesi imkansız videolarının oluşturulması, durumu farklı boyutlara taşıdı. “Artık her gördüğüne inanmayacaksın” dönemi başladı. Bu durum, adeta bir pusulanın içine bilerek yerleştirilen bir mıknatısın ibreyi hedef şaşırtacak yöne çekmesine benziyor. Pusula yine kuzeyi veya güneyi gösteriyor ama o gösterdiği yer gerçek kuzey mi, bilmiyoruz.
Sosyal medya ile birlikte her alanda binlerce içerik üretilerek, “kaydırma” (scroll) yöntemiyle dipsiz bir kuyuya doğru gidildiğini görüyoruz. Normalde insan beyni, amigdala aracılığıyla bir olaya karşı insani bir tepki verir. Ancak algoritmalar, trajik olayların üzerine komik videolar veya farklı efektler ekleyerek sunduğunda ve bu içerikler binlerce kez kaydırılarak izlendiğinde, beyin artık tepki vermemeye başlıyor. Bizi insani tepkilerden alıkoyan ve beyni uyuşturan bu duruma “nörolojik tolerans” deniyor. Yine filtrelemelerle insan yüzüne hayvan figürleri eklenmesi gibi durumlar, bir “komiklik” algısıyla sunulsa da bilişsel ve ahlaki bir bozulmaya zemin hazırlıyor. Özellikle gençlerin beyinlerindeki karar alma merkezini olumsuz etkiliyor; dünyayı bir oyun gibi görmeye başlıyorlar. Kişilik hakları ihlal edildiğinde veya bir suç işlendiğinde faillerin “komiklik olsun diye yaptım” gibi savunmalar vermesi, empati duygusunun yok olduğunu gösteriyor. Bunu bir örnekle açıklarsak: Sürekli yemek yemek yerine abur cuburla beslendiğinizi düşünün. Karnınız doyuyor sanıyorsunuz ama vücudu kimyasala alıştırdığınızda artık neyin doğal ve doğru olduğunu karıştırıyorsunuz.
Dijital abur cuburlarla beslendiğimiz bu dönemde etik algımız alt üst olmuş durumdadır. Bu hissizleşme döneminde asıl sıkıntı, insanların kandırılmasından ziyade bir zarar verme eyleminin toplum tarafından “normal” görülmeye başlanmasıdır. Toplumun kendini var edebilmesi için doğru bir ortak zeminde buluşması gerekirken, sosyal medya bu zemini parçalıyor. Geriye ise suni ve sentetik bir medya zemini kalıyor.
Sentetik medyadaki asıl kırılma noktası şudur: Ortada gerçeklik olmayınca, gerçek olana da “sahte” denilmeye başlanıyor. Literatürde “yalancının temeddüdü” olarak karşımıza çıkan bu durumda, gerçek bir olay “deepfake ile yapıldı” denilerek reddedilebiliyor. Gerçek bir suç videosu sızdırıldığında, kişinin bunun yapay zeka ürünü olduğunu öne sürmesi; o videonun gerçekliğini ispat etmeyi çok daha zor hale getiriyor.
Gabon Devlet Başkanı Ali Bongo’nun sağlık sorunu sonrası yayınladığı videoda mimiklerin tutarsız bulunması, halkta videonun yapay olduğu kanısını doğurmuş ve başarısız bir darbe girişimine yol açmıştı. Benzer şekilde Ukrayna Devlet Başkanı Zelenskiy’nin “teslim oldu” şeklindeki sahte videosunda da aynı şeyi gördük. “Gerçeklik apatisi” dediğimiz bu durum, toplumun artık gerçeği aramaktan vazgeçmesi ve kurumlara olan güvenin tuzla buz olmasıyla sonuçlanıyor.
Sosyal medyanın günümüzdeki durumunu ABD/İsrail – İran geriliminde de net gördük. Netanyahu’nun “öldü mü?” iddiaları sonrası kahve dükkanında görüldüğü videoda; parmak sayısının eksik olup olmadığı veya menüdeki tarihin eskiliği gibi manipülasyonlar tartışıldı. Bu ancak canlı yayına çıkmasıyla son bulabildi. İsrail’in, hastaneler ve okullar vurulurken magazinsel manipülasyonlarla gündemi değiştirmesi, sosyal medya cephesinin önemini bir kez daha kanıtlıyor. Bu cephede güçlü olmak, dezenformasyonla ciddi mücadele etmek ve sahte içerikleri belirlemek noktasındaki eksikliklerimizi gidermek zorundayız. Yapay zekayla üretilen sahteliği yine yapay zekaya sormak, “yalancının şahidi bozacı” durumunu akla getirse de, dijital mecralardaki haberlerin hesap verilebilirliği hayati bir soru işareti olarak karşımızda durmaktadır.
