Toplumsal medyada her gördüğünüze inanmayın: ABD-İran savaşına dair geçersiz görüntüler nasıl tespit edilir?

Dünya genelinde milyonlarca kullanıcısı bulunan toplumsal medya platformları, ABD-İran tansiyonuna dair düzmece içeriklerle dolup taşmaya devam ediyor. Yapay zeka teknolojileri kullanılarak üretilen savaş imgeleri, dijital mecralarda geniş kitlelere …

Toplumsal medyada her gördüğünüze inanmayın: ABD-İran savaşına dair geçersiz görüntüler nasıl tespit edilir?
  • 04.03.2026 16:23
  • 0
  • 15
  • A+
    A-
BU KONUYU SOSYAL MEDYA HESAPLARINDA PAYLAŞ

Dünya genelinde milyonlarca kullanıcısı bulunan toplumsal medya platformları, ABD-İran tansiyonuna dair düzmece içeriklerle dolup taşmaya devam ediyor.

Yapay zeka teknolojileri kullanılarak üretilen savaş imajları, dijital mecralarda geniş kitlelere ulaşarak büyük bir bilgi kirliliğine ve baş karışıklığına sebebiyet veriyor.

YAPAY ZEKA VE ESKİ MANZARALARLA ALGI OPERASYONU

AAP FactCheck tarafından yürütülen ayrıntılı incelemeler, dijital içeriklerin gerçek savaş anlarını yansıtmadığını ve pek birçoklarının yapay zeka aracılığıyla sıfırdan oluşturulduğunu kanıtlıyor.

Uzmanlar, yeni olaylara atfedilen birçok görüntünün aslında yıllar evvel meydana gelmiş farklı olaylara ilişkin olduğunu ya da yapay zeka ile üretildiğini evraklarıyla birlikte kamuoyuna sunuyor.

Maram Susli isimli bir yorumcunun Dubai’deki CIA merkezinin vurulduğu teziyle paylaştığı yanan bina görüntüsü, dezenformasyonun ulaştığı boyutları gözler önüne serdi.

Gerçekte bu imajların 2015 yılında Birleşik Arap Emirlikleri’nin Şarjah kentindeki bir konut yangınına ilişkin olduğu, memleketler arası haber ajanslarının arşiv kayıtlarıyla doğrulanıyor.

DUBAİ SİMGELERİ ÜZERİNDEN YÜRÜTÜLEN DÜZMECE İÇERİKLER

Sosyal medya hesapları üzerinden yayılan imgelerde Burj Khalifa, Burj Al Arab ve Palm Jumeirah üzere simge yapıların alevler içinde kaldığı tez ediliyor.

Yapılan zıt görsel aramalar sonucunda Burj Khalifa’nın yandığını gösteren karelerin, aslında on yıl evvel çekilmiş ve binayı sis bulutu içinde gösteren bir fotoğraftan ibaret olduğu anlaşılıyor.

2026 Şubat sonundaki taarruzlarda kimi bölgeler hasar görmüş olsa da kentin en yüksek binası olan Burj Khalifa’nın ziyan gördüğüne dair hiçbir delil yok.

Paylaşılan bu stil manipülatif içerikler, bölgedeki gerçek durumun anlaşılmasını zorlaştırırken dijital platformlardaki panik havasını da körüklüyor.

HAMANEY’E İLİŞKİN OLDUĞU ARGÜMAN EDİLEN SAHTE FOTOĞRAFLAR

İran’ın dini lideri Hamaney’in enkaz altında kaldığını gösteren fotoğrafların da büsbütün dijital ortamda kurgulandığı teknik incelemelerle saptandı.

Google tarafından geliştirilen SynthID yapay zeka algılama aracı, bu görsellerin üzerinde yapay zeka üretimini doğrulayan dijital filigranlar tespit etti.

İran devlet medyasının Hamaney’in vefatına dair yaptığı resmi duyuruya karşın, başkanın naaşını yahut olay anını gösteren doğrulanmış rastgele bir görsel bulunmuyor.

CENAZEYE DAİR ALDATICI GÖRÜNTÜ PAYLAŞIMLARI

Milyonlarca kişinin katıldığı sav edilen bir cenaze merasimi görüntüsü, toplumsal medya mecralarında İran önderine veda anları olarak servis ediliyor.

Oysa yapılan araştırmalar, bu manzaraların 2025 yılının başlarında Lübnan’da düzenlenen farklı bir cenaze merasimine ilişkin olduğunu açıkça gösteriyor.

Videonun orijinalinde Hizbullah lideri Hasan Nasrallah için Beyrut’ta düzenlenen merasim yer alırken, tabutların üzerindeki Lübnan bayrakları dikkatli gözlerden kaçmıyor.

Bu cins içerikler, kullanıcıların duygusal yansılarını istismar ederek gerçeği saptırmak maksadıyla sistemli bir formda dolanıma sokuluyor.

ASKERİ ÜSLERE DAİR MANİPÜLE EDİLMİŞ UYDU GÖRÜNTÜLERİ

Katar’da bulunan El Udeid Hava Üssü’ndeki ABD radarının imha edildiğini gösteren “öncesi ve sonrası” fotoğraflarının da gerçeği yansıtmadığı belirlendi.

Analizler, “öncesi” olarak sunulan görselin aslında Bahreyn’in Manama kentindeki ABD Beşinci Filo Deniz Üssü’ne ilişkin Google Haritalar imgesi olduğunu kanıtladı.

“Sonrası” olarak paylaşılan ve ağır hasarı gösteren karenin ise yapay zeka tarafından orjinal manzaraya hasar efektleri eklenerek üretildiği saptandı.

Gerçek uydu bilgileri bölgede birtakım hasarların olduğunu doğrulasa da toplumsal medyada dolaşan görsellerin büsbütün dijital manipülasyon eseri olduğu teknoloji uzmanlarınca tescillendi.

SAHTE İÇERİKLER NASIL TESPİT EDİLİR

Dijital teknolojilerin süratle gelişmesiyle birlikte yapay zeka tarafından üretilen içerikler, insan gözünün ayırt edemeyeceği kadar gerçekçi bir boyuta ulaştı. Bunu üstteki örneklerde de görüyoruz.

New York Times tarafından gerçekleştirilen ve 1.000’den fazla taramayı kapsayan test sonuçları, bu dedektörlerin kimi içerikleri muvaffakiyetle saptadığını fakat kesin bir karar vermek için şimdi kâfi inancı sağlamadığını ortaya koyuyor.

TESPİT ARAÇLARININ GÜÇLÜ VE ZAYIF YANLARI

Piyasada bulunan dijital dedektörler, yapay zeka araçlarının gerisinde bıraktığı dijital sinyalleri, kompozisyon yanlışlarını ve bilinmeyen filigranları tarayarak çalışıyor.

Yapılan testler, bu araçların kolay komutlarla oluşturulmuş portre fotoğraflarını yahut kusursuz ışıklandırmaya sahip uydurma yüzleri saptamada epeyce başarılı olduğunu gösteriyor.

Ancak içerik karmaşıklaştıkça ve sahneler kurgusal ayrıntılarla zenginleştikçe, birçok aracın yanılma hissesi önemli oranda artış gösteriyor.

Özellikle görüntü fotoğrafları yahut karmaşık art plana sahip görsellerde dedektörlerin başı karışabiliyor.

Uzmanlar, bu araçların sonuçlarının kesinlikle resmi haber raporları yahut öbür görsel delillerle desteklenmesi gerektiğini vurguluyor.

Tek bir aracın verdiği “gerçek” yahut “yapay zeka” kararına güvenerek hareket etmek, bilgi kirliliğini daha da derinleştirme riski taşıyor.

İngiliz Vietnam Üniversitesi’nden Profesör Mike Perkins, yapay zeka tespitinde yüzde 100 muvaffakiyet oranına hiçbir vakit ulaşılamayacağını savunuyor.

Yapay zeka modelleri geliştikçe, tespit araçlarının da bu gelişmeye ayak uydurmak zorunda kaldığını belirten Perkins, bu durumu bitmek bilmeyen bir “silahlanma yarışı” olarak tanımladı.

Üretici modeller daha pürüzsüz içerikler sundukça, tespit teknolojilerinin dijital ipuçlarını yakalaması her geçen gün daha da güç bir hal alıyor.

VİDEOLARIN İÇİNE GİZLENMİŞ FİLİGRANLARI ARAMAYA BAŞLAYIN

Sora iOS uygulaması üzerinden oluşturulan her görüntü, aygıta indirildiği anda özel bir filigranla işaretleniyor. Bu işaretlemeler çoklukla görüntünün kenarlarında hareket eden beyaz bir bulut simgesi biçiminde karşımıza çıkıyor.

İçeriklere filigran eklemek, teknoloji şirketlerinin yapay zeka üretimlerini görsel olarak ayırt etmemize yardımcı olduğu en büyük adımlardan biri.

Örneğin Google’ın Gemini Nano Banana modeli de ürettiği tüm imajlara otomatik olarak kendi özel filigranını yerleştiriyor.

Yine de filigranların büsbütün kusursuz bir güvenlik sağladığını söylemek epey güç. Sabit duran bir filigran kolay bir kırpma süreciyle kolay kolay yok edilebilirken, hareketli olanları silmek için de özel uygulamalar piyasaya sürüldü.

OpenAI CEO’su Sam Altman bu husus hakkında toplumun herkesin geçersiz görüntü üretebileceği yeni bir dünyaya ahenk sağlaması gerektiğini belirtiyor.

Bu yüzden bir görüntünün gerçekliğini doğrulamak için yalnızca filigranlara değil farklı prosedürlere de güvenmemiz koşul.

GÖRÜNMEYEN DİJİTAL İZLERİ, YANİ META DATALARI DENETİM EDİN

Bir görüntünün yalnızca dış görünüşüne bakarak gerçek olup olmadığını anlamak bazen imkansız bir hal alabiliyor. Bu türlü durumlarda belgenin derinliklerine inerek meta bilgilerini denetim etmek şahane ve bir o kadar da kolay bir tahlil yolu sunuyor.

Meta bilgi, bir fotoğraf yahut görüntü oluşturulduğu anda o evraka otomatik olarak eklenen kapsamlı bir bilgi koleksiyonunu söz ediyor.

Bu bilgiler kameranın cinsinden çekim yerine, tarihinden yapay zeka kökenini belirten içerik kimlik bilgilerine kadar pek çok ayrıntısı barındırıyor.

OpenAI şirketinin de bir modülü olduğu İçerik Kaynağı ve Özgünlüğü Koalisyonu sayesinde Sora görüntüleri özel meta datalar içeriyor.

SOSYAL MEDYA ETİKETLERİNE VE İÇGÜDÜLERİNİZE GÜVENİN

Instagram yahut Facebook üzere Meta platformlarında geziniyorsanız, bir içeriğin yapay zeka eseri olup olmadığını anlamak için sistemin kendi ikazlarından yardım alabilirsiniz.

Bu sistemler her vakit kusursuz çalışmasa da işaretlenmiş gönderilerdeki etiketler size içeriğin kökeni hakkında çok kritik bir ipucu verebiliyor.

Aynı biçimde TikTok ve YouTube platformları da düzmece içerikleri etiketleme konusunda hayli katı siyasetlere sahip.

Yine de bir şeyin yapay zeka tarafından oluşturulduğunu anlamanın en garantili yolu, içerik üreticisinin bunu dürüstçe açıklamasıyla mümkün oluyor.

Sosyal medya platformlarının birden fazla artık kullanıcılara kendi gönderilerini yapay zeka üretimi olarak etiketleme imkanı sunuyor.

Açıklama kısmına eklenecek kolay bir not bile dijital dünyadaki bilgi kirliliğini tedbire konusunda devasa bir yarar sağlıyor.

GÖRSEL DOKULARI YAKINDAN İNCELEYİN

Yapay zeka modelleri, bilhassa kaotik savaş sahnelerini üretirken birtakım dokuları fazla pürüzsüz yahut plastik üzere yansıtır.

Askeri araçların üzerindeki kamuflaj desenlerinde, silahların namlu uçlarında yahut binaların yıkıntı ayrıntılarında “erimiş” üzere duran, asimetrik yahut birbirine giren pikseller geçersizliğin en büyük habercisidir.

Tel Aviv’e atılan füzeleri gösterdiği argüman edilen aşağıdaki görüntü, son günlerde toplumsal medyada sıkça paylaşıldı. Fakat yakından bakıldığında bu imajların yapay zeka ile üretildiği anlaşılıyor.

Örneğin görseldeki otomobillerin iç içe geçtiğini ve füze izlerinin tutarsız olduğunu görüyoruz. Üstelik bu görüntüyü Instagram hesabından birinci kere paylaşan kullanıcı da açıklama kısmında görüntünün yapay zeka üretimi olduğunu açıkça belirtiyor.

Gerçek bir patlamada duman ve ateş, rüzgarın istikametine ve ortamın fizikî koşullarına nazaran kaotik fakat dengeli bir halde dağılır.

Yapay zeka ile üretilmiş görüntülerde ise alevler ekseriyetle doğal olmayan bir simetriye sahiptir.

Duman bulutlarının havada asılı kalma müddeti yahut dağılma suratı gerçek dünya fiziğiyle uyuşmaz. Şarapnel modüllerinin uçuş yörüngeleri ekseriyetle eksiktir yahut mantıksızdır.

ASKERİ ÜNİFORMALARA VE TABELALARA DİKKAT

Üretken yapay zeka araçları şimdi harfleri ve yazıları hareketli sahnelerde kusursuz biçimde işleyemiyor.

Videodaki askerlerin üniformalarındaki peçlere, araçların üzerindeki plakalara yahut sokak tabelalarına yakından bakıldığında; harflerin birbirine girdiği, hiçbir lisanda karşılığı olmayan anlamsız sembollere dönüştüğü açıkça görülebilir.

SES VE İMAJ UYUMSUZLUĞU

Derin kurgu (deepfake) görüntüler ekseriyetle görsel olarak ikna edici olsa da ses tasarımı konusunda sınıfta kalır.

Gerçek bir çatışma dakikalar içinde patlama sesleri, sirenler ve insan bağırışları ortamın yankı dinamiklerine nazaran şekillenir.

Sahte görüntülerde ise sesler çoklukla “stüdyo ortamında kaydedilip görüntünün üzerine yapıştırılmış” üzere yalıtılmış ve pürüzsüz duyulur. Manzaradaki aralar ile sesin şiddeti ortasındaki orantısızlık kritik bir ayrıntıdır.

ARKA PLAN DETAYLARI

Odağın dışında kalan, art planda kaçışan insanlara yahut asker kümelerine dikkat edin. Yapay zeka, ana nesneye odaklanırken art plandaki figürleri ekseriyetle deforme eder.

Fazla yahut eksik uzuvlar, yüz sınırları silinmiş beşerler ve doğal olmayan, tekrarlayan koşma animasyonları görüntünün sentetik olduğunu ele verir.

SOSYAL MEDYA DEVLERİ ALARMDA

Artan dezenformasyon dalgasına karşı toplumsal medya devleri de yeni tedbirler alıyor. X  platformu, yapay zeka eseri silahlı çatışma imgelerini sentetik olduğunu belirtmeden paylaşan hesapların gelir paylaşım programından 90 gün müddetle uzaklaştırılacağını açıkladı.

Uzmanlar, kuşkulu içeriklerle karşılaşıldığında bilakis görsel arama yapılmasını ve bağımsız teyit platformlarının (teyit.org vb.) raporlarının takip edilmesini öneriyor.

Ayrıca, Hive AI üzere yapay zeka tespit araçlarını da kullanabilirsiniz.

Son olarak Google, kendi yapay zekaları ile üretilen içeriklere bilinmeyen bir filigran ekliyor. Google Gemini’yi açın ve fotoğrafı yükledikten sonra şunu yazın: “SynthID filigranını denetim et.”  Google  size bu görselin yapay zeka ile üretilip üretilmediğini söyleyecektir.

Kaynak: Ensonhaber Haber Merkezi

ZİYARETÇİ YORUMLARI

Henüz yorum yapılmamış. İlk yorumu aşağıdaki form aracılığıyla siz yapabilirsiniz.

BİR YORUM YAZ