Yapay zekâ ‘Halüsinasyon’ görüyor ve sahte gerçeklikler üretiyor!
- Teknoloji
- 27 Ağustos 2025

Üsküdar Üniversitesi İletişim Fakültesi Reklamcılık Bölümü Dr. Öğr. Üyesi Burak Çeber, yapay zeka ve bilgi kirliliği konusunu değerlendirdi.
Yapay zeka araçları zaman zaman yanıltıcı içerikler de üretiyor
Son yıllarda üretken yapay zekâ uygulamalarının gündelik yaşamın vazgeçilmez bir parçası hâline geldiğini dile getiren Dr. Öğr. Üyesi Burak Çeber, “Evde, okulda, işte veya alışverişte farklı amaçlarla kullanılan yapay zekâ araçları artık herkesin hayatına dokunuyor. Gündelik yaşamda sıkça kullanılan yapay zekâ araçları, doğru sonuçlar vermelerinin yanında zaman zaman yanıltıcı içerikler de üretebiliyor. Bu durumu ‘yapay zekâ halüsinasyonu’ kavramı ile açıklamak mümkün.” dedi.
Sistem ‘bilmiyorum’ demek yerine tahmin yürütüyor
Yapay zekâ sistemlerinin, sosyal medya paylaşımlarından web sitelerine, formlardan bilimsel makalelere kadar pek çok kaynaktan toplanan büyük veri kümeleriyle eğitildiğini anlatan Dr. Öğr. Üyesi Burak Çeber, “Yapay zekâ, bu verilerdeki kalıpları öğrenip yeniden içerik üretiyor. Ancak bazı durumlarda sistem, eğitim verilerinde yer almayan veya gerçek dünyayla uyuşmayan bilgiler üretebiliyor. Bu hatalar, olmayanı varmış gibi göstermek, mantık hataları yapmak ya da yanlış bilgi vermek şeklinde ortaya çıkıyor. Halüsinasyonun nedenleri arasında eğitim verisinin yetersizliği, bağlamın doğru kurulmamış olması, fazla genelleme yapılması ve sistemin ‘bilmiyorum’ demek yerine tahmin yürütmesi bulunuyor. Kısacası, yapay zekânın halüsinasyonları, gerçekte olmayan bilgileri üretiyor oluşu bakımından, insanların hayal gördüğü veya yanlış algıladığı durumlara benzetilebilir.” diye konuştu.
Yapay zeka da önyargılı
İnsanların sahip olduğu önyargıların, yapay zekâya da yansıdığını kaydeden Dr. Çeber, şöyle devam etti:
“Bu durum, ‘algoritmik önyargı’ olarak adlandırılıyor. Algoritmik önyargı iki şekilde ortaya çıkabiliyor. Birincisi, algoritmayı tasarlayan kişinin bilinçli ya da bilinçsiz tercihleri modelin davranışına yansıyabiliyor. İkincisi, yapay zekâyı eğiten veri setlerinde yer alan toplumsal önyargılar sistemin çıktılarına yansıyabiliyor. Yani veri setinde hata veya önyargı varsa, yapay zekânın ürettiği içeriklerde de aynı önyargılar görülebiliyor. Örneğin Yapay zekâ, işe alım süreçlerinde bazı demografik gruplar arasında ayrım yapabiliyor. 2018 yılında Google, özgeçmiş tarama aracının kadın adayların başvurularını geri plana atması nedeniyle eleştirildi. Benzer bir örnek de Apple Card’da yaşandı. Algoritma, gelir seviyesi aynı olan çiftlerde erkeklere kadınlardan daha yüksek kredi limiti verdi.”
Yapay zekanın sahte içerikleri hızla yayılıyor
Yapay zekânın, insanlar tarafından üretilen içeriklere kıyasla dezenformasyonun boyutunu büyük ölçüde artırdığını ve yayılma hızını ciddi şekilde yükselttiğini de ifade eden Dr. Öğr. Üyesi Burak Çeber, “Bir insanın günlerce hazırlayabileceği içerikleri, yapay zekâ dakikalar hatta saniyeler içinde üretebiliyor. Bu da yanlış bilgilerin hızla viral hâle gelmesine yol açıyor. Örneğin, deepfake teknolojisiyle bir liderin veya ünlünün yüzü ve sesi dijital ortamda taklit edilebiliyor ve video şeklinde hızla yayılabiliyor.” dedi.
Reklam stratejileri belirleyenleri de var
Yapay zekânın iş süreçlerine girdikçe, reklam profesyonellerinin daha önce hiç karşılaşmadıkları türden bilgilere ulaşmaya ve bunları anlamlandırmaya başladığını da dile getiren eden Dr. Öğr. Üyesi Burak Çeber, “Artık reklamla ilgili kararlar, sadece bir grup uzmanın görüşüne dayanmak yerine, tüketicilerin konuşmalarına, dijital davranışlarına ve onların bıraktığı ipuçlarına göre verilebiliyor. Bu sayede hazırlanan reklamın türü, içeriği ve özellikleri konusunda daha net fikirler elde edilebiliyor. Son dönemde yapay zekâ, reklam üretiminde somut sonuçlar da vermeye başladı. Reklam metni yazabilen, görsel ve video üretebilen, hatta strateji belirleyebilen yapay zekâ teknolojileri geliştirildi. Üretken yapay zekâ uygulamaları, reklam verenlere başarılı sonuçlar sunsa da tüketiciyi her an ve her koşulda tüketime yönlendirecek şekilde işliyor. Bu durum beraberinde doyumsuz bir tüketim anlayışını getiriyor. Bu anlayışı deniz suyu içmeye benzetebiliriz: Susuzluğunu gidermek için deniz suyu içen kişi, daha çok susar ve susadıkça daha fazla içer. Yapay zekâ da kullanımına bağlı olarak tüketimde susuzluğu artıran veya hatırlatan bir araç görevi görebiliyor.” ifadesinde bulundu.
Veri analitiğine dayalı yapay zekâ uygulamalarının artık sadece demografik bilgiler veya tüketim alışkanlıklarını değil, insanların psikolojik profillerine dair verileri de toplayabildiğini söyleyen Dr. Öğr. Üyesi Burak Çeber, “Cambridge Analytica skandalında gördüğümüz gibi, bu tür bilgiler insanların seçim davranışlarını etkilemek için kullanılabiliyor.” şeklinde konuştu.
Medya okuryazarlığı şart
Sahte içerikleri tespit etmek için öncelikle iyi bir medya okuryazarlığı gerektiğine vurgu yapan Dr. Öğr. Üyesi Burak Çeber, “İçerikleri farklı kaynaklardan doğrulama alışkanlığı kazanmak büyük önem taşıyor. Bunun yanında, yapay zekâ uygulamalarına dair farkındalık da şart. Yapay zekânın yetenekleri ve sınırları bilindiğinde, neyin sahte neyin gerçek olduğu çok daha kolay anlaşılabiliyor. Yapay zekâ, yüzeysel tutarlılıkta oldukça başarılı. Yüzeysellikten uzaklaşıp derinlik arandığında yani detaylara ve bağlama bakıldığında sahte içerikler tespit edilebiliyor. Bunun yanında dijital filigran, anomali tespiti ve metaveri analizi gibi yöntemlerle de Yapay zekâ tarafından üretilen sahte içerikler ortaya çıkarılabiliyor.” dedi.
Yeni bir teknoloji ortaya çıktığında genellikle önce sağladığı kolaylıklar ve heyecan verici taraflarının öne çıkarıldığına işaret eden Dr. Öğr. Üyesi Burak Çeber, “Yapay zekâda da durum farklı değil; çoğu zaman verimlilik, yaratıcılığa katkısı, iş süreçlerini hızlandırması gibi olumlu etkiler üzerinde duruluyor. Ancak bu yaklaşımın doğal bir sonucu olarak, sahte içerik üretimi, manipülasyon ve etik riskler geri planda kalabiliyor. Teknolojinin ilk döneminde olumsuzluklara odaklanmamak anlaşılır olsa da zamanla sektörlerin, meslek örgütlerinin, akademinin ve karar vericilerin bu risklere eğilmesi kaçınılmaz hale geliyor. Çünkü sahte üretim teknik bir konu olmaktan öte etik, hukuk ve sosyal değerlerle doğrudan ilişkili bir konu.” ifadesinde bulundu.
İnsan ile yapay zekâ arasında iş birliğine dayalı bir denge, hibrit zekâ…
Gerçek ile sahtenin arasındaki çizginin bulanıklaşmasının yapay zekânın yaygınlaşmasından çok önceye dayandığını dile getiren Dr. Öğr. Üyesi Burak Çeber, “Ancak yapay zekâ teknolojilerinin gelişmesiyle birlikte, gerçeklik ve hakikatle kurduğumuz ilişkinin farklı biçimlerde koptuğuna tanık oluyoruz. Bugün, gerçeğinden ayırt etmekte zorlandığımız görseller, sesler ve videolarla karşılaşıyoruz. Çoğu zaman kendimizi ‘Acaba bu içerik gerçek mi?’ diye sorarken buluyoruz. Burada içeriğin tamamının değil, bir kısmının da yapay zekâ ile üretilmiş olabileceği ihtimali önem kazanıyor. Bir insan yapay zekâ ile üretim yaparken, kendi deneyimlerini, hayal gücünü, yaratıcılığını ve düşünme yetisini de işin içine katıyor mu? Karşılaştığı bir problemi çözerken bilgi birikimini, uygulama becerilerini, iletişim gücünü ve insan ilişkilerini kullanıyor mu? Bu soruların cevabı ‘evet’ ise, yapay zekâ işi tamamen devralan değil, süreci destekleyen konumunda demektir. İşte bu noktada insan ile yapay zekâ arasında iş birliğine dayalı bir denge (hibrit zekâ) kurulabiliyor.” diye konuştu.
Açık kaynaklı yapay zekâ adeta iki ucu keskin bir bıçak gibi
“Açık kaynaklı yapay zekâ adeta iki ucu keskin bir bıçak gibi. Bir yandan kötü niyetli kişilerin eline geçtiğinde sahte içerik üretmek ya da insanları yanıltmak için kullanılabiliyor.” diyen Dr. Öğr. Üyesi Burak Çeber, şunları dile getirdi:
“Öte yandan şeffaflık ve toplumsal denetim açısından büyük bir avantaj sağlıyor; çünkü herkesin erişebilmesi, akademisyenlerin, araştırmacıların ve sivil toplumun süreci gözetlemesine de imkân tanıyor. Bu aşamada konu ‘Açık kaynaklı yapay zekâ modellerinin yaygınlaşması fırsat mı, yoksa risk mi’ sorusuna sıkışmamalı. Asıl önemli olan, bu teknolojiyi sorumlu şekilde kullanmamıza yardımcı olacak ilkeleri, güvenlik önlemlerini ve etik standartları geliştirmek.”
Dijital ortamdaki her türden içerik doğrulama sistemine tabii tutulabilmeli
Dijital ortamdaki her türden içeriğin bir tür “dijital kimlik” ya da doğrulama sistemine tabii tutulabileceğini kaydeden Dr. Öğr. Üyesi Burak Çeber, “Şimdiden büyük teknoloji şirketleri ve bazı araştırma kurumları, görsel, metin ya da videoların kaynağını gösterecek dijital filigranlar ve kimliklendirme standartları üzerinde çalışıyor. Yani bu sistem teknik olarak yapılabilir ve geliştiriliyor da. Ancak bu tek başına yeterli değil, kalıcı bir çözüm için etik ve hukuki düzenlemelere de ihtiyaç var.” şeklinde sözlerini tamamladı.
Kaynak: (BYZHA) Beyaz Haber Ajansı