Yapay Zeka Halüsinasyonu Nedir?
Eğer sohbet robotları ve içerik oluşturucularını kullanmaya yeterince zaman ayırırsanız, hızla karşınıza çıkan gereksiz, mantıksız ve bazen tamamen yanıltıcı çıktılarla karşılaşabilirsiniz. Bu tür olgular, yapay zeka halüsinasyonları olarak adlandırılır ve verimli yapay zeka kullanımını hedefleyen her kurum ve birey için ciddi bir sorun teşkil eder.
Yapay zeka halüsinasyonları, insan psikolojisinden türetilen bir terimdir ve yapay zeka modellerinin gerçek verilere veya olaylara dayanmayan, ancak gerçekmiş gibi sunulan yanlış veya mantıksız bilgiler üretmesi durumunda ortaya çıkar. Bu yapay zeka tarafından üretilen cümlelerin dilbilgisi ve yapısı o kadar doğru görünür ki, gerçekmiş gibi algılanır, ancak gerçek değillerdir.
Yapay zeka halüsinasyonları, önyargılı veya düşük kaliteli eğitim verileri, eksik bağlam sağlanması veya modelin bilgiyi doğru şekilde yorumlamasını engelleyen yetersiz programlama gibi çeşitli faktörlerden kaynaklanır. Bu tür sorunlar görüntü tanıma sistemlerinde ve yapay zeka görüntü oluşturucularında görülebilir, ancak en sık yapay zeka metin oluşturucularıyla ilişkilendirilir.

YAPAY ZEKA HALÜSİNASYONU NEDİR?
Yapay Zeka halüsinasyonları, yetenekli bir Yapay Zeka modelinin, doğruymuş gibi yanlış bilgiler ürettiği bir durumu ifade eder. Genellikle bu tür yanılsamalar, eğitim verilerinin sınırlamaları veya algoritmaların önyargıları nedeniyle ortaya çıkar ve bu durum yanlış veya potansiyel olarak zararlı içeriklerin üretilmesine yol açabilir.
Yapay Zeka Halüsinasyonları Neden Oluşuyor?
Yapay zeka halüsinasyonları, büyük dil modellerinin (LLM’ler) üretken yapay zeka araçlarına (örneğin ChatGPT ve Bard) insan dilini benzer bir şekilde işleme yeteneği sağlayan doğrudan sonuçlarıdır. Bu yüksek lisanslar, akıcı ve tutarlı metinler üretme amaçlı tasarlanmış olsa da, temel gerçekliği anlama yetisine sahip değiller. Temel olarak, bir sonraki kelimenin ne olacağını kesin bir biçimde değil, olasılıklara dayalı olarak tahmin etmekle görevlidirler.
Bu mekanizmanın nasıl işlediğini anlamak için yüksek lisansların çalışma yöntemini bilmek önemlidir. Yüksek lisanslar büyük miktarda metin verisiyle beslenir, bu veriler kitaplar, haber makaleleri, bloglar ve sosyal medya gönderileri gibi metin kaynaklarından gelir. Bu veriler daha sonra “jetonlar” adı verilen, bir harf kadar kısa veya bir kelime kadar uzun olan küçük birimlere bölünür.
Yüksek lisanslar, bu kelimelerin ve harflerin bir araya nasıl geldiğini anlamak için sinir ağlarını kullanırlar. Sinir ağları, ağırlıklar aracılığıyla birbirine bağlanmış işlem birimlerinden oluşur. Model, bir metin verisiyle beslendikten sonra bir sonraki kelimeyi tahmin etmeye çalışır ve tahminleri gerçek metinle karşılaştırılarak ayarlanan bu ağırlıklar sayesinde daha iyi tahminler yapmayı öğrenir. Ancak model asla kelime anlamlarını gerçekten öğrenmez.
Dilbilim profesörü Emily M. Bender, “Kedi” kelimesini gördüğünde, insanlar için bu kelimenin kedi deneyimlerini çağrıştırdığını belirtirken, büyük dil modeli için bu kelime sadece “CAT” karakter dizisidir. Model, zamanla metinleri işledikçe dilbilgisi kuralları ve kelime ilişkileri gibi dildeki kalıpları tanımaya başlar ve hangi kelimelerin diğerlerini takip etme olasılığının yüksek olduğunu anlamayı öğrenir. Böylece model, kelimeleri ve cümleleri anlamlarıyla ilişkilendirmeyi öğrenir ve bu, kapak mektubu yazma, tarif oluşturma ve benzeri görevlerde kullanılabilir hale gelir. Ancak yine de, model aslında bahsettiği şeyin gerçek anlamını tam olarak kavrayamaz.
Yapay Zeka içerik üreticisi Jasper’ın başkanı Shane Orlick, “Generatif Yapay Zeka’nın aslında zeka değil, kalıp eşleştirmeden ibaret olduğunu” söyler ve “Cevap, gerçek olup olmadığına bakılmaksızın bir cevap üretmek amacıyla tasarlanmıştır” der.
Emily M. Bender, bu sistemlerin “halüsinasyon” terimini kullanmanın bile fazla cömertlik olduğunu düşünüyor, çünkü bu, yapay zekanın bir tür algıya sahip olduğunu ima eder. Ancak aslında böyle bir algısı yoktur. Ancak, eğer eğitim verileri hatalı veya önyargılıysa, ya da model çok karmaşıksa ve yeterli güvenlik önlemlerine sahip değilse, LLM’lerin hatalı anlama eğilimleri olabilir. Bu nedenle, bu sistemlerin ürettikleri metinleri dikkatli bir şekilde değerlendirmek önemlidir. Christopher Riesbeck, “Her zaman istatistiksel olarak makul bir şey üretiyorlar, ancak yakından incelediğinizde ‘Bu mantıklı değil’ diyebilirsiniz” diyor.
Yapay Zeka Halüsinasyon Türleri (Örneklerle)
Bazı yapay zeka halüsinasyonları diğerlerinden daha belirgindir. Küçük gerçek tutarsızlıklardan tamamen uydurma bilgilere kadar değişebilirler. Üretken yapay zekayı kullanırken karşılaşabileceğiniz birkaç halüsinasyon türünü ve gerçek dünyadan bazı örnekleri burada bulabilirsiniz.
1. GERÇEK YANLIŞLIKLAR
Gerçek yanlışlıklar, bir modelin doğru gibi görünen ancak gerçekte olmayan bir metin ürettiği yapay zeka halüsinasyonlarının en yaygın biçimleri arasındadır. İfadenin ana fikri gerçeğe dayalı olabilir ve akla yatkın gelebilir, ancak ayrıntılar yanlıştır.
Örnek
Şubat 2023’te Google’ın sohbet robotu Bard, hatalı bir şekilde James Webb Uzay Teleskobu’nun güneş sistemi dışındaki bir gezegenin ilk görüntüsünü çektiğini iddia etti. Bu yanlıştır; NASA’ya göre bir dış gezegenin ilk görüntüleri 2004’te çekilmiştir ve James Webb Uzay Teleskobu 2021’e kadar fırlatılmamıştır.
Benzer şekilde, Microsoft Bing AI’nin lansman demosunda, chatbot (ChatGPT ile aynı LLM’yi kullanan), Gap ve Lululemon’un kazanç tablolarını analiz etti ve bildirildiğine göre bunların gerçekleri ve rakamları hakkında yanlış bir özet sundu.
2. UYDURMA BİLGİ
Yapay zeka metin oluşturucuları ve sohbet robotlarının tamamen uydurma ve hiçbir gerçeğe dayanmayan bilgiler ortaya koyduğu biliniyor. Örneğin, ChatGPT URL’ler, kod kitaplıkları ve hatta var olmayan kişiler bile oluşturabilir ve uydurma haber makalelerine, kitaplara ve araştırma makalelerine referans verebilir; bunların tümü, aracı araştırma için kullanan biri için zararlı olabilir (bir ChatGPT’nin yaygın fakat tavsiye edilmeyen kullanımı).
Örnek
Haziran 2023’te, New York’lu bir avukatın ChatGPT’yi kullanarak sahte yargı görüşleri ve hukuki alıntılarla dolu olduğu ortaya çıkan bir önerge hazırladığı bildirildi. Daha sonra yaptırım ve para cezasına çarptırılan avukat, “ChatGPT’nin davalar uydurabileceğini anlamadığını” iddia etti.
Bender, “Kullanıcı için makul ve memnun edici çıktılar üretmek üzere geliştirildi” diye açıkladı. “Dolayısıyla bir avukat gelip ‘Bana bu noktayı destekleyen bir içtihat gösterin’ dediğinde, sistem, bu noktayı destekleyen içtihatlara benzeyen bir dizi kelime ortaya çıkaracak şekilde geliştirildi.”
3. ZARARLI YANLIŞ BİLGİ
Üretken yapay zeka aynı zamanda gerçek insanlar hakkında yanlış bilgiler üretebilir, bazısı doğru, bazıları yanlış olan bilgi parçalarını derleyebilir ve bazı kullanıcıların gerçek olarak kabul edebileceği hikayeler uydurabilir.
Örnek
Hukuk mesleğinde cinsel taciz vakalarını sunması istendiğinde ChatGPT, gerçek bir hukuk profesörü hakkında bir hikaye uydurdu ve onun okul gezisinde öğrencileri taciz ettiğini iddia etti. Bu gezi hiç gerçekleşmedi ve gerçek hayatta hiçbir zaman cinsel tacizle suçlanmadı. Ancak cinsel tacizi ele almak ve durdurmak için bir tür çalışma yapmıştı ve bu yüzden adı gündeme geldi.
Başka bir olayda ChatGPT, Avustralya’daki bir belediye başkanının 1990’lı ve 2000’li yılların başındaki bir rüşvet davasında suçlu bulunduğunu yalan yere iddia etti. Gerçekte o, davanın ihbarcısıydı.
Bu tür yanlış bilgilendirme, olaya karışan kişilere zarar verme potansiyeline sahiptir ve bu kişilerin kendi kusurları yoktur. Sorun, şu anda OpenAI’nin yanlış beyanlarının tüketicilerin itibarına zarar verip vermediğini görmek için araştıran ABD Federal Ticaret Komisyonu’nun da dikkatini çekti.
4. TUHAF VEYA ÜRPERTİCİ CEVAPLAR
Bazı AI halüsinasyonları tamamen tuhaf veya tüyler ürperticidir. Yapay zeka modelleri doğası gereği genellemeyi ve çıktılarıyla yaratıcı olmayı hedefler. Bu yaratıcılık bazen bazı tuhaf çıktılara yol açabilir; eğer amaç doğruluk değilse, bu mutlaka bir sorun değildir.
Aslında Orlick, bazen yapay zeka halüsinasyonundan ortaya çıkan yaratıcılığın, yapay zeka ürününün ne için kullanıldığına bağlı olarak aslında bir “bonus” olabileceğini söyledi. Jasper esas olarak her zaman yaratıcı ve yaratıcı fikirler üretmeye ihtiyaç duyan pazarlamacılar tarafından kullanılıyor. Eğer Jasper bu süreçte alışılmışın dışında bir kopya veya konsept ortaya çıkarırsa, bu aslında bir pazarlama ekibi için yararlı olabilir.
Orlick, “Fikir bulmak, bir soruna farklı açıdan bakmanın farklı yollarını bulmak gerçekten harika” dedi. “Fakat konu aslında içeriği yazmaya geldiğinde, bunun doğru olması gerekiyor. Halüsinasyonların bu çizgiyi aştığı ve kötü olduğu nokta burasıdır.”
Örnek
Bing’in sohbet robotu, New York Times teknoloji köşe yazarı Kevin Roose’a aşık olduğu konusunda ısrar etti. Diğerleri ise chatbotun onlara gaz verdiğini ve onlara hakaret ettiğini bildirdi.
Yapay Zeka Halüsinasyonları Neden Bir Sorundur?
Yapay zeka halüsinasyonları, artan etik kaygılar listesinde öne çıkan bir konu haline gelmiştir. Bu yapay zeka araçları, son derece akıcı ancak gerçekte hatalı içerikler üretebilirler, bu da bireylerin tek başlarına yapabileceğinden çok daha hızlı bir şekilde gerçekleşir. Bu durum, bir dizi soruna yol açmaktadır.
1. YANLIŞ BİLGİNİN YAYILMASI
Eğer gerçekleri denetleyen bir mekanizma bulunmuyorsa, yapay zeka halüsinasyonları üreten yapay zeka tarafından üretilen haber makalelerine sızabilir. Bu durum, yanlış bilgilerin geniş çapta yayılmasına neden olabilir ve bu da insanların geçim kaynaklarından, hükümet seçimlerinden ve hatta toplumun gerçeklik algısından kaynaklanan potansiyel etkilere yol açabilir. İnternet dolandırıcıları ve düşman ülkeler, dezinformasyon yaymak ve sorunlar yaratmak amacıyla bu durumu kullanabilirler.
2. KULLANICININ ZARARI
Yapay zeka tarafından üretilen kitaplar, aynı zamanda tamamen tehlikeli olabilen sanal gerçeklikler sunabilir. Bu tehlike, sadece itibar kaybıyla sınırlı kalmaz, aynı zamanda fiziksel zarar riskini de taşır.
Örnek vermek gerekirse, Amazon’da yapay zeka tarafından üretilen kitaplar arasında mantar toplama konusunda rehberler bulunmaktadır. Bu durum, bazı insanların bu kitaplardaki bilgilerin doğruluğu konusunda şüphe duymalarına ve yanlış bir mantarın tüketilmesinin bir kişinin sağlığını tehlikeye atıp atamayacağını sorgulamalarına yol açmıştır. Bender, bu kitaplardan biri, ölümcül bir melek mantarı ile tamamen güvenli bir düğme mantarı arasındaki farkı ayırt etme konusunda yanlış yönlendiren tavsiyelerde bulunursa, “bu, görünüşte zararsız bir dizi kelimenin anında yaşamı tehdit edebileceği bir örnek” olarak nitelendirmiştir.
3. GÜVEN KAYBI
Yapay zeka halüsinasyonlarının etkileri, yalnızca tek bir metinle sınırlı değil; bu etkiler, interneti yanlış bilgilerle doldurmanın ötesine geçiyor. Bu yanlış içerik bolluğuna sahip olduğunuzda, Bender’ın “bilgi ekosisteminin kirliliği” olarak adlandırdığı, kendiliğinden devam eden yanlış bilgi döngüleri oluşturabilirsiniz.
Bu sistemler, bazen sorunlu, bazen de hiçbir temele dayanmayan bilgiyi otoriter bir şekilde üretiyor gibi görünüyor. Bu, artık gerçek ve güvenilir bilgi kaynaklarımızın içine sızıyor. Bu sorunu tespit etmek ve düzeltmek gerçekten zor bir hale geliyor. Öncelikle, güvenmemiz gereken bilgilere güvenmemizi zorlaştırıyor. Ayrıca, sentetik olmayan bilgilerin kaynağını işaretlemeden bu yanlışı düzeltmek çok zor olacaktır.
Sonuç olarak, bu halüsinasyonlar insanların güvenini değiştiriyor. Bu, yalnızca “meşru bilgi kaynaklarında” değil, aynı zamanda üretken yapay zekada da geçerli. İnsanlar çıktıların gerçek ve güvenilir verilere dayandığına inanmazlarsa, bu teknolojiyi kullanmaktan kaçınabilirler. Bu, bu teknolojiyi geliştiren ve benimseyen şirketler için kötü bir haber olabilir.
Orlick, “Eğer bu halüsinasyonları çözemezsek, bu teknolojinin yaygınlaştırılmasına ciddi zarar verebileceğini düşünüyorum,” dedi.
Yapay Zeka Halüsinasyonları Nasıl Önlenir?
Üretken yapay zeka sektörünün önde gelen isimleri, yapay zeka halüsinasyonlarını ele almak için çaba sarf ediyorlar. Örneğin, Google, Bard’ı internete bağlayarak yanıtlarını hem eğitim verilerine hem de web üzerinde bulunan bilgilere dayandırmaya çalıştı. Aynı şekilde, OpenAI, insan test uzmanlarının geri bildirimleriyle ChatGPT’yi geliştirmek için takviyeli öğrenme tekniğini kullanmıştır. Ayrıca, sadece nihai cevapları değil, her adımda doğru akıl yürütme süreçlerini ödüllendiren yeni bir strateji olan “süreç denetimi”ni önererek daha açıklanabilir yapay zeka geliştirmeyi amaçlamıştır. Ancak, bazı uzmanlar bu yaklaşımın uydurmalarla mücadelede etkili olup olmadığını sorgulamaktadır.
Northwestern Üniversitesi’nden Riesbeck, üretken yapay zeka modellerinin her zaman “halüsinasyonlar üretebileceğini” ve doğaları gereği daima “bir şeyler uydurduklarını” ifade etmiştir. Bu nedenle, yapay zeka halüsinasyonlarının yanlış bilgi üretme olasılığını tamamen ortadan kaldırmak zor olsa da, şirketlerin ve kullanıcıların bu sorunlarla başa çıkmak ve zararlarını sınırlamak için atabileceği bazı adımlar bulunmaktadır.
1. ÇEŞİTLİ VE TEMSİLCİ EĞİTİM VERİLERİNİ KULLANIN
Bu tür modelleri geliştiren ve özelleştiren şirketlerin, kullandıkları eğitim verilerinin çeşitliliği ve gerçek dünyayı yansıtma konusunda dikkatli olmaları gereklidir. Bu yaklaşım, çıktıların yanlış yönlendirilme riskini azaltmaya yardımcı olabilir. Ayrıca, zaman ilerledikçe eğitim veri setlerini düzenli olarak güncellemeli ve genişletmeli, böylece gelişen olaylar ve kültürel değişimlere daha iyi adapte olabilirler” dedi. Jasper’dan Orlick, şirketler daha güçlü modeller geliştirdikçe, daha kaliteli, daha zengin ve daha doğru içeriklere odaklanmanız gerektiğini vurguladı.
2. MODELİ İLGİLİ VERİLERLE TEMELLEYİN
Yapay zeka, yalnızca beslendiği verilere dayalı olarak etkili olabilir. Bir insanın hukuk veya tıp konularında önemli bilgilere sahip olmadan gerçekçi hukuki veya tıbbi tavsiyelerde bulunmasını bekleyemezsiniz; aynı şekilde yapay zeka için de bu kural geçerlidir. Şirketler, özelleştirilmiş verilere dayalı olarak yapay zeka modellerini eğitebilir ve daha doğru ve bağlam odaklı cevaplar üreterek yalnızca hayal ürünü yanıtlardan kaçınabilirler.
3. SICAKLIKLA DENEY YAPIN
Sıcaklık, bir yapay zeka modelinin çıktısındaki rastgeleliği denetleyen bir parametredir. Genel olarak, daha yüksek bir sıcaklık, oluşturulan içerikteki yaratıcılığı artırırken, daha düşük bir sıcaklık çıktıyı daha belirleyici hale getirir. Başka bir deyişle, Sıcaklık arttıkça modelin yanıltıcı sonuçlar üretme olasılığı artar.
Şirketler, kullanıcılara sıcaklık ayarlarını kendi tercihlerine göre düzenleme ve yaratıcılık ile doğruluk arasında denge sağlayan bir varsayılan sıcaklık seçeneği sunabilir.
4. DAİMA DOĞRULAYIN
Her ne kadar sistemler ve kontroller yerinde olsa da, bir model tarafından üretilen yanıtların doğruluğunu kesinleştirmek sonunda kullanıcının sorumluluğundadır. Bu, yapay zeka yanılsamalarını tespit etmenin en güvenilir yoludur. Bu nedenle, birisi yapay zekayı kod yazmak, araştırma yapmak veya bir e-posta taslağı oluşturmak için kullanıyor olsa bile, üretilen içeriği kullanmadan veya paylaşmadan önce mutlaka gözden geçirmelidir.