Son Dakika: ChatGPT Halüsinasyonları: Neden Bilmiyorum Diyemiy - Bilim ve Teknoloji Haberi | Nirvana Haber
Piyasa verileri yükleniyor...

ChatGPT Halüsinasyonları: Neden Bilmiyorum Diyemiyor?

Yayımlanma Tarihi: 08 Kasım 2025 10:52 | Son Güncelleme Tarihi : 05 Aralık 2025 20:17

Yeni araştırma, ChatGPT gibi yapay zekaların halüsinasyon görmesinin asıl nedeninin tahmin yürütmeye teşvik edilmek olduğunu ortaya koydu.

HABERİN DEVAMI

ChatGPT ve Yapay Zeka Halüsinasyonları: 'Yanlış Tahmin' Sorunu Devam Ediyor

Yeni bir araştırma, ChatGPT ve benzeri üretken yapay zeka modellerinin zaman zaman 'halüsinasyon görmesinin', yani yanlış ve uydurma bilgi üretmesinin ana nedenini ortaya koydu. Araştırmaya göre, modellerin bu hatayı yapmasının temel sebebi bilgi eksikliğini kabul etmek yerine tahmin yürütmeye teşvik edilmeleri.

Halüsinasyon Nedir ve Neden Önemli?

Halüsinasyon, yapay zekanın yanlış bilgileri sanki kesin doğruymuş gibi sunması anlamına geliyor. Konuşma ve yazma yetenekleri oldukça gelişmiş olan modeller, hatalı bilgileri kendilerinden emin bir şekilde aktarabildiği için bu durum ciddi bir endişe kaynağı.

Stanford araştırması da yapay zekanın inanç ve bilgiyi ayırt edemediğini ortaya koyuyor. Uygulamalar, özellikle Reddit gibi büyük veri kaynaklarından öğreniyor ve çoğu zaman belirsizlik karşısında stratejik tahminler yürütüyor.

Tahmin Etmeye Teşvik Edilen Modeller

Araştırmacılar, ChatGPT'nin de dahil olduğu üretken yapay zekaların öğrenme sürecini şöyle açıklıyor: 'Modeller yalnızca doğruluk üzerinden puanlandığında, 'bilmiyorum' demek yerine tahminde bulunmaya teşvik ediliyor. Bu, bir öğrencinin çoktan seçmeli testte boş bırakmaktan kaçınarak kafadan cevap vermesine benziyor.'

Büyük metin bloklarında bir sonraki kelimeyi tahmin ederek öğrenen modeller, eğitim verilerindeki rasgelelik ve belirsizlik nedeniyle bazen yanlış ve tutarsız bilgiler üretebiliyor. Bu tür hatalar, özellikle kesin cevabı olmayan sorularda sık görülüyor.

Araştırmacılar, bu sorunun tamamen çözülebileceğini belirtiyor: 'Modellerin belirsizlikten ziyade kendinden emin hataları cezalandırılmalı ve 'bilinmiyor' gibi uygun ifadeler için küçük puanlar verilmeli.'

Yani standart testlerde yanlış cevaba eksi puan, boş bırakılan soruya az da olsa puan verilmesi gibi bir yöntem, yapay zekanın gereksiz tahmin yapmasını engelleyebilir. Bu tür güncellemeler, halüsinasyonları azaltabilir ve gelecekte daha güvenilir dil modellerinin geliştirilmesine olanak tanıyabilir.

Uzmanlar, yapay zekanın tıp ve hukuk gibi kritik alanlarda kullanımı arttıkça, halüsinasyonların risk oluşturabileceğini vurguluyor. Dolayısıyla derin araştırma ve geliştirme süreçleri, güvenilir ve doğru sonuç veren yapay zeka sistemleri için kritik önemde.


Kaynak: İndependent

WhatsApp

Yorumlar

Yorum yapmak için giriş yapmalısınız

Henüz hiç yorum yapılmamış

İlk yorumu siz yapın ve tartışmayı başlatın!

DAHA FAZLA HABER
Reklam

Süper Lig Puan Durumu

1
Galatasaray
15 maç · 11G 3B 1M
36
2
Fenerbahçe
14 maç · 9G 5B 0M
32
3
Trabzonspor
14 maç · 9G 4B 1M
31
4
Göztepe
14 maç · 7G 5B 2M
26
5
Samsunspor
15 maç · 6G 7B 2M
25

Bizi Takip Edin

NirvanaHaber, size daha iyi bir deneyim sunmak için çerezleri kullanır. Çerez Politikamızı okuyarak daha fazla bilgi edinebilirsiniz.