Yeni araştırmalar, bunun temel nedeninin sistemlerin bilmediklerinde sessiz kalmak yerine tahmin yapmaya yönlendirilmesi olduğunu ortaya koydu.

Independent’ta yer alan habere göre, yapay zekada “halüsinasyon” sorunu giderek büyüyen bir endişe haline geldi. Modeller akıcı biçimde konuşsa da zaman zaman yanlış bilgileri yüksek bir güvenle sunabiliyor. Uzmanlar, özellikle tıp ve hukuk gibi kritik alanlarda yapay zekanın kullanımının artmasıyla bu soruna karşı daha kapsamlı önlemler alınması gerektiğini belirtiyor.

OpenAI, halüsinasyonların temel nedeninin algoritmaların değerlendirilme biçimi olduğunu bildirdi. Araştırmacılar, “Çoğu değerlendirme, modelin belirsizlik karşısında dürüst olmasını değil, tahmin yapmasını teşvik ediyor” ifadelerini kullandı.

Durumu bir sınav örneğiyle açıklayan ekip, “Bir öğrenci, boş bıraktığında puan kaybedeceği bir testte bilmediği sorularda tahmin yapar. Benzer şekilde, yapay zeka modelleri de yalnızca doğru cevap sayısına göre değerlendirildiğinde ‘bilmiyorum’ demek yerine tahmin etmeyi öğreniyor” değerlendirmesinde bulundu.

ChatGPT, Gemini ve Meta AI gibi modeller, büyük metin veri kümelerinde bir sonraki kelimeyi tahmin ederek öğreniyor. Ancak bu verilerdeki rastgelelik ve tutarsızlık, hatalı sonuçların ortaya çıkmasına neden olabiliyor. Bilgi eksikliği veya belirsizlik içeren durumlarda modellerin “stratejik tahminler” yaptığı, bunun da zamanla hem doğruluğu hem de hata oranını artırdığı belirtiliyor.

OpenAI ekibi, halüsinasyon sorununu azaltmak için yeni teşvik sistemleri üzerinde çalışıldığını açıkladı. Araştırmacılar, modellerin “emin olduğu yanlış cevapları” cezalandıran, buna karşın “belirsiz ama temkinli yanıtları” kısmen ödüllendiren bir değerlendirme sisteminin daha güvenilir sonuçlar doğurabileceğini ifade etti.

Kaynak: Haber Merkezi