Yapay Zeka

OpenAI’nın Yeni Yapay Zeka Modelleri Halüsinasyon Sorunu Yaşıyor!

OpenAI’nın geçtiğimiz hafta tanıttığı yeni nesil yapay zeka modelleri, doğruluk açısından ciddi endişelere neden oldu. O3 ve o4-mini isimli modellerin, zaman zaman gerçek dışı bilgiler sunduğu belirlendi.

OpenAI’nın yapay zeka modellerinde doğruluk sorunu var

Yapay zeka alanında “halüsinasyon” terimi, modellerin gerçekte var olmayan veya doğruluğu sorgulanabilir bilgiler üretmesi anlamına geliyor. Bu durum, özellikle bilgi odaklı uygulamalar için büyük bir risk teşkil ediyor.

OpenAI’nın teknik dökümanında yer alan güncel verilere göre, o3 modeli firma tarafından geliştirilen bilgi doğruluğu testi PersonQA’da yüzde 33 oranında halüsinasyon üretti. Önceki nesil o1 modelinin bu testteki halüsinasyon oranı yüzde 16, o3-mini modelinin ise yüzde 14,8 seviyesindeydi.

Yeni modeller arasında en yüksek oran o4-mini modeline ait; bu modelin halüsinasyon üretme oranı yüzde 48 olarak kaydedildi. OpenAI, bu beklenmedik artışın nedenini henüz net olarak belirleyemedi. Şirket, bu durumun anlaşılması için daha fazla araştırma yapılması gerektiğini açıkladı.

Özellikle matematiksel çözümleme ve yazılım üretimi gibi alanlarda başarılı performans sergileyen modellerin bilgi doğruluğu konusunda dengesizlik yaşadığı belirtiliyor. Bazı uzmanlar, bu durumun modelin eğitildiği pekiştirmeli öğrenme (reinforcement learning) sürecinden kaynaklanabileceğini öne sürüyor.

OpenAI, yeni modellerinin performansını optimize etmek için çalışmalarını sürdürüyor. Peki, siz bu konu hakkında ne düşünüyorsunuz? Görüşlerinizi aşağıdaki yorumlar kısmından bizimle kolayca paylaşabilirsiniz.