Yapay Zeka

Yapay Zeka Geliştikçe Yalan Söyleme Oranı Artıyor!

Yapay zeka teknolojilerindeki ilerlemeler, halüsinasyon sorununu daha da belirgin hale getirdi. Dil modellerinin güvenle sunduğu yanlış bilgiler, sadece teknoloji meraklılarını değil, bu sistemlere yatırım yapan organizasyonları da kaygılandırıyor.

Yapay zeka, geliştikçe daha fazla halüsinasyon üretmeye başlıyor

Bu sorun, modellerin daha gelişmiş sürümlerinde azalmak yerine, tam aksine artış göstermektedir. Bir rapora göre, OpenAI’nın geçtiğimiz ay tanıttığı “o3” ve “o4-mini” modelleri, şirket içi testlerde sırasıyla %33 ve %48 oranında halüsinasyon üretti.

Bu oranlar, önceki modellere kıyasla neredeyse iki kat bir artışı ifade ediyor. Benzer şekilde, Google ve DeepSeek gibi firmaların geliştirdiği modeller de hatalı bilgi üretme eğilimindedir. Sorunun kökeni, modellerin mimarisinden ziyade, bu sistemlerin nasıl çalıştığının yeterince bilinmemesindedir.

Vectara CEO’su Amr Awadallah, yapay zekaların halüsinasyon üretmesinin kaçınılmaz olduğunu belirtiyor. Awadallah, bu durumun tamamen çözülmesinin mümkün olmadığını vurguluyor. Uzmanlara göre bu, sadece son kullanıcılar için değil, aynı zamanda bu teknolojilere güvenen şirketler için de önemli sonuçlar doğurabilecek bir risk taşıyor.

Gerçek dışı bilgiler, kullanıcı güvenini sarsmanın ötesinde, yanlış kararlar alınmasına neden olabiliyor. Sistemdeki bu artışın nedenlerinden biri olarak sentetik veri kullanımı öne çıkıyor. Gerçek dünya verilerinin yetersizliği nedeniyle birçok firma, yapay zeka tarafından üretilmiş verileri eğitim süreçlerinde kullanmaya başladı.

Ancak bu verilerle eğitilen modeller, mevcut hataları pekiştirerek çoğaltabiliyor. Siz bu konu hakkında ne düşünüyorsunuz? Görüşlerinizi aşağıdaki yorumlar kısmında bizimle paylaşın.