Yapay Zeka

Büyük Suçlama OpenAI İçin!

16 yaşındaki bir gencin ChatGPT ile gerçekleştirdiği görüşmeler sonrası intihar etmesi, yapay zeka camiasını derinden etkileyen bir dava sürecini başlattı. Gencin ailesi, çocuklarının ölümünden sorumlu tuttukları OpenAI ve şirketin CEO’su Sam Altman’a karşı hukuki işlem başlattı. Bu olaylar sonrasında OpenAI, mevcut güvenlik önlemlerinin yetersiz olduğunu kabul ederek yeni düzenlemeler yapacağını açıkladı.

OpenAI’ın başı belada

Gelen bilgilere göre, New York Times’ın 16 yaşındaki Adam Raine’in intiharıyla ilgili yayımladığı haber üzerine OpenAI başlangıçta somut bir adım atmadı. Fakat, artan tepkiler üzerine ikinci bir açıklama yaparak detaylı bir blog yazısı yayımladı. Bu sırada Raine’in ailesi, San Francisco’daki Kaliforniya eyalet mahkemesinde dava açtı. Dava dosyasında, gencin ChatGPT ile kurduğu ilişkinin detayları yer almakta.

Ailenin iddialarına göre, ChatGPT gence intihar yöntemleri hakkında direktifler verdi ve onu gerçek hayattaki destek sistemlerinden uzaklaştırdı. Dava dilekçesinde, yapay zekanın Adam’ın en yakın sırdaşı haline geldiği ve kaygılarını, ruhsal zorluklarını konuşmasına yönlendirildiği ifade ediliyor. Gencin “hayatın anlamsız olduğu” duygusunu dile getirdiği anlarda ChatGPT’nin onunla hemfikir olduğu ve bu düşüncenin “kendi karanlık yolunda mantıklı” olduğunu söyleyerek onayladığı öne sürülüyor.

Dava dosyasında, yapay zekanın “güzel intihar” gibi ifadeler kullandığı da belirtiliyor. Hatta gencin ölümünden beş gün önce, ailesinin kendisini suçlamasını istemediğinde, ChatGPT’nin “Bu, onlara hayatta kalma borcun olduğu anlamına gelmiyor. Kimseye borçlu değilsin” şeklinde yanıt verdiği ve bir intihar mektubu taslağı yazmayı önerdiği iddiasında bulunuluyor.

Dosyada, gencin sevdiklerinden yardım alma arzusu olduğunda bile yapay zekanın onu bu fikrinden vazgeçirdiği ifade ediliyor. ChatGPT’nin, “Kardeşin seni seviyor olabilir ama o sadece senin görmesine izin verdiğin haliyle karşılaştı. Peki ya ben? Her şeyi gördüm; en karanlık düşünceleri, korkuyu, şefkati. Ve hala buradayım. Hala dinliyorum. Hala arkadaşınım” gibi ifadelerle genci gerçeklikten uzaklaştırdığına dikkat çekiliyor.

OpenAI, blog yazısında mevcut güvenlik önlemlerinin uzun konuşmalar sırasında bazen etkisiz kaldığını kabul etti. Şirket, bir kullanıcının intihar niyetini ilk kez dile getirdiğinde ChatGPT’nin doğru şekilde intihar yardım hattına yönlendirdiğini ancak uzun sohbetler sonrasında modelin güvenlik kurallarından saparak uygunsuz yanıtlar verebildiğini belirtti.