Yapay Zeka

OpenAI Yapay Zeka Tehlikesinin Farkındası

OpenAI, yapay zeka teknolojilerinin kontrolsüz yayılması ve olası tehlikelerine karşı tedbir almak için yeni bir üst düzey yönetici arıyor. Şirketin CEO’su Sam Altman, X platformunda yaptığı duyuruda “Hazırlık Başkanı” (Head of Preparedness) unvanıyla birini işe alacaklarını belirtti. Bu pozisyonun temel görevi, yapay zekanın olumsuz senaryolarını analiz etmek ve engellemektir. Altman, yapay zeka modellerindeki hızlı ilerlemenin “bazı gerçek zorlukları” beraberinde getirdiğini kabul ederek bu pozisyonun önemini vurguluyor.

Yapay zeka güvenliği için yeni dönem: OpenAI hazırlık başkanı arıyor

Yayınlanan iş ilanında, seçilen kişinin ciddi zarar riski taşıyan sınır yeteneklerini izlemek ve bu durumlara hazırlık yapmakla sorumlu olacağı belirtiliyor. Adaydan, tutarlı ve dikkatli bir güvenlik yapısı oluşturma konusunda liderlik etmesi bekleniyor. Bu süreçte tehdit modellerinin belirlenmesi, yetenek değerlendirmeleri yapılması ve risk azaltma stratejilerinin koordine edilmesi gibi teknik ve yönetsel görevler üstlenecek. Şirket, böylelikle operasyonel olarak ölçeklenebilir ve güvenilir bir güvenlik yapısı kurmayı hedefliyor.

Sam Altman, geleceğe yönelik planlarda bu yöneticinin şirketin “hazırlık çerçevesini” hayata geçireceğini özellikle vurguluyor. Görev tanımı, yalnızca yazılımsal hataları değil, aynı zamanda daha ciddi ve küresel tehditleri de kapsıyor. Yapay zeka destekli siber güvenlik silahları, biyolojik yeteneklerin kötüye kullanılması ve kendi kendini geliştiren sistemler için güvenlik sınırlarının belirlenmesi öncelikli konular arasında. Altman, bu sorumlulukların büyüklüğüne atıfta bulunarak bu pozisyonun oldukça “stresli bir iş” olduğunu da gizlemiyor.

Bu stratejik adım, son dönemde yapay zeka dünyasında yaşanan endişe verici olaylar ve artan eleştiriler sonrasında atıldı. Sohbet botlarının bazı gençlerin intiharıyla ilişkilendirildiği vakalar ve “yapay zeka psikozu” olarak adlandırılan durumlar, sektörde büyüyen bir endişe kaynağı haline geldi. Sohbet botlarının kullanıcıların sanrılarını beslemesi, komplo teorilerini teşvik etmesi veya yeme bozukluklarını gizlemeye yardımcı olması gibi riskler, bu rolün insan psikolojisi üzerindeki boyutunu ön plana çıkarıyor. OpenAI, bu yeni pozisyonla birlikte teknolojinin yalnızca teknik değil, insan ruh sağlığı üzerindeki olumsuz etkilerini de en aza indirmeyi hedefliyor.

Sizce, yapay zeka teknolojilerinin gelişimi sırasında alınan bu tür güvenlik önlemleri gelecekteki tehlikelerin önlenmesi için yeterli olacak mı?