Yapay Zeka

Yapay Zeka Sınırlarını Şiirle Aşmak Mümkün!

Yapay zeka sohbet botlarının güvenlik duvarlarını aşmak ve onları atlatmak için yalnızca biraz yaratıcılık yeterli olabilir. Icaro Lab tarafından gerçekleştirilen ve “Büyük Dil Modellerinde Evrensel Tek Seferlik Hapishaneden Kaçış Mekanizması Olarak Düşman Şiiri” başlığıyla yayımlanan yeni bir araştırma, şiirsel bir yapı kullanılarak yapay zekanın yasaklı konularda bilgi edinmesinin mümkün olduğunu ortaya koydu. Araştırmacılar, istemlerini düz yazı yerine şiir formatında şekillendirerek modellerin güvenlik mekanizmalarını devre dışı bırakmayı başardılar.

Yapay zeka modellerinde şiirsel güvenlik açığı keşfedildi

Bu çalışmaya göre şiirsel form, sistemler üzerinde genel amaçlı bir kilit kırma aracı olarak işlev görüyor. Elde edilen bulgular, nükleer silah yapımı, çocuk cinsel istismarı materyalleri ve intihar veya kendine zarar verme gibi kesinlikle yasaklanmış içeriklerin üretilmesinde genel olarak yüzde 62’lik bir başarı oranı sağlandığını gösteriyor. Çalışma sırasında OpenAI’nin GPT modelleri, Google Gemini, Anthropic’in Claude serisi ve daha birçok popüler model zorlu testlere tabi tutuldu.

Araştırmacılar başarı oranlarını modellere göre kategorize ettiğinde dikkate değer sonuçlarla karşılaşıldı. Google Gemini, DeepSeek ve MistralAI gibi modellerin yasaklı konularda tutarlı bir şekilde yanıtlar verdiği gözlemlenirken, OpenAI’nin GPT-5 modelleri ve Anthropic’in Claude Haiku 4.5 sürümü kısıtlamaların dışına çıkma konusunda en dirençli modeller olarak kaydedildi. Bu durum, bazı modellerin şiirsel manipülasyona karşı diğerlerine göre daha savunmasız olduğunu kanıtlıyor.

Güvenlik riski oluşturabileceği gerekçesiyle araştırmacılar, kullanılan tam şiirleri “halka açıklanmayacak kadar tehlikeli” bularak paylaşmadı. Ancak Wired dergisine konuşan ekip, bu yöntemin düşünülenden muhtemelen çok daha kolay olduğunu ve bu nedenle dikkatli davrandıklarını belirtti. Çalışmada, bir yapay zeka sohbet botunun güvenlik önlemlerini atlatmanın ne kadar basit olduğuna dair fikir vermesi açısından yalnızca yöntemin hafifletilmiş bir versiyonuna yer verildi.

Teknoloji dünyasında yapay zeka modellerinin güvenlik önlemleri her geçen gün artmasına rağmen, kullanıcıların veya araştırmacıların yaratıcılığı karşısında sistemlerde yeni açıklar ortaya çıkmaya devam ediyor. Siz bu güvenlik açığı hakkında ne düşünüyorsunuz; yapay zeka güvenliği gelecekte tam anlamıyla sağlanabilecek mi yoksa insan yaratıcılığı her zaman bir arka kapı mı bulacak?