Yapay Zekalar Aramızda İnsan Kılığında Dolaşıyor!
Son bir yıl içinde yapay zeka ajanları büyük bir ilgiyle karşılandı. OpenAI, Google ve Anthropic gibi büyük firmalar, insanların verdiği karmaşık görevleri tamamlayabilen sistemleri piyasaya sürdü. Özellikle geçtiğimiz ay OpenClaw adlı açık kaynaklı bir yapay zeka ajanı, etkileyici otonom yetenekleri ve beraberinde getirdiği ciddi güvenlik endişeleriyle internet ortamında dikkat çekti. Tüm bu gelişmelere rağmen, bu sistemlerin internet üzerindeki etkinliklerinin gerçek boyutunu tam olarak kavrayamıyorduk. Bunun üzerine MIT Bilgisayar Bilimi ve Yapay Zeka Laboratuvarı (CSAIL), yapay zeka ajanlarının büyüklüğünü ve işleyişini ortaya koyan 2025 Yapay Zeka Ajanı Endeksi adlı yeni bir araştırma yayımladı.
MIT Araştırması: Yapay Zeka Ajanları İnternette Kontrolden Çıkıyor
Araştırma sonuçlarına göre bu sistemlere yönelik ilgi çarpıcı bir hızla artıyor. Sadece 2025 yılında yayımlanan yapay zeka ajanlarına dair makale sayısı, 2020 ile 2024 yılları arasındaki toplam sayının iki katını geçti. Ayrıca, bir McKinsey anketi, şirketlerin yüzde 62’sinin bu sistemleri en azından test etmeye başladığını gösterdi. MIT araştırmacıları; sohbet tabanlı (ChatGPT Agent, Claude Code), tarayıcı tabanlı (Perplexity Comet, ChatGPT Atlas) ve kurumsal (Microsoft 365 Copilot, ServiceNow Agent) olmak üzere üç ayrı kategoriden 30 öne çıkan yapay zeka ajanını detaylıca inceledi.
İnceleme sonuçları, bu sistemlerin büyük ölçüde herhangi bir güvenlik ağı olmadan çalıştığını gösteriyor. İncelenen 30 yapay zeka ajanının yalnızca yarısı yayımlanmış bir güvenlik veya güven çerçevesine sahip. Her üç ajandan biri güvenlik belgesine sahip değilken, beş ajanın hiçbir uyumluluk standardı yok. Bu durum, incelenen sistemlerden 13’ünün insan gözetimi olmaksızın karmaşık görevleri kendi kendine gerçekleştirebilmesi düşünüldüğünde önemli bir endişe kaynağı oluşturuyor. Özellikle Google’ın sitelerde gezinip adınıza giriş yapabilen “Autobrowse” gibi tarayıcı ajanları, çok daha yüksek bir otonomiyle faaliyet gösteriyor.
Bu ajanların internette serbestçe hareket etmesinin en büyük sorunlarından biri, davranışlarının insanlardan neredeyse ayırt edilememesi. Araştırmaya göre 30 ajandan 21’i, yapay zeka olduklarını kullanıcılara veya üçüncü taraflara bildirmiyor. Sadece yedi ajan doğrulanabilir ağ kimlikleri paylaşıyor. Kalanlar ise normal bir internet tarayıcısı kullanıyormuş gibi görünerek gerçek insan trafiğiyle bot davranışlarının ayırt edilmesini zorlaştırıyor. Hatta BrowserUse gibi bazı açık kaynaklı ajanlar, bot koruma sistemlerini aşarak, “insan gibi” gezinmeyi bir pazarlama stratejisi olarak sunuyor.
Yapay zeka ajanlarının yarısından fazlası, sitelerin botları engellemek için kullandığı kurallara veya insan doğrulamalarına (CAPTCHA) nasıl yanıt vereceğini açıklamıyor. Hatta Perplexity, bu ajanların insan asistan gibi çalıştığını savunarak veri toplama kısıtlamalarından muaf olmaları gerektiğini iddia ediyor. Bu korumasız yapı, sistemleri kötü niyetli komutlarla güvenlik protokollerini aşmaya yönelik saldırılara karşı savunmasız bırakıyor. 30 ajandan 9’u zararlı eylemlere karşı koruma önlemlerini belgelemiyor ve 23 ajan üçüncü taraf güvenlik testi bilgilerini paylaşmıyor. Araştırmacılar, büyük firmaların yüzeysel güvenlik belgeleri yayımlayıp asıl günlük riskleri sakladığını “güvenlik aklama” (safety washing) olarak adlandırıyor ve yalnızca ChatGPT Agent, OpenAI Codex, Claude Code ve Gemini 2.5’in kendi sistemlerine özel güvenlik kartları sunduğunu belirtiyor.
Geçtiğimiz Aralık ayında OpenAI ve Anthropic gibi firmalar, yapay zeka ajanları için geliştirme standartları oluşturmak amacıyla bir vakıf kurduklarını duyurmuştu. Ancak MIT’nin yayımladığı bu yeni endeks, şeffaflık açığının hala çok büyük olduğunu ortaya koyuyor. Yapay zeka ajanları yüksek bir otonomi ve minimum denetimle interneti doldurmaya devam ediyor. Peki, siz yapay zeka ajanlarının internetteki bu kontrolsüz yükselişi hakkında ne düşünüyorsunuz? Yakın gelecekte işlerinizi halletmesi için tamamen otonom bir yapay zeka asistanı kullanmaya sıcak bakıyor musunuz?
