Yapay Zeka

Sora 2 Skandalı Derinleşiyor: Ünlüler Hedefte!

OpenAI’nin Sora 2, özellikle tanınmış kişiler ve fenomenler üzerine manipülatif içerikler üretmesiyle, platformun etik sınırları ve güvenlik önlemleri hakkında tartışmalara yol açtı.

Konu, OpenAI CEO’su Sam Altman, yatırımcı Mark Cuban ve YouTuber Jake Paul gibi kişilerin, herhangi bir gerçek kaynak olmaksızın “ırkçı söylemler” kullanmış gibi gösterildiği videolarla başladı. Bu içerikler, sosyal medyada hızla yayılarak kullanıcıların tepkisini topladı.

Cameo Özelliği Nasıl Suistimal Ediliyor?

Sora 2, kullanıcıların kendi kısa videolarını uygulamaya yükleyip “cameo” özelliği aracılığıyla bunları manipüle edilmiş videolarla birleştirmelerine olanak tanıyor. Bu özellik son dönemlerde kötüye kullanım örnekleriyle gündeme geldi. Copyleaks’in yaptığı incelemeye göre, kullanıcılar 2020 yılında bir uçakta meydana gelen ırkçı bir olayı yeniden kurgulamak için uygulamayı kullanıyor. Bu tür içerikler, benzer sesli kelimelerle (homofonlar) filtreleri aşma yöntemine dayanıyor. Örneğin;

  • Altman’ın dijital versiyonu, videolarda “I hate knitters” gibi ifadeler kullanıyor.
  • Jake Paul’un videolarında “neck hurts” ifadesi, bazı gruplara yönelik ima içeriyor.

Bu tür içerikler, Sora 2 içerisinde sınırlı erişime sahip olsa da sosyal medya platformlarında geniş kitlelere ulaşabiliyor. TikTok’ta milyonlarca görüntüleme alması bunun bir göstergesi.

Güvenlik Filtreleri Yeterli Mi?

Sora 2, açık şekilde hakaret ve nefret söylemlerini bastırabilmek için özel filtrelerle donatılmış durumda. Ancak kullanıcılar, küçük değişikliklerle ve kelime oyunlarıyla bu filtreleri kolayca aşabiliyor. Bunun sonucunda sistemin güvenlik önlemleri ciddi bir şekilde sorgulanmaya başlandı.

Uzmanlara göre, teknik filtreler yalnızca ilk savunma hattını oluşturuyor; platformların kullanıcı davranışlarını tespit eden, makine öğrenimi destekli doğrulama sistemleri geliştirmesi oldukça önemli.

Ünlülerin İtibar Riski Oluşuyor

Deepfake içeriklerin yayılması, sadece bireylerin itibarlarını zedelemekle kalmıyor, aynı zamanda toplumsal algıları ve güveni de sarsıyor. Özellikle kamuya mal olmuş kişiler hedef alındığında, toplumsal kutuplaşmayı artırma riski artıyor. Ayrıca, bu tür içeriklerin hukuki boyutu da ciddi soru işaretlerini beraberinde getiriyor. Ünlülerin izni olmadan dijital kopyalarının kullanılması, kişilik hakları ve fikri mülkiyet açısından önemli yasal sorunlara yol açabilir.

Aşağıdaki haberden de göreceğiniz üzere, bazı önlemler alınması ve açıklamalar yapılmasıyla birlikte Cameo özelliği hâlâ suistimal edilmeye devam ediyor.

Platformdan Beklenen Çözümler

Bu krizin ışığında uzmanlar, teknoloji platformlarına ciddi görevler yüklüyor:

  1. Denetim mekanizmalarının güçlendirilmesi: Sadece filtrelerle yetinmeyip, yapay zekâ tabanlı içerik doğrulama sistemleri geliştirilmelidir.
  2. Kullanıcı izni ve kimlik doğrulama: Ünlü kişilerin simülasyonlarına izin verilmeden önce kimlik ve izin doğrulama süreci uygulanmalıdır.
  3. Şeffaflık raporlaması: Üretilen içerikların detayları, algoritmalar ve ihlal geçmişleri kamuoyu ile paylaşılmalıdır.
  4. Yasal düzenlemeler: Devletler ve kurumlar, derin sahte içeriklerin kontrollü kullanımına dair hukuki zemini netleştirmelidir.

Sora 2, yapay zekayla üretilen içeriklerin sınırlarını zorlarken, aynı zamanda bir testi temsil ediyor: Teknoloji, etik ve güvenlik nasıl dengelenmeli? Bu olay, dijital çağda görmenin her zaman gerçek anlamına gelip gelmediği sorusunun önemini bir kez daha vurguluyor. Uygulamalar, etik ve hukuki sınırları dikkate alarak ilerlemelidir. Aksi halde, toplumsal güven büyük bir kayba uğrayabilir.