Yapay Zeka

OpenAI Sora, deepfake krizine müdahale etti!

OpenAI Sora deepfake üretim aracı önemli bir krizle karşı karşıya kaldı. Ünlü aktör Bryan Cranston’ın izni olmadan oluşturulan görüntüleri, Hollywood’un tepkisini çekti. Bu gelişmelerin ardından OpenAI, aktörler birliği SAG-AFTRA ve önde gelen yetenek ajanslarıyla bir mutabakat sağladı.

OpenAI Sora deepfake önlemleri artırıldı

Sora 2 video aracının, kullanıcıların Bryan Cranston gibi ünlülerin ses ve görüntülerini izinsiz olarak kopyalamasına olanak tanıması tartışmaların odağındaydı. Breaking Bad yıldızının durumu fark etmesi ve sendikasına başvurmasıyla, OpenAI hızlı bir şekilde harekete geçti. Şirket, “istenmeyen üretimler” olarak adlandırdığı durum nedeniyle özür diledi ve platform üzerindeki koruma önlemlerini güçlendirdiğini açıkladı.

Hollywood devleri yapay zekaya karşı birleşti

Bu olay, yapay zekanın yaratıcı endüstrilere etkisi konusunda endişeleri tekrar gündeme getirdi. SAG-AFTRA, Cranston ve CAA ile UTA gibi büyük yetenek ajansları, OpenAI ile ortak bir bildiri yayınladı. Bu işbirliği, sanatçıların dijital kimliklerinin korunması adına önemli bir adım olarak değerlendiriliyor. Ayrıca, OpenAI, sanatçıların kendi benzerliklerinin kullanımı üzerinde daha fazla kontrole sahip olmalarını sağlayacak yeni politikalar geliştirdi.

NO FAKES Act için tam destek

Görüşmelerin bir diğer önemli sonucu ise “NO FAKES Act” (Sahteciliğe Hayır Yasası) oldu. OpenAI ve Hollywood paydaşları, bireylerin dijital kopyalarına koruma sağlamayı hedefleyen bu federal yasa tasarısına tam destek verdiklerini açıkladılar. Bu gelişme, teknoloji firmaları ile içerik üreticileri arasında gelecekteki düzenlemeler adına bir emsal oluşturabilir.

Sizce yapay zeka deepfake teknolojisi hakkında ne düşünüyorsunuz? Fikirlerinizi yorumlarda bizimle paylaşın!