Geçen hafta, Cumhuriyetçi Ulusal Komite, Biden’a karşı, çerçevenin sol üst köşesinde küçük bir sorumluluk reddi beyanının yer aldığı bir video reklam yayınladı: “Tamamen yapay zeka görüntüleri ile oluşturuldu.” Eleştirmenler, feragatnamenin küçültülmüş boyutunu sorguladılar ve özellikle reklam, yapay zekanın siyasi saldırı reklamcılığında ilk önemli kullanımına işaret ettiği için sınırlı değerini öne sürdüler. Yapay zeka tarafından üretilen medya daha yaygın hale geldikçe, çoğu kişi metin tabanlı etiketlerin, altyazıların ve filigranların şeffaflık için çok önemli olduğunu savundu.
Ancak bu etiketler gerçekten işe yarıyor mu? Belki değil.
Bir etiketin çalışması için okunaklı olması gerekir. Metin okunacak kadar büyük mü? Sözler erişilebilir mi? Ayrıca izleyicilere medyanın nasıl yaratıldığı ve kullanıldığı hakkında anlamlı bir bağlam sağlamalıdır. Ve en iyi durumda, niyeti de ifşa eder: Bu medya parçası neden dünyaya konmuştur?
Gazetecilik, belgesel medya, endüstri ve bilimsel yayınlar, izleyicilere ve kullanıcılara gerekli bağlamı sağlamak için uzun süredir açıklamalara güvenmektedir. Gazetecilik ve belgesel filmleri, kaynakları alıntılamak için genellikle yer paylaşımlı metin kullanır. Uyarı etiketleri ve etiketler, üretilen mallar, gıdalar ve ilaçlar üzerinde her yerde bulunur. Bilimsel raporlamada, verilerin ve analizlerin nasıl elde edildiğini açıklamak çok önemlidir. Ancak sentetik medyayı, yapay zeka tarafından üretilen içeriği ve derin sahtekarlıkları etiketlemek, özellikle sosyal medya platformlarında genellikle istenmeyen bir yük olarak görülüyor. Bu sonradan akla gelen bir düşünce. Yanlış/dezenformasyon çağında sıkıcı bir uyum.
Bu nedenle, filigranlar ve etiketler gibi birçok mevcut AI medya açıklama uygulaması kolayca kaldırılabilir. Seyirci üyeleri oradayken bile -artık hızlı görsel girdi konusunda eğitilmiş- gözleri sanki görmekten vazgeç filigranlar ve açıklamalar. Örneğin, Eylül 2019’da ünlü İtalyan hicivli TV programı Striscia la Notizia bir gönderdi düşük kaliteli yüz değiştirme videosu eski başbakan Matteo Renzi’nin bir masada oturup sosyal medyada abartılı el hareketleriyle o zamanki koalisyon ortağı Matteo Salvini’ye hakaret etmesi. rağmen bir Striscia deepfakes araştırmacısı Henry Adjer’e göre filigran ve açık metin tabanlı bir sorumluluk reddi beyanı, bazı izleyiciler videonun gerçek olduğuna inanıyordu.
Buna bağlam kayması denir: Etiketlenmiş ve filigranlanmış bile olsa herhangi bir medya parçası politize ve kapalı sosyal medya gruplarına dağıtıldığında, yaratıcıları onun nasıl çerçevelendiği, yorumlandığı ve paylaşıldığı üzerindeki kontrolü kaybeder. Witness ve MIT arasındaki ortak bir araştırma çalışmasında bulduğumuz gibi, hiciv derin sahtekarlıklarla karıştığında, bu durumda olduğu gibi, genellikle kafa karışıklığı yaratır. Striscia video. Bu tür basit metin tabanlı etiketler, gerçekte doğru olmayabilecekken, etiketi olmayan herhangi bir şeyin manipüle edilmediği gibi ek bir yanılgı yaratabilir.
Teknoloji uzmanları, kriptografik kaynak ve ayrıntılı dosya meta verileri gibi sentetik ortamın kökenlerini hızlı ve doğru bir şekilde izlemenin yolları üzerinde çalışıyorlar. Alternatif etiketleme yöntemleri söz konusu olduğunda, sanatçılar ve insan hakları aktivistleri, etiketlemeyi bir eklentiden ziyade yaratıcı bir eylem olarak yeniden çerçevelendirerek bu tür içeriği daha iyi tanımlamanın umut verici yeni yollarını sunuyorlar.
Bir ifşa medyanın kendisine eklendiğinde, kaldırılamaz ve aslında izleyicileri bir medya parçasının nasıl ve neden yaratıldığını anlamaya itmek için bir araç olarak kullanılabilir. Örneğin, David France’ın belgeselinde Çeçenistan’a hoş geldiniz, savunmasız görüşülen kişiler, deepfake oluşturmak için kullanılanlar gibi yaratıcı sentetik medya araçlarının yardımıyla dijital olarak gizlendi. Ek olarak, yüzlerinin etrafında ince haleler belirdi; bu, izleyicilere izledikleri görüntülerin manipüle edildiği ve bu kişilerin hikayelerini paylaşırken büyük bir risk aldıkları konusunda bir ipucu veriyordu. Kendrick Lamar’ın 2022 tarihli müzik videosu “The Heart Part 5”te yönetmenler, Lamar’ın yüzünü Will Smith, OJ Simpson ve Kobe Bryant gibi hem ölmüş hem de yaşayan ünlülere dönüştürmek için deepfake teknolojisini kullandılar. Teknolojinin bu kullanımı, doğrudan şarkının sözlerine ve koreografiye yazılır, örneğin Lamar’ın elini yüzünde kaydırmak için kullanması ve derin sahte bir düzenlemeyi açıkça belirtmesi gibi. Ortaya çıkan video, derin sahtekarlıkların kendileri hakkında bir meta-yorumdur.
Bir yanıt bırakın