Prof. Dr. Eraslan: “deepfake Cep Telefonlarına Kadar İnmiş Durumda, Olası İtibar Suikastlarının Artması Anlamına Gelebilir”
Sosyal Medya ve Dijital Güvenlik Eğitim Araştırma Merkezi (SODİMER) Başkanı Prof. Dr. Levent Eraslan, "Deepfake teknolojileri cep telefonlarına kadar inmiş durumda. Oradaki kamera, ses sistemleri, piksel sayıları, programlar çok yoğun bir şekilde sıradanlaştı. Yapılacak olası itibar suikastlarının artması anlamına gelebilir" dedi.
Son günlerde adı sıklıkla duyulmaya başlanan "Deepfake" teknolojisi, yüz fotoğrafı ya da tablodan, yüksek gerçekçiliğe sahip, konuşan, gülen ya da yüz ifadelerini kullanan sahte videolar üretilmesine imkan sağlıyor. Bunun yanı sıra herhangi bir videodaki konuşmayı değiştirip düzenleyebiliyor. Sinema ve televizyon sektöründe kullandığında, hata yapılan bir diyaloğun yeniden çekime gerek duyulmadan düzeltilmesine imkan sağlayabilecek bu teknolojinin, kötü niyetli kişilerin kullanımı açısından bakıldığında ise önemli risk ve tehlikeleri içerisinde barındırdığı belirtiliyor.
"İnsanların olmadığı yerlere montajlandığı ya da onların görüntüsünü ortaya koyduğu bir sistem"
SODİMER Başkanı Prof. Dr. Levent Eraslan, Deepfake teknolojisinin avantajları ve dezavantajları hakkında İhlas Haber Ajansına özel açıklamalarda bulundu. Prof. Dr. Eraslan, Deepfake teknolojisinin iyi kullanıldığı zaman olumlu fakat tehlikesinin de çok fazla olduğu bir dünya olarak belirterek, "Derin sahtecilik Türkçesi. Reddit'te bir kullanıcının bulduğu uygulama. Yapay zeka uygulamaları ve desteğiyle beraber insanları olmadığı yerlere montajlandığı ya da onların görüntüsünü ortaya koyduğu bir sistem" diye konuştu.
Eraslan, Deepfake teknolojisinin bireyselleştirilmiş eğlencede çok önemli olduğunu söyleyerek, "Film ve endüstri içinde çok önemli bir teknoloji" dedi.
"Sıradan insanlar telefonlarıyla Deepfake yapabiliyor"
Deepfake teknolojisinin algı yönetiminde ve itibar suikastlarında kullanıldığını ifade eden Prof. Dr. Eraslan, şunları kaydetti:
"İnsanların olmadığı yerlerde onların aleyhlerine kullanılabilecek bir video oluşturma süreci bu. Anlaşılması çok zor fakat püf noktaları var. Öncelikle dudak ses senkronizasyonu, boyun yerleştirmeler, uzuv yerleştirmeler. Hemen hemen her ünlünün başına gelebiliyor. Türkiye'de siyasi kimi aktörlerde böylesi tehditlerle yüz yüze geldi. Süreç içerisinde kullanılan ses, dudak senkronizasyonu, vücut hatta objelerle Deepfake'in olup olmadığı anlaşılabilir. Şu büyük bir sıkıntı artık sıradan insanlar da Deepfake yapmaya başladı. Sentetik bilgi diyoruz buna. Sentetik bilgiyi üretme süreçlerin daha profesyonel süreçlerden olurken şimdi sıradan insanlar telefonlarıyla Deepfake yapabiliyor. Asıl problemde burada karşımıza çıkabiliyor."
"Önümüze gelen her videonun gerçek olup olmadığını araştırmamız lazım"
Deepfake teknolojilerinin cep telefonlarıyla bile basit bir şekilde yapıldığını vurgulayan Eraslan, "Oradaki kamera, ses sistemleri, piksel sayıları, programlar çok yoğun bir şekilde sıradanlaştı. Yapılacak olası itibar suikastlarının artması anlamına gelebilir. Bu bir suç. Türk Ceza Kanununun en az beş vurgusunda bunun bir suç olduğu ifade ediliyor. Bir yıl ila üç yıl hapisten başlayan ve çeşitli yaptırımları olan bir boyut. Önümüze gelen her videonun gerçek olup olmadığını araştırmamız lazım. Profesyonel yapılmış, büyük stüdyolarda yapılmış çalışmaları tespit etmek çok güç oluyor" dedi.
Kaynak:IHA