Yakın vakit evvel Google, GPU’lardan yardım alan fiyatsız bilgi süreç hizmeti Google Colaboratory’deki deepfake (Derin Hile) algoritmalarını yasakladı. Deepfake’leri düzenleyen bir kişi yahut teknoloji devinden oluşmuyor, o kadar yaygın ki birkaç ABD eyaletinin bunları düzenleyen kanunları var. Çin yasa tasarısı da bilgisayar tarafından oluşturulan medyanın tanımlanmasını gerektiriyor ve muhtemel AB yapay zekâ düzenlemesinin bu özel teknoloji hakkında unsur içermesi bekleniyor.
Kaspersky uzmanları, deepfake sahtekarlığının ne olduğunu, neden bu kadar çok tartışmaya yol açtığını ve kullanıcıların kendilerini nasıl koruyabileceklerini şöyle açıklıyor:
- ‘Deepfake’ ekseriyetle insanlara dair özellikleri bahis alan ve derin hudut ağları yardımıyla üretilen sentetik, bilgisayar tarafından oluşturulmuş medya tiplerini söz ediyor. Bunlar görüntü, fotoğraf yahut ses kaydı olabiliyor. Klâsik imaj düzenleme teknikleri yerine derin öğrenmenin kullanılması, inandırıcı bir uydurma modül oluşturmak için gereken çabayı ve beceriyi büyük ölçüde azaltıyor.
- Başlangıçta bu terim Reddit’te popülerlik kazanmış belli bir yazılım kesimine atıfta bulunuyordu. Yazılım, bir kişinin yüzünü öteki kişinin bulunduğu bir görüntüye yerleştirebiliyordu ve ünlülerin taklitleriyle istek dışı porno manzaraları oluşturmak için kullanıldı. Kestirimlere nazaran tüm deepfake sahtekarlıkların 96’sı pornografik imgelerden oluşuyor. Deepfake’in berbata kullanımı, prestij gaspı ve kamuyu önünde utandırma üzere kullanımlara dair kaygıları gündeme getiriyor.
- Bu teknoloji siber hatalılara da yardımcı olabiliyor. İngiltere ve Hong Kong’daki en az iki hadisede, ilgili şirketlerin yöneticisi üzere davranarak şirketleri dolandırıcılara para aktarmaları için kandırmak üzere kurgulanmış deepfake ses sahtekarlığı kullanıldı. Yeni araştırmalar, finans kurumları tarafından KYC prosedürlerinde kullanılan ticari canlılık tespit algoritmalarının kimlik fotoğraflarını kullanan deepfake uygulamaları tarafından kandırılabileceğini ve yeni atak vektörleri oluşturabileceğini, bunun sızdırılmış kimlik bilgilerini önemli bir sorun haline getirdiğini gösteriyor.
- Diğer bir sorun da deepfake sahtekarlıklarının, berbat hedeflerle kullanılabildikleri için ses ve görüntü içeriğine olan inancı sarsması. Örneğin yakın tarihli bir olayda, kripto para ünitesi dolandırıcılığını desteklemek için Elon Musk ile yapılan geçersiz bir röportaj kullanıldı. Europol üzere çeşitli uzmanlar ve kurumlar, deepfake imajlarının artan kullanılabilirliğinin internette dezenformasyonun daha da yayılmasına yol açabileceği konusunda uyarıyor.
- Haberlerin hepsi gerçek haber değil. Manzara manipülasyonu, görüntülemenin kendisi kadar eski bir mevzu. CGI onlarca yıldır piyasada ve her ikisi de deepfake üzere geniş bir kullanım alanı buldu. Örneğin Kendrick Lamar’ın yakın tarihli Heart Part 5 görüntüsünde, rapçinin yüzünü Kanye West üzere başka ünlü ünlülere dönüştürmek için deepfake teknolojisi kullanıldı. Top Gun: Maverick sinemasında oyuncu sesini kaybettikten sonra Val Kilmer’in karakterini seslendirmek için bir algoritmadan yardım alındı. Geçersiz Tom Cruise’un oynadığı viral bir TikTok serisi oluşturmak için de yeniden deepfake algoritmaları kullanıldı. Birkaç teşebbüs, örneğin gerçeğe yakın metaverse avatarları oluşturmak için bu teknolojiyi kullanmanın yeni yollarını arıyor.
Deepfake’leri çevreleyen tüm inanç sıkıntılarıyla birlikte, bir deepfake’in nasıl tespit edileceği merak ediliyorsa işe aşağıdaki ipuçlarıyla başlanabilir:
- Tom Cruise’un yer aldığı örneklerdeki üzere inandırıcı deepfake örnekleri hala çok fazla uzmanlık, efor ve hatta bazen profesyonel bir oyuncu gerektiriyor. Dolandırıcılık için kullanılan sahtekarlıklar hala düşük kaliteli olma eğiliminde ve doğal olmayan dudak hareketleri, makûs işlenmiş saçlar, uyumsuz yüz formları, çok az göz kırpma yahut hiç kırpmama, cilt rengi uyumsuzlukları üzere ögelerle fark edilebiliyor. Giysilerin işlenmesindeki yanılgılar yahut yüzün üzerinden geçen bir el de amatör bir deepfake çalışmasını ele verebiliyor.
- Ünlü yahut halka açık bir kişinin çılgın tezler yahut gerçek olamayacak kadar güzel teklifler yaptığına rastlanılırsa, görüntü ikna edici olsa bile gerekli ihtimam gösterilmeli ve bilgileri saygın kaynaklardan denetim edilmelidir. Dolandırıcıların deepfake eksikliklerini gizlemek için görüntüleri kasıtlı olarak kodlayabildiği unutulmamalıdır. Bu nedenle en düzgün strateji görüntüye bakarak ipucu aramak değil, sağduyu ile gerçekleri denetim etme hünerlerini kullanmaktır.
- Güvenilir bir güvenlik tahlili, yüksek kaliteli bir deepfake sahtekarlığının kullanıcıyı makûs hedefli belgeleri yahut programları indirmeye, kuşkulu kontakları yahut kimlik avı web sitelerini ziyaret etmeye ikna etmesi durumunda korunmada takviye sağlayabilir.
- Deepfake pornosunun kurbanı olunması durumunda, görüntünün kaldırılmasını talep etmek için hem web sitesine (birçok web sitesi deepfake göndermeyi yasaklar) hem de deepfake oluşturmak ceza gerektiren bir hata olduğu için kolluk kuvvetlerine başvurulabilir.
Kaynak: (BHA) – Beyaz Haber Ajansı