'Güven eksikliği': Deepfake'ler ve yapay zeka ABD seçimlerini nasıl sarsabilir?
- mutlunecmettin
- 20 Haz 2024
- 5 dakikada okunur
21 Ocak'ta Patricia Gingrich akşam yemeğine oturmak üzereyken sabit telefonu çaldı. New Hampshire seçmeni telefonu açtı ve yaklaşan başkanlık önseçimlerinde oy kullanmamasını söyleyen bir ses duydu.
Gingrich, Al Jazeera'ye "Dinlerken, bunun Joe Biden'a benzediğini düşündüm" dedi. "Fakat oyunuzu koruyun, bir sonraki seçimde kullanmayın diyordu; Joe Biden'ın bunu asla söylemeyeceğini biliyordum."
Ses Amerika Birleşik Devletleri başkanına benziyor olabilir ama o değildi: Yapay zeka (AI) tarafından üretilen bir deepfake sesiydi.
Uzmanlar, yanıltma amacıyla AI araçları kullanılarak oluşturulan ses, video veya görüntülerden oluşan deepfake'lerin, yalnızca yarışa yanlış içerik enjekte ederek değil, aynı zamanda halkın güvenini aşındırarak Kasım genel seçimleri öncesinde ABD seçmenleri için yüksek risk oluşturduğu konusunda uyarıyor. ( BU SES KAYDI AŞILAMA YAKLAŞIMININ BİR ÜRÜNÜ ! ) ÖNDEN ZAYIFLATILMIŞ BİR İÇERİĞE MARUZ BIRAKARAK BİLİNÇLENDİRME ÇALIŞMASI
Gingrich, Biden'ın derin sahtekarlığına kanmadığını ancak bunun seçmen katılımını baskılamış olabileceğinden korktuğunu söyledi. Mesaj, eyalet ön seçimlerinden sadece birkaç gün önce yaklaşık 5.000 New Hampshire seçmenine ulaştı .
New Hampshire, Burlington'daki Barrington Demokrat Komitesi başkanı Gingrich, "Bu, Demokratlar'da olup bitenler hakkında pek bilgisi olmayan insanlar için kötü olabilir" dedi.
"Eğer gerçekten bir şeye oy vermemeleri gerektiğini düşünselerdi ve Joe Biden onlara yapmamalarını söylüyor olsaydı, o zaman belki de o oylamaya katılmazlardı."
Çevrimiçi gruplar savunmasız
Biden çağrısı bu seçim döneminde şu ana kadar yapılan tek sahtekarlık değildi. Florida Valisi Ron DeSantis'in kampanyası , başkanlık adaylığını iptal etmeden önce , Donald Trump'ın , COVID-19 salgını sırasında kamuoyu önünde çatışan iki figür olan immünolog Anthony Fauci'yi kucaklarken çekilmiş, AI tarafından oluşturulmuş görüntülerini içeren bir video paylaştı .
Ve Eylül ayında, Güney Carolina'daki Cumhuriyetçi ön seçimlerine katılması beklenen 300 seçmene farklı bir otomatik çağrı yapıldı . Bu kez alıcılar, Senatör Lindsey Graham'ı taklit eden ve kime oy verdiklerini soran, yapay zeka tarafından üretilen bir ses duydu.
İçeriği değiştirme veya taklit etme uygulaması - özellikle siyasi kazanç için - ABD siyasetinin başlangıcından beri mevcuttur. Ülkenin ilk başkanı George Washington bile, ABD'nin bağımsızlığının nedenini sorguladığını gösteren bir dizi "sahte mektupla" uğraşmak zorunda kaldı.
Ancak yapay zeka araçları artık insanları hızlı ve ucuz bir şekilde ikna edici bir şekilde taklit edecek kadar gelişmiş durumda ve bu da dezenformasyon riskini artırıyor.
George Washington Üniversitesi'ndeki araştırmacılar tarafından bu yılın başlarında yayınlanan bir araştırma , 2024'ün ortalarına gelindiğinde günlük "Yapay Zeka saldırılarının" artarak Kasım genel seçimleri için tehdit oluşturacağını öngördü.
Araştırmanın başyazarı Neil Johnson, Al Jazeera'ye, en yüksek riskin yakın zamandaki, kaşları kaldıran mesajlar içeren sahte otomatik aramalardan değil, daha inandırıcı deepfake'lerden geldiğini söyledi.
Johnson, "Bu, incelikli görseller, değiştirilmiş görseller olacak, tamamen sahte bilgiler olmayacak çünkü sahte bilgiler dezenformasyon denetçilerinin dikkatini çekiyor" dedi.
Çalışma, çevrimiçi toplulukların, kötü aktörlerin büyük miktarlarda manipüle edilmiş medyayı doğrudan ana akıma göndermesine olanak tanıyacak şekilde bağlantılı olduğunu buldu.
Facebook gibi platformlardaki ebeveynlik grupları gibi değişken eyaletlerdeki topluluklar da özellikle savunmasız olabilir .
Johnson, salgın sırasında aşıyla ilgili yanlış bilgilerin hızla yayıldığını örnek olarak göstererek, "Ebeveynlik topluluklarının rolü büyük olacak" dedi. (YAŞÇA BÜYÜK GRUPLARIN DEZENFORMASYON İÇERİĞİNE DAHA SAVUNMASIZ OLMASI )
"Birdenbire bir [dezenformasyon] dalgasıyla karşı karşıya kalacağımızı düşünüyorum; sahte olmayan, doğru olmayan pek çok şey var ama gerçeği çarpıtıyorlar."
Halkın güvenini aşındırıyor
Ancak deepfake'lerin tek hedefi seçmenlerin kendisi değil. Brennan Adalet Merkezi Seçimler ve Hükümet Programının kıdemli yöneticisi Larry Norden, sahte içerikleri tespit etmelerine yardımcı olmak için seçim görevlileriyle birlikte çalışıyor .
Örneğin Norden, kötü aktörlerin, patronlarının sesini manipüle ederek veya görünüşte bir denetçinin hesabı aracılığıyla bir mesaj göndererek, seçim çalışanlarına bir oy verme yerini zamanından önce kapatmaları talimatını vermek için yapay zeka araçlarını kullanabileceğini söyledi.
Anket çalışanlarına aldıkları mesajları doğrulayarak kendilerini korumayı öğretiyor.
Norden, kötü aktörlerin yapay zeka olmadan yanıltıcı içerikler oluşturabileceğini vurguladı. "Yapay zekanın özelliği, bunu geniş ölçekte yapmayı kolaylaştırmasıdır" dedi.
Daha geçen yıl Norden, teknolojinin oluşturduğu riskler hakkında bir sunum için kendisinin derin sahte bir videosunu oluşturarak yapay zekanın yeteneklerini gösterdi .
Norden, "Hiç uzun sürmedi" dedi ve yapması gereken tek şeyin önceki TV röportajlarını bir uygulamaya aktarmak olduğunu açıkladı.
Avatarı mükemmel değildi; yüzü biraz bulanıktı, sesi biraz dalgalıydı ama Norden, yapay zeka araçlarının hızla geliştiğini belirtti. "Bunu kaydettiğimizden bu yana teknoloji daha karmaşık hale geldi ve bence bunu söylemek giderek daha zor."
Tek başına teknoloji sorun değil. Deepfake'ler yaygınlaştıkça halk bunların farkına varacak ve tükettikleri içeriğe karşı daha şüpheci hale gelecektir.
Bu, seçmenlerin gerçek bilgileri reddetme olasılığının artmasıyla birlikte halkın güvenini zedeleyebilir. Siyasi figürler de bu şüpheciliği kendi amaçları doğrultusunda kötüye kullanabilirler.
Hukukçular bu olguyu "yalancının kârı" olarak adlandırdılar: Deepfake'lerle ilgili endişe, yasal ses veya video görüntülerine konu olan kişilerin kayıtların sahte olduğunu iddia etmesini kolaylaştırabilir.
Norden örnek olarak 2016 seçimleri öncesinde ortaya çıkan Access Hollywood ses kaydını gösterdi . Klipte o zamanki aday Trump'ın kadınlarla olan etkileşimlerinden bahsettiği duyuluyor: "Her şeyi yapabilirsiniz. Onları ........ yakala.
Oldukça gerçek olan kasetin, Trump'ın kadın seçmenler arasındaki şansına zarar verdiği düşünülüyordu. Ancak benzer bir ses bugün sızdırılırsa Norden, bir adayın bunun kolaylıkla sahte olduğunu söyleyebileceğini söyledi. "Halkın bu tür şeyleri göz ardı etmesi birkaç yıl öncesine göre daha kolay olurdu."
Deepfake'lere karşı ne yapılabilir?
Deepfake'ler ABD seçimlerinde artan bir endişe kaynağı olsa da, nispeten az sayıda federal yasa bunların kullanımını kısıtlıyor. Federal Seçim Komisyonu (FEC) seçimlerde deepfake'leri henüz kısıtlamadı ve Kongre'deki yasa tasarıları da askıda kaldı.
Bireysel devletler boşluğu doldurmaya çalışıyor. Tüketici savunuculuğu kuruluşu Public Citizen tarafından yayınlanan bir mevzuat takipçisine göre , seçimlerde derin sahtekarlıkları düzenlemek için şu ana kadar 20 eyalet kanunu çıkarıldı.
Hawaii, Louisiana ve New Hampshire'da çok sayıda yasa tasarısı daha geçti ve valinin imzasını bekliyor.
Norden, eyaletlerin Kongre önünde harekete geçmesine şaşırmadığını söyledi. “Devletlerin demokrasinin laboratuvarları olması gerekiyor ve bu bir kez daha doğru çıkıyor: Önce devletler harekete geçiyor. Kongre'den herhangi bir şeyin geçmesinin gerçekten zor olduğunu hepimiz biliyoruz" dedi.
Seçmenler ve siyasi örgütler de harekete geçiyor. Gingrich, New Hampshire'da Biden'ın sahte çağrısını aldıktan sonra, iddia edilen aldatmacanın sorumluluğunu almak isteyen Kadın Seçmenler Birliği liderliğindeki bir davaya katıldı.
Çağrının kaynağının, niyetinin siyasette yapay zekayı düzenleme ihtiyacına dikkat çekmek olduğunu iddia eden siyasi danışman Steve Kramer olduğu ortaya çıktı. Kramer ayrıca Senatör Graham'ı taklit ederek Güney Carolina'daki otomatik çağrının arkasında olduğunu da itiraf etti.
Kramer, NBC News'in, Biden'ın sesinin derin sahtesini oluşturmak için halka açık yazılımı kullanması için bir sihirbazı görevlendirdiğini açıklamasının ardından öne çıktı.
Davaya göre deepfake'in oluşturulması 20 dakikadan az sürdü ve maliyeti yalnızca 1 dolardı.
Ancak Kramer, CBS News'e, çabaları karşılığında "5 milyon dolar değerinde teşhir" aldığını ve bunun yapay zeka düzenlemelerinin "kendi kendine sonuçlanmasına veya en azından kendini amorti etmeye başlamasına" olanak sağlayacağını umduğunu söyledi.
"Niyetim bir fark yaratmaktı" dedi.
Mevcut yasaları uygulama potansiyeli
Ancak Kramer'in durumu, mevcut yasaların deepfake'leri engellemek için kullanılabileceğini gösteriyor.
Örneğin Federal İletişim Komisyonu (FCC), bu yılın başlarında ses taklitçiliği yapan yazılımların 1991 Telefon Tüketicilerini Koruma Yasası kapsamına girdiğine ve dolayısıyla çoğu durumda yasa dışı olduğuna karar verdi ( PDF ).
Komisyon sonuçta yasadışı otomatik arama nedeniyle Kramer'a 6 milyon dolar ceza teklif etti .
New Hampshire Adalet Bakanlığı ayrıca Kramer'i seçmenleri ağır suçlarla bastırmak ve bir adayın kimliğine bürünmekle suçladı ; bu da yedi yıla kadar hapisle sonuçlanabilir. Kramer suçunu kabul etmedi. El Cezire'nin yorum talebine yanıt vermedi.
Norden, Kramer'in ihlal etmekle suçlandığı yasaların hiçbirinin özellikle deepfake'lere uygun olmamasının önemli olduğunu söyledi. "Ona yöneltilen suçlamaların AI ile hiçbir ilgisi yok" dedi. "Bu yasalar, kullanılan teknolojiden bağımsız olarak mevcuttur."
Ancak bu yasaların kimliği belirlenemeyen veya ABD dışında bulunan kötü aktörlere uygulanması o kadar kolay değil.
“İstihbarat teşkilatlarından Çin ve Rusya'nın bu araçları denediğini zaten gördüklerini biliyoruz. Ve bunların kullanılmasını bekliyorlar" dedi Norden. "Bu anlamda, bu sorundan çıkış yolunuzu yasalaştırmayacaksınız."
Hem Norden hem de Johnson, düzenleme eksikliğinin seçmenlerin derin sahtekarlıklar hakkında bilgi sahibi olmalarını ve doğru bilgiyi nasıl bulacaklarını öğrenmelerini daha önemli hale getirdiğine inanıyor.
Gingrich ise manipülatif deepfake'lerin her yerde daha da yaygınlaşacağını bildiğini söyledi. O da seçmenlerin kendilerini risk konusunda bilgilendirmeleri gerektiğini düşünüyor.
Seçmenlere mesajı mı? "İnsanlara oy verebileceklerini bildiklerinden emin olmalarını söylerdim."


Yorumlar