Yapay zekanın hükümetin daha iyi çalışmasını sağlaması, riski azaltması ve şeffaflığı artırması
- mutlunecmettin
- 22 Oca
- 12 dakikada okunur
dünya çapındaki demokrasiler temel bir zorlukla karşı karşıyadır: vatandaşları sonuç üretebileceklerine inanmıyor. Ekonomik İşbirliği ve Kalkınma Örgütü'ne üye ülkelerde yapılan son anketler , kısmen kamu kurumlarının ne duyarlı ne de şeffaf olduğu algısı tarafından yönlendirilen hükümete olan güvenin azaldığını gösteriyor. Ve Pew Araştırma Merkezi'nin bir dizi anketi, ABD de dahil olmak üzere 12 gelişmiş ekonomide demokrasiden duyulan memnuniyette belirgin bir düşüş olduğunu gösteriyor .
ABD hükümetine ilişkin algıları seçmenlerin bir alt kümesi arasında iyileştirmek için, göreve gelen Trump yönetimi israfı dizginleme ve daha fazla verimliliği teşvik etme sözü verdi. Bunun pratikte ne anlama geldiği belirsiz, ancak hükümetin halka daha iyi hizmet etmesini sağlama hedefi (yeni olmasa da) demokrasiler genelinde önemlidir. Birçoğu "teknoloji iyimseri" alandan gelen yeni bir hükümet danışmanları dalgasıyla, yapay zekanın (YZ) konuşlandırılması da dahil olmak üzere teknolojik ilerlemelerin önerilen herhangi bir çözümün parçası olması kaçınılmaz görünüyor.
Artan sayıda araştırma, işyerinde AI kullanmanın faydalarını vurgulamaktadır. AI destekli araçların ve diğer teknolojik çözümlerin son federal dağıtımlarından alınan örnekler açık bir vaat göstermektedir. Sözde " yüksek etkili hizmet sağlayıcılar " için - İç Gelir Servisi veya Gümrük ve Sınır Koruma gibi federal kurumların kamuya açık bölümleri - AI destekli herhangi bir performans kazanımı, Amerikalıların ABD hükümetinin genel yeterliliğine ilişkin algılarını iyileştirebilir.
Ancak, hükümetin verimliliğini artırmak için teknolojiden yararlanan " hızlı hareket et ve şeyleri kır " yaklaşımı da önemli sonuçlara yol açabilir. Siyasi yelpazede AI sistemlerine karşı yaygın bir güvensizliğin varlığı ve dünya çapında iyi belgelenmiş bazı yanlış adımlar göz önüne alındığında, bu araçların zararlı bir şekilde kullanılması -ister hükümetler tarafından ister özel sektörde olsun- vatandaşları yabancılaştırabilir, potansiyel faydalarına dair daha derin bir şüpheye yol açabilir veya hatta dönüştürücü çözümlerin geliştirilmesini yavaşlatabilir. Ayrıca, hükümete olan kamu güvenini daha da aşındırabilir. İnsan etkileşimleri ve yargısı ile riskleri azaltmaya yönelik sürekli dikkat, bir sonraki yönetim hükümetin vatandaşlarına nasıl hizmet ettiğini iyileştirmek için teknoloji yollarını araştırırken bile hayati önem taşımaya devam ediyor.
Yapay zekanın hükümetteki potansiyeli
Son deneysel kanıtlar, AI'nın iş gücünü dönüştürme potansiyelini vurgulamaktadır. Üniversite mezunu profesyonellerden , programcılardan ve hevesli avukatlardan müşteri destek temsilcilerine , yaratıcı yazarlara ve danışmanlara kadar AI yardımı çıktı kalitesini iyileştirebilir, çalışanların zamanından tasarruf sağlayabilir, performanstaki eşitsizlikleri azaltabilir ve iş memnuniyetini artırabilir. Bu kazanımlar şüphesiz dünya çapındaki kamu sektörü iş gücü için taşınabilirdir. Örneğin bir çalışma, İngiltere'nin Ulusal Sağlık Hizmeti profesyonellerinin daha sıradan bürokratik görevlerde yardımcı olmak için üretken AI'dan yararlanarak haftada bir gün iş tasarrufu sağlayabileceklerini tahmin ettiğini buldu.
Bu potansiyelin tanınması, diğer sorunların yanı sıra veri kalitesi ve çelişkili veya belirsiz düzenlemeler ve standartlarla ilgili devam eden zorluklara rağmen , bir dizi ABD federal ajansında hızlı deneylere yol açtı . 2023'te federal hükümet, ajanslar genelinde 710 AI kullanım örneğini açıkladı. 2024'e gelindiğinde bu sayı iki katından fazla artarak 1.757'ye çıktı.
Örneğin, ABD Patent ve Marka Ofisi, patent sınıflandırma ve arama süreçlerini iyileştirmek için AI araçları konuşlandırarak başvuru işleme sürelerini azalttı. Dışişleri Bakanlığı, çalışanlarının zamanlarını daha verimli kullanmalarına yardımcı olmak için AI'dan yararlandı ve e-posta taslakları hazırlamak, belgeleri çevirmek, fikir fırtınası yapmak, departman politikalarını aramak ve makaleleri özetlemek için açık kaynaklı ve ABD hükümet verilerini kullanabilen araçlar konuşlandırarak diğer görevler için zaman kazandırdı. " Sürünme, yürüme, koşma " yaklaşımını kullanan Ulaştırma Güvenlik İdaresi (TSA), veri güvenliği soruları devam etse de, havaalanı tarama süreçlerini hızlandırmak ve müşteri hizmetlerini iyileştirmek için AI destekli teknolojileri operasyonlarına entegre etmeye başladı.
Havaalanı güvenliği gibi yüksek etkili alanlarda, erişimi kolaylaştırmak bir zamanlar zahmetli olan süreçleri daha verimli hale getirebilir, vatandaşların hükümetle günlük etkileşimlerinin kalitesini güçlendirebilir ve yapay zekadan elde edilen kazanımların daha eşit bir şekilde dağıtılmasını sağlamaya yardımcı olabilir. Zamanla, bu teknolojik yatırımlar teorik olarak hükümet algılarını da iyileştirmeye yardımcı olabilir.
Teknolojik çözümlere aşırı güvenmenin riskleri
Bu faydalara rağmen, karar vermeyi iyileştirmek ve operasyonları modernize etmek için yapay zeka kullanan teknolojilerin lekeli bir geçmişi vardır. Örneğin, 2015 yılında Avustralya'da sosyal yardım alanların borçlarını yanlış hesaplayan otomatik bir borç tahsilat sistemini içeren Robodebt skandalı önemli bir mali ve psikolojik sıkıntıya yol açtı. 2019 yılında, fayda dolandırıcılığını erken aşamada tespit etmek için kendi kendine öğrenen bir algoritmayı içeren bir çocuk bakımı faydaları skandalı Hollanda'yı sardı. SyRI olarak bilinen sistem, çifte vatandaşlık, düşük gelir veya "Batılı olmayan görünüm" gibi göstergeleri potansiyel dolandırıcılığın sinyalleri olarak kullandı. Sonuçlar felaket oldu: çocukların ailelerinden ayrılması, yoksulluk ve hatta intihar. Benzer sorunlar, vize işlemlerini kolaylaştırmak için tasarlanmış bir algoritmanın "kökleşmiş ırkçılık" içerdiği iddiasıyla 2020'de askıya alındığı İngiltere'nin vize başvuru sisteminde de ortaya çıktı .
Bu vakalar, hükümet işlevlerini modernize etmek için AI destekli araçların dağıtımında veri kalitesinin ve sistem denetiminin önemli rolünü vurgular. Uygun denetim olmadan ve altta yatan veriler hatalı veya önyargılıysa, bu sorunlar sonraki çıktılarda tekrarlanacak veya hatta daha da karmaşık hale gelecektir. Bu, özellikle kolluk kuvvetleri veya sosyal hizmetler gibi alanlarda istenmeyen olumsuz sonuçlara yol açabilir. Hatalı AI uygulamaları, diğer uygulanabilir teknoloji tabanlı çözümler hakkında şüpheler yaratabilir ve potansiyel olarak hükümete olan güveni tamamen zayıflatabilir.
Ayrıca, memnuniyetin bir itici gücü olarak "verimliliğin" önemini abartıyor olmamız da mümkün. Örneğin, ABD'de havaalanı güvenlik deneyimine ilişkin algılar iyileşmiş olsa da, 13.000'den fazla TSA müşterisiyle yapılan bir anket , bu değişimin algılanan bekleme süresiyle (yüz tanıma teknolojisinin azaltmaya yardımcı olduğu) daha az, "profesyonellik, saygı ve güvenlik prosedürlerine ilişkin anlayış" gibi iyileştirilmiş "kişilerarası iletişim" ile daha çok ilgisi olduğunu buldu. Kısacası, güler yüzlü TSA görevlileri, yolcuların deneyimleri üzerinde daha hızlı bir kuyrukta beklemekten daha fazla fark yaratabilir. Bu durumda, teknoloji kesinlikle olumlu deneyimleri şekillendirmede rol oynayabilir, ancak algıları değiştirmenin ana itici gücü olmayabilir.
Verimlilik ve güven arasında denge kurmak
Trump yönetiminin önceki AI yürütme emri — AI kullanım örneklerinin eksik ama kullanışlı bir yürütme ajansı envanterini zorunlu kılan — kötü uygulanan sistemlerin federal hükümet genelinde konuşlandırılan teknolojik çözümleri meşruiyetsizleştirebileceğini kabul etti. Ancak, ikinci Trump yönetimi şekillenirken, riski azaltmak veya tedarik süreçlerini kolaylaştırmak için tasarlanmış yönergeleri ortadan kaldırmaya yönelik bir baskı yarardan çok zarar verebilir. Şüphesiz, bu alanların birçoğu iyileştirmelerden faydalanabilir (örneğin, kurumlar genelinde veri standardizasyon uygulamaları veya FedRAMP modernizasyon çabaları ). Ancak, çok hızlı hareket eden veya bu sistemlerin potansiyel risklerini yeterince tanımlamayan, hesaba katmayan ve iletmeyen bir yaklaşım ters tepebilir.
Son anket verileri, kademeli ve bilinçli bir sürece ihtiyaç olduğunu gösteriyor. Yapay zeka farkındalığı arttıkça, kötüye kullanımıyla ilgili endişeler de arttı. Amerika Birleşik Devletleri'nde, katılımcıların büyük çoğunluğu, bir dizi yapay zeka destekli sistem için daha yüksek test ve güvenlik standartlarını destekliyor, ancak bunun kendi kendini düzenleme mi yoksa uygulanabilir hükümet denetimi mi olması gerektiği konusunda partiden partiye farklılık var.
Amerikalıların AI'ya yönelik artan şüpheciliğini gidermek için, teknolojik çözümler dağıtmadan önce riskleri azaltmaya odaklanmak kritik öneme sahip olmaya devam ediyor. AI kullanımıyla ilgili net yönergeler geliştirmeli, insanların bir AI sisteminin kararlarıyla ne zaman etkileşime girdiğini veya bunlara tabi olduğunu ve nedenini açıklamalı ve kamuoyuyla etkileşim kurmanın ve bağımsız denetimi teşvik etmenin yollarını geliştirmeliyiz. Ayrıca, insanların isterlerse teknolojiden vazgeçmesini kolaylaştırmalıyız. Aynı zamanda, politika yapıcılar, umut vadeden AI çözümlerinin dağıtımını aşırı karmaşık veya külfetli hale getiren veri erişimi ve tedarik etrafındaki bürokratik süreçleri kolaylaştırmaya ve çatışmayı ortadan kaldırmaya devam etmelidir.
İnsan-AI iş birliğinin üretkenliği ve kaliteyi artırabileceği giderek daha da belirginleşiyor. Yine de, kamuoyunun desteği olmadan, bu sistemlere güven oluşturmak zor olacak. Federal hükümetin büyük bir çabasına rağmen, AI öncelikli olarak özel sektör yatırımları ve piyasa güçleri tarafından şekillendirilmeye devam ediyor . Teknolojik yenilikler şüphesiz hükümet verimliliğini artırabilir. Ancak, hükümetler AI'nın dönüştürücü potansiyelinden yararlanmak istiyorlarsa, şeffaflığa öncelik vermeli, riski azaltmalı ve insan karar alma süreçlerinde hayati bir rol üstlenmelidirler.
Avustralya'da yapılan çığır açıcı bir soruşturma, önceki hükümetin yasadışı sosyal yardım avının kurbanların kendilerini suçlu gibi hissetmelerine ve intiharlara yol açtığını ortaya koydu.
Yerel olarak "Robodebt" olarak bilinen bu sistem, sosyal yardım alanların yardımları geri ödemelerini hatalı bir şekilde talep eden otomatik bir hükümet planıydı.
İnsanlara, yanlış bir algoritmaya dayanarak binlerce dolar borçları olduğunu söyleyen mektuplar gönderildi.
Bu politikadan yarım milyondan fazla Avustralyalı etkilendi.
Bu plan 2016'dan 2019'da bir mahkeme tarafından yasadışı ilan edilene kadar devam etti. Ülkenin en fakir insanlarından bazılarını sahte borçları ödemeye zorladı.Birçoğu daha kötü mali koşullara zorlandı - kredi çekmek, arabalarını satmak veya haftalar içinde ödemeleri gerektiği söylenen bir borcu ödemek için birikimlerini kullanmak. Diğerleri, kendilerine para borçlu olunduğu söylendikten sonra aşağılandıklarını ve utanç duyduklarını anlattı.
Cuma günü, skandalla ilgili kraliyet komisyonu soruşturması nihai raporunu yayınladı ve planı "kamu yönetiminin maliyetli bir başarısızlığı" olarak nitelendirerek "kapsamlı, yıkıcı ve devam eden" kötü etkilere sahip olduğunu söyledi.
Komiser Catherine Holmes, 990 sayfalık raporunda, "Robodebt, ne adil ne de yasal olan kaba ve zalim bir mekanizmaydı ve birçok insanın kendini suçlu gibi hissetmesine neden oldu" diye yazdı.
Kraliyet komisyonu, Avustralya'nın en güçlü kamu soruşturması biçimidir. Bu 11 ay sürdü ve yüzlerce kamu başvurusu aldı.
Başbakan Anthony Albanese, Cuma günü önceki hükümetin planını vatandaşlara karşı "ağır bir ihanet" olarak niteledi ve en savunmasız kesimlere zarar verdiğini söyledi.
Soruşturmada Robodebt politikasının bir sonucu olarak en az üç bilinen intihar vakası tespit edildi ve "bunların bu tür trajedilerin tek örneği olmadığından emin olundu".
İntihar sonucu ölenler arasında anneleri geçen yıl komisyona kendi adlarına tanıklık eden 28 yaşındaki Rhys Cauzzo ve 22 yaşındaki Jarrad Madgwick adlı iki genç adam da vardı. Kath Madgwick daha önce BBC'ye Jarrad'ın intiharından hükümetin kısmen sorumlu olduğunu söylemişti.
Dolandırıcılıkla mücadelesinde, Hollanda hükümeti 2014'ten beri çeşitli veri tabanlarındaki vatandaşların kişisel verilerini çapraz referanslıyor. SyRI (sistem risk göstergesi) adı verilen bu sistem, daha fazla araştırmayı hak eden "olası olmayan vatandaş profilleri" bulmak istiyor. Hollanda Veri Koruma Otoritesi ve Danıştay'ın büyük itirazlarına rağmen, SyRI vatandaşlara verilerine ne olduğu konusunda hiçbir şeffaflık sağlanmadan uygulandı.
Fikir şudur: Eğer bir devlet kurumu belirli bir mahallede yardımlar, ödenekler veya vergilerle ilgili dolandırıcılıktan şüphelenirse, SyRI'dan faydalanabilir. Belediyeler, UWV, sosyal güvenlik bankası, Sosyal İşler ve İstihdam Bakanlığı müfettişleri ve vergi dairesi sisteme erişebilir. SyRI mahalledeki hangi vatandaşların daha fazla araştırılması gerektiğine karar verir.
SyRI hükümet için başarılı olmadı. İlk beş yılında, beş belediye bir mahalleyi analiz etmeyi talep etti. Bu projelerden sadece ikisi gerçekten yürütüldü, diğer üçü iptal edildi. Hollanda gazetesi De Volkskrant'ın 2019'daki araştırmasına göre , bu algoritmik soruşturmaların hiçbiri yeni dolandırıcılık vakalarını tespit edemedi.
Yanlış pozitifler
SyRI'yi kullanmak isteyen devlet kurumları için ayrıntılı bir prosedür vardır. İki kurum işbirliği yapmalı ve Sosyal İşler ve İstihdam Bakanlığı'ndan (Felemenkçe kısaltmasıyla SZW) bir analiz yürütmesini istemelidir. Bir SyRI projesi başlamadan önce, SZW resmi gazetenin çevrimiçi versiyonunda bir duyuru yayınlar. Platform Bescherming Burgerrechten'den (Sivil Haklar Koruma Platformu) Ronald Huissen, "Belediyenin bir mahalledeki vatandaşlara analiz edildiklerine dair bilgi verme yükümlülüğü yoktur" diyor. "Ve eğer bilgilendirilirlerse, bu, SyRI'nin hangi verileri nasıl kullandığına dair ayrıntılar olmadan, kendileri tarafından mutlaka okunmayan ve çok belirsiz ifadelerle yapılan bir şehir bülteni aracılığıyla olur."
Analizi talep eden kurum, olası olmayan bir veri kombinasyonu için işaretlenen vatandaşları cezalandıramaz: her işaretlenen vatandaş için gerçek bir dolandırıcılık vakası olup olmadığını araştırmak zorundadır. Dahası, işaretlenen vatandaşlar önce Sosyal İşler ve İstihdam Bakanlığı'nda yanlış pozitifler açısından incelenir. Yanlış pozitif olduğu düşünülen vatandaşlara ait veriler, analizi talep eden kuruma teslim edilmez.
Şeffaflık yok
Ancak bu kontroller uygulansa bile, şeffaflık eksikliği hala büyük bir sorun. Tüm mahallelerin sakinleri, SyRI'nin onlar hakkında hangi gizlilik açısından hassas verilere sahip olduğunu bilmeden büyüteç altına alındı. Her 'risk göstergesi', vatandaşların istediklerinde inceleyebilecekleri bir kayda kaydedilir. Ancak vatandaşlar, SyRI tarafından dolandırıcılık riski nedeniyle işaretlendiklerinde otomatik olarak uyarılmazlar ve işaretlenmelerinin nedenlerine erişemezler.
2018'in başlarında, Platform Bescherming Burgerrechten, birkaç başka Hollanda sivil hakları örgütüyle birlikte, SyRI'nin kullanımını durdurmak için Hollanda devletine karşı bir dava açtı. Aynı zamanda, Bij Voorbaat Verdacht (Başından beri şüpheli) adlı medya kampanyalarıyla SyRI hakkında kamuoyunda bir tartışma başlatmak istediler.
SyRI'nin yasal dayanağı olan resmi karara göre sistem, iş, para cezaları, cezalar, vergiler, mülkler, konut, eğitim, emeklilik, borçlar, faydalar, ödenekler, sübvansiyonlar, izinler ve muafiyetler ve daha fazlası hakkında verileri çapraz referanslayabilir. Bunlar o kadar geniş bir şekilde tanımlanmıştır ki 2014'te Danıştay, SyRI hakkındaki olumsuz görüşünde "işlenemeyen neredeyse hiçbir kişisel veri olmadığı" sonucuna varmıştır.
Kara kutu
SyRI, kullandığı veri kaynaklarını bir 'kara kutu' yöntemiyle takma adlandırır. Yani, bağlantılı her veri kaynağı için, tüm vatandaş adları her birey için benzersiz bir tanımlayıcı ile değiştirilir. Tanımlayıcı, bu çeşitli veri kaynaklarından vatandaş hakkındaki verileri birbirine bağlamayı mümkün kılar. Analizden sonra, sonuç muhtemelen hileli yararlanıcıları temsil eden tanımlayıcıların bir listesidir. Bu tanımlayıcılar daha sonra gerçek adlarına geri çevrilir.
Platform Bescherming Burgerrechten ile Hollanda Devleti arasındaki davada, ikincisi bir risk göstergesine yol açabilecek bazı "tutarsızlıklar" örnekleri verdi. Bu tutarsızlıklardan biri akan suyun düşük kullanımıdır. Bu, yardım alan birinin başka bir adreste başka biriyle birlikte yaşadığının ve dolayısıyla bekarlar için daha yüksek yardıma hak kazanmadığının bir işareti olabilir. Ancak, yağmur suyunun kullanılması, tutumlu bir yaşam veya hatta bozuk bir su sayacı gibi düşük su kullanımının birçok başka olası nedeni vardır.
Gizli bir sos
Bu 'kara kutuda' neler olup bittiği hâlâ belirsiz ve Hollanda hükümeti ilgili tarafların bu konuyu aydınlatmaya yönelik tüm girişimlerini engelledi. 2017'de Sosyal İşler Bakanlığı, kullandığı risk modellerinin gizli tutulması gerektiğine karar verdi. 2018'de siyasi parti D66, SyRI'nin algoritmalarını yayınlamak veya algoritmaların yayınlanması mümkün değilse teknik bir denetim yapmak için bir önerge yazdı (ancak dosyalamadı).
Sosyal İşler ve İstihdam Devlet Sekreteri Tamara van Ark, önergenin sunulmasına karşı şiddetle tavsiyede bulundu (böylece asla oylamaya sunulmadı) ve eyalet SyRI'nin risk modellerini ifşa ederse potansiyel suçluların davranışlarını değiştirebilecekleri konusunda uyardı. Ancak risk modellerindeki faktörlerin çoğu zaten biliniyor veya bekleniyor veya düşük su kullanımı gibi dolandırıcılığı tespit etmek için SyRI'den önce zaten kullanılmıştı. Daha yüksek bir fayda elde etmek için dolandırıcılık yapan birinin su kullanımını artırmak için musluğu açık bırakacağını hayal etmek zor.
Öncelikle düşük gelirli mahallelerde kullanılır
SyRI ile ilgili başka bir sorun daha var: Platform Bescherming Burgerrechten'in bilgi edinme özgürlüğü taleplerine göre, SyRI'nin öncelikli olarak düşük gelirli mahallelerde kullanıldığı ortaya çıktı. Bu, önyargıları ve ayrımcılığı daha da kötüleştiriyor: hükümet SyRI'nin risk analizini yalnızca halihazırda yüksek riskli olduğu düşünülen mahallelerde kullanırsa, orada daha fazla yüksek riskli vatandaş bulması şaşırtıcı değil.
Birleşmiş Milletler Aşırı Yoksulluk ve İnsan Hakları Özel Raportörü Philip Alston, 26 Eylül 2019'da Hollanda mahkemesine yazdığı mektupta SyRI ile ilgili endişelerini dile getirdi : "Bütün mahalleler şüpheli kabul ediliyor ve özel incelemeye tabi tutuluyor. Bu, dolandırıcılık müfettişlerinin belirli bir bölgedeki her kapıyı çalıp dolandırıcılık vakalarını tespit etmeye çalışarak her kişinin kayıtlarına bakmasıyla aynı dijital durum, ancak daha iyi durumdaki bölgelerde yaşayanlara böyle bir inceleme uygulanmıyor."
Baskıcı bir pozisyon
Bay Alston, sosyal yardım dolandırıcılığının varlığını ve cezalandırılması gerektiğini sorgulamıyor, ancak SyRI'nin odaklanmasının yanlış göründüğü konusunda uyarıyor: "Yoksullar tarafından yapıldığı görülen dolandırıcılığa odaklanma, diğer gelir gruplarını hedef alan eşdeğer çabalarla orantısızsa, yasa tarafından cezalandırılmaması gereken bir mağduriyet ve ayrımcılık unsuru vardır."
Utrecht Üniversitesi'nde Hollanda belediyelerinde algoritmik hesap verebilirlik üzerine araştırma yapan doktora adayı Maranke Wieringa başka bir sorun daha ekliyor: "Belediyelerin SyRI'yi belirli mahalleler için kullanmasının bir amacı, yaşam standartlarını iyileştirmektir. Ancak, SyRI bu amaç için tasarlanmamıştır. Sahtekarlık tespiti için tasarlanmış ulusal bir araç alır ve bunu bir mahalledeki yaşam standartlarını ve sosyal uyumu iyileştirme sosyal amacıyla uygularsanız, her iki amaç için de aynı baskıcı konumdan ayrılmanız gerekip gerekmediğini sorgulayabilirsiniz."
SyRI gerekli değil
SyRI, 29 Kasım 2019'da Hollandalı dijital haklar örgütü Bits of Freedom'ın Big Brother Ödülü'nü kazandı. Bu ödül, yılın en büyük gizlilik ihlaline veriliyor. Genel müdür Carsten Herstel, Sosyal İşler ve İstihdam Bakanlığı adına ödülü kabul ettiğinde, izleyicilere "Birisi kira yardımı aldığında ve aynı zamanda evin sahibi olduğunda hükümetin uyarılmasını mantıklı buluyorum." dedi.
Platform Bescherming Burgerrechten'den Bay Huissen'e göre, hükümetin dolandırıcılığı önlemek için bu tür kitlesel gözetlemeye ihtiyacı yok: "Hükümet zaten hangi evin kime ait olduğu hakkında bilgiye sahip, bu yüzden kişiye kira yardımı vermeden önce bunu kontrol edebilir. Geçtiğimiz on yıllarda gördüğümüz sosyal güvenlikteki tüm büyük dolandırıcılık skandalları için, bunların önceden basit kontrollerle önlenebileceği sonradan ortaya çıktı. Bu çok az oluyor. Çözümleri büyük veri kümelerini analiz eden gizli algoritmalarda aramak cazip geliyor, ancak çoğu zaman çözüm çok daha basittir."
Bayan Wieringa bunun daha iyi bir yol olduğunu kabul ediyor. “SyRI baskıcı bir refah devletinin bakış açısından tanıtıldı: vatandaşlara güvenmiyor. Ancak bu, olası birçok duruştan sadece biri. Örneğin, hükümet belki daha az veri kaynağı kullanarak bile olsa, kimin ödenek alma hakkına sahip olduğunu kontrol edebilir .”
Adil bir denge yok
5 Şubat 2020'de Hollanda Lahey mahkemesi, SyRI'nin Avrupa İnsan Hakları Sözleşmesi'nin (AİHS) özel ve aile hayatına saygı hakkını koruyan 8. maddesini ihlal ettiği gerekçesiyle derhal durdurulmasını emretti . 8. madde, herhangi bir mevzuatın toplumsal çıkarlar ile vatandaşların özel hayatına yönelik herhangi bir ihlal arasında "adil bir denge" sağlamasını gerektirir.
SyRI'nin hedefi veya "toplumsal çıkar", dolandırıcılığı önlemek ve onunla mücadele etmektir. Hollanda devleti, SyRI mevzuatının bunu yapmak için yeterli garantiler sunduğunu ve vatandaşların mahremiyetini koruduğunu iddia etti, ancak mahkeme buna katılmadı. Mevzuat yeterince şeffaf ve doğrulanabilir değil ve mahremiyet ihlallerine karşı yeterli koruma yok, diye yazdı yargıçlar.
Hollanda hükümeti karara 5 Mayıs 2020'ye kadar itiraz edebilir. Bakanlık, internet sitesinde yaptığı açıklamada , kararı kapsamlı bir şekilde araştıracağını söyledi.
Bayan Wieringa'ya göre, mahkemenin kararı SyRI'nin en büyük sorununun dolandırıcılıkla mücadele etmek istemesi değil (mahkeme bunun meşru bir amaç olduğunu söylüyor), bunu yapma biçimi olduğunu açıkça ortaya koyuyor: "Sistem hakimler tarafından çok opak olarak değerlendiriliyor. Hükümet bu sorunu 'çözmek' istiyorsa, SyRI'ye daha fazla şeffaflık katması gerekecek. 'SyRI 2.0' muhtemelen SyRI olacak ancak daha az opak olacak. Önceki deneyimler bu eylem yoluna işaret ediyor. SyRI'nin öncüsü olan "Waterproof" sistemi, gizlilik gerekçesiyle 2007'de yasadışı olarak değerlendirildi. Daha sonra, hükümet sorunu aşmak için basitçe bir yasa çıkardı ve böylece SyRI yaratıldı. Bu sefer şeffaflığı artırmaya yönelik başka bir 'tembel çözüm' SyRI için mantıklı bir adım olurdu."
Algoritmalarla başa çıkmanın yeni bir yolu
Öte yandan, Hollanda'daki iki kamu kuruluşu, UWV ve vergi dairesi, mahkemenin kararına, dolandırıcılık tespiti için kendi algoritmik sistemlerini yeniden değerlendirerek tepki gösterdi. Bayan Wieringa, "Bu, mahkemenin kararının herkesi kamu sektöründe algoritmalarla başa çıkmanın yeni bir yolunu bulmaya çağırdığının bir işaretidir" diyor.
Platform Bescherming Burgerrechten başkanı Tijmen Wisman, hükümetin daha fazlasını yapmasını umuyor. “Sadece SyRI'yi daha şeffaf olacak şekilde uyarlamak bile bilgi asimetrisine yol açacaktır. Vatandaşlar, hükümetleri bu bilgileri kendilerine karşı mümkün olan her şekilde kullanabilecekse, artık hükümetlerine bilgi vermek istemiyorlar.”
Bay Wisman'a göre, kamu kuruluşlarının veri yönetimlerinde bir değişikliğe ihtiyaçları var: "Verilerin artık serbestçe dolaşmasına izin verilmemeli, bunun yerine gerçek bir veri kaynağında bulunmaları gerekiyor. Her kuruluş, verilerine her danışıldığında günlükler tutmalıdır. Vatandaşlar bu günlüklere kolayca erişebilmelidir. Bu şekilde, vatandaşların verilerinin ne için kullanıldığı netleşir ve bu kullanıma itiraz edebilirler. Bu şeffaflık gereksinimi, mahkemenin SyRI davasındaki kararından ve GDPR'den de kaynaklanmaktadır."
Hollanda'da sosyal yardım dolandırıcılığının yılda 150 milyon avro olduğu tahmin ediliyor. Belediyeler, çalışan sigorta acentesi (UWV) ve sosyal güvenlik bankası birlikte 2013'ten 2018'e kadar olan dönemde 744 milyon avrodan fazla dolandırıcılık iddiası tespit etti . Bu, her yıl vergi dolandırıcılığı nedeniyle kaybedilen tahmini 22 milyar avro ile karşılaştırılabilir.
İçişleri Bakanlığı vize kararlarından 'ırkçı' algoritmayı kaldırdıAlgoritma ne yaptı?
İçişleri Bakanlığı algoritmayı "akışkanlaştırıcı" bir sistem olarak nitelendirdi.
Sistem, vize başvurusunda bulunanların verdiği bazı bilgileri alıp otomatik olarak işliyor ve her kişiye "trafik ışığı" sistemine göre yeşil, kehribar veya kırmızı olmak üzere bir renk kodu veriyordu.Kullanılan ölçütlerden biri milliyetti ve FoxGlove, İçişleri Bakanlığı'nın "şüpheli milliyetlerin gizli bir listesini" tuttuğunu ve bu listeye otomatik olarak kırmızı not verildiğini iddia etti.
Grup, bu kişilere vize verilmemesi ihtimalinin yüksek olduğunu belirtti.https://www.bbc.com/news/technology-53650758#:~:text=JCWI%2C%20%22Vize%20algoritmas%C4%B1,y%C3%BCksek%20oldu%C4%9Fu%22%20belirtildi.
'Kurumsal olarak ırkçı'
Foxglove'ın kurucusu Cori Crider, "İçişleri Bakanlığı'nın mantıklı davranıp yayın aracını kaldırmasından çok memnunuz. Irkçı geri bildirim döngüleri, adil bir göç süreci olması gereken şeyin, pratikte beyaz insanlar için sadece hızlı bir biniş anlamına geldiği anlamına geliyordu," dedi.
JCWI'ın hukuk politikaları direktörü Chai Patel, Windrush skandalının İçişleri Bakanlığı'nın "işlettiği ırkçı varsayımların ve sistemlerin farkında olmadığını" gösterdiğini söyledi.
"Bu yayın aracı, göçmen baskınları için belirli uyrukları hedef almak gibi onlarca yıllık kurumsal ırkçı uygulamaları alıp bunları bir yazılıma dönüştürdü," dedi.
İçişleri Bakanlığı, davanın devam etmesi nedeniyle daha fazla yorum yapamayacağını söyledi.
Yeni sistem yürürlüğe girinceye kadar vize başvurularının akışı, kişinin daha önceki seyahatleri gibi belirli bilgiler esas alınarak yapılacak ve uyruğu dikkate alınmayacak.
Comments