Paris Olimpiyatları Yapay Zeka Destekli Kitlesel Gözetim İçin Bir Eğitim Alanı Olacak

Paris 2024 Olimpiyatları öncesinde Fransız hükümeti, güvenlik gözetleme yayınlarında yapay zeka yazılımlarının geniş kapsamlı kullanımına izin verdi

Yazar Ali Artur
paris 2024 olimpiyatları
Görsel Evren Atlası tarafından YZ ile hazırlanmıştır

2024 Paris Olimpiyatları, binlerce sporcu ve destek personeli ile dünyanın dört bir yanından yüz binlerce ziyaretçinin Fransa'da bir araya gelmesiyle dünyanın gözlerini üzerine çekiyor. İzleyecek olanlar sadece dünyanın gözleri değil. Yapay zeka sistemleri de izliyor olacak.

Devlet ve özel şirketler, Oyunlar öncesinde, sırasında ve sonrasında yaygın ve sürekli gözetim yapmak için gelişmiş yapay zeka araçlarını ve diğer gözetim teknolojilerini kullanacak. Olimpiyatların dünya sahnesi ve uluslararası kalabalıklar, son yıllarda yetkililerin ve eleştirmenlerin Olimpiyatları "savaş dışında dünyanın en büyük güvenlik operasyonları" olarak tanımlamasına neden olacak kadar önemli güvenlik riskleri oluşturmaktadır.

Fransız hükümeti, özel teknoloji sektörüyle el ele vererek, teknolojik açıdan gelişmiş gözetim ve veri toplama araçlarını devreye sokmak için bu meşru artan güvenlik ihtiyacını gerekçe olarak kullandı. Deneysel yapay zeka video gözetiminin tartışmalı kullanımı da dahil olmak üzere, bu riskleri karşılamak için gözetim planları o kadar kapsamlıdır ki, ülke planlanan gözetimi yasal hale getirmek için yasalarını değiştirmek zorunda kalmıştır.

Plan, yeni yapay zekalı video gözetim sistemlerinin ötesine geçiyor. Haberlere göre, başbakanlık ofisi, hükümetin Oyunlar süresince geleneksel, gizli gözetim ve bilgi toplama araçlarını önemli ölçüde artırmasına izin verecek gizli bir geçici kararname üzerinde görüştü. Bunlar arasında telefon dinleme; coğrafi konum, iletişim ve bilgisayar verilerinin toplanması ve daha fazla miktarda görsel ve işitsel verinin ele geçirilmesi yer alıyor.

Ben bir hukuk profesörü ve avukatım ve mahremiyet, yapay zeka ve gözetim konularında araştırma yapıyor, ders veriyor ve yazıyorum. Ayrıca yasa koyuculara ve diğerlerine bu konularda hukuki ve politik rehberlik hizmeti veriyorum. Artan güvenlik riskleri gözetimin artmasını gerektirebilir ve gerektirmektedir. Bu yıl Fransa, Olimpiyat güvenlik kabiliyetleri ve halka açık spor etkinlikleri etrafındaki inandırıcı tehditler konusunda endişelerle karşı karşıya kaldı.

Ancak önleyici tedbirler risklerle orantılı olmalıdır. Küresel olarak eleştirmenler Fransa'nın Olimpiyatları bir gözetim yetkisi gaspı olarak kullandığını ve hükümetin bu "istisnai" gözetim gerekçesini toplum genelinde devlet gözetimini normalleştirmek için kullanacağını iddia etmektedir.

Aynı zamanda, güvenlik için yeterli ve etkili gözetim konusunda meşru kaygılar bulunmaktadır. Örneğin ABD'de ulus, Gizli Servis'in güvenlik gözetiminin 13 Temmuz 2024'te eski Başkan Donald Trump'a yönelik bir suikast girişimini nasıl önleyemediğini soruyor.

Yapay Zeka Destekli Kitle Gözetimi

Yeni genişletilen gözetim yasaları sayesinde Fransız yetkililer, kapsamlı yapay zeka video gözetimi uygulamak için yapay zeka şirketleri Videtics, Orange Business, ChapsVision ve Wintics ile birlikte çalışıyor. Taylor Swift konseri ve Cannes Film Festivali de dahil olmak üzere, büyük konserler, spor etkinlikleri ve yoğun kullanım dönemlerinde metro ve tren istasyonlarında yapay zeka gözetimini kullandılar. Fransız yetkililer bu yapay zeka gözetim deneylerinin iyi gittiğini ve gelecekteki kullanımlar için "ışıkların yeşil" olduğunu söyledi.

Kullanılan yapay zeka yazılımı genel olarak kalabalık boyutu ve hareketindeki değişiklikler, terk edilmiş nesneler, silahların varlığı ya da kullanımı, yerde bir ceset, duman ya da alevler ve belirli trafik ihlalleri gibi belirli olayları işaretlemek üzere tasarlanmıştır. Amaç, gözetim sistemlerinin bir kapıya doğru akın eden bir kalabalık veya kalabalık bir sokak köşesinde sırt çantasını bırakan bir kişi gibi olayları anında, gerçek zamanlı olarak tespit etmesi ve güvenlik personelini uyarmasıdır. Bu olayların işaretlenmesi teknolojinin mantıklı ve makul bir kullanımı gibi görünüyor.

Ancak asıl mahremiyet ve hukuki sorular bu sistemlerin nasıl işlediği ve kullanıldığından kaynaklanmaktadır. Bu olayları işaretlemek için ne kadar ve ne tür veri toplanmalı ve analiz edilmelidir? Sistemlerin eğitim verileri, hata oranları ve önyargı ya da yanlışlık kanıtları nelerdir? Veriler toplandıktan sonra ne yapılıyor ve bunlara kim erişebiliyor? Bu sorulara cevap verebilecek çok az şeffaflık var. Kişileri tanımlayabilecek biyometrik verilerin kullanılmasını engellemeyi amaçlayan önlemlere rağmen, eğitim verilerinin bu bilgileri yakalaması ve sistemlerin bunları kullanacak şekilde ayarlanması mümkündür.

Fransa, bu özel şirketlere halihazırda Fransa genelinde bulunan binlerce video kameraya erişim sağlayarak, demiryolu şirketlerinin ve ulaşım operatörlerinin gözetim yeteneklerini kullanarak ve koordine ederek ve kameralı dronların kullanımına izin vererek, bu şirketlerin yapay zeka yazılımlarını vatandaşları ve ziyaretçileri üzerinde test etmelerine ve eğitmelerine yasal olarak izin veriyor ve destekliyor.

Yasallaştırılmış Kitlesel Gözetim

Olimpiyatlarda devlet gözetimine duyulan ihtiyaç ve bu gözetimin uygulanması yeni bir şey değil. Pekin'deki 2022 Kış Olimpiyatları'nda güvenlik ve mahremiyet endişeleri o kadar yüksekti ki FBI, aşırı düzeyde devlet gözetimi nedeniyle "tüm sporcuları" kişisel cep telefonlarını evde bırakmaya ve Çin'deyken yalnızca kullan-at telefon kullanmaya çağırdı.

Fransa ise Avrupa Birliği üyesi bir ülke. AB'nin Genel Veri Koruma Yönetmeliği, dünyadaki en güçlü veri gizliliği yasalarından biridir ve AB'nin Yapay Zeka Yasası, yapay zeka teknolojilerinin zararlı kullanımlarını düzenleme çabalarına öncülük etmektedir. AB'nin bir üyesi olarak Fransa, AB yasalarına uymak zorundadır.

Olimpiyatlara hazırlanan Fransa, 2023 yılında, 2024 Olimpiyatları için yasal bir çerçeve sağlamak üzere bir yasa paketi olan 2023-380 sayılı Kanunu yürürlüğe koymuştur. Bu yasa, Fransız kolluk kuvvetleri ve teknoloji yüklenicilerinin 2024 Olimpiyatları öncesinde, sırasında ve sonrasında akıllı video gözetimi denemelerine izin veren tartışmalı 7. Maddeyi ve video ve kamera akışlarını incelemek için yapay zeka yazılımının kullanılmasına özellikle izin veren 10. Maddeyi içermektedir. Bu yasalar Fransa'yı böylesine geniş kapsamlı bir yapay zeka destekli gözetim sistemini yasallaştıran ilk AB ülkesi yapıyor.

Akademisyenler, sivil toplum grupları ve sivil özgürlük savunucuları, bu maddelerin Genel Veri Koruma Yönetmeliğine ve AB'nin YZ'yi düzenleme çabalarına aykırı olduğuna dikkat çektiler. Madde 7'nin özellikle Genel Veri Koruma Yönetmeliği'nin biyometrik verileri koruyan hükümlerini ihlal ettiğini savunuyorlar.

Fransız yetkililer ve teknoloji şirketi temsilcileri, yapay zeka yazılımının, insanları tanımlamadan veya Genel Veri Koruma Yönetmeliği'nin biyometrik verilerin işlenmesine ilişkin kısıtlamalarına aykırı olmadan bu tür olayları belirleme ve işaretleme hedeflerini gerçekleştirebileceğini söylediler. Ancak Avrupalı sivil hak örgütleri, algoritmaların ve yapay zeka güdümlü kameraların amacı ve işlevi kamusal alanlardaki belirli şüpheli olayları tespit etmekse, bu sistemlerin mutlaka bu alanlardaki insanların "fizyolojik özelliklerini ve davranışlarını yakalayıp analiz edeceğine" dikkat çekti. Bunlar arasında vücut pozisyonları, yürüyüş, hareketler, jestler ve görünüm yer almaktadır. Eleştirmenler bu verilerin biyometrik veriler olduğunu ve işlendiğini, dolayısıyla Fransa'nın yasasının Genel Veri Koruma Yönetmeliğini ihlal ettiğini savunuyor.

Yapay Zeka Destekli Güvenlik — Bir Bedelle

Fransız hükümeti ve yapay zeka şirketleri için şu ana kadar yapay zeka gözetimi karşılıklı fayda sağlayan bir başarı oldu. Algoritmik gözlemciler daha fazla kullanılıyor ve hükümetlere ve teknoloji işbirlikçilerine insanların tek başına sağlayabileceğinden çok daha fazla veri sağlıyor.

Ancak bu yapay zeka destekli gözetim sistemleri zayıf bir şekilde düzenleniyor ve bağımsız testlere çok az tabi tutuluyor. Veriler toplandıktan sonra, daha fazla veri analizi ve mahremiyet ihlali potansiyeli muazzamdır.