Adoption nouveau Le chantier est prévu pour le mardi 28 mars. Parmi les actes, comme on le lit dans les médias français, figurent : la décision d’établir un centre médical en Seine-Saint-Denis (au nord-est de Paris) et la réglementation du commerce dominical.
C’est l’art qui suscite les plus grandes émotions – notamment parmi les politiciens de gauche et les militants des organisations de défense des droits de l’homme. L’article 7 de cette loi précise que Paris peut recourir à la vidéosurveillance avec intelligence artificielle pour assurer la sécurité lors d’un événement sportif majeur. Plus précisément : « tester la technologie de vidéosurveillance basée sur des algorithmes pour assurer la sécurité d’événements sportifs, récréatifs ou culturels à grande échelle » – on lit sur France24.com.
Le projet a été initialement adopté par la majorité des partis français, notamment ceux de droite. Même après son approbation par l’Assemblée nationale mardi, le projet circulera toujours dans le processus législatif entre l’Assemblée et le Sénat. Les deux chambres doivent finalement l’approuver après amendements. Par conséquent, le débat sur l’IA dans la surveillance urbaine est toujours d’actualité.
Vidéosurveillance algorithmique. Qu’est-ce que c’est?
L’utilisation de cette technologie créera un dangereux précédent, préviennent les militants. – La vidéosurveillance algorithmique est une nouvelle forme de technologie qui utilise des logiciels informatiques pour analyser en temps réel les images enregistrées par les caméras de surveillance, explique Arnaud Touati, avocat spécialisé en droit du numérique. – Les algorithmes utilisés dans le logiciel s’appuient notamment sur la technologie du machine learning, qui permet à l’intelligence artificielle de la vidéo de s’améliorer et de s’adapter aux nouvelles situations au fil du temps.
Les algorithmes doivent réduire les erreurs humaines et s’appuient sur l’analyse et l’automatisation. Les partisans de cette technologie affirment qu’elle peut prédire les mouvements de foule et détecter les bagages abandonnés ou les incidents potentiellement dangereux. Mais les opposants à la vidéosurveillance algorithmique y voient une menace. Voici la déclaration d’Amnesty International suite à l’approbation initiale du projet par les politiciens :
Bien que la France se présente comme un défenseur des droits de l’homme dans le monde, sa décision de légaliser la surveillance de masse basée sur l’intelligence artificielle pendant les Jeux Olympiques entraînera une attaque totale contre les droits à la vie privée, à la protestation et à la liberté de réunion et d’expression.
Amnesty International craint également que la vidéosurveillance ne débouche à terme sur une surveillance biométrique ou vocale.
Une intelligence artificielle avec des biais ?
– Nous parlons de technologie d’évaluation, [technologii] qui doit évaluer le comportement et le qualifier de dangereux afin que des mesures appropriées puissent être prises, explique Katia Roux, experte technologie et droits de l’homme, pour France24.com. Roux pense que la technologie en question n’est pas cool aujourd’hui. – Des expériences ont été réalisées en France, mais pas dans le cadre juridique que cette loi propose de créer – a déclaré le militant, soulignant que la réglementation européenne ne prévoit pas non plus de telles solutions.
– En adoptant cette loi, la France deviendrait le champion de la vidéosurveillance dans l’Union européenne et créerait un précédent extrêmement dangereux. Ce serait un signe très inquiétant pour les pays qui pourraient être tentés d’utiliser cette technologie contre leur propre population, s’inquiète Katia Roux. Il insiste ensuite une fois de plus sur le thème du jugement, voire des biais, dans l’intelligence artificielle : – Les algorithmes seront entraînés à l’aide d’un ensemble de données déterminé et conçu par des humains. Ils pourront prendre en compte les préjugés discriminatoires de ceux qui les ont inventés et conçus, dit-il.
Arnaud Touati confirme quelque peu les propos de Roux : – La vidéosurveillance IA a déjà été utilisée à des fins racistes, notamment par la Chine, dans la surveillance des Ouïghours (…). Étant donné que les minorités ethniques sont sous-représentées dans les données fournies aux algorithmes à des fins éducatives, il existe d’importants préjugés discriminatoires et racistes dans les données, dit-il. Invocation de Touati Recherche du Massachusetts Institute of Technologydans lequel un logiciel d’analyse faciale a montré que le taux d’erreur dans la reconnaissance des hommes blancs était de 0,8 % et celui des femmes noires de 34,7 %.
Les autorités françaises indiquent que les restrictions établies par la loi, comme l’absence de reconnaissance faciale ou la protection des données personnelles, sont suffisantes pour prévenir les pratiques discriminatoires. – Nous avons mis en place des garde-fous pour que les concours soient réservés uniquement aux entreprises qui respectent certaines règles, notamment en matière d’hébergement des données sur le territoire national, dans le respect de la CNIL. [Commission nationale de l’informatique et des libertés; organ regulacyjny, odpowiedzialny za ochronę danych osobowych – red.] et RGPD – affirme le député Philippe Latombe, membre du Mouvement Démocrate de centre-droit. – Bien sûr, nous ne voulons pas que ce soit une entreprise chinoise qui traite des données en Chine et les utilise pour autre chose – ajoute-t-il.
En fait, l’expérimentation technologique pourrait commencer dès que la loi sera mise en œuvre. La fin est prévue pour le 31 décembre 2024, soit quatre mois seulement après la fin des Jeux Paralympiques (les Jeux Olympiques sont prévus au tournant des mois de juillet et d’août, et les Jeux Paralympiques auront lieu à Paris un mois plus tard). . Les craintes des opposants à la légalisation de cette expérience technologique ne semblent pas infondées : les jeux semblent être un prétexte pour un terrain d’essai plus long. Les auteurs de l’article de France24.com rappellent que les Jeux olympiques de Londres en 2012 avaient donné lieu à une généralisation de la vidéosurveillance dans la capitale britannique.
– Nous craignons que cette période exceptionnelle ne devienne la norme – résume Katia Roux, ajoutant que la technologie de reconnaissance vocale, mise en œuvre expérimentalement lors de la Coupe du monde 2018 en Russie, a depuis été utilisée pour réprimer l’opposition.
« Créateur sympa pour les hipsters. Gourou de la musique. Étudiant fier. Mordu de bacon. Amoureux du Web passionné. Spécialiste des médias sociaux. Gamer. »