Skip to main content

Comment encadrer l’usage de l’intelligence artificielle pour sauvegarder les droits fondamentaux ?

L’intelligence artificielle (IA) porte-t-elle atteinte aux droits fondamentaux ? Au niveau européen, un cadre réglementaire se met en place progressivement. En attendant le vote de la loi européenne sur l’IA qui devrait intervenir d’ici à la fin de l’année, deux commissions nationales françaises donnent leur avis.

La CNCDH(1) propose 20 recommandations pour un cadre juridique ambitieux pour l’intelligence artificielle. De son côté, la CNIL(2) appelle à une régulation spécifique des caméras dites « augmentées », équipées de « logiciels d’intelligence artificielle ». Décryptage.

Aujourd’hui, l’intelligence artificielle (IA) est partout, du système de recommandation des plateformes de streaming jusqu’aux caméras dites « intelligentes » ou aux systèmes de reconnaissance faciale. Elle fonctionne sur des algorithmes construits sur des jeux de données. L’IA n’a donc pas de conscience, ni d’émotion.

Selon Aurélie Jean, docteur en sciences numériques et spécialiste des algorithmes, seuls de mauvaises collectes de données, de mauvais tests, de mauvais usages sont à l’origine des nombreux scandales qui ont fait la une ces dernières années. Dans son livre Les algorithmes font-ils la loi ? (3), Aurélie Jean plaide pour des lois souples et anticipatrices qui ne freinent pas l’innovation. Elle précise qu’il faut réguler les pratiques de développement, de tests et d’usages des algorithmes. 

Pour éviter les biais algorithmiques provenant de biais dans les jeux de données d’entraînement, Aurélie Jean pousse à tester massivement les algorithmes avant, pendant et après la phase d’entraînement.

Une approche réglementaire en Europe fondée sur les risques

Quelle est aujourd’hui la position de l’Europe en la matière ? L’Union européenne a réaffirmé l’importance stratégique de l’IA et la nécessité d’encadrer ses usages dans les différents secteurs. Une première étape clé a été franchie le 21 avril 2021 lorsque la Commission européenne a présenté son projet de règlement sur l’intelligence artificielle, appelé l'Artificial Intelligence Act (AIA). 

L’approche de la Commission européenne se fonde sur une pyramide graduelle des risques selon les domaines d’application. Cela va des « risques minimes » ne nécessitant pas d’encadrement spécifique, comme dans les jeux vidéo, aux « risques inacceptables », notamment dans le champ de la sécurité, qui sont interdits. Ainsi, les systèmes d’identification biométrique à distance fondés sur l'IA sont jugés à haut risque et la Commission rappelle l'interdiction de leur utilisation dans l'espace public et en temps réel aux fins du maintien de l'ordre, en dehors de cas spécifiques très encadrés. 

Le Parlement européen travaille sur la proposition de la Commission européenne et sur le rapport de la commission spéciale sur l’intelligence artificielle à l’ère du numérique (AIDA). La législation européenne sur l’IA devrait être votée d’ici à fin 2022. Les États membres devront ensuite la transposer dans les législations nationales.

En France, la CNCDH préconise de renforcer les interdictions de certains usages 

Dans son avis sur l’impact de l’intelligence artificielle concernant les droits fondamentaux (4), la CNCDH souligne que la proposition de règlement de l’Union européenne ne présente pas de garanties suffisantes pour la protection des droits fondamentaux, même si elle va dans le bon sens. 

La Commission ne propose pas moins de 20 recommandations pour que la France contribue à l’adoption d’un cadre juridique ambitieux. Elle complète la liste des interdictions posées par le projet de règlement européen. 

La CNCDH préconise ainsi d’interdire l’identification biométrique à distance des personnes non seulement dans l’espace public mais aussi dans les lieux accessibles au public, le scoring social (ou notation sociale) ou encore l’utilisation des technologies de reconnaissance des émotions. 

Elle recommande également d’exiger une étude d’impact, une consultation des parties prenantes ainsi qu’une supervision du système d’IA tout au long de son cycle de vie. 

La CNCDH incite enfin à reconnaître des droits aux personnes ayant fait l’objet d’une décision impliquant un algorithme, notamment le droit à une intervention humaine dans le processus de décision, ou encore un droit au paramétrage des critères de fonctionnement du système d’IA.

La CNIL recommande un encadrement juridique spécifique pour les caméras « augmentées »

De son côté, la CNIL alerte sur les risques nouveaux pour les droits et les libertés individuelles liés à l’utilisation de caméras dites « augmentées » ou « intelligentes » (5) analysant de manière automatisée les images en temps réel et en continu dans les lieux ouverts au public. 

Pour la CNIL, bien qu’ils n’aient pas pour objectif d’identifier une personne de manière unique comme les caméras biométriques, ces dispositifs peuvent toutefois conduire à « un traitement massif de données personnelles, potentiellement à l’insu des personnes du fait du caractère “invisible” des logiciels d’analyse d'image associés aux caméras ». La Commission met également en avant un risque accentué de surveillance généralisée en raison de la multiplication de ces dispositifs vidéo. 

Actuellement, tout acteur souhaitant déployer ce dispositif vidéo doit mettre en œuvre les principes de « privacy by design » afin de protéger les données et la vie privée dès la conception et se fonder sur « une base légale déterminée au cas par cas ». Pour la CNIL, « des garanties fortes consistent, par exemple, à intégrer des mesures permettant la suppression quasi-immédiate des images sources ou la production d’informations anonymes ». 

Pour la CNIL, la limitation des droits des personnes filmées n’est possible que dans deux cas de figure : si « le traitement impliqué par le dispositif de vidéo “augmentée” poursuit une finalité statistique au sens du RGPD » ou si « le droit d’opposition est écarté, sur le fondement de l’article 23 du RGPD, par un texte spécifique, de nature au moins réglementaire ». 

Quoi qu’il en soit, la CNIL estime que la réglementation actuellement en vigueur n’est pas adaptée à cette nouvelle technologie et appelle à un cadre juridique spécifique concernant les caméras « augmentées ». 

(1) Commission nationale consultative des droits de l’Homme
(2) Commission nationale de l'informatique et des libertés
(3) Les algorithmes font-ils la loi ? Aurélie Jean, éditions de L’Observatoire, 2021
(4) www.cncdh.fr (Adoption de l'avis relatif à l’impact de l’intelligence artificielle sur les droits fondamentaux)
(5) ww.cnil.fr (Caméras dites « intelligentes » ou « augmentées » dans les espaces publics)

Collaborateurs Securitas

Nous contacter

En soumettant ce formulaire, vous acceptez le traitement de vos données personnelles. En cas de questions ou demandes relatives à l’utilisation et/ou aux traitements de données personnelles vous pouvez contacter le délégué à la protection des données à l’adresse suivante : delegue.protectiondesdonnees@securitas.fr 

En soumettant ce formulaire, vous acceptez le traitement de vos données personnelles. En cas de questions ou demandes relatives à l’utilisation et/ou aux traitements de données personnelles vous pouvez contacter le délégué à la protection des données à l’adresse suivante : delegue.protectiondesdonnees@securitas.fr 

Votre navigateur n'est pas pleinement compatible avec notre site web. Pour le consulter dans les meilleures conditions nous vous recommandons d'utiliser Google Chrome, Mozilla Firefox, Apple Safari, ou Microsoft Edge.