Intelligence artificielle : comment limiter les risques ?


Intelligence artificielle et protection des données : un projet de réglementation

L’intelligence artificielle (IA) est un ensemble de techniques permettant l’imitation de l’intelligence humaine par la création d’algorithmes. Schématiquement, elle permet aux machines et aux ordinateurs de penser et d’agir comme un être humain.

Son fonctionnement repose donc sur une récupération massive de données pour qu’elle puisse les analyser et prendre les décisions qui correspondent à une situation spécifique en fonction des informations qu’elle a récoltées.

De plus en plus utilisée dans de nombreux domaines (reconnaissance biométrique, voiture autonome, domotique, etc.), l’IA représente toutefois un risque en matière de protection des données personnelles et de respect des libertés individuelles.

C’est pour cette raison qu’un projet de règlement permettant d’harmoniser la règlementation encadrant l’IA est en cours d’élaboration au niveau européen.

Selon le Comité européen de la protection des données (CEPD) et la Commission nationale de l’informatique et des libertés (CNIL), celui-ci doit s’articuler autour de 4 enjeux principaux.

  • La construction d’une IA éthique et de confiance

Le CEPD estime qu’il faut définir un cadre clair sur les utilisations permises ou non de l’IA et propose l’interdiction automatique à certains usages comme :

  • les systèmes biométriques utilisés aux fins de classer les individus par genre, appartenance ethnique, orientation politique, etc. ;
  • les systèmes permettant la déduction des émotions d’une personne physique, sauf s’ils poursuivent un objectif de santé ;
  • les systèmes permettant la notation sociale (attribution d’une note en fonction du comportement d’un citoyen par exemple) ;
  • etc.
  • Le respect nécessaire et indispensable du RGPD

Les dispositifs utilisant l’IA sont majoritairement des systèmes amenés à exploiter des données personnelles (personnalisation d’un service, assistant domestique, etc.), il est donc indispensable qu’ils soient conformes avec le Règlement européen sur la protection des données (RGPD).

Pour cela, les autorités de protection des données proposent que le respect de cette réglementation soit une condition préalable à leur mise sur le marché européen et à l’apposition du marquage CE.

  • La création d’un comité de contrôle

Le projet de règlement prévoit la création d’un Comité européen de l’intelligence artificielle (CEIA) pour assurer le respect des règles qu’il prévoit et un système de contrôle dans chaque Etat membre reposant sur une structure existante. En France, ce contrôle pourrait donc être assuré par la CNIL.

  • L’accompagnement à l’innovation

L’un des enjeux majeurs de ce règlement est d’encadrer l’utilisation de l’IA sans freiner son développement au sein de l’Union européenne.

La CNIL précise qu’il est donc indispensable d’assurer un équilibre entre les exigences de protection et la compréhension des enjeux technologiques des fournisseurs de solutions.

Pour cela, le règlement préconise un accompagnement des professionnels à l’échelle nationale, en vue d’assurer la mise en place de mesures de soutien et notamment de « bacs à sable » réglementaires permettant aux acteurs de l’innovation de déroger à la réglementation pour tester leurs technologies ou services.

Notez cependant que l’ensemble de ces propositions effectuées par le CEPD et la CNIL ne sont, à ce jour, que des avis consultatifs.

Il faudra donc attendre l’adoption définitive du règlement européen pour connaitre le cadre légal applicable en matière d’IA. Affaire à suivre…

Source : Actualité du site de la CNIL du 8 juillet 2021

Intelligence artificielle : comment encadrer « big brother » ? © Copyright WebLex – 2021