1. Introduction

L’intelligence artificielle (IA) est de plus en plus présente dans notre vie quotidienne. Ses applications se retrouvent au bureau, dans la voiture, à la maison, à la banque, à l’hôpital, … Des smartphones à la santé en passant par les transports, l’IA améliore notre expérience utilisateur et facilite les tâches quotidiennes.

Le concept « intelligence artificielle » a été créé par John McCarthy mais son origine est née d’un article d’Alan Turing, intitulé « Computing Machinery and Intelligence » dans lequel Turing a suggéré sa célèbre expérience le « test de Turing ». Avec Marwin Lee Minsky, un autre pionnier de l’IA, John McCarthy a fondé le Groupe d’intelligence artificielle du Massachusetts of Technology (MIT).

Le concept "intelligence artificielle" caractérise l'élaboration de programmes informatiques capables de prendre en charge des tâches habituellement effectuées par des humains, l'objectif étant de parvenir à transmettre à une machine des fonctions propres à l'humain comme la rationalité, le raisonnement, la mémoire et la perception. De son côté, Yann Le Cun, titulaire de la Chaire Informatique et sciences numériques au Collège de France en 2015-2016, définit l'intelligence artificielle comme " un ensemble de techniques permettant à des machines d'accomplir des tâches et de résoudre des problèmes normalement réservés aux humains et à certains animaux". Enfin, pour le Parlement européen, l’intelligence artificielle représente tout outil utilisé par une machine afin de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ».

L’essor de l’IA dépend de trois facteurs :

  1. l’exploitation du gisement de données que représentent les mégadonnées (« Big data »), données aussi bien structurées que non structurées 
  2. des équipements informatiques de plus en plus performants ;
  3. des progrès dans le domaine de l’apprentissage automatique ("machine learning") : L’apprentissage automatique consiste en la mise en place d'algorithmes en vue d'obtenir une analyse prédictive à partir de données. La grande différence qui existe entre l'apprentissage automatique et les statistiques traditionnelles est cette capacité des algorithmes à apprendre à partir des données. Plutôt que d’expliquer à un ordinateur avec précision comment résoudre un problème, l'apprentissage automatique permet de lui apprendre à résoudre un problème par lui-même. Par essence, l'apprentissage automatique est l’application avancée des statistiques pour apprendre à identifier des modèles de données et établir des prédictions à partir de ces modèles. Une nouvelle version du "machine learning" est l’apprentissage profond « deep learning " qui permet à une machine de reconnaitre le contenu d'une image ou de comprendre le langage parlé. Il est basé sur des « réseaux de neurones artificiels », c'est-à-dire une famille d'algorithmes informatiques inspirés des mécanismes de fonctionnement du cerveau humain et utilisés pour résoudre des problèmes de contrôle, de reconnaissance de formes ou de mots, de mémorisation, etc

2. Les enjeux de l’intelligence artificielle

2.1 Pour les particuliers

De nombreux exemples illustrent le sentiment selon lequel l’IA a déjà largement envahi nos vies :

  • La maison intelligente (« smart home »)
    Il s’agit d’une technique assez récente, née de l’évolution de la domotique, qui permet de connecter des objets, des appareils et des systèmes entre eux, permettant de les piloter directement depuis une application installée sur un smartphone, une tablette ou une montre intelligente. Grâce à l’intelligence artificielle, le secteur de la domotique a connu un nouvel essor. Nous sommes passés de la science-fiction , du rêve inaccessible, à la réalité. Les services rendus par l’introduction de l’IA dans la maison sont les suivants : 1) la sécurité pour renforcer la protection de son domicile (détecteurs de présence, alarmes réagissant lors d’une tentative de cambriolage, détecteurs d’inondation, contrôle de vidéosurveillance, …) ; 2) La communication : allumage de la télévision à distance, diffusion de musique dans toutes les pièces, … ; 3) gestion de l’énergie dans le domicile : réglage du thermostat dans les différentes pièces, gestion de l’éclairage, …
  •  Le robot médical et d’assistance aux personnes malades, âgées ou handicapée.
    Des robots médicaux sont introduits dans les hôpitaux et les maisons de retraite médicalisées comme Nao pour aider les autistes à communiquer ou Paro (le robot en peluche) pour les personnes souffrant de la maladie d’Alzheimer. Par ailleurs, des robots d’assistance ou de compagnie sont déjà présents sur le marché et aident entre autres au maintien à domicile. Ils assurent un rôle d’assistance aux tâches de la vie quotidienne et apportent une aide psychologique. Ces robots tiennent compagnie en jouant et en dialoguant, font faire des exerces cognitifs, ouvrent des portes, ramassent des objets, peuvent exécuter certaines tâches ménagères, etc.
  • Juristech (« legaltech » en anglais)
    Juristech est une application de l’IA dans le domaine de la justice, qui permet une accessibilité renforcée et simplifiée au droit aussi bien pour les professionnels du droit que pour les entreprises et particuliers. Cette plateforme juridique aide à la création d’entreprise en ligne, à la génération de modèles d’actes juridiques, à la mise en relation avec des professionnels du droit, aux règlements de litiges en ligne et offre une assistance en ligne.
  • La voiture-robot ou voiture autonome
    L’IA permet au véhicule de reconnaître les différents panneaux de signalisation grâce à différents capteurs. Pour le Directeur général d’Apple, « la conduite sans chauffeur concentre tous les enjeux techniques de l’intelligence artificielle ». Il voit la voiture-robot comme « la mère de tous les projets de l’intelligence artificielle ». En outre, il affirme qu’il s’agit « probablement de l’un des projets de l’intelligence artificielle les plus difficiles sur lesquels travailler actuellement ».

2.2 Pour les entreprises

L’IA constitue un très bon outil pour l’innovation et la compétitivité de l’entreprise.

⦁ Simplification des tâches complexes, répétitives et monotones concourant à l’accroissement de la productivité.
⦁ Amélioration de l’efficacité des traitements, réduction des risques d’erreurs et diminution des coûts.
⦁ Analyse et exploitation des données résultant des mégadonnées (« Big data »).
⦁ Optimisation de la stratégie marketing et du ciblage publicitaire.
⦁ Participation à l’amélioration de l’expérience client, notamment dans un contexte de prise d’autonomie croissante des clients.

2.3 Pour le secteur bancaire et financier

Le secteur bancaire et financier se révèle très dynamique dans l’utilisation de l’IA en particulier de l’apprentissage automatique. L’IA induit des bouleversements majeurs dans la banque de détail, la banque d’investissement et en matière de conformité.

⦁ L’IA au service de la banque de détail : amélioration de la relation client
Le grand public connaît déjà l’IA via les agents conversationnels (« chatbots »), les agents conversationnels vocaux (« voicebots ») et les analyseurs de courriels. Cela étant, l’IA se décline également dans le conseil financier en ligne (« robo-advisor ») dont le diagnostic par le Conseil de stabilité financière se révèle plutôt positif. Pour ce dernier en effet, les avantages des « robo-advisors » ne sont pas négligeables. Dans le domaine des services de paiement, l’apprentissage automatique permet de détecter les transactions frauduleuses grâce à l’analyse des données en temps réel. Toujours en matière de fraude, l’IA offre de grandes possibilités pour la prévention de la fraude et la lutte contre le blanchiment et le financement du terrorisme (LCB-FT). En assurance, l’IA est employée pour une maîtrise plus affinée des risques. Enfin, l’IA est appelée à jouer un rôle important pour détecter des cyber-attaques.
⦁ L’IA au service des banques d’investissement
Un rapport du Conseil de stabilité financière de novembre 2017 intitulé « Artificial intelligence and machine learning in financial services » a montré les perspectives ouvertes par l’IA pour les services d’investissement, la gestion d’actifs et les activités liées aux marchés financiers : détection d’anomalies dans les opérations de marché, la surveillance des risques de marché, la recommandation de stratégies d’investissement pour la clientèle, l’évaluation des profils de risque pour la gestion des portefeuilles, la gestion de portefeuille pour compte de tiers.
⦁ Intelligence artificielle et conformité
Dans un rapport de l’Autorité de contrôle prudentiel et de résolution (ACPR) de décembre 2018 intitulé « Intelligence artificielle : enjeux pour le secteur financier », les auteurs Olivier Fliche et Su Yang soulignent que l’IA « pourrait améliorer la performance de la gestion des risques et de la conformité en automatisant certains processus ». Ils rappellent également que l’application des nouvelles technologies dont l’IA au domaine de la gestion des risques et de la conformité est communément désignée sous le vocable « Regtech ». La Regtech est en effet une jeune pousse qui propose aux entreprises d’optimiser les fonctions de conformité et de gestion des risques.

3. Les risques liés à l’intelligence artificielle

Si toute technologie est promesse de progrès, elle enferme aussi des risques et est parfois source de dangers. Concernant l’intelligence artificielle, les risques sont nombreux et variés : du risque que l’IA dépasse l’intelligence humaine au risque qu’elle soit utilisée à des fins malveillantes. L’exposé des motifs de la proposition de règlement de la Commission européenne pour établir des règles harmonisées concernant l’IA souligne cet état de fait en évoquant de « nouveaux risques ou des conséquences négatives pour les personnes ou la société résultant des éléments et techniques de l’IA ».

3.1 « Des risques majeurs pour l’humanité »

Pour Elon Musk, la troisième guerre mondiale sera due à l’IA. Le 29 mars 2023, celui-ci et des centaines d’experts mondiaux ont signé un appel à une pause de six mois dans la recherche sur les intelligences artificielles plus puissantes que ChatGPT 4, le modèle d’OpenAI lancé mi-mars, en évoquant des « risques majeurs pour l’humanité ». Dans cette pétition, ils réclament « un moratoire jusqu’à la mise en place de systèmes de sécurité, dont de nouvelles autorités réglementaires dédiées, la surveillance des systèmes d’IA, des techniques pour aider à distinguer le réel de l’artificiel et des institutions capables de gérer les perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera ». De son côté, le chercheur Australien Hugo de Garis, alerte sur l’inévitabilité d’une guerre majeure avant la fin du 21ème siècle entre les partisans et les adversaires des machines intelligentes, entraînant des milliers de morts. Il pense que l’IA pourrait simplement éliminer la race humaine. De même, le physicien britannique Stephen Hawking craint que l’IA remplace complètement les humains. Il déclare : « J’ai peur que l’IA puisse remplacer complètement les humains. Si les gens peuvent concevoir des virus informatiques, quelqu’un pourrait concevoir une IA qui peut s’améliorer et se reproduire ? Ce serait une nouvelle forme de vie capable de surpasser les humains ».

3.2 L’intelligence artificielle au regard de la protection des données

Cette nouvelle révolution numérique, porteuse de performance, va de pair avec un accroissement des risques dont des atteintes aux données personnelles.

Comme le rappelle la Commission nationale de l’informatique et des libertés (CNIL), « l’IA pose des questions cruciales et nouvelles, tout particulièrement au regard de la protection des données ». De même, le Conseil de l’Europe dans un document intitulé « Intelligence artificielle et protection des données » de novembre 2019 rappelle que « la protection de la dignité humaine et la sauvegarde des droits de l’homme et des libertés fondamentales, en particulier le droit à la protection des données à caractère personnel, sont essentiels au développement et à l’adoption d’applications basées sur l’IA qui sont susceptibles de produire des effets sur les personnes et la société ».

Les systèmes d’IA nécessitant l’utilisation d’un grand nombre de données dont la plupart sont des données personnelles, les informations sur les individus étant collectées et analysées de manière multiples et souvent opaques, quid de la confidentialité, du piratage, du vol, de la manipulation malveillante, … de ces données ? Aux yeux des pirates, ces données représentent un précieux butin.

D’aucuns se posent la question de la compatibilité de l’IA qui se nourrit de mégadonnées (« big data ») avec toutes les réglementations (dont le Règlement général de la protection des données - RGPD) visant à limiter le volume et l’utilisation des données.

3.3 L’intelligence artificielle va modifier le marché de l’emploi

Concernant les prédictions de l’impact global de l’IA sur l’emploi, les économistes émettent des avis différents. Ainsi, en 2013, Carl Benedikt Frey et Michael Osborne de l’Université d’Oxford, dans une étude intitulée « The Future of Employment: How Susceptible Are Jobs to Computerisation? » publiée en 2013 concluaient que 47% des emplois aux États-Unis risquaient d’être automatisés dans les dix ou vingt prochaines années. En 2019, l’OCDE a prédit 14% d’emplois détruits dans les quinze à vingt ans à venir et 16,4 % en France. Dans un rapport plus récent publié le 26 mars 2023 par Goldman Sachs, il est indiqué que l’IA menacerait environ 300 millions d’emplois à temps plein dans le monde. Les auteurs du rapport révèlent qu’aux Etats-Unis et en Europe, l’IA pourrait remplacer un quart du travail actuel.

Les métiers les plus menacés par l’IA sont ceux liés aux tâches répétitives ainsi que ceux liés à la sphère administrative et juridique. En revanche, les métiers plus physiques comme ceux du bâtiment et de la maintenance seront moins affectés.

La suppression de certains emplois résultant de l’automatisation a toujours été compensé par la création de nouveaux emplois et l'émergence de nouvelles professions. Il s’agit du principe de la destruction créatrice si cher à Joseph Schumpeter qui décrit le capitalisme comme "une tempête perpétuelle de destruction créatrice".

3.4 L’intelligence artificielle : un danger pour la cybersécurité

Si l’intelligence artificielle a du potentiel en matière de lutte contre la cybercriminalité, elle peut aussi représenter un danger et augmenter par exemple la sophistication des cyberattaques. Elle est devenue un nouvel outil pour les pirates informatiques qui l’utilisent de plus en plus. L’innovation et la prolifération des appareils connectés fournissent de nouveaux vecteurs d‘attaque et un marché lucratif pour les cybercriminels.

Lors d’un sommet sur la cybersécurité organisé par la National Cyber Security Alliance (NCSA) et le Nasdaq en octobre 2017 pour discuter de la manière dont le monde interconnecté d'aujourd'hui modifie notre société et des risques qui accompagnent ces changements, trois experts Kevin Coleman (National Cyber Security Alliance/NCSA), Elham Tabassi (National Institute of Standards and Technology/NIST) et Tim Bandos (Digital Guardian) ont tiré la sonnette d’alarme. Selon ces experts, les cybercriminels peuvent désormais utiliser l’apprentissage automatique pour découvrir des mots de passe plus rapidement et créer des logiciels malveillants capables de se dissimuler. En outre, les trois spécialistes ont présenté trois manières dont l’IA et l’apprentissage automatique peuvent être exploités par les pirates informatiques :

⦁ Empoisonnement des données
La première méthode est celle de l’empoisonnement des données (« data poisoning ») que la CNIL définit comme une « attaque qui vise à modifier le comportement du système d’IA en introduisant des données corrompues en phase d’entraînement ou d’apprentissage » ;
⦁ Réseaux antagonistes génératifs
La deuxième façon dont les cybercriminels peuvent exploiter l’IA est la technique des réseaux antagonistes génératifs ou («Generative Adversarial Networks »/GAN) inventée en 2014 par Ian Goodfellow, chercheur en informatique. Cette technique « consiste à opposer un réseau de neurones, dit « générateur », chargé de créer des contenus nouveaux à partir d’exemples réels comme des photos de personnes fictives et un réseau de neurones, dit « discriminateur », chargé de distribuer les contenus originaux et les contenus créés par le générateur » (source : Conseil d’Etat). Dans un article intitulé « Adversarial attacks on medical machine learning », publié dans la revue Science en mars 2019, des chercheurs d’Harvard et du MIT font part de leur inquiétude de l’utilisation de ces réseaux antagonistes qui pourraient générer des fausses informations médicales par exemple. Ainsi, en imagerie médicale, quelques changements des pixels, imperceptibles à l’œil nu, permettent de duper une machine chargée de détecter une maladie. Les réseaux antagonistes génératifs sont une fragilité des systèmes d’IA et une arme pour les cyberdélinquants. Ils sont pointés du doigt pour leur capacité à créer des infox vidéos (« deepfakes ») qui « se présentent sous la forme d’une vidéo falsifiée grâce aux techniques de l’intelligence artificielle, en particulier à celles de l’apprentissage profond » (source : FranceTerme). Les infox vidéos brisent la confiance car elles trompent les individus.
⦁ Manipulation des robots
La troisième pratique consistant à manipuler des robots constitue un énorme danger. Nous en voulons pour exemple les drones tueurs. Nous nous souvenons du Film Terminator sorti en 1984, dans lequel un système informatique doté d’une IA autonome mène une guerre pour éradiquer l’humanité et assurer la suprématie des machines. Avec le développement des drones tueurs, la fiction est devenue hélas réalité. Un rapport des Nations-Unies publié en mars 2021 révèle qu’un drone utilisé par les forces gouvernementales libyennes a attaqué les troupes de l’Armée nationale du général Haftar, sans en avoir reçu l’ordre. En d’autres termes, les drones tueurs ont agi de leur propre chef, sans aucune intervention humaine. Dans le Haut-Karabakh, lors de l’obsédante « guerre des drones » déclenchée en septembre 2020 par l’Azerbaïdjan poussé par la Turquie, des drones armés, notamment d’origine turque, se sont abattus en continu sur les combattants, les infrastructures des villes et des villages arméniens.

Au total, l’intelligence artificielle est une arme à deux tranchants : un moyen pour lutter contre la cybercriminalité mais également une grave menace.

3.5 Quelle éthique pour l’intelligence artificielle ?

Un rapport de la CNIL sur les enjeux éthiques des algorithmes et de l’intelligence artificielle affirme deux principes fondateurs pour une IA éthique : un « principe de loyauté » tel qu’envisagé par le Conseil d’État et un « principe de vigilance » plus méthodologique.

Selon ce rapport, ces principes se déclinent sous la forme de six recommandations opérationnelles adressées tant aux pouvoirs publics qu’aux diverses composantes de la société civile : 1) « former à l’éthique tous les acteurs-maillons de la « chaîne algorithmique » ; 2) rendre les systèmes algorithmiques compréhensibles ; 3) travailler le « design » des systèmes algorithmiques au service de la liberté humaine pour contrer l’effet « boîtes noires » ; 4) constituer une plateforme nationale d’audit des algorithmes ; 5) encourager la recherche sur l’IA éthique et lancer une grande cause nationale participative autour d’un projet de recherche d’intérêt général ; 6) renforcer la fonction éthique au sein des entreprises ».

Afin de formuler les deux principes fondateurs pour une IA éthique ainsi que les recommandations, les auteurs se sont basés sur six grandes problématiques éthiques soulevées par les algorithmes et l’IA et issues d’un débat public mené par la CNIL : 1) la préservation de l’autonomie humaine face à des machines parfois ressenties comme infaillibles; 2) détection de biais discriminatoires qui sont aujourd’hui le principal point faible de l’IA ; 3) une logique de personnalisation qui affecte les logiques collectives essentielles à la vie de nos sociétés ; 4) trouver un équilibre entre la nécessité de mégadonnées pour l’IA et la protection des données ; 5) une sélection de données pertinentes ; 6) une spécificité humaine irréductible au défi de l’intelligence artificielle.

Face aux défis et aux risques engendrés par l’intelligence artificielle, une régulation s’impose afin de garantir une bonne mise en œuvre de l’IA dans nos sociétés.

4. Le développement de l’intelligence artificielle nécessite un encadrement approprié des activités et des acteurs

Les enjeux juridiques sont centrés autour de la protection des droits de l’homme, de l’État de droit et de la démocratie. Au niveau international, aucune réglementation n’existe pour le moment. A l’échelle de l’UE, le projet de réglementation sur l’intelligence artificielle ou Artificial Intelligence Act (AI Act) adopté par la Commission européenne en avril 2021, devrait entrer en vigueur d’ici 2025.

4.1 L’Artificial Intelligence Act

L’Artificial Intelligence Act présente une approche réglementaire européenne de l’IA basée sur les risques, dont les objectifs sont les suivants :

⦁ Veiller à ce que les systèmes d’IA mis sur le marché de l’Union et utilisés soient sûrs et respectent la législation en vigueur en matière de droits fondamentaux et des valeurs de l’Union ;
⦁ Garantir la sécurité juridique pour faciliter les investissements et l’innovation dans le domaine de l’IA ;
⦁ Renforcer la gouvernance et l’application effective de la législation existante en matière de droits fondamentaux et des exigences de sécurité applicables aux systèmes d’IA ;
⦁ Faciliter le développement d’un marché unique pour des applications d’IA légales, sûres et dignes de confiance, et empêcher la fragmentation du marché.

Le cadre réglementaire de l’IA proposé par la Commission définit quatre niveaux de risques :

⦁ Le risque inacceptable qui est interdit conformément aux dispositions de l’article 5 du règlement ;
⦁ Le risque élevé qui est soumis à un régime de régulation précis (articles 6 à 51) ;
⦁ Le risque limité qui est guidé par un principe de transparence (article 52) ;
⦁ Le risque minimal ou nul qui n’est pas régulé par le règlement.

4.2 Création d’un service de l’intelligence artificielle au sein de la CNIL

En janvier 2023, la CNIL a mis en place un service de l’intelligence artificielle pour renforcer son expertise sur les systèmes d’IA et sa compréhension des risques pour la vie privée tout en préparant l’entrée en application du règlement européen sur l’IA.

Ce service sera en collaboration avec la direction en charge de l’accompagnement juridique dans la production de « droit souple «  (« soft law »), précise la CNIL. En outre, il apportera « un support dans l’instruction de plaintes et l’adoption de mesures correctrices en cas de manquements liés à l’utilisation d’un système IA ».

5. Glossaire

Algorithme : Suite d’opérations ou d’instructions à appliquer dans un ordre déterminé pour résoudre un problème ou d’obtenir un résultat donné.

Apprentissage automatique (« machine learning ») : Technique qui permet à une machine d'apprendre à résoudre des problèmes à partir d'exemples.

Apprentissage profond (« deap-learning ») : Technique qui permet à une machine de reconnaître le contenu d'une image ou de comprendre le langage parlé.
Note : L'apprentissage profond est basé sur des réseaux de neurones artificiels.

Biais : Une des deux erreurs utilisée pour définir la qualité d’un algorithme d’apprentissage, l’autre étant la variance.

CNIL (Commission nationale de l’informatique et des libertés) : Autorité administrative indépendante instituée en 1978 chargée de veiller à ce que l’informatique ne porte pas atteinte aux libertés, aux droits, à l’identité humaine ou à la vie privée.

Domotique : Application de l’électronique et de l’informatique au domaine de l’habitat : télésurveillance, chauffage, éclairage, peuvent être pilotés et commandés à distance, via Internet.

Données structurées : Données qui correspondent aux éléments calibrés saisis dans les différents champs des bases de données.
(Source : nouveau glossaire de l’archivage de Marie-Anne Chabin)

Données non structurées : Informations enregistrées sous forme numérique.
Note : ce sont principalement les fichiers bureautiques et la messagerie.
(Source : nouveau glossaire de l’archivage de Marie-Anne Chabin)

Droit souple : « Notion doctrinale relative à des textes ou à des dispositions juridiques n’ayant pas par eux-mêmes d’effets contraignants mais susceptibles de contribuer, dans certaines conditions, à la formation de nouvelles règles juridiquement contraignantes » (source : FranceTerme).

Juristech : Ensemble d’outils numériques d’aide à la gestion et à l’analyse des processus juridiques destinés prioritairement aux professionnels du droit.

Règlement général de la protection des données (RGPD) : Règlement (UE) 2016/679 du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données.

« Robo-advisor » : Plateforme numérique qui fournit des services de planification financière et d'investissement automatisés, pilotés par des algorithmes, avec peu ou pas de supervision humaine.

© Copyright ANDESE
Le présent document est protégé par les dispositions du code de la propriété intellectuelle. Les droits d'auteur sont la propriété exclusive d'ANDESE (Association Nationale des Docteurs ès Sciences Économiques et en Sciences de Gestion). La copie ou la reproduction (y compris la publication et la diffusion), intégrale ou partielle, par quelque moyen que ce soit (notamment électronique) sans le consentement de l’éditeur constituent un délit de contrefaçon sanctionné par les articles L. 335-2 et suivants du code de la propriété intellectuelle.