Introduction
L’intelligence artificielle (IA) a apporté, ces dernières années, des avancées technologiques importantes et des innovations d’usage, transformant à la fois les entreprises et la société.
L’IA envahit de plus en plus différents nos vies et nos métiers, avec des résultats différents, en suscitant beaucoup de curiosités, d’intérêts mais aussi des peurs et angoisses sur l’emprise de la machine sur l’humain.
Il convient donc de resituer quelques fondamentaux sur l’IA pour mieux la comprendre et l’appréhender.
Nous allons voir ce qu’est une IA et comprendre la différence entre l’intelligence naturelle et artificielle. Il faut savoir qu’il existe différents type d’IA que nous allons découvrir. Nous allons aussi « ouvrir le capot de l’IA » et découvrir la façon dont elle apprend, pour mieux la démystifier. Pour terminer, nous ferons un panorama (non exhaustif) des usages de l’IA, mais également soulever les questionnements éthiques et de régulations qu’elle peut engendrer.
Qu’est-ce qu’une IA ?
Bien qu’il n’existe pas réellement de définition partagée, le parlement européen précise que l’intelligence artificielle représente tout outil utilisé par une machine afin de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ». Plus communément, l’IA est un processus d’imitation de l’intelligence humaine qui repose sur la création et l’application d’algorithmes exécutés dans un environnement informatique dynamique. Sa finalité est de permettre à des ordinateurs de penser et d’agir « comme des êtres humains ».
Les 3 trois piliers d’une bonne IA sont :
- Des systèmes informatiques avec une puissance de calcul importante
- Des masses de données qualitatives
- Des algorithmes d’IA avancés (code) embarquant l’intelligence de « l’usage » souhaité
Intelligence naturelle et Intelligence artificielle
L’intelligence artificielle est souvent comparée à l’intelligence humaine, mais il n’existe aucune définition universelle de cette intelligence dite naturelle… Suivant les cultures, les spécialités, les personnes, elle est définie différemment. Cette délicate recherche d’une définition de l’intelligence naturelle remonte à très loin. Déjà en Grèce antique, la polémique faisait rage autour de la définition même de l’intelligence. Si pour beaucoup, il s’agissait de la capacité à s’adapter à l’environnement et aux aléas de la vie provoqués aussi bien par la nature environnante que par les hommes, Aristote et d’autres philosophes de son époque ont parlé d’intelligence à propos de la capacité à mettre en œuvre des stratagèmes dans un but bien précis. En grec ancien, le mot utilisé pour désigner cette forme d’intelligence est « métis », qui se traduit en grec ancien par conseil ou ruse. Pour Aristote, l’archétype même de cet être intelligent est Ulysse.
Concernant l’intelligence artificielle son histoire est plus récente. Ce n’est vraiment qu’avec le mathématicien et cryptologue anglais Alan Turing (1912-1954) auteur de travaux qui fondent scientifiquement l’informatique qu’elle débute. Alors étudiant, Alan Turing se fait connaître dès 1936 en posant les concepts mathématiques à l’origine de ce qui ne s’appelle pas encore l’ordinateur. La fameuse « machine de Turing », comme son nom ne l’indique pas, est alors une abstraction qui lui permet notamment de définir de façon précise ce qu’est un algorithme, à savoir un enchaînement de calculs ou d’instructions destiné à résoudre un problème. Il a été le premier à proposer une expérience de pensée valant comme un test destiné à valider « l’intelligence » d’une IA par un dialogue via un écran, sous la forme d’un jeu. Le test imaginé par Turing pose, avec une certaine profondeur philosophique, des questions de nature variée relativement au fonctionnement de l’intelligence, au langage, à l’interaction entre interlocuteurs humains. C’est de cette époque, avec les progrès théoriques et l’avènement des premiers ordinateurs et langages de programmation, que naît officiellement l’intelligence artificielle. Il est considéré comme un des pionniers de l’intelligence artificielle. Aujourd’hui elle se définit par l’ensemble des théories et des techniques développant des programmes informatiques complexes, capables de simuler certains traits de l’intelligence humaine (raisonnement, apprentissage…).
Le terme « intelligence artificielle » est récent. C’est 1956 que John McCarthy et ses collaborateurs ont organisé une conférence intitulée « Dartmouth Summer Research Project on Artificial Intelligence » qui a donné naissance au machine learning, au deep learning, aux analyses prédictives et, depuis peu, aux analyses prescriptives. Un nouveau domaine d’étude depuis apparu : la science des données.
Les 3 types d’IA
- L’IA basée sur les règles est la forme la plus simple d’intelligence artificielle. Elle repose sur des règles et des instructions préétablies pour résoudre des problèmes spécifiques. Ces règles sont généralement créées par des experts dans le domaine concerné par les règles implémentées. Bien que l’IA basée sur les règles soit limitée en termes de complexité et de capacité à s’adapter à de nouvelles situations, elle peut s’avérer utile pour des tâches spécifiques où les règles sont bien définies. En entreprise ce type d’IA est souvent utilisée pour automatiser des processus simples et répétitifs, ou utilisée avec des outils conversationnels comme les chatbots qui répondent aux questions fréquemment posées par des clients, mais également dans des systèmes de gestion des ressources humaines qui traitent les demandes de congés en fonction de règles prédéfinies.
- L’IA faible (ou dite étroite) désigne des systèmes d’IA spécialisés dans une tâche spécifique. Ces systèmes sont conçus pour effectuer des tâches spécifiques de manière très performante, mais ils ne possèdent pas la capacité d’apprentissage ni la compréhension générale du contexte comme le font les humains. Dans le monde de la finance, l’IA faible est utilisée pour l’analyse des données financières, la détection de fraudes, la gestion des risques ou le trading algorithmique. Autre exemple d’usage, en santé, elle peut être appliquée à l’interprétation d’images médicales ou à la découverte de nouvelles molécules pharmaceutiques.
- L’IA forte (ou dite générale), représente un niveau supérieur d’intelligence artificielle. Contrairement à l’IA faible, l’IA forte possède la capacité d’apprendre par elle-même, de comprendre le contexte et de s’adapter à de nouvelles situations. Ce niveau d’IA est encore largement théorique et n’a pas encore été pleinement atteint, bien que des progrès significatifs aient été réalisés dans le domaine de l’apprentissage automatique et des réseaux neuronaux. Certaines entreprises commencent à explorer les possibilités de l’IA forte pour des tâches complexes et évolutives, telles que la prise de décision stratégique ou l’automatisation de processus très sophistiqués comme la conduite autonome (de pièces, voire de passagers).
La mise en œuvre pratique de l’IA forte est un défi immense en raison de la complexité et de la variété des tâches intellectuelles que les êtres humains accomplissent naturellement. Bien que des progrès très significatifs continuent d’être réalisés dans le domaine de l’IA, avec l’apprentissage automatique et la puissance des algorithmes, il faut savoir qu’aujourd’hui l’IA forte reste un objectif long terme ambitieux et spéculatif, et sa réalisation complète soulève de nombreuses questions éthiques et philosophiques.
Il est nécessaire de connaitre ces 3 types d’IA, car aujourd’hui des craintes purement spéculatives existent sur des IA autonomes conscientes et pouvant s’opposer aux humains. Ces craintes masquent et viennent troubler les réels enjeux de l’IA, tels que l’impact sur les droits fondamentaux des processus de prise de décision qui seraient fondés sur des modèles mathématiques, et donc avec la difficulté d’élaborer des cadres de régulation et juridiquement solides, sans oublier l’évolution des technologies qui sont en cours sur les implants cérébraux (comme la société Neuralink d’Elon Musk) qui soulève beaucoup de questionnements éthiques et juridiques sur le lien homme-machine…
Quelle différence entre une IA « traditionnelle » et une IA dite « générative » ?
L’IA traditionnelle et l’IA générative n’ont pas le même champ d’application. L’IA traditionnelle vise à automatiser des tâches, mais aussi générer des données pour prendre des décisions complexes. L’IA générative crée des contenus totalement nouveaux, en « imitant l’intelligence humaine» à partir de ce qu’elle a appris dans les données lui ayant été injectées pour son apprentissage.
L’IA traditionnelle
Un des exemples emblématique pour l’illustrer est une partie de jeux entre un humain et une machine. Qui n’a pas entendu parler des parties d’échecs entre la machine Deep Blue et le champion du monde d’échec ? Ou encore avec la machine Alpha Go et le champion du monde du jeu de Go ?
Ces IA qui jouent contre ces champions apprennent, à partir d’une grande quantité de données, à prendre des décisions et à réaliser des prédictions. Ils ne réinventent pas la manière de jouer aux échecs ou au jeu de Go, ils en comprennent les règles et mettent en place des stratégies très efficaces, souvent supérieures à celles d’un cerveau humain pour gagner les parties.
L’IA traditionnelle, construite sur des quantités de données importantes et qualifiées, permet de faire des calculs compliqués, difficilement réalisables par le cerveau humain. C’est un outil d’aide à la décision extraordinaire dans des systèmes complexes.
L’IA générative
L’IA générative est un système capable de créer quelque chose d’inédit et donc de générer de nouvelles données comme du texte, des images, des vidéos, de la musique… suivant les types de données sur lesquelles elle a apprise. Une IA générative tente d’imiter l’intelligence humaine en termes de création de langage naturelle ou de créativité artistique par exemple. Il est possible d’obtenir plusieurs réponses comme avec un être humain. La plus connue des IA générative est ChatGPT, mais d’autres sont spécialisées sur des créations d’images par exemple, comme dall-e ou midjourney qui sont également très connues.
Comment apprend l’IA ?
L’IA a connu un nouvel essor dans les années 2010 grâce aux algorithmes dits d’apprentissage automatique. Deux facteurs sont à l’origine de ce nouvel engouement des chercheurs et des industries informatiques : l’accès à des volumes massifs des données et la découverte de la très grande efficacité des processeurs issus des cartes graphiques d’ordinateur (les fameuses puces GPU qui font aujourd’hui le succès de l’entreprise NVIDIA) pour accélérer le calcul des algorithmes d’apprentissage.
L’actuelle « révolution » de l’IA ne vient donc pas des avancées de la recherche fondamentale mais de la possibilité d’exploiter avec efficacité des concepts relativement anciens, tels que l’inférence bayésienne (18ème siècle) sur le calcul de probabilités de diverses causes hypothétiques à partir d’observations d’événements connus, ou les neurones formels (1943) pour l’une des sous-classes de l’apprentissage automatique : l’apprentissage profond (ou deep learning).
Il est à souligner que l’objectif de l’apprentissage automatique n’est pas réellement d’acquérir des connaissances déjà formalisées mais de comprendre la structure de données et de l’intégrer dans des modèles, notamment pour automatiser des tâches.
Il existe 4 techniques d’apprentissage pour les IA :
- L’apprentissage supervisé est une technique d’apprentissage automatique où un modèle d’IA est entraîné sur un ensemble de données étiquetées. Cela signifie que chaque donnée d’entraînement est associée à une étiquette ou une réponse connue. Le modèle apprend à associer les caractéristiques des données aux étiquettes correspondantes, et une fois l’entraînement terminé, il peut prédire les étiquettes pour de nouvelles données non étiquetées. En entreprise, l’apprentissage supervisé est couramment utilisé pour la classification et la prédiction, comme pour évaluer la solvabilité des clients en se basant sur des données historiques, ou pour prédire les tendances des ventes ou classer les clients en fonction de leur propension à acheter certains produits.
- L’apprentissage non supervisé ne nécessite pas de données étiquetées pour l’entraînement. Le modèle d’IA cherche à découvrir des structures ou des motifs cachés dans les données sans recevoir de réponses préalables. Il regroupe les données similaires, identifie des clusters et trouve des corrélations. En entreprise, l’apprentissage non supervisé est souvent utilisé pour la segmentation de la clientèle, l’analyse des sentiments des clients sur les réseaux sociaux ou l’optimisation des chaînes logistiques. En regroupant les clients ou les produits par similitude, les entreprises peuvent mieux comprendre leurs besoins et adapter leurs stratégies en conséquence.
- L’apprentissage par renforcement est une approche où une IA apprend à prendre des décisions en interagissant avec un environnement. L’IA essaye toutes les façons possibles et apprend de ses erreurs. L’IA prend une série d’actions et reçoit des récompenses ou des pénalités en fonction de la qualité de ses décisions. L’objectif de l’IA est de maximiser les récompenses cumulées au fil du temps. En entreprise, ce type d’IA est, par exemple, utilisé pour optimiser des processus dans des environnements dynamiques et incertains. Dans la gestion d’une chaîne d’approvisionnement, un agent d’IA peut apprendre à optimiser les niveaux de stock en fonction des fluctuations de la demande et des coûts de stockage.
- L’apprentissage profond (connu aussi sous le nom de Deep Learning), est une sous-catégorie de l’apprentissage automatique qui utilise des réseaux neuronaux profonds pour modéliser et résoudre des problèmes complexes. Ces réseaux sont inspirés du fonctionnement du cerveau humain et sont capables d’apprendre des représentations hiérarchiques des données. Ce type d’apprentissage a révolutionné de nombreux domaines comme la vision par ordinateur, la reconnaissance vocale, la traduction automatique ou la recommandation de produits. Les entreprises exploitent ces technologies pour automatiser des tâches intensives en données, améliorer l’efficacité des opérations et créer des expériences clients plus personnalisées par exemple.
La difficulté d’un bon apprentissage
Dans les techniques d’apprentissage, le risque de fausse réponse ou de biais cognitif introduit par l’humain est lié, soit à la non-qualification des données en entrée, soit aux règles et modèles d’interprétation qui sont au cœur du moteur d’apprentissage de l’IA.
Pour réduire le taux d’hallucinations (réponse fausse ou trompeuse) et optimiser la pertinence des réponses, il est nécessaire d’augmenter considérablement la masse des données d’apprentissage des IA.
A titre d’illustration, l’évolution des paramètres d’apprentissage pour ChatGPT d’OpenAI est vertigineux :
- Pour ChatGPT-1, il fallait 0,12 milliard de paramètres,
- Pour ChatGPT-2, il fallait 1,5 milliard de paramètres,
- Pour ChatGPT-3, il fallait environ 175 milliards de paramètres,
- Pour ChatGPT-4, OpenAI ne révèle pas le nombre exact de paramètres utilisés, mais selon Andrew Feldman, PDG de la société d’IA Cerebras, l’ordre de grandeur serait de 100 billions de paramètres, soit 100 mille milliards de paramètres…
Devant de telles masses de donnés qui alimentent les IA, et utilisent forcément toutes les sources ouvertes sur le web et certaines sources fermées, la question de la qualité de l’apprentissage et donc de la pertinence et de la précision des réponses fournies par une IA se pose. En effet, comment sont identifiées, gérées ou corrigées les données erronées, les informations trompeuses ou les biais cognitifs, d’autant que la nature et le contenu des informations peuvent aussi varier suivant les pays et les cultures, ou l’évolution des mentalités dans l’histoire (comme le racisme, la place des femmes, le wokisme, la cancel culture ou la ré-écriture des narratifs historiques…) ? Comment est vérifiée la qualité des données en entrée, en sachant que les apprentissages automatiques par l’IA elle-même deviennent courant ? Comment un apprentissage peut auto-corriger ses données et sur quelle base de véracité ? La manipulation des populations et opinions est-il un risque, et comment s’en prémunir, tant il va devenir de plus en plus difficile de qualifier ces quantités vertigineuses de données manipulées par les IA ?
Aujourd’hui, les modèles d’IA sur des donnés contrôlées et qualifiées se propagent de plus en plus. Cela permet aux entreprises d’implémenter des « moteurs » d’IA sur des données fermées qui leur appartiennent et qui sont par nature maitrisées et qualifiées. Cela permet de rendre les IA plus performantes d’un point de vue qualitatif et au service exclusif des enjeux des entreprises pour bénéficier pleinement des intérêts majeurs d’une IA. Il en est de même sur des domaines spécifiques comme le monde médical. Disposer de données massives et qualifiées sur la santé permet un bond et une accélération phénoménale pour la recherche médical, voire sur la médecine prédictive. Sans être exhaustif, bien d’autres domaines disposant de grandes quantités de données qualifiées et peuvent bénéficier des avantages extraordinaires de l’IA, comme la logistique, la maintenance aéronautique ou automobile, les militaires, la finance…
Le cas particulier des modèles d’apprentissage des IA génératives (Large Language Model)
Afin « d’imiter » un raisonnement humain, l’apprentissage des IA générative est basée sur des modèles spécifiques pour apprendre la complexité du langage humain. Ces modèles appelés Large Language Models (LLM) sont pré-entraînés sur une grande quantité de données (comme du texte, des images, des vidéos, des discours, des données structurées…). Comme nous l’avons vu avec les données de ChatGPT, plus la performance recherchée est grande, plus la quantité des données d’apprentissage nécessaire est exponentielle. Avec conséquence directe, d’avoir des ressources gigantesques en termes de données, de puissance de calcul et d’ingénierie des modèles.
Les LLM utilisent le deep learning (basé sur des réseaux neuronaux) pour analyser les données et identifier les modèles et nuances du langage humain, y compris la grammaire, la syntaxe et le contexte. La compréhension du contexte est essentielle pour les LLM. Pour générer des réponses, les LLM utilisent la génération de langage naturel (NLG), en utilisant les données d’apprentissage et les modèles appris pour créer une réponse contextuellement correcte et pertinente. Les LLM peuvent également adapter leurs réponses en fonction du ton émotionnel utilisé dans la question posée, mais ne sont pas encore en empathie avec leur interlocuteur…
Une autre modèle arrive à bas bruit, le Small Language Model
Pour réduire la quantité colossale de ressource nécessaire pour les LLM que nous venons de voir, un nouveau modèle plus petit commence à faire son apparition : le Small Language Model (SLM). Les SLM, comme celui de Microsoft avec son Phi-2, permettent de réduire drastiquement le nombre de paramètres nécessaire pour l’apprentissage. Les SLM permettent de diminuer les complexités des LLM (proportionnellement à la réduction du nombre de paramètres). Ces modèles, plus petit, permettent d’apprendre sur un périmètre limité de données. Il est ainsi plus facile d’obtenir des modèles spécialisés qui, en moyenne, sont moins bons qu’un modèle généraliste comme ChatGPT, mais font preuve d’expertise dans leur domaine d’apprentissage. Un bénéfice connexe à la réduction des ressources nécessaires, est que cette spécialisation permet de diminuer le taux d’hallucinations grâce à son corpus de donnés moins important, mais plus qualitatif car portant sur un domaine précis.
Les SLM permettent aussi d’être plus « green » car consommant moins de ressources (données et calculs), mais sont aussi moins couteux. La taille plus réduite de ces modèles d’IA devrait permettre de les voir se généraliser de plus en plus, et de devenir très performant car fonctionnant sur des domaines de données spécifiques (finance, santé…) ou des données fermées (comme celles d’une entreprise).
Une IA, mais pour quels usages ?
Comme nous l’avons vu, les formes d’IA sont multiples et envahissent, de plus en plus, de nombreux usages. Sans vouloir être exhaustif, voyons comment l’IA se retrouve dans notre quotidien personnel ou professionnel, au travers quelques exemples dans différents domaines.
Dans le domaine de la santé :
- Diagnostic médical précis, et établissement de traitements optimisés,
- Recherche pharmaceutique et mise au point de nouveaux médicaments.
Dans le domaine de la finance :
- Analyse des risques et des transactions bancaires en temps quasi réel,
- Trading algorithmique à haute fréquence,
- Prévention et détection de fraude.
Dans le monde des transport :
- Optimisation des itinéraires,
- Véhicules autonomes,
- Gestion et régulation intelligente du trafic.
Dans le monde de l’éducation :
- Personnalisation de l’apprentissage,
- Tutorat virtuel et simulation,
- Création de contenu éducatif.
Dans le monde du commerce :
- Recommandations personnalisées de produits basées sur les comportements et préférences des consommateurs,
- Assistance client automatisé en utilisant l’apprentissage automatique pour simuler une conversation humaine avec des chatbots,
- Analyse prédictive des ventes pour ajuster le marketing et les réapprovisionnements,
- Analyse d’ensemble des satisfactions clients (questionnaires, réseaux sociaux, sondages…).
Dans le monde de l’industrie :
- Maintenance prédictive et optimisation des interventions sur la base des enregistrements de maintenance, capteurs des machines de type IoT (Internet of Things/Internet des Objets) ou même données météorologiques,
- Optimisation et automatisation (robotique et cobotique) des chaînes de production,
- Contrôle qualité des produits.
Dans le domaine de la sécurité :
- Surveillance vidéo intelligente avec ou sans reconnaissance faciale,
- Détection d’intrusions, d’incidents de foules, d’agressions,
- Prévention et détection des cyberattaques.
Dans le domaine des ressources humaines :
- Analyse des profils des candidats, et adéquation avec les postes recherchés,
- Analyse du réseau organisationnel de l’entreprise pour faciliter le travail en équipe ou l’échange organique d’informations.
Dans le domaine du grand public :
- Usages « intelligents » intégrés dans des produits du quotidien, avec les produits intelligents connectés (smart products) comme les télévisions, les ampoules, les thermostats, les robots aspirateurs, les montres ou les réfrigérateurs…,
- Assistance personnelle via des produits « intelligents » comme Alexa, Siri ou Google assistant.
De nombreux autres domaines (agriculture, aéronautique…) utilisent désormais l’IA avec une gamme d’usages très vaste.
L’importance de reconnaitre la présence d’une IA dans les usages
L’IA, comme tout système numérique, peut être sujet à des défaillances, à des attaques cyber ou avoir des impacts encore insoupçonnés et forts sur la société et les individus, si elle est utilisée de façon malveillante ou détournée. Sans remettre en cause les progrès extraordinaires qu’elle nous apporte, il convient de prendre toutes les dispositions et précautions nécessaires pour identifier, contrôler et corriger toutes les failles techniques, sécuritaires, juridiques et éthiques pouvant nuire à la bonne utilisation de la puissance des IA.
En France, la CNIL est attentive à ces problématiques depuis quelques années déjà. Elle a d’ailleurs publié en 2017, « Comment permettre à l’homme de garder la main ? Enjeux éthiques des algorithmes et de l’intelligence artificielle », où les questions d’autonomie et de prise de décision automatisée sont abordées.
L’Europe est également en pointe sur la régulation de l’IA et de la sensible utilisation des données personnelles et leur protection au travers le RGPD, et en particulier son article 22 qui précise : « La personne concernée a le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé […] produisant des effets juridiques la concernant ou l’affectant de manière significative de façon similaire. ».
Par ailleurs, l’Union Européenne a approuvé la première loi mondiale sur l’IA en février 2024. Le règlement, baptisé « AI Act », ambitionne d’encadrer l’utilisation et le développement de l’intelligence artificielle. Ce règlement « vise à garantir que les droits fondamentaux, la démocratie, l’état de droit et la durabilité écologique soient protégés contre l’IA à haut risque, tout en stimulant l’innovation et en faisant de l’Europe un leader dans le domaine », selon un communiqué du Parlement européen paru en décembre 2024. Certains usages de ces nouvelles technologies seront interdits, à l’image de la notation sociale ou de la manipulation du comportement. Les pratiques les plus à risque devront répondre à des exigences renforcées, comme une obligation de transparence ou la mise en place d’un contrôle humain sur le tout logiciel d’IA.
Conclusion
L’IA est une vraie révolution des usages due à une accélération forte de l’évolution des puissances de calcul et des masses de données disponibles. Elle fait aujourd’hui partie intégrante de notre quotidien et offre de nombreuses possibilités pour faciliter et améliorer notre vie quotidienne dans tous les domaines.
Son développement ne cesse de se développer avec des bénéfices indéniables dans d’innombrables domaines (amélioration de l’efficacité, réduction des coûts, innovation, personnalisation des services et des produits, réduction des erreurs humaines, réalisation de taches laborieuses, amélioration des prises de décision, créativité…). Dans le monde des entreprises, elles sont capables de résoudre des problèmes complexes plus vite et plus efficacement, permettant ainsi une augmentation de la productivité, un gain de temps énorme et permettent des économies d’argent.
L’IA suscite aujourd’hui beaucoup d’interrogation sur ses impacts réels sur la vie économique, en particulier sur l’emploi où les craintes de destruction d’emplois sont bien réelles, mais ne serait-ce pas une opportunité de transformer et de faire évoluer le monde du travail, comme l’a été la révolution industrielle ou l’arrivée de l’informatique ?
Dans sa face sombre, la plus grande vigilance doit être de mise sur les nombreuses questions éthiques qu’elle soulève, afin de ne pas basculer dans un monde dystopique où elle serait utilisée à des fins malveillantes de manipulation ou de destruction de la société.