Vous êtes ici : Accueil > Actualités & Communiqués > Vous avez (bien) dit intelligence artificielle ?

Décryptage | Actualité | Focus | Intelligence artificielle | Nouvelles technologies

DECRYPTAGE - L'OEIL DE L'EXPERT

Vous avez (bien) dit intelligence artificielle ?


​Alexei Grinbaum, physicien et philosophe, chercheur CEA au Laboratoire de recherche sur les sciences de la matière (LARSIM), nous apporte son éclairage sur l'intelligence artificielle.

Publié le 8 juin 2021

Une confrontation nécessaire au comportement humain

Selon les fondateurs de la cybernétique, dont John McCarthy and Marvin Minsky [1], le terme « intelligence artificielle » (IA) désigne un comportement produit par une machine dont on peut raisonnablement estimer que, s’il avait été le fruit d’une action humaine, il aurait exigé de l’intelligence de la part de l’agent concerné. Trait saillant à retenir, cette définition s’appuie sur la comparaison entre la machine et l’homme. En effet, bien avant les ordinateurs jouant aux échecs ou les traducteurs automatiques, Alan Turing [2] soulignait déjà que le concept même de « machine intelligente » ne pouvait être défini qu’à travers sa confrontation avec un comportement humain.


Réseau de neurones artificiels

© Sergey Tarasov - Fotolia.com



Une définition de l'IA qui évolue en permanence

Cette définition recouvre un spectre très large : par exemple, elle inclut la capacité à trouver des erreurs d’orthographe dans un texte, ce qui nous paraît aujourd’hui tout à fait automatisable. Comme d’habitude, le développement du numérique exige en permanence qu’on révise les définitions historiques, y compris celle de l’IA. Dans un premier sens, « intelligence artificielle » désigne un domaine de recherche autour des machines dotées d’une capacité d’apprentissage et dont le comportement complexe ne peut être entièrement décrit ni compris par le concepteur humain. Le fonctionnement d’un tel système ne se réduit pas au choix d’action dans un catalogue écrit au préalable, aussi long soit-il. Du point de vue de l’histoire de l’informatique, l’apprentissage machine n’est qu’un outil d’IA parmi d’autres mais, en pratique, ces deux termes sont de plus en plus fréquemment synonymes.


VidéoL'histoire de l'intelligence artificielle



3 types d’algorithmes au fondement des systèmes d’IA

1.  L'apprentissage dit supervisé 

La technique d’apprentissage supervisé présuppose que les systèmes informatiques élaborent leur fonctionnement en suivant des lois ou des indications dictées, ou « étiquetées », par les hommes.


2.  L'apprentissage non supervisé 

A l’inverse, la technique non supervisée permet à la machine d’explorer ses données sans qu’aucune « grille de lecture » ne lui soit imposée. Souvent, elle y trouve des régularités qui ne ressemblent guère à des notions familières à l’homme : c’est la marque d’un élément non-humain dans le comportement de ces machines que, par ailleurs, on mesure toujours à l’homme. 

C’est aussi l’élément qui procure aux systèmes d’IA leur incroyable efficacité. Dans le cas de l’apprentissage non supervisé, celle-ci peut aller jusqu’à mettre l’utilisateur dans la situation d’indistinction : en 2019, la génération non supervisée de textes a été capable d’écrire plusieurs paragraphes tout à fait identiques à la production humaine ; dans le domaine visuel, le recours au non-humain et au non-explicable est encore plus fondamental : la reconnaissance des images est beaucoup plus efficace si les règles de fonctionnement ne sont pas dictées d’emblée par l’homme mais « découvertes » par le système.


3.  L'apprentissage par renforcement 

La troisième méthode d’apprentissage, dite « par renforcement », consiste à identifier, en une suite d’étapes d’évaluation successives, puis à établir avec une force croissante, des corrélations pertinentes entre les données. Les dernières recherches montrent que le succès de cette méthode, très répandue dans le domaine des jeux, dépend souvent de la « curiosité » de la machine : sa capacité à attribuer un poids conséquent à l’exploration des scénarii inconnus ou imprédictibles.


Le deep learning

Chacune de ces méthodes peut être réalisée seule, mais des algorithmes dits d’apprentissage profond (deep learning) les emploient à des niveaux différents au sein d’un seul système. Cette imbrication contribue davantage à rendre inconcevable, au moins à ce jour, toute description mathématique rigoureuse de ce qui se passe pendant l’apprentissage profond.



VidéoComment fonctionne une IA ?


Les freins à l'efficacité des systèmes d'IA

Bien que l’efficacité des systèmes d’IA, déjà impressionnante, augmente chaque année, cinq facteurs contribuent à l’émergence, pendant leur utilisation, des tensions, ou même des conflits, de nature éthique et/ou juridique :

  • Présence de biais dans les données d’apprentissage
    Par exemple, un système de reconnaissance faciale ne doit pas être entraîné sur les visages des personnes ayant la même couleur de peau.

  • Apprentissage sans compréhension
    Contrairement à l’homme, un système informatique ne comprend pas le sens de ses actions, ce qui peut avoir des conséquences néfastes, comme des injures générées automatiquement.

  • Instabilité de l’apprentissage
    Les techniques actuelles ne résistent pas bien à plusieurs types d’attaques adversaires. Pour une bonne protection des systèmes d’IA, de nouvelles recherches et solutions techniques restent nécessaires.

  • Problème de spécification
    Les notions humaines ne peuvent être ni traduites dans le code informatique ni apprise mécaniquement avec une précision absolue. Ainsi, si une règle préconise de « protéger l’homme », le système doit savoir ce que signifie « l’homme », sinon une erreur dans l’identification ou dans la catégorisation se produira tôt ou tard.

  • Systèmes d'apprentissage profond encore peu compris
    Sans une compréhension mathématique satisfaisante du fonctionnement des systèmes d'apprentissage profond, 
     il reste impossible de démontrer rigoureusement que leur comportement ne sortira jamais du périmètre autorisé.


Alexei Grinbaum est également membre du groupe de travail du CNPEN sur l’éthique des véhicules autonomes et co-rapporteur du groupe de travail Agents conversationnels.


[1] John McCarthy (1927-2011) et Marvin Lee Minsky (1927-2016) ont organisé ensemble, en 1956, la conférence de Dartmouth, considérée comme l'acte de naissance de l'intelligence artificielle en tant que domaine de recherche autonome. John McCarthy a reçu, en 1971, le prix Turing pour ses travaux dans ce domaine.

[2] Alan Mathison Turing (1912-1954), mathématicien et informaticien britannique, est considéré comme l'« inventeur » de l'ordinateur. Il a également contribué au débat sur l'intelligence artificielle, en proposant le test qui porte son nom, fondé sur la faculté d'une machine à imiter la conversation humaine. 



Pour aller plus loin

Haut de page

Haut de page




Trois types d’algorithmes fondent les systèmes d’IA : apprentissage dit supervisé, apprentissage non supervisé, apprentissage par renforcement. Chacune de ces méthodes peut être réalisée seule, mais des algorithmes dits d’apprentissage profond les emploient à des niveaux différents au sein d’un seul système. »

Alexei Grinbaum