Intelligence artificielle Intelligence artificielle vs intelligence superficielle

Pour approfondir le sujet

Sur le même thème :

Deux ans après l’arrivée de ChatGPT, comment la GenAI transforme la recherche en ligne et le marketing

Alors que ChatGPT vient de fêter son second anniversaire et compte aujourd'hui plus de 300 millions d'utilisateurs hebdomadaires, le rapport "Online Search After ChatGPT:...

Llama 3.3 70B : Meta dévoile son dernier ajout à la famille Llama 3, un modèle particulièrement efficace

Alors que Meta prépare le lancement des premiers modèles Llama 4 pour le début de l'année prochaine, l'entreprise a dévoilé en fin de semaine...

AgentLab, un framework open source pour le développement et l’évaluation des agents Web

Lancé par ServiceNow, AgentLab est un framework open source visant à faciliter le développement et l'évaluation d'agents Web. Son objectif principal est de soutenir...

Pleias : des modèles de langages ouverts pour une IA éthique et transparente

Pleias, une start-up française, annonce le lancement de sa première famille de grands modèles de langage (LLM), définissant de nouvelles références en matière...

Intelligence artificielle vs intelligence superficielle

Que d’encre ne coule chaque semaine pour nous expliquer que l’intelligence artificielle n’existe pas, qu’elle n’est guère intelligente notamment au regard de l’humain qui lui, n’en ayons aucun doute dispose d’une intelligence bien réelle. Pourtant, l’intelligence artificielle est bien présente dans notre vie quotidienne et l’histoire comme l’actualité ne nous apportent pas toujours la preuve d’une intelligence humaine bien réelle. Alors, entre l’intelligence artificielle de la machine et l’intelligence humaine, parfois trop superficielle pour la comprendre, comment devons nous appréhender une discipline qui ne cessera de croître dans les années à venir notamment en matière de sécurité ?

L’ouvrage de Luc Julia, « L’intelligence artificielle n’existe pas », a connu et connaît encore un beau succès de librairie. Luc Julia est l’un des concepteurs chez Apple de l’application de commande vocale Siri et est aujourd’hui directeur scientifique chez Renault après un passage chez Samsung. Au regard de son parcours tant académique qu’industriel, difficile de ne pas croire à cette inexistence de l’intelligence artificielle. Alors que nous l’utilisons dans nos applications quotidiennes, au point de ne pouvoir nous en passer, voilà un livre qui vient nous dire qu’elle n’existe pas. En réalité, lorsque Luc Julia affirme qu’elle n’existe pas, il faut le comprendre au sens philosophique et cartésien du terme, à savoir le « Cogito ergo sum » du Discours de la Méthode de René Descartes. Derrière cette phrase latine, il faut entendre que l’homme existe parce qu’il a conscience de lui-même grâce à la pensée et c’est cette prise de conscience qui est garante de son existence. Effectivement en ce sens, l’intelligence artificielle n’existe pas car elle n’a pas conscience d’elle-même. Mais la chaise, sur laquelle vous êtes assis, n’a pas non plus conscience d’elle-même mais retirez là et vous comprendrez qu’elle existe. La philosophie cartésienne ne nous dit pas que ce qui ne pense pas n’existe pas, mais nous révèle que si la preuve de la pensée est établie, celle de l’existence l’est aussi. La relation n’est donc pas réciproque, nous ne sommes pas sur une relation d’équivalence mais bien sur une relation d’implication.

Dès lors, si l’intelligence artificielle n’a pas la conscience d’elle-même, nous ne pouvons pas pour autant affirmer qu’elle n’existe pas. Elle est donc bien réelle même si elle n’en demeure pas moins artificielle. Et l’intelligence humaine, qui consacre autant d’énergie à remettre en cause l’intelligence artificielle, n’est-elle pas un peu trop souvent superficielle même si bien réelle elle aussi?

Dans le sujet, si sensible d’une intelligence artificielle discriminatoire parfois qualifiée de raciste ou de sexiste, il convient de s’intéresser aux principes mathématiques sous jacents qui reposent sur des méthodes discriminantes. En effet, il y a dans le terme discriminatoire une approximation de langage qui témoigne d’une approximation de la connaissance et peut être d’une volonté de report d’une responsabilité humaine vers celle de la machine. Pour comprendre cette caractéristique discriminante, il est une réalité humaine qui se transpose à celle de la machine, qu’il nous faut explorer: l’apprentissage. Imaginons un enfant asiatique qui n’est entouré que de personne de type asiatique, et que temps en temps, il rencontre une personne de type européen. Il aura beaucoup plus de mal à discriminer une personne de type européen parmi d’autres personnes de type européen comparativement à une personne de type asiatique parmi d’autres personnes de type asiatique. Nous viendrait-il à l’esprit de considérer cet enfant comme raciste ? Non bien sûr, mais il n’en demeure pas moins que son pouvoir discriminant n’est pas égale selon le type de personne. Cela s’explique par son niveau d’apprentissage qui n’est pas identique au regard de ce critère. Et, il en est de même pour la machine qui, pas plus que l’enfant n’est raciste, même si son pouvoir de discrimination inter et intra-classe n’est pas égale. Ce à quoi il faut veiller, c’est que cette discrimination mathématique ne porte pas préjudice à l’une ou l’autre classe par rapport au problème à résoudre.

Au cœur de cette approximation de la connaissance se situe donc la question mathématique de la discrimination et de celle du fonctionnement de l’apprentissage automatique. Celui-ci constitue le socle de nombreuses méthodes d’intelligence artificielle implémentées dans les systèmes actuels. Comme l’humain, la machine est capable d’apprendre à partir de l’expérience du passé comme de l’expérience vécue au présent.  L’apprentissage peut être supervisé, semi supervisé, non supervisé ou par renforcement pour les typologies les plus courantes. Il consiste à présenter des données labellisées (apprentissage supervisé) ou non (apprentissage non supervisé) à la machine pour qu’elle soit capable d’identifier de nouvelles données et de les classer de façon optimale. Le principe de l’apprentissage est de maximiser l’inter-classe pour minimiser l’intra-classe et donc de maximiser les marges pour obtenir une meilleure capacité à reconnaître une classe par rapport à d’autres.

En présentant à la machine une série d’images d’aigles royaux, l’objectif est d’être capable d’apprendre les caractéristiques invariantes des aigles royaux et de pouvoir généraliser la capacité d’identification lors de la présentation de nouveaux aigles ou autres oiseaux. Les systèmes dans cette phase de généralisation peuvent souffrir de deux types de maux, générateurs d’erreurs, dues au sur-apprentissage ou au sous-apprentissage. Dans un cas, la machine est trop précise (variance) et perd sa capacité à généraliser le pouvoir d’identification. Dans le second cas, la machine n’est pas assez précise (biais) et commettra également des erreurs de généralisation et donc d’identification. Un bon apprentissage est un équilibre qui cherche à minimiser deux types d’erreur : le biais et la variance. C’est la somme de ces deux paramètres qui définit l’erreur d’estimation globale.  Les différentes méthodes d’apprentissage ont ainsi pour objectif d’estimer une fonction de correspondance pour la variable de sortie d’un système, étant donné la variable d’entrée. C’est cette fonction que cherche à approximer la méthode d’apprentissage et c’est aussi à ce niveau que se réalise le compromis biais-variance et donc que se situe l’erreur de prédiction.

Revenons à l’accusation de machine discriminatoire. Si, au sein de votre corpus d’apprentissage, vous disposez de 70 % de femmes et de 30 % de d’hommes dans la répartition par le genre d’un métier particulier. Vous allez estimer vos paramètres sur un corpus déséquilibré en risquant un sur-apprentissage sur les hommes car il y en a moins ou un sous-apprentissage sur les femmes car elles sont plus nombreuses. Cela générera un moindre pouvoir discriminant sur l’une des deux catégories dans la phase de généralisation. Il faut alors ajuster les paramètres dans une phase de validation afin de compenser l’erreur de généralisation. Porter des accusations de sexisme envers une machine ou un algorithme n’a bien souvent que peu de sens, il est préférable de se concentrer sur l’ajustement bien humain des paramètres afin de compenser le déséquilibre des classes. En effet, la machine n’est ni raciste ni sexiste, ce sont d’ailleurs malheureusement des caractéristiques bien humaines, en revanche elle peut commettre des erreurs de classes et n’est pas infaillible.

Le déséquilibre des classes en apprentissage automatique n’est pas un problème nouveau et est même plutôt commun. En matière de sécurité, lorsqu’il faut détecter des fraudes par exemple, il y a toujours et fort heureusement un déséquilibre entre la classe « non fraude » qui sera majoritaire et la classe « fraude » qui sera minoritaire. Pour faire face à ce déséquilibre de classes, il existe des méthodes ne serait-ce que l’emploi de métriques différentes pour évaluer le résultat. Par exemple, l’une des métriques les plus communes, la  précision se définit comme la recherche de la proportion d’identifications positives effectivement correctes. Elle n’est pas toujours adaptée au déséquilibre des classes qui nécessite parfois d’appréhender le résultat par le rappel qui, lui s’intéresse à la proportion de résultats positifs réels identifiés correctement. L’évaluation de la performance d’un modèle appris implique d’analyser à la fois la précision et le rappel mais ces deux notions peuvent se contrarier et l’enjeu est une nouvelle fois une question d’équilibre. Rappel et précision sont des notions bien connues en apprentissage automatique et peuvent aussi être complétées par des approches de type F1-score, Kappa-Cohen, Brier Score qui sont autant de métriques à choisir pour évaluer le niveau de performance d’un système de la meilleure façon tout au moins de la façon la plus pertinente par rapport à la distribution des classes et à la finalité du problème posé.

Au delà de la métrique, le problème de déséquilibre des classes peut aussi s’appréhender par des techniques de rééchantillonnage comme le sur ou sous échantillonnage. Le sous-échantillonnage consiste à équilibrer le jeu de données en diminuant le nombre d’éléments de la classe majoritaire. Plusieurs possibilités de sous-échantillonnage existent comme la méthode aléatoire ou celle des liens de Tomek ou encore les techniques de type « Edited Nearest-Neighbor » ou les « NearMiss ». A l’inverse, un sur-échantillonnage consiste à rééquilibrer le jeu de données par un accroissement artificiel du nombre d’éléments de la classe minoritaire. Ce sur-échantillonnage repose également sur différentes approches. Il peut par exemple être aléatoire ou basé sur les minorités synthétiques. Lorsque les méthodes de ré-échantillonage ne sont pas suffisantes, on peut encore agir sur la notion de coût d’apprentissage comme le « cost-sensitive learning » qui associe un coût différent à chaque type d’erreurs (faux positifs, faux négatifs).

Il existe donc bien des méthodes pour modifier la répartition des données lorsque le déséquilibre est détecté et engendre un résultat peu pertinent. Il convient néanmoins de prendre conscience que les méthodes employées modifient le réel de la base de donnée en fonction des préférences envisagées telles que l’équité du genre, de l’âge, de la couleur de peau ou de la catégorie socio-professionnelle…. et les critères ne manquent pas.  La question demeure donc de savoir où placer la barre de l’ajustement des données dès lors que l’on modifie le réel car il s’agit bien d’introduire un biais dans les données pour les rendre plus équitables. La réalité est un peu plus complexe car les paramètres à ajuster dans le cas de méthodes à noyau par exemple tels les séparateurs à vastes marges ou celles à base de mélanges de gaussiennes ou encore de réseaux de neurones sont différents et nombreux. Néanmoins, quelque soit la méthode, l’intérêt manifeste de la machine est qu’elle permet de mettre en évidence les biais inhérents aux données pour prévenir des discriminations catégorielles en proposant une évaluation objective de la performance du système et donc de son pouvoir discriminant. Connaître mathématiquement les méthodes constituent un atout considérable pour être capable de lutter contre les biais. N’oublions pas non plus que ce sont les biais qui permettent la séparation des classes indispensables aux applications d’ intelligence artificielle comme à l’humain d’ailleurs. Une société sans biais ou une base de données sans biais, c’est en quelque sorte une société de clones ou une base de données sans intérêt .

Le racisme ou le sexisme, souvent attribué à l’intelligence artificielle par des « experts » à la connaissance parfois quelque peu superficielle dans le domaine, est donc bien souvent une question d’ajustements humains de paramètres et donc de responsabilité humaine. Malheureusement, dès lors qu’une équation apparaît dans une tentative de vulgarisation, la grande majorité des commentateurs « spécialistes » de l’intelligence artificielle se détourne du sujet. L’intelligence artificielle ne serait pas explicable. A la réalité, elle l’est, sous bien des aspects mais une science explicable n’est pour autant pas compréhensible par tout le monde sans effort. Il est tellement plus simple de s’arrêter à la superficialité de la connaissance, voire au titre d’un ouvrage, plutôt que de s’engager dans son approfondissement.

Albert Einstein le disait : « Rendez les choses aussi simples que possibles mais pas plus simples. Rien n’est plus proche du vrai que le faux ».

La vulgarisation ne doit pas simplifier la connaissance au point de la dénaturer et de la transformer en ce qu’elle n’est plus et en s’éloignant du vrai. Pour aller plus loin et mieux comprendre encore ces problèmes, il convient de s’astreindre à l’effort de la connaissance qui malheureusement décourage beaucoup de « spécialistes ». Ces « experts » qui n’abordent l’ intelligence artificielle que de manière superficielle et qui sont pourtant très souvent entendus, risquent d’effrayer et de retarder le développement d’applications et de perspectives particulièrement réjouissantes de l’intelligence artificielle dans un cadre de confiance et de connaissance. Il est souhaitable que l’intelligence humaine oublie la superficialité pour se consacrer à une  connaissance approfondie afin d’extraire de cette discipline tout son potentiel pour le progrès humain et éviter qu’elle ne soit exploitée qu’à des fins malveillantes.

La question éthique quant à l’usage des applications faisant appel à l’intelligence artificielle nécessite d’être appréhendée en connaissance. Bien évidemment le questionnement du citoyen, du juriste, de l’expert est plus que légitime et il n’est pas nécessaire de comprendre les mathématiques de l’ intelligence artificielle pour s’interroger. Néanmoins, la réponse apportée à ce questionnement ne doit pas être approximative. Il s’agit pour comprendre toutes les potentialités de l’intelligence artificielle, qu’elles soient positives ou négatives, de les appréhender en connaissance et en responsabilité afin d’être capable de promouvoir le progrès et de prévenir les dérives. La première des éthiques pour appréhender une discipline comme l’intelligence artificielle est la connaissance. La machine conservera bien une intelligence très artificielle mais l’humain pourra l’utiliser en responsabilité et à des fins positives en étant moins superficiel dans son approche.

Contributeur expert

Patrick Perrot

Officier de gendarmerie, docteur en intelligence artificielle (IA), Patrick Perrot a combiné de

Partager l'article

Deux ans après l’arrivée de ChatGPT, comment la GenAI transforme la recherche en ligne et le marketing

Alors que ChatGPT vient de fêter son second anniversaire et compte aujourd'hui plus de 300 millions d'utilisateurs hebdomadaires, le rapport "Online Search After ChatGPT:...

Llama 3.3 70B : Meta dévoile son dernier ajout à la famille Llama 3, un modèle particulièrement efficace

Alors que Meta prépare le lancement des premiers modèles Llama 4 pour le début de l'année prochaine, l'entreprise a dévoilé en fin de semaine...

AgentLab, un framework open source pour le développement et l’évaluation des agents Web

Lancé par ServiceNow, AgentLab est un framework open source visant à faciliter le développement et l'évaluation d'agents Web. Son objectif principal est de soutenir...

Pleias : des modèles de langages ouverts pour une IA éthique et transparente

Pleias, une start-up française, annonce le lancement de sa première famille de grands modèles de langage (LLM), définissant de nouvelles références en matière...