Intelligence artificielle L’intelligence artificielle en santé est l’affaire de tous

Pour approfondir le sujet

Sur le même thème :

Deux ans après l’arrivée de ChatGPT, comment la GenAI transforme la recherche en ligne et le marketing

Alors que ChatGPT vient de fêter son second anniversaire et compte aujourd'hui plus de 300 millions d'utilisateurs hebdomadaires, le rapport "Online Search After ChatGPT:...

Llama 3.3 70B : Meta dévoile son dernier ajout à la famille Llama 3, un modèle particulièrement efficace

Alors que Meta prépare le lancement des premiers modèles Llama 4 pour le début de l'année prochaine, l'entreprise a dévoilé en fin de semaine...

AgentLab, un framework open source pour le développement et l’évaluation des agents Web

Lancé par ServiceNow, AgentLab est un framework open source visant à faciliter le développement et l'évaluation d'agents Web. Son objectif principal est de soutenir...

Pleias : des modèles de langages ouverts pour une IA éthique et transparente

Pleias, une start-up française, annonce le lancement de sa première famille de grands modèles de langage (LLM), définissant de nouvelles références en matière...

L’intelligence artificielle en santé est l’affaire de tous

Le collectif Impact AI lance un appel à tous les acteurs concernés afin de défendre une IA en santé éthique et responsable.

Nous sommes le collectif de réflexion et d’action Impact AI. Nous rassemblons des acteurs travaillant sur l’intelligence artificielle : grandes entreprises, entreprises numériques, start-up sociétés de conseil, écoles. Nous sommes engagés pour le développement d’une intelligence artificielle éthique et responsable.

La crise sanitaire a mis en lumière la contribution et le potentiel de l’intelligence artificielle dans le domaine de la santé. Les modèles prédictifs et l’utilisation massive de données dans ce secteur engendrent de nouvelles opportunités et posent aussi de nombreuses questions médicales, juridiques, politiques, économiques, philosophiques, éthiques et techniques.

Ce questionnement nous a conduit a publié en 2021 : « L’IA en santé : entre raison et sentiments », un plaidoyer réalisé avec le concours d’une quinzaine d’experts en IA et/ou en santé. Depuis, nous avons constitué un groupe de travail spécifique afin d’approfondir deux des enjeux identifiés dans ce document : les biais algorithmiques liés au genre et les données grises.

Les biais algorithmiques peuvent avoir un impact sur les choix et les stratégies médicales

Les IA sont développées et utilisées en santé pour prédire, diagnostiquer, traiter ou monitorer des patients. Les multiples biais dans le domaine de la santé influencent la perception des symptômes par les personnes elles-mêmes, mais aussi l’interprétation des signes cliniques par les professionnels de santé. Si les IA ne sont pas intrinsèquement biaisés (sexistes, racistes,…) elles utilisent des données qui, elles, peuvent être biaisées. Les IA utilisant ces données véhiculent donc potentiellement des biais. C’est pourquoi, une attention particulière et des actions spécifiques doivent être proposées pour les limiter au maximum afin de promouvoir une IA en santé qui soit juste pour toutes et tous.

Les données grises restent dans l’angle mort de la réglementation

Aujourd’hui les objets connectés, les assistants vocaux, les plateformes ainsi que les applications entraînent une explosion de données disponibles, notamment pour tout ce qui a trait à la santé. Ces données sont très utiles pour développer des médecines de plus en plus personnalisées qui permettent à chacun de devenir acteur de sa santé. Il se dessine, alors, un paysage dans lequel coexiste des données issues des dossiers médicaux, des données comportementales et des données de bien-être. Les données personnelles sont déjà règlementées par le RGPD et le cadre qui spécifie les données de santé a été très précisément défini par la CNIL, cependant, les usages et l’information qui découlent de leur utilisation peuvent être incertains et ambigus pour les individus. Cette zone grise, dans laquelle l’usage de données issues de sources multiples et faisant l’objet d’utilisations secondaires à des fins médicales, doit donner lieu à des recommandations afin de mieux encadrer les usages basés sur ces informations.

La présidence française de l’Union européenne : une opportunité pour exprimer une parole commune ?

La France se positionne comme un acteur leader européen et incontournable en matière d’IA et de données de santé, avec notamment le développement du Health Data Hub, plateforme française de stockage, de partage et d’utilisation de données en santé.
La Commission européenne vient de publier son projet de règlement visant à créer un Espace Européen des Données de Santé (European Health Data Space – EHDS). L’objectif de la Commission est de proposer à l’ensemble des citoyens de l’Union un accès à leur données personnelles de santé d’ici 2030 (objectif formulé une première fois dans le programme « Path to the Digital Decade ») Le point majeur mis en avant se situe autour de la réutilisation secondaire des données avec pour but l’accélération considérable de la production de services en santé intégrant des intelligences artificielles.

La Commission européenne sera responsable pour réglementer les éditeurs de logiciels en santé (Electronic Health Records – EHR systèmes), fixer des règles d’interopérabilité des données, promouvoir la e-prescription et la télémédecine via les données personnelles ou à celles qui sont dans le champ du RGPD (fondées sur un consentement ou un contrat) mais également les données « inférées ». La commission pourrait règlementer dans ce cadre tous les producteurs de données de santé (qu’il s’agisse de données médicales, de données issues de logiciels à vocation sanitaire ou d’applications de bien-être), tous les utilisateurs et hébergeurs).
La Plateforme (française) des données de santé (Health Data Hub – HDH) a candidaté pour devenir la plateforme européenne et répondre aux exigences de la Commission, ainsi le HDH pourrait même devenir prochainement la plateforme de référence en Europe.
En outre, les différentes réglementations en cours d’élaboration au niveau européen auront des impacts directs et indirects sur la question des biais algorithmiques et des données grises, ainsi que sur les acteurs de l’IA en santé de façon plus générale.

Cette expérience acquise doit donc servir de tremplin pour porter l’ensemble de ces sujets et de faire entendre une parole commune sur les points complexes et sensibles de l’IA en santé. Aussi, avec cette tribune, nous invitons les acteurs privés et publics, chercheurs, soignants, associations de patients et d’aidants, établissements hospitaliers, structures de formation, juristes, régulateurs, acteurs de la société civile et tous ceux qui se sentent concernés à rejoindre notre groupe de travail afin de proposer de façon collégiale des recommandations aux enjeux des biais algorithmiques et à la zone dite grise de l’utilisation des données en lien avec la santé. Pour être efficace, la réglementation sur les données doit être compréhensible par tous les acteurs. De fait les procédures de mise en œuvre se devront d’être parfaitement claires pour faciliter et favoriser sa mise en application dans les logiciels et autres solutions de santé. Il nous faut en effet veiller à ne pas ajouter de nouvelles complexités dans un marché déjà très réglementé au risque sans cela de brider l’innovation.

Si l’actuelle Présidence française de l’Union européenne constitue une opportunité unique, au-delà de cette échéance, il nous paraît essentiel de construire de façon pérenne des instances de dialogues et de travail, car ce n’est qu’ensemble qu’il sera possible de penser une éthique et des pratiques propres à l’IA en santé avec, en son centre, une notion clé, celle d’une IA utile à la santé des personnes, collectivement et individuellement. La prochaine entrée en vigueur de l’AI Act donne à tous l’opportunité de se préparer à la prochaine entrée en vigueur de la nouvelle conformité en Garantie Humaine des traitements algorithmiques. Celle-ci, portée depuis cinq ans par Impact AI avec EthikIA s’inscrit résolument dans une logique de régulation positive pour soutenir l’innovation et réguler ses enjeux éthiques.

Le collectif Impact AI avec La Villa numeris et Ethik IA

Contributeur expert

Partager l'article

Deux ans après l’arrivée de ChatGPT, comment la GenAI transforme la recherche en ligne et le marketing

Alors que ChatGPT vient de fêter son second anniversaire et compte aujourd'hui plus de 300 millions d'utilisateurs hebdomadaires, le rapport "Online Search After ChatGPT:...

Llama 3.3 70B : Meta dévoile son dernier ajout à la famille Llama 3, un modèle particulièrement efficace

Alors que Meta prépare le lancement des premiers modèles Llama 4 pour le début de l'année prochaine, l'entreprise a dévoilé en fin de semaine...

AgentLab, un framework open source pour le développement et l’évaluation des agents Web

Lancé par ServiceNow, AgentLab est un framework open source visant à faciliter le développement et l'évaluation d'agents Web. Son objectif principal est de soutenir...

Pleias : des modèles de langages ouverts pour une IA éthique et transparente

Pleias, une start-up française, annonce le lancement de sa première famille de grands modèles de langage (LLM), définissant de nouvelles références en matière...