L’OMS appelle à une intelligence artificielle (IA) sûre et éthique dans le domaine de la santé
L’Organisation mondiale de la santé appelle à la prudence dans l’utilisation des grands modèles de langage (LLM) générés par l’IA pour préserver les personnes et la santé publique
Dans son communiqué du 16 mai, l’OMS cite bien sûr ChatGPT mais aussi Bard et Bert, et vise « tous les systèmes dits de grands modèles inguisitiques « qui imitent la compréhension, le traitement et la production de la communication humaine ». Tout en le partageant, elle s’inquiète de l’enthousiasme important concernant leur capacité à répondre aux besoins de santé, et souhaite une évaluation des risques à la hauteur des enjeux, qu’il s’agisse d’outils d’aide à la décision ou au diagnostic dans des environnements où les ressources humaines manquent cruellement.
Prudence et respects de valeurs pour le développement
Les valeurs suivantes doivent présider à la mise en œuvre de ces solutions d’IA sur base de grands modèles linguistiques (LLM) selon l’OMS : transparence, inclusion, engagement public, supervision par des experts et évaluation rigoureuse.
Dangers identifiés
L’OMS voit poindre le danger d’une adoption précipitée de systèmes non testés, pouvant entraîner des erreurs des opérateurs personnel de santé des systèmes concernés entraînant des effets nuisibles pour les patients et par ricochet sur la confiance dans l’IA avec pour conséquence la compromission ou le retard des avantages de l’utilisation potentielle de cette technologie à long terme.
L’organisme voit les principaux risques suivants :
- données biaisées générant des informations trompeuses ou inexactes avec risques potentiels pour la santé, l’équité et l’inclusion
- l’écart possible entre la perception de réponses fiables et plausibles générées par les LLM, alors qu’elle peuvent être totalement incorrectes ou contenant des erreurs significatives, danger amplifié s’il s’agit du domaine de la santé
- données dont la divulgation n’a pas été consentie préalablement, notamment quand il s’agit de données de santé sensibles fournies par un utilisateur à l’application en vue de générer une réponse
- utilisation malveillante des LLM pour générer et diffuser de la « désinformation très convaincante« , avec toute la difficulté que le public peut avoir pour la différencier d’informations fiables
Engagement des décideurs
L’OMS préconise l’engagement des décideurs politiques dans la garantie de la sécurité et de la protection des patients pour le développement et l’exploitation des nouvelles technologies et en particulier l’IA et la santé numérique, en intégrant les dangers identifiés, avec la définition de mesures claires des avantages avant l’utilisation généralisée pour les soins de santé et la médecine de routine des outils développés par les entreprises technologiques.
Éthique et gouvernance doivent régir ces développements l’utilisation des outils d’IA au service de la santé, selon six principes fondamentaux définis par l’OMS :
(1) protéger l’autonomie
(2) promouvoir le bien-être humaine, la sécurité humaine et l’intérêt public
(3) assurer la transparence, l’explicabilité et l’intelligibilité
(4) favoriser la responsabilité et l’obligation de rendre des comptes
(5) assurer l’inclusivité et l’équité
(6) promouvoir une IA réactive et durable.
Pour aller plus loin
Pour aller plus loin
Science infuse est un service de presse en ligne agréé (n° 0324 x 94873) piloté par Citizen4Science, association à but non lucratif d’information et de médiation scientifique doté d’une Rédaction avec journalistes professionnels. Nous défendons farouchement notre indépendance. Nous existons grâce à vous, lecteurs. Pour nous soutenir, faites un don ponctuel ou mensuel.