L’intelligence artificielle du point de vue de la santé globale

Vincent Couture et Jean-Christophe Bélisle-Pipon explorent les nouvelles menaces existentielles qu’engendre l’intelligence artificielle restreinte et générale pour la santé mondiale et proposent des stratégies pour s’y attaquer.

__________________________________________

Un vent souffle sur le développement de l’intelligence artificielle (IA) en faveur d’un plus grand contrôle de la technologie. Il faut dire que l’industrie nous avait habitués à la même rengaine qui mélange laisser-faire et déclarations de principes éthiques qui, ultimement, s’avèrent plus cosmétiques que contraignantes. Parmi les dernières prises de parole critique, on peut citer la lettre ouverte publiée, en mars 2023, par le Future of life Institute et, le mois suivant, celle du Center for AI Safety. À leur façon, elles appelaient à un moratoire sur le développement de systèmes plus performants que GPT-4 pour cause de risques existentiels.

Plus proche des plates-bandes de la bioéthique, un texte de Federspiel et collaborateur.trice.s  pousse l’exercice afin d’identifier les risques posés par l’IA à la santé globale. L’article part du constat que la littérature médicale sur l’IA est (trop) souvent en faveur de ses avantages potentiels, tandis que les discussions sur les dangers éventuels se concentrent principalement sur les erreurs d’application de l’IA en clinique.

Photo Credit: julientromeur/pixabay. Image Description: A computer-generated illustration of an individual and a syringe.

En réponse, l’article décrit quatre menaces de l’IA sur la santé globale. Tout d’abord, on note les risques pour la démocratie, la liberté et la vie privée associés à la capacité de l’IA de gérer d’immenses quantités de données (p. ex. surveillance, désinformation). Suivent les risques pour la paix et la sécurité des populations avec l’arrivée de systèmes d’armes létaux autonomes guidés par l’IA. Sont mentionnés ensuite les risques psychosociaux liés à la déqualification des travailleur.se.s et à leur remplacement par l’IA. Finalement, une intelligence artificielle générale (IAG) mal intentionnée pourrait chercher à nuire directement aux êtres humains en les privant de leurs ressources ou en les éliminant. L’article se termine en proposant deux solutions : (1) développer un encadrement de l’IA à un niveau supranational, et (2) encourager la communauté de la santé publique à sonner l’alarme.

L’intention de Federspiel et collaborateur.trice.s d’ancrer la réflexion sur les risques de l’IA de manière plus concrète dans le champ de la santé globale nous apparait louable. Cependant, nous pensons que l’article aurait pu aller plus loin et nous aimerions proposer quelques ajouts.

Tout d’abord, quatre risques existentiels supplémentaires peuvent être ajoutés à ceux nommés dans l’article.

  1. L’impact environnemental de l’IA est exponentiel. L’IA consomme énormément d’énergie, et une dépendance accrue à ces technologies sans utiliser d’énergies renouvelables contribuera à augmenter les émissions de gaz à effet de serre et à accélérer les changements climatiques dont les impacts globaux sur la santé humaine ne sont plus à prouver.
  2. L’IA peut participer à augmenter les inégalités de santé, non seulement au sein des populations, mais aussi à l’échelle globale et contribuer à un climat de tensions géopolitiques. On peut citer à cet effet les conséquences négatives de biais discriminatoires dans la programmation des algorithmes ou leur entraînement. Une seconde source d’inégalité renvoie à l’écart internationale entre les groupes qui bénéficient des avantages des nouvelles technologies et ceux qui en sont exclus pour des raisons socio-économiques, technologiques ou capacitistes, bref le « digital divide » à grande échelle. On peut aussi y voir du « data colonialism» lorsque les données d’entraînement sont produites par une population défavorisée au profit d’une population privilégiée.
  3. Il peut aussi s’avérer que, malgré le hype, l’introduction de l’IA dans le domaine de la santé soit un très mauvais calcul en raison de problèmes techniques de mise à niveau, d’erreurs, etc. Ceci ruinerait les budgets des systèmes de santé, diminuerait l’accès aux soins ainsi qu’aux interventions de santé publique et contribuerait à baisser le niveau de santé générale de la population.
  4. La déqualification et le remplacement des travailleur.se.s de la santé peuvent aussi avoir pour conséquence inattendue que les humains perdent la capacité et les connaissances pour prendre soin d’eux-mêmes. Si l’on considère que le soin s’inscrit aux fondements de notre humanité, nous perdrions ici quelque chose d’essentiel.

Par rapport aux solutions proposées par l’article, une troisième voie nous semble envisageable entre le recours à des politiques internationales et devenir des lanceur.se.s d’alerte. En effet, il existe des institutions chargées d’évaluer les technologies de santé. Celles-ci pourraient clairement jouer un rôle plus global et complémentaire aux autres solutions susnommées. Ce travail serait utile sachant qu’il n’existe aucune disposition en matière de régulation de l’IAG.

En guise de conclusion, nous aimerions faire trois remarques. Premièrement, la complexité de l’analyse éthique de l’IA en santé globale vient peut-être de la perméabilité introduite par l’IA entre la santé individuelle et la santé des populations (santé publique). L’IA crée un chevauchement entre intervention individuelle généralisée à la population et santé publique de précision collectivisée. Deuxièmement, nous pouvons nous demander comment les risques existentiels posés une IAG se distingueraient de ceux causés par de simples IA ? Une réponse serait que l’IAG aurait la capacité d’orchestrer de manière intentionnelle tous les risques précédemment mentionnés. Troisièmement, il y a une redondance à parler de risques existentiels et de santé globale. À nos yeux, toute atteinte à la santé globale peut être conçue comme une forme de menace existentielle en diminuant les chances à l’humanité de survivre à son environnement. Si nous avons raison sur ce point, la réflexion sur les menaces existentielles de l’IA devrait grandement s’inspirer de nos réflexions, mais aussi représenter une motivation supplémentaire pour les communautés en bioéthique de s’engager à y répondre.

__________________________________________

Vincent Couture est professeur adjoint à la Faculté des sciences infirmières de l’Université Laval. @VincentCouture

Jean-Christophe Bélisle-Pipon est Assistant Professor in Health Ethics à la Faculty of Health Sciences de Simon Fraser University. @BelislePipon

Leave a Reply

Your email address will not be published. Required fields are marked *