Dans un article publié dans le BMJ, des médecins et des experts en santé publique en appellent à l’arrêt du développement de l’intelligence artificielle jusqu’à l’instauration d’une réglementation.
L’intelligence artificielle peut potentiellement révolutionner les soins de santé en améliorant le diagnostic de maladies, en trouvant de nouvelles manières de traiter les patients et de rendre les soins de santé accessibles à davantage de personnes. Un avis réitéré par des experts s’exprimant dans le BMJ Global Health.
Mais le développement de l’intelligence artificielle peut également avoir des effets négatifs pour la santé, soulignent des professeurs et chercheurs britanniques, américains, australiens, costaricains et malaysiens dans la même publication.
« Le risque, en médecine et dans les soins de santé, est que des erreurs de l’IA portent préjudice aux patients, qu’elle soit source de problèmes en matière de vie privée et de sécurité des données et que certaines façons d’utiliser l’AI aggravent les inégalités sociales et sanitaires », estiment les experts.
L’essentiel de la littérature traitant de l’IA en santé se focalise sur ses avantages potentiels. Par ailleurs, les discussions sur ses préjudices potentiels se concentrent généralement sur le mauvais usage de l’IA en environnements cliniques.
« Il est nécessaire d’aménager une réglementation efficace en matière de développement et d’utilisation de l’intelligence artificielle afin d’éviter les dommages. Aussi longtemps qu’une telle réglementation n’existe pas, il est nécessaire d’instaurer un moratoire sur le développement de l’intelligence artificielle. »
Nombre de menaces sont la conséquence d’un utilisation abusive — volontaire, accidentelle ou par négligence — de l’IA par l’homme. De même, le risque et la menace qu’induit une forme d’IA qui existerait et opérerait indépendamment de tout contrôle humain, sont actuellement du ressort de l’être humain. Toutefois, les opinions divergent sur l’ampleur du risque que représentent l’IA et l’arbitrage relatif à effectuer entre risque et bénéfices potentiels, entre préjudice et avantages.
« En raison de l’essor exponentiel de la recherche et des développements IA, les risques de dommages sérieux et potentiellement existentiels sont de plus en plus réduits. Les résultats futurs du développement de l’IA dépendront des décisions politiques que l’on prend aujourd’hui et de l’efficacité avec laquelle les organismes de régulation sauront minimiser les risques et les dommages et maximiser les avantages. Comme c’est le cas pour d’autres technologies, prévenir ou minimiser les menaces de l’IA exige qu’une collaboration et un consensus international voient le jour et que l’on évite de se lancer dans une “course aux armements” IA mutuellement destructrice. De même, les décisions politiques doivent s’affranchir de tout conflit d’intérêts et se protéger contre le lobbying d’acteurs influents. Il est inquiétant de constater que l’initiative en matière de recherche IAG [Intelligence Artificielle Générale) est le fait de grandes entreprises privées ayant des intérêts financiers manifestes sans beaucoup de contrôle public et démocratique », concluent les auteurs.
Lire aussi: ChatGPT et le risque de faute professionnelle des médecins