Les engagements des prestataires de soins de santé et des organismes payeurs font suite à ceux de 15 grandes entreprises d'IA, dont Google, OpenAI et Microsoft, partenaire d'OpenAI, visant à développer des modèles d'IA de manière responsable.

Le gouvernement de M. Biden s'efforce de définir des paramètres pour l'IA, qui gagne rapidement en capacité et en popularité, alors que la réglementation reste limitée.

"L'administration actionne tous les leviers dont elle dispose pour faire progresser l'IA responsable dans les domaines liés à la santé", a déclaré le responsable de la Maison-Blanche, ajoutant que l'IA avait un énorme potentiel pour bénéficier aux patients, aux médecins et au personnel hospitalier, à condition d'être gérée de manière responsable.

Le 30 octobre, M. Biden a publié un décret exigeant que les développeurs de systèmes d'IA qui présentent des risques pour la sécurité nationale, l'économie, la santé publique ou la sécurité des États-Unis partagent les résultats des tests de sécurité avec le gouvernement avant de les rendre publics.

Les fournisseurs qui ont signé les engagements comprennent Oscar, Curai, Devoted Health, Duke Health, Emory Healthcare et WellSpan Health, a déclaré le responsable de la Maison Blanche dans un communiqué.

"Nous devons rester vigilants pour concrétiser les promesses de l'IA en matière d'amélioration des résultats de santé", a déclaré le fonctionnaire. "En l'absence de tests appropriés, de mesures d'atténuation des risques et de surveillance humaine, les outils d'IA utilisés pour prendre des décisions cliniques peuvent commettre des erreurs qui sont au mieux coûteuses et au pire dangereuses.

En l'absence d'une surveillance appropriée, les diagnostics posés par l'IA peuvent être biaisés en fonction du sexe ou de la race, en particulier lorsque l'IA n'est pas entraînée sur des données représentant la population qu'elle est censée traiter, a ajouté le fonctionnaire.

Les principes qui sous-tendent le plan de l'administration prévoient que les entreprises informent les utilisateurs chaque fois qu'ils reçoivent un contenu généré en grande partie par l'IA et non revu ou corrigé par des personnes, et qu'elles surveillent et traitent les préjudices que les applications pourraient causer.

Les entreprises qui signent les engagements s'engagent à développer des utilisations de l'IA de manière responsable, y compris des solutions qui font progresser l'équité en matière de santé, élargissent l'accès aux soins, rendent les soins abordables, coordonnent les soins pour améliorer les résultats, réduisent l'épuisement des cliniciens et améliorent d'une autre manière l'expérience des patients.