https://global.agfahealthcare.com/france/systemes-informations/hexalis/
http://vieviewer.com/

Politique

Bioéthique: la mission parlementaire préconise de légiférer sur la "garantie humaine" du numérique en santé

0 419

PARIS (TICsanté) - Dans un rapport publié le 15 janvier, la mission d'information parlementaires sur la révision de la loi de bioéthique consacre un chapitre entier à l’intelligence artificielle (IA) et préconise l’introduction dans la loi de la "garantie humaine" du numérique en santé et "l’explicabilité des algorithmes".

La mission d'information, présidée par le député Xavier Breton (LR, Ain) et dont le rapporteur est Jean-Louis Touraine (LREM, Rhône), a été créée en juillet 2018 avec pour objectif d'informer les parlementaires sur les questions bioéthiques.

Lors de cette mission, dont les travaux interviennent en amont de la présentation d'un projet de loi en conseil des ministres, plus de 150 personnalités ont été entendues au cours de 65 auditions.

Le rapport présente 60 propositions, dont 13 consacrées à l'IA (voir encadré ci-dessous).

Sur la vingtaine de membres de la commission, 4 ont voté contre l'adoption du rapport et il y a eu une abstention, a précisé Xavier Breton, lors de sa présentation. Le document dans sa totalité ayant été soumis au vote, le président et le rapporteur ont expliqué que, même si les députés de la mission d'information ont voté en sa faveur, ils ne sont par forcément d'accord avec chacune de ses propositions.

Face au boom de l’IA en France, notamment dans le secteur de la santé, le rapport s'est efforcé de répondre aux enjeux éthiques soulevés par la discipline mais aussi de formuler des préconisations pour un encadrement voulu "souple".

"Ce sera pour l’avenir, pour moi, le sujet n°1 de la bioéthique du futur parce que ça conditionne énormément de choses, cela conditionne la vie de tout le monde, cela conditionne évidemment la santé de chacun", a déclaré Jean-Louis Touraine à la presse, lors de la présentation des conclusions de son rapport.

Pour répondre aux nombreux enjeux éthiques soulevés par l’IA, "il importe de se garder des deux solutions extrêmes: soit l’instauration d’un cadre juridique protecteur, préventif, mais nécessairement contraignant, qui risquerait de couper la France des pays innovants dans le domaine de l’IA tout en privant les citoyens français d’une médecine de pointe", soit un laisser-faire que le rapporteur a qualifié de "progressisme incontrôlé, potentiellement dangereux".

La réponse apportée "par la quasi-totalité des experts auditionnés" repose sur une "modération législative".

Dans un premier temps, le rapport parlementaire a tenté de répondre à la question de la "responsabilité" en matière d’IA en santé. Pour cela, il a insisté sur l’importance de "maintenir le principe d’une responsabilité du médecin qui, en l’absence de défaut établi de l’algorithme, ne peut être engagée qu’en cas de faute de sa part".

Il a également été précisé qu’une faute "ne peut être établie du seul fait que le praticien n’aurait pas suivi les recommandations d’un algorithme, quand bien même celles-ci se révèleraient exactes".

Afin de "prévenir le risque de déshumanisation de la médecine", dans la foulée des conclusions du Comité consultatif national d'éthique (CCNE) (lire dépêche du 27 novembre 2018), la mission d’information a proposé d’introduire "un principe législatif de garantie humaine du numérique en santé".

La "garantie humaine", socle du développement de l’IA

Définie par le CCNE comme "la garantie d’une supervision humaine de toute utilisation du numérique en santé, et l’obligation d’instaurer pour toute personne le souhaitant et à tout moment, la possibilité d’un contact humain en mesure de lui transmettre l’ensemble des informations la concernant dans le cadre de son parcours de soins", cette "garantie humaine" nécessiterait de "préserver la maîtrise finale du professionnel de santé, en interaction avec le patient, pour prendre les décisions appropriées en fonction de chaque situation spécifique".

Chargé de rédiger d’animer un groupe de travail sur le sujet de l’IA pour le CCNE, David Gruson, ex-délégué général de la Fédération hospitalière de France (FHF), aujourd’hui à la tête du think tank Ethik & IA et membre de la chaire santé de Science Po Paris, a recommandé de charger la Haute autorité de santé (HAS) de rédiger des recommandations de bonnes pratiques pour la mise en oeuvre "concrète" de ce principe de "garantie humaine", une proposition reprise dans le rapport de la mission d’information.

Pour cela, David Gruson a imaginé un "collège de garantie humaine" pouvant être mis en place "à l’échelle d’un établissement ou d’un territoire plus large". Ce "collège de garantie humaine" aurait pour mission d’étudier, "à échéance régulière de 2 ou 3 mois environ", plusieurs dizaines de dossiers médicaux pour lesquels il aurait été recouru à un algorithme d’aide au diagnostic, afin de vérifier la pertinence du diagnostic fourni par l’algorithme.

Toujours en accord avec les propositions émises par David Gruson et le CCNE, le rapport de la mission d’information a proposé de "définir un nouvel acte de télémédecine dit de garantie humaine", permettant d’obtenir un deuxième avis médical en cas de doute sur les recommandations thérapeutiques de l’algorithme.

La question des algorithmes a aussi été au coeur de ce rapport, de leur définition à leur opacité. Jean-Louis Touraine a insisté sur la nécessité d’introduire dans la loi une "exigence d’explicabilité des algorithmes".

L’explicabilité des algorithmes pour préserver le "rôle" du médecin

Le rapport de la mission d’information a émis la proposition d’introduire dans la loi une "exigence d’explicabilité" des algorithmes, "différenciée selon le public visé, qui porterait sur leur logique de fonctionnement et sur les critères retenus pour apprécier la pertinence des informations finales tirées des données utilisées".

Cette "explicabilité" est jugée nécessaire pour la "préservation du rôle du médecin dans le parcours de soins d’un patient et de son autonomie décisionnelle qui passe par sa capacité à comprendre comment et pourquoi une proposition a été faite par un algorithme", est-il précisé dans le texte.

L’opacité des algorithmes et les biais que ceux-ci peuvent inclure sont régulièrement pointés comme une source d’inquiétudes des médecins et des patients.

"La Cnil [Commission de l'informatique et des libertés] et le Conseil d’Etat se sont ainsi prononcés en faveur de l’introduction dans la loi d’une exigence d’explicabilité des algorithmes, qui pourrait porter sur la logique de fonctionnement de l’algorithme et sur les critères retenus pour classer et hiérarchiser les informations analysées dans les données."

Lors de son audition, Cédric Villani, député LREM de l’Essonne et auteur d’un rapport sur l’IA, a estimé que le médecin devrait "pouvoir connaître les facteurs déterminants, qui, parmi la multitude des données prises en compte par l’algorithme, ont fait pencher la balance du diagnostic d’un côté ou de l’autre", relate le rapport.

Néanmoins, la mission a souligné qu’il ne s’agissait pas "de transparence" des algorithmes, un procédé coûteux et contre-productif.

En attendant, un autre axe a été mis en avant pour permettre aux professionnels de santé de "saisir pleinement" les informations mises à leur disposition par les concepteurs d’outils technologiques: une formation médicale "adaptée".

L’objectif est d’inclure une "dimension" portant sur les données de santé et leur utilisation dans le cadre de la pratique médicale ou paramédicale, une demande déjà formulée par les professionnels de santé, dont les trois quarts s’estiment "mal formés" aux outils numériques (lire dépêche du 17 décembre 2018).

Les 13 propositions relatives à l'intelligence artificielle (IA)
  • maintenir le principe d’une responsabilité du médecin qui, en l'absence de défaut établi de l’algorithme, ne peut être engagée qu’en cas de faute de sa part
  • préciser qu’une faute ne peut être établie du seul fait que le praticien n’aurait pas suivi les recommandations d’un algorithme, quand bien même celles-ci se révèleraient exactes
  • introduire un principe législatif de garantie humaine du numérique en santé
  • charger la Haute autorité de santé (HAS) de rédiger des recommandations de bonnes pratiques pour la mise en oeuvre concrète de ce principe de garantie humaine
  • mettre en place un "collège de garantie humaine" à l’échelle d’un établissement ou d’un territoire plus large
  • définir un nouvel acte de télémédecine dit "garantie humaine" permettant d’obtenir un deuxième avis médical en cas de doute sur les recommandations thérapeutiques de l’algorithme
  • introduire dans la loi une exigence d’explicabilité des algorithmes, différenciée selon le public visé, qui porterait sur leur logique de fonctionnement et sur les critères retenus pour apprécier la pertinence des informations finales tirées des données utilisées
  • développer la formation des professionnels de santé sur les apports de l'IA en santé et l’utilisation des données de santé générées au cours du parcours de soins
  • instaurer des outils pratiques nouveaux ou réactualisés pour garantir l’effectivité du recueil du consentement d’un individu à l’utilisation de ses données de santé
  • introduire une exigence d’information préalable du recours à un algorithme par le médecin au patient ou à son représentant légal
  • établir des recommandations de bonnes pratiques pour adapter le recueil de consentement du patient aux actes et traitements proposés après intervention d’un algorithme
  • créer à titre transitoire un comité d’éthique spécialisé sur le numérique en santé au sein du CCNE puis, à terme, un nouvel organe de réflexion éthique sur l'IA
  • promouvoir la création d’un observatoire européen de l'IA.
Wassinia Zirar
Wassinia.Zirar@apmnews.com

http://www.computer-engineering.fr/

E-santé

Etats généraux de bioéthique: ce qu'il faut retenir des consultations sur le numérique en santé

PARIS, 12 juin 2018 (TICsanté) - Le rapport de synthèse des états généraux de la bioéthique publié le 5 juin fait état d'un consensus sur les apports du numérique et de l'intelligence artificielle en santé, mais révèle d'importantes craintes sur un déficit d'information des patients et une déshumanisation de la médecine.

0 160

E-santé

Etats généraux de bioéthique: tour des contributions sur l'e-santé, l'IA et le big data

PARIS, 18 mai 2018 (TICsanté) - Alors que la période de consultation ouverte dans le cadre des états généraux de la bioéthique s'est terminée fin avril, TICsanté fait le tour des contributions de plusieurs acteurs du système de santé sur le thème de l'e-santé, de l'intelligence artificielle (IA) et du big data.

0 142

Vos réactions

Anti-spam : Veuillez saisir le résultat de ce calcul S.V.P
7 + 2 =
http://www.canyon.fr/
https://www.groupepsih.com/
https://www.nuance.com/fr-fr/healthcare/events/parishealthcareweek2019.html?cid=7010W000002O459QAC&cn=EHM-IP-20190320-PHW19&ls=Inbound%20Inquiry&rs=TICSANTE

Les offres APMjob.com

https://www.nuance.com/fr-fr/healthcare/events/parishealthcareweek2019.html?cid=7010W000002O459QAC&cn=EHM-IP-20190320-PHW19&ls=Inbound%20Inquiry&rs=TICSANTE

TICpharma.com

Découvrez le site de référence sur la transformation numérique des industries de santé

Découvrir le site

événements

  • 2e Forum Derm@to Connecté

    Le 17/05/2019

  • Paris Healthcare Week 2019

    Du 21/05/2019 au 23/05/2019

  • 59èmes Journées d'études et de formation de l'IHF

    Du 05/06/2019 au 07/06/2019

https://pgpromotion.site.calypso-event.net/visiteur/visiteur-he-gh-hit/coordonnees.htm?utm_source=SW&utm_medium=BAN&utm_campaign=TICSANTE