Un service proposé par APM International
https://www.ctm-telemedecine.fr/
https://global.agfahealthcare.com/france/
http://www.computer-engineering.fr
http://engage.nuance.fr/DSI-GHT-reussir-son-projet-reco-vocale?cid=7010W000002C2aSQAS&ls=website&rs=Ticsante&offer=speech_recognition&ot=ebook
30/07/2018   Envoyer par mail Imprimer   Aucun commentaire
Pour commenter cette dépêche Identifiez-vous

Le Conseil d'Etat formule plusieurs recommandations sur l'intelligence artificelle et les neurosciences

PARIS, 30 juillet 2018 (TICsanté) - Le Conseil d'Etat a formulé plusieurs recommandations sur l'intelligence artificielle (IA) et les neurosciences, dans son rapport rendu public le 13 juillet.

L'institution avait été saisie en décembre 2017 par le Premier ministre pour identifier les problématiques juridiques en matière de bioéthique et formuler des propositions pouvant conduire notamment à une évolution de la loi de 2011 et elle se penche, entre autres, sur les enjeux émergents liés à l'IA en santé.

Le Conseil d'Etat souligne les "perspectives prometteuses ouvertes par le recours à l'intelligence artificielle en santé". "De tels dispositifs aident à établir des diagnostics, participent du développement d'une médecine préventive voire prédictive, et facilitent un meilleur suivi, par les autorités publiques, des risques sanitaires", rappelle le Conseil d'Etat, qui précise qu'il a fait le choix de se focaliser sur trois questions ciblées.

D'abord, il évoque l'essor des données relatives à la santé recueillies en dehors du cadre médical. "Par les applications et objets connectés en santé, des acteurs privés non médicaux recueillent de nombreuses données de santé sur leurs utilisateurs", constate-t-il.

Le Conseil d'Etat préconise de réfléchir à un "mécanisme de certification propre à ceux des applications et objets connectés en santé qui ne relèvent pas déjà du régime des dispositifs médicaux".

En matière de protection des données, il rappelle que des garanties ont été prévues par le cadre juridique européen et viennent d'entrer en application. "L'enjeu est désormais d'en assurer l'effectivité plutôt que de prévoir de nouvelles dispositions", fait-il remarquer.

Il mentionne ensuite la "perspective d'une conditionnalité croissante de l'assurance maladie en fonction de l'observance par les patients et leurs traitements".

"Ces mêmes applications et objets connectés en santé rendent techniquement envisageable le fait de faire dépendre la prise en charge d'une prescription à son exécution par le malade", explique l'instance, qui précise qu'une telle conditionnalité n'est, en l'état, "pas prévue de façon générale dans le droit positif mais, dans son principe, [...] peut être conciliable avec les normes supra-législatives".

Toutefois, le Conseil d'Etat estime que cette perspective présente des "risques". Outre le fait qu'elle "assimile de façon souvent erronée la mauvaise observance à la mauvaise volonté", cela marquerait le "basculement de l'assurance maladie dans une logique assurantielle plutôt qu'universelle, et risquerait d'aggraver les inégalités de santé", estime-t-il.

Enfin, il évoque "l'incidence artificielle sur la relation de soin qui unit le médecin au patient". L'intelligence artificielle pourrait "favoriser une forme de dépossession du savoir médical, au profit des patients, qui deviendraient experts de leur maladie, voire des algorithmes qui réaliseraient seuls les actes de diagnostic et de prescription", pressent le Conseil d'Etat.

En outre, "en permettant une plus grande délégation des tâches", l'intelligence artificielle "risque de participer d'une déshumanisation de la relation de soin". Pour prévenir ces risques, les auteurs recommandent de poser "une exigence 'd'explicabilité' des systèmes d'intelligence artificielle permettant aux soignants d'en comprendre la logique générale de fonctionnement pour pouvoir l'expliciter aux patients et de sanctuariser le rôle du médecin, notamment quant à sa responsabilité, corollaire de sa maîtrise sur les décisions qu'il prend".

Neurosciences: le Conseil d'Etat relève deux séries d'enjeux

Quant aux neurosciences, qui étudient l'architecture et le fonctionnement du cerveau, elles soulèvent "deux séries d'enjeux", indépendamment des perspectives thérapeutiques qu'elles offrent, relève le Conseil d'Etat.

Les auteurs notent que "les seules dispositions législatives concernant les neurosciences énumèrent les finalités justifiant le recours à l'imagerie médicale, parmi lesquelles figurent les expertises judiciaires". "Pour éviter que l'imagerie médicale soit abusivement utilisée dans ce cadre judiciaire", il suggère d'en "circonscrire l'utilisation aux seules fins d'établir l'existence d'un trouble psychique ou d'objectiver un préjudice".

Ensuite, il évoque les risques liés aux techniques biomédicales de neuro-amélioration. Ces techniques, qui "visent à améliorer le fonctionnement du cerveau de personnes non malades", n'apparaissent "pas encore suffisamment matures pour justifier la mise en place d'un encadrement juridique spécifique", estime le Conseil d'Etat, qui souligne aussi leurs "limites". "Leurs effets positifs restent incertains et elles sont porteuses d'atteintes potentiellement graves à la vie privée", relève-t-il.

mh/nc

Partagez cet article

http://www.canyon.fr/
Les dépêches liées à cette information
https://www.groupepsih.com/
http://www.malta-informatique.fr/actualites/i2Jn4s/innovation-majeure-lancement-de-titan-teleconsultation
http://www.web100t.fr
http://www.ticsante.com/show.php?page=inscription