Réduire les risques liés à l'IA et à la technologie médicale basée sur l'apprentissage automatique

algorithmes

Crédits: CC0 Public Domain

L'intelligence artificielle et l'apprentissage automatique (IA / ML) transforment de plus en plus le secteur de la santé. Du repérage des tumeurs malignes à la lecture des tomodensitogrammes et des mammographies, la technologie basée sur l'IA / ML est plus rapide et plus précise que les appareils traditionnels, ou même les meilleurs médecins. Mais avec les avantages viennent de nouveaux risques et défis réglementaires.

Dans leur dernier article, "Algorithmes sur le verrouillage réglementaire en médecine", récemment publié dans Science, Boris Babic, professeur adjoint à l'INSEAD des sciences de la décision; Theodoros Evgeniou, professeur INSEAD de sciences de la décision et de gestion des technologies; Sara Gerke, chargée de recherche au Centre Petrie-Flom de la Harvard Law School pour la politique, la biotechnologie et la bioéthique du droit de la santé; et I. Glenn Cohen, professeur à la Harvard Law School et directeur de la faculté au Centre Petrie-Flom, examinent les nouveaux défis auxquels sont confrontés les régulateurs alors qu'ils naviguent sur les voies inconnues de l'IA / ML.

Ils examinent les questions: à quels nouveaux risques sommes-nous confrontés lorsque des dispositifs AI / ML sont développés et mis en œuvre? Comment devraient-ils être gérés? Sur quels facteurs les régulateurs doivent-ils se concentrer pour garantir une valeur maximale à un risque minimal?

Jusqu'à maintenant organismes de réglementation comme la Food and Drug Administration des États-Unis (FDA) ont approuvé un logiciel médical basé sur l'IA / ML avec des «algorithmes verrouillés», c'est-à-dire des algorithmes qui fournissent le même résultat à chaque fois et ne changent pas avec l'utilisation. Cependant, une force clé et un avantage potentiel de la plupart des technologies AI / ML proviennent de sa capacité à évoluer à mesure que le modèle apprend en réponse à de nouvelles données. Ces «algorithmes adaptatifs», rendus possibles grâce à l'IA / ML, créent ce qui est essentiellement un système de soins de santé d'apprentissage, dans lequel les frontières entre la recherche et la pratique sont poreuses.

Étant donné la valeur significative de ce système adaptatif, une question fondamentale pour les régulateurs aujourd'hui est de savoir si l'autorisation doit être limitée à la version de la technologie qui a été soumise et évaluée comme étant sûre et efficace, ou si elles permettent la commercialisation d'un algorithme où une plus grande valeur est se trouve dans la capacité de la technologie à apprendre et à s'adapter à de nouvelles conditions.

Les auteurs examinent en profondeur les risques associés à ce problème de mise à jour, en considérant les domaines spécifiques qui nécessitent une attention particulière et les moyens de relever les défis.

Selon eux, la clé d'une réglementation stricte est de prioriser la surveillance continue des risques.

"Pour gérer les risques, les régulateurs devraient se concentrer en particulier sur la surveillance continue et l'évaluation des risques, et moins sur la planification de l'avenir algorithme changements ", disent les auteurs.

À mesure que les régulateurs progressent, les auteurs recommandent de développer de nouveaux processus pour surveiller, identifier et gérer en continu les risques associés. Ils suggèrent des éléments clés qui pourraient aider à cela, et qui pourraient à l'avenir être eux-mêmes automatisés à l'aide de l'IA / ML, éventuellement avec des systèmes AI / ML se surveillant mutuellement.

Bien que le document s'appuie en grande partie sur l'expérience de la FDA en matière de réglementation de la technologie biomédicale, les leçons et les exemples ont une grande pertinence alors que d'autres pays examinent comment ils façonnent leur architecture réglementaire associée. Ils sont également importants et pertinents pour toute entreprise qui développe des produits et services intégrés AI / ML, de l'automobile à l'assurance, aux finances, à l'énergie et de plus en plus. Les dirigeants de toutes les organisations ont beaucoup à apprendre sur la gestion des nouveaux risques d'IA / ML grâce à la façon dont les régulateurs les considèrent aujourd'hui.

"Notre objectif est de souligner les risques qui peuvent découler de changements imprévus dans la façon dont les systèmes d'IA / ML médicaux réagissent ou s'adaptent à leur environnement", déclarent les auteurs, avertissant que "des mises à jour paramétriques subtiles et souvent non reconnues ou de nouveaux types de données peuvent entraîner des erreurs importantes et coûteuses. "


Besoin de plus de lumière sur les dossiers médicaux «shadow», les outils «boîte noire»


Plus d'information:
Boris Babic et al, Algorithmes sur le verrouillage réglementaire en médecine, Science (2019). DOI: 10.1126 / science.aay9547

Fourni par
                                                                                                    INSEAD

Citation:
                                                 Réduire les risques liés à l'IA et aux technologies médicales basées sur l'apprentissage automatique (6 décembre 2019)
                                                 récupéré le 7 décembre 2019
                                                 depuis https://techxplore.com/news/2019-12-ai-machine-learning-based-medical-technology.html

Ce document est soumis au droit d'auteur. Mis à part toute utilisation équitable à des fins d’étude ou de recherche privée, aucun
                                            partie peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.

Source

A propos newstrotteur-fr

Découvrez également

très bonne série de smartphones pas chers

La série LG K est la ligne mobile intelligente et économique du fabricant sud-coréen. Nous …

Laisser un commentaire