gavel-568417_640-2.jpg?itok=tDrpEz1G

L'intelligence artificielle (IA), autrefois peu connue en dehors des cercles universitaires et des films de science-fiction, est devenue une expression familière. Cette tendance continuera de s'étendre à mesure que le public sera plus exposé à la technologie de l'IA dans les produits de tous les jours, allant de leurs voitures et appareils ménagers aux appareils portables capables de suivre les métriques de leurs routines quotidiennes. Peut-être qu'aucune facette de l'IA n'a suscité plus d'imagination des observateurs que l'apprentissage automatique (ML), ce qui est précisément ce qu'il semble: la capacité des programmes informatiques à "s'améliorer automatiquement avec l'expérience". 1 L'apprentissage automatique est au cœur du type de puissance informatique indépendante et surhumaine dont la plupart des gens rêvent lorsqu'ils envisagent l'IA.

Alors que l'imagination du public est libre de se déchaîner avec les promesses du BC - créant un appétit qui suscitera sans aucun doute une réponse égale et opposée des entreprises du monde entier - les organes politiques et législatifs traditionnels se verront confier la tâche de: essayer d'y adapter les cadres juridiques et réglementaires existants. Par conséquent, il faut tenir compte de la manière dont les normes de responsabilité des produits existantes pourraient s'appliquer aux produits basés sur l'IA / ML, le cas échéant, et du type d'incertitudes pouvant survenir pour les fabricants, les distributeurs et les vendeurs de produits. Aucune entreprise n'illustre mieux l'équilibre prudent entre le potentiel infini de l'IA et les risques uniques liés à la responsabilité des produits que l'industrie des dispositifs médicaux. Cet article traite des utilisations et des avantages uniques de l'IA dans le contexte des dispositifs médicaux, tout en explorant les risques de responsabilité des produits en développement.

 

Pourquoi des dispositifs médicaux?

L'industrie médicale, et en particulier le domaine des appareils de diagnostic, est devenue un terrain fertile pour le développement de produits AI / ML. Cela est sans doute dû au chevauchement entre le type de reconnaissance et de traitement des données requis par ces dispositifs de diagnostic et les capacités similaires des systèmes AI / ML. Faire un diagnostic médical précis est une procédure incroyablement complexe qui nécessite qu'un médecin synthétise de nombreuses données souvent contradictoires aux côtés des plaintes subjectives de chaque patient, souvent dans des délais importants. À cette fin, certaines études ont estimé que jusqu'à 12 millions d'erreurs de diagnostic se produisent chaque année aux États-Unis seulement. 2 Un autre symptôme de la difficulté du diagnostic est la surutilisation massive des tests de diagnostic; par exemple, les chercheurs estiment que plus de 50 tomodensitogrammes, 50 échographies, 15 IRM et 10 tomodensitogrammes (125 tests au total) sont effectués chaque année pour 100 bénéficiaires de Medicare âgés de plus de 65 ans, dont beaucoup sont médicalement inutiles. 3 Il ne faut pas faire preuve d'imagination pour imaginer comment les dispositifs médicaux basés sur l'IA / ML, qui promettent des résultats diagnostiques considérablement améliorés tout en réduisant massivement les coûts, pourraient bientôt devenir monnaie courante au point de soins. Les appareils actuels sur le marché incluent l'IDx-Dr, un outil de diagnostic basé sur l'IA approuvé par la FDA en 2018, qui analyse indépendamment les images de la rétine pour détecter les signes de rétinopathie diabétique, 4 et le logiciel Sugar.IQ Diabetes Assistant de Medtronic, qui s’associe au moniteur de glycémie continu d’un utilisateur pour offrir des conseils personnalisés en temps réel sur la manière dont certains aliments ou activités peuvent affecter la glycémie. 5

Les systèmes de BC fonctionnent en analysant les données et, à leur tour, en observant comment divers modèles et résultats dérivent de ces données. 6 Ainsi, en théorie, les algorithmes ML peuvent faire des prédictions et des décisions avec une précision croissante; au fur et à mesure que la qualité, la portée et, dans de nombreux cas, l'organisation des données entrées s'améliorent, la précision des déterminations sorties correspondantes s'améliore également. Des systèmes de ML de plus en plus complexes ont donné lieu à «l'apprentissage en profondeur - un sous-ensemble de ML dans lequel les données sont transmises à travers de nombreuses couches de fonctions simples afin d'accomplir une analyse plus avancée. Un exemple courant est la vision par ordinateur, qui se réfère à la capacité d'un ordinateur à traiter les nombreuses fonctionnalités d'une image, de l'échelle à la couleur, à la taille et à la forme, afin de déterminer le contenu de l'image. 7

Vers un cadre réglementaire fonctionnel

En 2013, l'International Medical Device Regulators Forum (IMDRF) a constitué un groupe de travail pour étudier cette nouvelle classe de produits émergents, qu'il a baptisée Software as a Medical Device (SaMD). 8 L'IMDRF définit cette catégorie au sens large pour inclure tous les logiciels (basés sur l'IA / ML ou non) destinés à être utilisés à des fins médicales qui remplissent de telles fonctions sans faire partie des dispositifs médicaux matériels traditionnels. 9 En 2014, le groupe de travail de l'IMDRF a publié un projet de cadre d'évaluation du risque et de la réglementation du SaMD, que la FDA a adopté en 2017.

Depuis lors, la FDA n'a eu aucun mal à adapter ses modèles réglementaires préexistants à la majorité des appareils SaMD. Les fabricants classent simplement leur SaMD selon des catégories de risques prédéterminées et dirigent les produits vers l'une des voies réglementaires traditionnelles de la FDA: autorisation 510 (k), examen de novo ou approbation avant la mise en marché.dix Pourtant, des problèmes surviennent avec la distinction entre SaMD qui fonctionne sur des algorithmes «verrouillés», c'est à dire., ceux qui fournissent le même résultat chaque fois que la même entrée est appliquée et ne changent pas avec l'utilisation, par rapport à ceux qui intègrent la technologie AI / ML pour apprendre et s'adapter en temps réel pour optimiser les performances.11 À ce jour, la FDA n'a autorisé que les SaMD qui fonctionnent sur des algorithmes verrouillés.12

En avril 2019, cependant, la FDA a publié sa première proposition de cadre réglementaire pour une véritable formation continue («déverrouillée») AI / ML SaMD, centrée sur une approche de cycle de vie complet du produit. 13 Le but de cette approche est d'éviter d'obliger les fabricants à passer par des processus d'approbation étendus à chaque itération successive de AI / ML SaMD (essentiellement une tâche impossible étant donné que la technologie AI / ML pourrait changer d'une seconde à l'autre). Entre autres choses, la FDA propose que les fabricants puissent soumettre un «plan de contrôle des changements prédéterminé» composé de pré-spécifications SaMD (SPS) et d'un protocole de changement d'algorithme (ACP), qui définissent une région finie d'adaptations potentielles dans le SaMD et spécifient les critères pour savoir comment les données sont collectées et comment le SaMD apprend de ces données au fil du temps. 14 Tant que les mises à jour en cours du SaMD se situent dans les plages SPS et ACP définies, un dégagement 510 (k) supplémentaire ne sera pas nécessaire. 15

Indépendamment du moment et de la manière dont la FDA met en œuvre ces directives proposées, il est clair que les candidats devront faire face à une nouvelle série de défis pour obtenir l'approbation de la FDA pour l'IA / ML SaMD. Il s'agit non seulement de définir avec précision SPS et ACP, mais également de fournir une transparence suffisante dans les données utilisées pour former les algorithmes opérationnels. Comme c'est souvent le cas avec les technologies émergentes, il faudra des années d'essais et d'erreurs pour que la FDA et les candidats convergent vers une approche satisfaisante. De plus, jusqu'à ce que d'autres organismes de normalisation, tels que l'American Society for Testing and Materials, interviennent avec des directives plus solides, les fabricants seront confrontés au fardeau d'avoir à formuler de nouvelles solutions pour répondre aux préoccupations de la FDA.

Défis dans la salle d'audience

Dans l'intervalle, il subsiste également une grande incertitude quant à la manière dont les doctrines de responsabilité du fait des produits les plus courantes s'appliqueront à l'IA / ML SaMD. Les réclamations en responsabilité du fait des produits reposent souvent sur une responsabilité stricte, ce qui signifie qu'un demandeur ne doit pas prouver qu'un défendeur a été négligent, mais seulement que son produit était défectueux ou déraisonnablement dangereux. 16 Cependant, traditionnellement, les demandes de responsabilité stricte ne découlent que des produits «tangibles». Ainsi, la question seuil est de savoir si ces logiciels peuvent même être exposés à une responsabilité civile des produits. Les tribunaux ont eu du mal à résoudre ce problème et sont susceptibles de se diviser pour déterminer si le logiciel convient en tant que produit. 17

Dans Rodgers c. Christie, par exemple, les plaignants ont tenté de faire valoir des réclamations strictes en matière de responsabilité du fait des produits contre le concepteur de l'évaluation de la sécurité publique du New Jersey, un algorithme d'évaluation des risques utilisé pour aider les tribunaux à déterminer le niveau de menace posé par la remise en liberté des détenus en détention provisoire. 18 Le fondement de leur réclamation était l'allégation selon laquelle l'algorithme avait commis une erreur en attribuant un score faible à un criminel condamné, qui aurait assassiné le fils des plaignants quelques jours seulement après sa libération. 19 La Cour d'appel du troisième circuit a lutté avec l'application de la loi sur la responsabilité du fait des produits à l'algorithme, rejetant finalement les réclamations des plaignants parce que «les informations, les conseils, les idées et les recommandations ne sont pas des produits au titre du troisième retraitement, à la fois comme une question de définition et car étendre la responsabilité stricte à la distribution des idées soulèverait de sérieuses inquiétudes au sujet du premier amendement. » 20 Malgré cette conclusion, la Cour a choisi de ne pas adopter une règle interdisant catégoriquement l'application de la responsabilité stricte des produits aux logiciels basés sur l'IA, ouvrant peut-être la voie à de futurs défis. En termes simples, les tribunaux du pays ont déjà commencé à se pencher sur cette question avec des résultats différents, et l'injection de technologies susceptibles de changer de paradigme dans leurs analyses ne fera sûrement qu'embrouiller davantage les eaux.

Si le logiciel AI / ML est considéré comme un produit aux fins des réclamations en responsabilité du fait des produits, de nombreux problèmes supplémentaires se posent concernant l'application des doctrines juridiques existantes à cette technologie unique. Étant donné que les produits AI / ML sont très itératifs et fluides, ils sont également susceptibles de présenter de nouveaux défis aux plaignants et aux défendeurs dans la poursuite des trois catégories les plus courantes de réclamations en responsabilité du fait des produits: défaut de conception, défaut de fabrication et défaut d'avertissement. 21 Les allégations de défauts de conception et de fabrication, par exemple, partent du principe qu'un produit est réparé. En effet, ces défauts sont évalués dès la vente ou la distribution des produits. 22 En d'autres termes, dans une action en responsabilité de produits traditionnelle, une défense viable peut être établie en prouvant que le produit était sûr au moment où il a été vendu. Ce paradigme juridique bien établi pourrait être entièrement perturbé si un produit, comme AI / ML SaMD, a la capacité d'évoluer et de se repenser constamment au fil du temps, y compris après sa vente. En tant que tel, nous pouvons nous attendre à voir un changement dans l'orientation des réclamations de défauts vers les adaptations mises en œuvre par un logiciel au fil du temps, par opposition aux concepts de conception préliminaires. Ces théories de la responsabilité nécessiteront également une attention accrue sur les tests et les ensembles de données utilisés pour «former» les logiciels AI / ML afin d'établir l'existence de défauts. Et, alors que les tests de dispositifs médicaux traditionnels visent les pires scénarios, ces nouveaux produits fluides obligeront les fabricants à réévaluer constamment les résultats les plus extrêmes possibles, si possible à prévoir, pour garantir des tests fiables.

La même chose peut être dite pour la suffisance des avertissements: comment le fabricant d’un produit peut-il avertir de manière adéquate les utilisateurs des risques potentiels si le produit contrôle sa propre fonction et, par extension, les risques qu’il peut présenter? Dans le contexte des dispositifs médicaux, comme discuté ci-dessus, la FDA a proposé que les fabricants fournissent une gamme détaillée et finie de protocoles de changement d'algorithme (ACP). Il est donc probable que les avertissements sur les produits concordent avec ces ACP pour couvrir la gamme limitée d'adaptations possibles et, par extension, les risques prévisibles. Les demandeurs, pour leur part, peuvent chercher à étendre la doctrine du «devoir d'avertissement après-vente» pour faire valoir que les défendeurs doivent surveiller en permanence leurs produits et fournir des avertissements mis à jour aux utilisateurs même après la vente.

Conclusion

L'innovation technologique dépasse la loi, et l'intelligence artificielle / l'apprentissage automatique n'est pas différent. Quelle que soit la façon dont les doctrines juridiques évoluent avec l'introduction des produits basés sur l'IA / ML, jusqu'à ce que des directives juridiques et réglementaires fermes progressent, une chose est certaine: il y aura un désaccord important sur la manière dont le droit sur la responsabilité des produits est appliqué. Ainsi, alors que ces produits représentent un marché nouveau et lucratif pour les fabricants, la volonté de répondre à une demande du marché toujours croissante doit être équilibrée par un processus de conception, de test et de surveillance complet.