DRIM France IA vous accompagne dans votre installation :

Vous souhaitez installer une solution d'IA ?

Les solutions d’IA suivent la plupart du temps le régime des dispositifs médicaux et sont en particulier au régime du marquage CE européen. De ce point de vue, elles suivent, par principe, les mêmes règles administratives que les autres technologies médicales. De surcroît, compte tenu des enjeux éthiques plus spécifiques qui leur sont associés, ces solutions d’IA sont soumises à l’obligation spécifique de garantie humaine dont la traçabilité peut faire l’objet d’un contrôle par l’autorité de régulation (CNIL ou HAS).

Le déploiement d’une solution d’IA s’opère sous l’égide de l’exercice des responsabilités professionnelles du radiologue. Le sens global du régime juridique applicable à l’IA est celui d’en faire un instrument utilisé sous la responsabilité du professionnel au service de l’amélioration de la qualité de la prise en charge du patient. Des règles particulières s’appliquent, en cas de dysfonctionnement, pour retenir la mise en jeu de la responsabilité du concepteur de la solution d’IA.

Oui. Cette obligation découle de l’article 17 de la loi n°2021-1017 relative à la bioéthique du 2 août 2021, qui implique un devoir d’information de l’utilisation d’un dispositif médical comportant un traitement de données algorithmique sur la base de données massives ainsi que de l’interprétation qui en résulte.

La proposition de directive « AI Liability » publiée ce 28 septembre, apporte des éléments de réponse concernant la responsabilité liée à un système d’IA. En effet, elle implique une présomption réfragable de lien de causalité entre le dommage causé à un demandeur ayant subi un dommage lié à un système d’IA et la faute de l’utilisateur de ce système. Dès lors, si un médecin radiologue modifie la destination du système d’IA dans son utilisation ou y apporte une modification substantielle, celui-ci pourra être considéré comme fournisseur et donc répondre des obligations découlant de l’AI Act, mais aussi engager sa responsabilité extracontractuelle dans le cadre de la directive AI Liability.

L’article 17 de la loi de bioéthique ne prévoit pas d’exigence de consentement. Toutefois, lorsque la base du traitement de données par une IA est le consentement au sens du règlement général sur la protection des données.

Le futur règlement européen sur l’IA laisse une liberté aux utilisateurs en ce qui concerne l’organisation de l’exigence de contrôle humain, si ce n’est d’utiliser les mesures permises par le fournisseur en phase de conception. La Garantie Humaine toutefois, pour être effective, doit permettre une inclusion des parties prenantes et des structures impactées en amont du déploiement de l’algorithme (co-conception), et en aval (utilisation effective).

Tous droits réservés. Toute utilisation sans autorisation écrite constitue une contrefaçon répréhensible.

Tous droits réservés. Toute utilisation sans autorisation écrite constitue une contrefaçon répréhensible.

Nous contacter