L’outil médical d’IA OpenEvidence n’est plus accessible depuis l’UE
OpenEvidence, un outil d’IA destiné à la recherche et à la synthèse de références issues de sources médicales, n’est plus accessible depuis l’Union européenne. L’entreprise invoque comme raison le règlement européen sur l’IA (AI Act).
OpenEvidence est une application d’IA qui résume des articles issus de sources médicales réputées telles que le New England Journal of Medicine, le réseau JAMA, le NCCN (National Comprehensive Cancer Network), la Mayo Clinic Platform Accelerate et d’autres revues evidence-based. Elle se présente comme une alternative à UpToDate, qui dispose d’une rédaction composée d’experts humains.
Lire notre article sur OpenEvidence : OpenEvidence, l'outsider
Depuis le début de cette semaine, OpenEvidence n’est toutefois plus accessible depuis l’Union européenne et le Royaume-Uni. Les utilisateurs qui tentent d’accéder au site depuis ces régions voient apparaître le message suivant : « En raison de l’incertitude croissante concernant la réglementation relative au traitement des systèmes d’IA dans l’Union européenne et au Royaume-Uni, y compris la législation européenne sur l’intelligence artificielle (AI Act), OpenEvidence n’est pas disponible dans l’Union européenne ni au Royaume-Uni. »
AI Act et MDR
Le règlement européen sur l’IA (AI Act) auquel OpenEvidence fait référence classe les applications d’IA en quatre catégories selon leur niveau de risque. Les applications susceptibles de mettre en danger la santé, la sécurité ou les droits fondamentaux sont considérées comme « à haut risque » et sont soumises à des obligations strictes, telles qu’une analyse approfondie des risques et une documentation détaillée sur la finalité et le fonctionnement du système.
Un outil qui synthétise des informations de santé, comme OpenEvidence, semble relever de cette catégorie. Toutefois, les règles applicables aux systèmes à haut risque dans le cadre de l’AI Act n’entreront en vigueur qu’à partir d’août 2026.
En revanche, le règlement européen relatif aux dispositifs médicaux (Medical Device Regulation, MDR) est déjà d’application. Lorsqu’un logiciel est utilisé à des fins médicales - telles que le diagnostic, la surveillance, la prédiction ou le traitement d’une maladie - il est considéré comme un « logiciel en tant que dispositif médical » (Software as a Medical Device). Cela implique des obligations telles que l’élaboration d’une documentation technique, la réalisation d’une évaluation de conformité et l’apposition du marquage CE.
« Dès qu’un chatbot suggère un diagnostic ou un traitement, il relève du MDR. »
Dans le cadre de l’évaluation selon le MDR, l’usage réel en pratique est pris en compte - il ne suffit pas que le fabricant du logiciel mentionne dans les conditions d’utilisation que celui-ci n’est pas destiné à un usage médical.
« Lorsqu’un chatbot se contente de fournir un résumé, il ne s’agit pas d’un dispositif médical », expliquait Koen Cobbaert, expert en Regulatory Science & Policy, lors d’une récente journée d’étude de l'AFMPS consacrée aux logiciels médicaux. « Mais dès qu’il suggère un diagnostic ou un traitement, il relève du MDR. »
« Préoccupant »
La nécessité de réglementer les outils d’IA n’est sans doute pas superflue. Un article en prépublication sur MedXriv met en évidence la faible fiabilité d’OpenEvidence lors d’un test avec le jeu de données MedXpertQA. En particulier, la reproductibilité (le chatbot donne-t-il la même réponse lorsqu’une question est répétée ?) est inférieure aux attentes. Les auteurs qualifient cela de « préoccupant, étant donné que les cliniciens utilisent déjà ces outils pour la prise de décision clinique dans la pratique quotidienne ».