Dossiers > Réglementation
L’IA en réglementaire : providentielle ou nuisible pour les services QA/RA ?
Les applications de l'intelligence artificielle se développent jusque dans les affaires réglementaires et l'assurance qualité. Son potentiel est immense dans ce domaine mais les défis à relever sont conséquents. Rompu à ces problématiques, Flinn a développé une plateforme alimentée par l'IA spécifiquement destinée aux services QA/RA.
Depuis fin 2022, l'Intelligence Artificielle (IA) s'est rapidement intégrée à notre quotidien. Les professionnels de la réglementation et de la gestion de la qualité ont naturellement cherché comment cette technologie, qui inclut les Large Language Models (LLM) et le Machine Learning, pourrait optimiser leur travail. Si certains rêvaient d'une automatisation complète de la documentation technique, d'autres craignaient des suppressions d'emplois. Trois ans plus tard, l'IA s’est installée dans ce domaine de façon durable.
Le potentiel de l'IA réglementaire
L'IA offre des perspectives considérables pour le réglementaire. Ses applications vont de la détection de doublons dans les cas de matériovigilance ou de bibliographie, à l'assistance LLM pour l’analyse de gestion des risques et l'extraction de données de documents. Les systèmes de classification sont déjà capables de distinguer les événements indésirables graves des réclamations mineures. L'IA permet aujourd'hui d'analyser en quelques secondes des milliers de rapports, avec des gains d’efficacité considérables. Ses progrès sont exponentiels, avec une qualité des résultats qui s’améliore rapidement et une meilleure résolution des problèmes complexes. Autre tendance qui favorise l'adoption de l'IA : l'essor de l’approche dite agentique, avec une capacité d'agir de façon autonome qui permet d'automatiser les flux de travail et de réduire les erreurs humaines.
Des défis à relever
Si l'utilisation de l'IA dans les affaires réglementaires recèle un immense potentiel, elle représente aussi des défis de taille. Une préoccupation majeure, surtout avec les LLM, est l'hallucination, où l'IA invente des faits. Un risque particulièrement problématique dans le contexte réglementaire. Autre sujet de préoccupation : le niveau de qualité inégal de l'IA au fur et à mesure de l'apprentissage continu.
Pour les départements réglementaires des dispositifs médicaux, ces questions sont critiques. Une IA classifiant mal des cas de vigilance pourrait avoir des conséquences désastreuses. La référence pour l'IA dans ce domaine doit toujours être la qualité des dispositifs médicaux et la sécurité des patients.
Considérations clés pour les utilisateurs d'IA réglementaire
Lors du choix d'outils d'IA, il est vital de distinguer les solutions suivant leur qualité. Malgré l'existence de réglementations comme l’EU AI Act, celles-ci ne garantissent pas la qualité de l'application. Les utilisateurs doivent se poser les questions clés :
- L’éditeur du logiciel a-t-il une expérience solide en développement, test et contrôle qualité de l'IA ?
- L'utilisateur conserve-t-il l'autorité de la décision finale ?
- Le logiciel est-il transparent sur ses fonctionnalités basées sur l'IA ?
- Est-il possible de reproduire comment un LLM est parvenu à une conclusion ?
- La précision et la fiabilité du système sont-elles documentées ?
En résumé, la question essentielle est de savoir si l'IA a été correctement validée.
L'impératif d'une véritable validation
Une IA non validée est aussi risquée qu'un dispositif médical non validé. Une validation appropriée de l'IA implique plusieurs étapes. Il convient d'abord de déterminer le risque de la fonctionnalité IA : plus les risques sont élevés, plus les tests doivent être poussés. Une approche robuste inclut la validation croisée, divisant les données en ensembles de test et d'entraînement. Une bonne pratique est d'incorporer un cycle de validation humaine. Enfin, la surveillance post-commercialisation est cruciale pour l'IA, intégrant le feedback utilisateur pour continuellement l’améliorer.
Comprendre les certitudes et les précisions de l'IA
Établir des critères d'acceptation est essentiel pour la validation. Pourtant avec l'IA, il y a peu de données historiques sur les niveaux de certitude acceptables. Quelle doit être la fiabilité d'une IA lors de l'évaluation des risques ? En définissant ces niveaux, deux limitations fondamentales doivent être reconnues :
- Aucun système n'est précis à 100 %. Des défaillances se produiront.
- Les humains ne sont jamais totalement fiables. Fatigue, distractions, erreurs et manque de connaissances contribuent à leur faillibilité. Par exemple, le taux mondial de faux diagnostics pour la maladie de Parkinson est de 50 %.
Un point de départ pratique est d'évaluer le risque global du système d'IA et de le comparer au taux d'erreur humain. La fiabilité de l'expert humain peut alors servir de limite inférieure pour la fiabilité du système d'IA.
Une plateforme qui surveille des dizaines de millions de documents
Flinn.ai a développé pour la MedTech une plateforme d’intelligence réglementaire alimentée par l’IA, qui surveille en continu des dizaines de millions de publications scientifiques, rapports d’incidents, réclamations, normes et réglementations. L'entreprise met en avant ses multiples atouts :
- Une veille automatisée de plus de 15 bases de données de sécurité, les rapports pouvant être obtenus en un clic. Il en résulte une conformité exhaustive et un gain de temps de 84 %.
- L'évaluation de la bibliographie, avec une optimisation des recherches bibliographiques, une extraction de données assistée par IA, des recommandations, réduisant de moitié le temps dédié.
- Une veille réglementaire, avec un suivi de plus de 10 000 réglementations, normes et guides, rapports personnalisés, analyses d'impact.
- La gestion optimisée des réclamations (saisie intelligente, automatisation IMDRF, surveillance IA des risques, CAPA, cas déclarables).
Certifiée ISO 27001 et développée selon IEC 62304, ISO 14971, et FDA 21 CFR Part 11, la plateforme de Flinn offre aux fabricants un logiciel validé.