Vous devez être connecté pour accèder à cette archive.

Se connecter
X
Management > Etudes cliniques

Data management : essentiel pour la fiabilité des résultats

Publié le 26 septembre 2014 par Evelyne Gisselbrecht
Source : beawolf - fotolia.com

La gestion des données d'une étude clinique est une tâche qui s'est complexifiée du fait de la multiplication des sources de données et de l'augmentation des exigences règlementaires. Les informations collectées doivent avant tout permettre les analyses statistiques requises. Un véritable travail d'experts.

Auteurs | Sandrine Grazzini et Jean-Pierre Meunier, membres du groupe AFCROs DM

Les activités du «data management» sont les activités de gestion des données médicales qui permettent depuis une vingtaine d’années de construire des bases de données (BDD) d’une haute qualité pour produire des résultats fiables. Les data-managers sont des experts de la conception des bases de données selon des formats permettant les analyses statistiques prévues. La responsabilité qui leur incombe est avant tout de programmer de nombreux contrôles sur la base de données d’une étude, afin de vérifier la cohérence des informations. Ce process de vérification est réalisé entre la première inclusion de patient et le gel de la base de données, que les données soient collectées sur papier ou via un système informatique (electronic data capture ou electronic case report form).

Traçabilité impérative des modifications de données

Le travail du data-manager s’est beaucoup renforcé au cours de cette dernière décennie, du fait de la multiplication des sources de données et de l’augmentation des exigences internationales (référentiels FDA et EMA, Gamp5). Ces référentiels sont d’ailleurs repris dans la norme ISO 14155 relative aux investigations cliniques des dispositifs médicaux qui est la première norme française à intégrer la notion d’enregistrement de données sous format électronique et à en préciser les caractéristiques.

Une BDD d’étude actuelle peut comprendre les informations recueillies par un ou plusieurs professionnels de santé, des données fournies directement par le patient (PRO pour « patient reported outcomes »), des données issues des comptes-rendus d’examens, d’hospitalisation, de comité de revue des événements, voire des données enregistrées par le dispositif médical lui-même. Les outils logiciels utilisés par le data-manager doivent être validés pour répondre aux pré-requis de la recherche clinique, c’est-à-dire documentés pour démontrer leur fiabilité dans l’environnement de travail et dans le temps. Les CROs (Clinical Research Organizations) ont investi dans ces systèmes et dans les processus de validation nécessaires.

La notion d’intégrité des données apparaît comme la notion fondamentale dans un environnement réglementaire qui impose que l’on puisse expliquer pendant ou après une étude, tout traitement ou modification d’une information, de sa collecte initiale au gel de la base de données. Ceci n’est possible que par l’utilisation obligatoire et systématique d’un « audit trail », ou historique des modifications de données, sorte de boite noire de la BDD. Chaque promoteur d’une étude ou d’une collecte de données de santé doit nécessairement, conformément aux bonnes pratiques et aux règles de « data privacy » (Loi Informatique & Libertés en France), être en mesure de produire cet historique auditable des données. C’est le métier et la responsabilité du data-manager, qu’il exerce au sein de l’organisation du fabricant ou de la CRO mandatée par celui-ci.

Détecter les incohérences et les données manquantes

D’un point de vue pratique, le processus de data-management commence dès l’élaboration du cahier d’observation (CRF pour case report form). Il faut en effet s’assurer que la collecte des réponses permettra de répondre aux objectifs de l’étude, qu'elle sera suffisamment précise et qu'elle s’appuiera sur des formats validés.

C’est à partir des différentes sources de données que le data-manager devra élaborer le modèle de la BDD, en s’appuyant de plus en plus souvent sur des standards tels que SDTM/CDISC par exemple.

En cas d’utilisation d’un CRF sur papier, il faut centraliser les feuillets renseignés, vérifier la cohérence d’identification, et procéder à la saisie des données, double saisie indépendante de préférence. Si un système eCRF (recueil électronique des données) est proposé, la saisie est faite par l’investigateur lui-même, et une formation minimum au système est requise pour éviter les erreurs. La suite du data-management consiste à détecter les données manquantes, qu’il s’agisse d’un oubli de l’investigateur ou d’une information non disponible, et à détecter les incohérences de données au sein d’un même dossier patient. Il peut s’agir d’incohérences de dates, de valeurs aberrantes, d’évolutions non logiques de paramètres. Dans un cas comme dans l’autre, il faut formaliser des demandes de correction ou de clarification (DCF pour data clarification form), qui peuvent être imprimées sur papier ou sous forme électronique, et transmises à l’investigateur. Les réponses aux DCF sont ensuite prises en compte dans la BDD, l’audit trail permettant de garder l’historique complet des modifications successives. Certaines données nécessitent des processus particuliers de codage avec utilisation de dictionnaires validés (Meddra, WhoDrug par exemple).

Geler la base de données avant l'analyse statistique

Le data-manager va ensuite organiser une revue des données avant le gel de base, qui permet de qualifier la qualité des données, variable par variable, et de s’assurer que les analyses définies au plan statistique pourront être réalisées. Cette réunion permet également de définir les populations d’analyse et leurs effectifs. Après prise en compte des dernières corrections nécessaires, le data-manager pourra procéder au gel de base avant l’étape suivante des analyses statistiques.


AFCROs, F-92100 Boulogne-Billancourt, www.afcros.com

Partagez cet article sur les réseaux sociaux ou par email :
Mots-clés :

A lire aussi