Utilisation des empreintes HRMS (spectrométrie de masse haute résolution) : exemples d’applications et besoins méthodologiques
L’analyse non-ciblée par chromatographie couplée à la spectrométrie de masse haute résolution (HRMS) permet l’acquisition d’une grande partie de l’information présente dans un extrait ou un échantillon : la masse d’une molécule associée au temps de rétention chromatographique. L’ensemble de ces couples (masse- temps de rétention) forme ce qu’on appelle une empreinte HRMS. Ces empreintes peuvent être utilisées pour faire de la recherche suspectée dans le but d’identifier des molécules par comparaison avec des bases de données et de la recherche non-ciblée afin de mettre en évidence certains couples par des traitements statistiques.
Parmi les applications d’analyse non-ciblée, l’utilisation des empreintes globales, sans identification préalable des molécules, pour la caractérisation de sources de pollution se développe, parallèlement aux avancées des traitements statistiques de grands volumes de données « big data ». Cette étude a pour objectifs de faire un état des lieux des études par analyse non-ciblée des empreintes HRMS sur des échantillons environnementaux, un inventaire des logiciels fournisseurs et outils en libre accès, et de recenser les contrôles qualités à associer aux analyses pour obtenir des résultats fiables.
Les études impliquant l’analyse non-ciblée via les empreintes HRMS permettent d’obtenir des informations sur les évolutions spatiales, les évolutions temporelles et l’identification de sources de pollution.
Les outils de prétraitement, traitement et visualisation des empreintes HRMS, sont généralement des outils en libre accès. L’opérateur a un large éventail d’outils à sa disposition pour traiter les empreintes HRMS ; son choix doit être guidé par la compatibilité des formats de données entre les données acquises et le format d’entrée dans l’outil, du mode de langage utilisé (R, Python, etc.), du type de traitement des données souhaité (objectifs, prétraitement, visualisation, etc.) et aussi de l’accessibilité des outils en termes de prise en main pour les différents réglages et algorithmes à utiliser.
Les prérequis analytiques à appliquer sont impératifs pour obtenir des résultats fiables. Pour l’analyse non-ciblée, les différents guides relatifs aux critères d’assurance qualité recommandent pour la série d’analyse :
- Une randomisation des échantillons dans la séquence d’analyse pour répartir aléatoirement le biais analytique ;
- L’analyse de plusieurs réplicats d’un même échantillon pour minimiser les taux de faux positifs et faux négatifs ; le nombre de 2 à 3 replicats est recommandé.
- La réalisation de blancs d’analyse à mesurer en début et fin de série, pour prendre en compte d’éventuelles contaminations au laboratoire ;
- La mise en oeuvre de blancs terrain qui peuvent permettre de prendre en compte des contaminations pendant l’échantillonnage ;
- L’emploi d’étalons internes pour maitriser et corriger la fluctuation des signaux (dus par exemple à l’encrassement de la source de l’équipement). Une réflexion sur l’emploi d’une liste minimale d’étalons internes communs est en cours à différents niveaux : européens mais aussi entre laboratoires qui harmonisent leurs travaux (Aquaref, GE SANA de la CIPR).
- L’injection d’échantillons de contrôle pour vérifier l’absence de biais, en vérifiant les intensités des pics obtenus.
Par rapport au traitement du signal, on peut souligner le besoin de disposer :
- d’un critère pour le traitement des blancs ; la suppression dans les échantillons, des signaux retrouvés dans les blancs, se fait avec un seuil différent selon les études.
- d’un critère pour ne prendre en compte que les pics d’une intensité supérieure à un seuil à définir.
- d’une méthode de prise en compte de la réponse des étalons internes en vue de normaliser la réponse des molécules. Celle-ci n’est pas encore aboutie à ce jour.
Au vu des prérequis analytiques décrits dans ce rapport et bien que de nombreux contrôles qualité aient été mis en place, les empreintes HRMS acquises dans les études du réseau de surveillance prospective [1], [2] ne permettraient pas d’obtenir des résultats fiables. En effet les analyses n’ont pas été réalisées en réplicats ce qui permettrait de minimiser le taux de faux positifs et de faux négatifs.