5. Analyser#

Derrière le terme “analyser” s’entend l’extraction de l’information des données le plus souvent par l’utilisation de puissance de calcul. Cela recouvre de nombreux types de techniques (calcul intensif, traitement statistique, machine learning, visualisation …), et nécessite également des plateformes adaptées.

Cette étape du cycle de vie de nombreuses données impose que ces données soient exploitables, c’est-à-dire bien organisées, dans des formats adaptés à l’analyse envisagée, de façon à pouvoir leur appliquer des traitements automatisés.

Plusieurs évènements récurrents, annuels ou bisannuels, auxquels participent activement les réseaux métiers, comme les JCAD (Journées Calcul et Données), les JDEV (Journées du DEVeloppement logiciel) par exemple, intègrent de nombreuses interventions sur ces différentes thématiques, allant de la description des plateformes aux outils disponibles, en passant par l’organisation des développements et la reproductibilité, détaillée dans la section Reproductibilité de ce guide. Ils incluent aussi très souvent des retours d’expérience particulièrement riches.

5.1. Plateformes de traitement de données#

De nombreuses ressources sont disponibles, à différentes échelles, pour analyser et traiter des données. De façon générale, on distingue:

  • Les ressources de type calcul intensif ou HPC (High Performance Computing) organisée à l’échelle européenne (EuroHPC ou Tier 0), nationale (GENCI et les centres nationaux ou Tier 1) et régionale (mésocentres ou Tier 2). Ces ressources sont adaptées aux simulations massives.

  • Les ressources de type cloud (par exemple le cloud distribué de France Grilles : FG-Cloud). Ces ressources souples répondent aux besoins de calcul à la demande ou lorsque la maîtrise de l’ensemble du système est nécessaire.

  • les ressources de type grille de calcul ou HTC (High Throughput Computing), par exemple l’infrastructure France Grilles ou le Centre de Calcul de l’IN2P3. Ces ressources sont utilisées pour faire du traitement massif de données.

Elles sont décrites dans la section Infrastructures de ce guide. Le choix du type d’infrastructures adapté au besoin n’est pas forcément trivial. Il est souvent plus pertinent de s’adresser à des spécialistes qui sauront vous orienter. En général, les mésocentres de calcul, grâce à leur proximité et à leur connaissance du domaine, sont de bons conseils. Une liste est disponible sur le site du réseau Calcul.

5.2. Outils pour l’analyse des données#

Il existe de très nombreux outils permettant d’analyser ses données, allant du langage de programmation au workflow de traitement en passant par les logiciels de visualisation.

5.2.1. Langages de programmation#

Certains langages de programmation sont plus particulièrement utilisés pour l’analyse de données. En dehors du langage R spécifique aux statistiques et à la science des données, l’écosystème s’enrichit très rapidement :

  • Python devient de plus en plus utilisé en science des données. Une introduction sur le sujet a été réalisée en décembre 2017 par Francis Wolinski (Société Yotta Conseil) dans le cadre d’une journée organisée par le réseau Calcul.

Présentation et illustration de l’écosystème Python pour la data science

Francis Wolinski (Société Yotta Conseil) Journée Python et Data Science IRMAR Rennes - 2017

  • Julia est un des langages qui prend de l’importance sur ce sujet. Plusieurs présentations, lors d’une journée d’introduction au langage organisée par le réseau Calcul en janvier 2019, apportent un éclairage intéressant, en particulier le cadre des algorithmes Map/Reduce, ainsi que les performances du langage sous forme de benchmarks.

Julia : benchmark et bonnes pratiques

Benoît Fabrèges (Institut Camille Jordan, Lyon) Journée Julia - Lyon 2019

Des retours d’expérience illustrent l’utilisation de ces outils.

Concernant les outils Python, l’utilisation de Dask à la place de job array a été présentée lors des JCAD 2019 par Guillaume Eynard-Bontemps, CNES. Dask est une bibliothèque parallèle Python qui facilite l’exécution massive de calculs sur des données distribuées.

5.2.2. Approches méthodologiques#

L’analyse des données ne concerne pas uniquement les modèles statistiques. De nombreux domaines appliqués reposent sur l’analyse de données géométriques: médecine, neurosciences, sismique, météorologie, vision par ordinateur, apprentissage statistique. Cette variété d’applications se retrouve dans la forme, la qualité et la sémantique des données ainsi que dans la nature des problèmes mathématiques qu’elles posent. Une école thématique a été consacrée à ce sujet en 2018, à destination des non spécialistes. Elle l’a abordé sous plusieurs angles :

  • Analyse topologique de données,

  • Anatomie computationnelle,

  • Méthode d’évolution de front et fast marching,

  • Méthodes variationnelles pour l’imagerie

Outre les présentations, de nombreux exercices encadrés ont été proposés avec la mise en œuvre pratique des algorithmes, dans le langage Python.

Un des enjeux de l’analyse de volumes de données de grandes tailles, multidimensionnelles concerne les méthodes de réduction de la dimension (classiques comme ACP, AFC, MDS, …) ou issues du « machine learning » (kernel PCA, …). Cette approche a été abordée lors d’une école thématique qui a eu lieu en 2017. Cette formation, nécessitant des connaissances de base en calcul matriciel, a permis d’approfondir certaines des techniques matricielles (recherche de valeurs propres, décomposition en valeurs singulières), sur le plan à la fois théorique et pratique.

On peut trouver un exemple d’utilisation concrète de ce type de technique présenté lors des JCAD 2018 par Alain Franc, INRA, appliqué à la biologie.

L’exploration de la diversité des protistes : l’apport du calcul intensif

J.-M. Frigerio, P. Chaumeil, F. Rué, S. Thérond, V. Louvet, O.Coulaud & A. Franc JCAD 2018 - Lyon

De façon un peu générale, toutes ces approches conduisent ou sont la base de certains pans de l’Intelligence Artificielle. De plus en plus d’évènements sont consacrés à ces technologies.

Une introduction sur cette thématique a été réalisée en 2018 dans le cadre des “Journées Système” du réseau ResInfo.

De même, le réseau SARI grenoblois a organisé une journée sur le sujet, avec une présentation de Jean-Luc Parouty particulièrement didactique.

Compte tenu de l’engouement engendré autour de l’IA, de nombreuses journées et conférences sont organisées sur le sujet. En particulier, il fait l’objet de sessions spéciales lors des Journées Développement (Jdev) de 2020 et 2017.

Un cycle de formation a également été mis en place. Fidle (pour Formation d’Introduction au Deep Learning) est une formation ouverte à toutes et à tous et dont l’objectif est de proposer une large introduction au Deep Learning, allant des concepts fondamentaux aux architectures avancée, à destination d’un large public scientifique.

Cette formation est organisée en distanciel sous forme de 15 séquences courtes, mêlant cours magistraux et travaux pratiques, totalisant une trentaine d’heures. L’accès à Fidle est totalement libre, aucune inscription n’est requise et l’ensemble des ressources pédagogiques (supports, vidéos, notebooks, etc.) est librement accessible (CC BY-NC-SA). Fidle est portée par l’institut 3IA MIAI, le CNRS, via la Mission pour les Initiative Transverses et Interdisciplinaires (MITI) et les réseaux DevLOG, Resinfo et SARI : https://fidle.cnrs.fr

5.2.3. Visualisation des données numériques#

Un des outils d’analyse les plus utilisés est la visualisation des données. Cependant cette visualisation peut s’avérer particulièrement délicate dans le cadre de très gros volumes de données, et nécessite de s’appuyer sur des solutions techniques spécifiques.

Dans le domaine des données numériques, plusieurs bibliothèques sont particulièrement adaptées aux données de grande taille, ainsi qu’à la visualisation in situ, c’est-à-dire en cours de calcul en ce qui concerne les données de simulation : VisIt et ParaView. Plusieurs interventions sur ce sujet ont été réalisées dans le cadre d’une journée dédiée organisée en 2017 par le réseau Calcul .

De même, une action de formation a été complètement consacrée à ce sujet en 2016 par le réseau Calcul. Elle a en particulier abordé les bonnes pratiques concernant la production de données : formats d’archivage, technique d’analyse, cycle de vie ainsi que les outils de visualisation avancés (visualisation in situ, temps réel, web).

La visualisation des données est également au coeur des problématiques des utilisateurs du calcul intensif. Le projet européen PRACE sur le calcul intensif propose des formations spécifiques, en particulier sur les outils de la visualisation scientifique.

5.3. Mettre en place des méthodes d’analyse et des chaînes logicielles#

L’analyse des données peut nécessiter la mise en place d’un workflow de traitement utilisant des chaînes logicielles. Il existe des environnements virtuels de recherche (VRE Virtual Research Environment) qui facilitent la mise en place de ces méthodes d’analyse complexes.

VIP, the Virtual Imaging Platform, est un portail qui permet à ses utilisateurs d’accéder simplement à leurs données, de les traiter facilement avec des logiciels préinstallés sur la plateforme. Traitements et données sont distribués sur l’infrastructure EGI (infrastructure de grille de calcul européenne). Pour répondre au besoin d’interopérabilité des données, l’API CARMIN (API web) est maintenant utilisée par VIP. Cette présentation explique les différentes étapes du fonctionnement du système mis en place.

VIP : towards data interoperability through CARMIN, vidéo

Axel Bonnet, Pascal Wassong, Frederic Cervenansky, Camarasu-Pop Sorina, CREATIS et , Tristan Glatard, Concordia University JCAD 2019, Toulouse.

Virtual Imaging Platform

Sorina Camarasu-Pop, Axel Bonnet, Frédéric Cervenansky, CREATIS, Tristan Glatard, Concordia University JCAD 2018

Pangeo est une communauté qui travaille au développement de logiciels et d’infrastructures pour faciliter la mise en œuvre des géosciences, dans le domaine du “Big Data”. Cette communauté développe tout un écosystème d’outils open source pour les géosciences.

Cet écosystème a été présenté lors des JCAD 2019 et 2018 :

Analyse de simulations numériques de l’océan en préparation aux missions satellite : cas d’utilisation des outils PANGEO

A. Albert, F. Briol, L. Brodeau, G. Dibarboure, G. Eynard-Bontemps, J. Le Sommer, A. Ponte JCAD 2019, Toulouse.

D’autres environnements de management de workflow existent :

WRENCH: Workflow Management System Simulation Workbench

Frederic Suter, Henri Casanova, Rafael Ferreira Da Silva, CC IN2P3 JCAD 2018, Lyon.

enfin, les environnements de notebooks sont des outils de plus en plus utilisés dans le cadre de l’analyse de données. Les notebooks sont des programmes qui contiennent à la fois du texte et du code, dans différents langages (Python, Julia, R, Scala …), exécutables via une interface web. Ces outils sont de plus en plus couramment utilisés en sciences des données. Jupyter est l’application de notebooks la plus utilisée actuellement.

Plusieurs interventions ont eu lieu sur ce sujet. La première, exposée lors des JCAD 2019, met particulièrement en avant l’intérêt des notebooks pour la reproductibilité.

Towards reproducible Jupyternotebooks

Ludovic Courtès, INRIA JCAD 2019, Toulouse.

La présentation suivante, qui a eu lieu lors des JCAD 2018, expose les services de notebooks proposés par l’infrastructure de grille européenne EGI.

Enfin, ce dernier exposé, des JCAD 2018, montre l’utilité des notebooks pour la pédagogie et la formation.

5.3.1. La qualité logicielle#

Programmer dix lignes de code quand on est seul, c’est facile et ca n’engage que soit, mais dès lors qu’on a à faire avec des projets complexes, de longue durée, nécessitant des équipes de développeurs, il est nécessaire d’avoir des pratiques de codage collaboratives et industrialisées qui doivent assurer la qualité du produit développé.

Les chaînes de traitement logiciels sont souvent associées à des instruments complexes et nécessitent ainsi de s’interfacer parfaitement avec les différentes partie de l’instrument. Dans ce contexte, il convient d’assurer le suivi des exigences liées au logiciel, la gestion des interfaces avec le reste de l’instrument et l’activité “Assurance Qualité Logiciel”. Cette dernière permet notamment de répondre à des exigences applicables à un logiciel, du développement à la maintenance de celui-ci. L’ensemble des activités, normes, contrôles et procédures mis en place doit couvrir la totalité de la durée de vie d’un logiciel. Il est par exemple important de vérifier et valider au travers de tests la bonne santé du code et de constamment veiller à la traçabilité qui lui est liée.

La qualité d’un projet informatique ne se résume pas à la qualité du codage, mais dépend également de la qualité des interactions collectives au sein du projet et de leur mise en œuvre.

L’INSU et l’IN2P3 du CNRS sont des instituts impliqués dans des gros projets de développements et ont investi dans l’apprentissage de bonnes pratiques pour assurer la qualité locigielle au travers d’un Action Nationale de Formation.

L’ANF “Qualité logicielle” réalisée en 2021 fournit les éléments de contexte et de programmation nécessaire à un développement collaboratif

La formation montre comment un flot de traitement bien organisé et maîtrisé participe de façon très importante à la démarche collective pour assurer la qualité logicielle.

Clémence Agrapart explique quels sont les “Principes de bases de la qualité logicielle” :

  • définir des outils et des procédures qui permettent d’harmoniser les méthodes

  • sensibiliser les agents pour une meilleure synergie et visibilité des pratiques

  • transmettre et faciliter la communication (nouveaux entrants, turnover de personnel)

Dans l’objectif d’améliorer les règles de fonctionnement :

  • Renforcer la confiance entre les équipes et les partenaires impliqués

  • Maîtriser les savoir-faire

  • Optimiser le travail et gagner en efficacité

  • Réduire les risques de dysfonctionnement

Le développement logiciel se rapproche de l’Assurance Produit pour s’assurer que le produit est conforme aux exigences, que le logiciel réponde aux objectifs d’utilisation, de maintenance et de portage en respectant les délais et les budgets définis

L’assurance qualité logiciel donc permet de garantir que :

  • Les règles et normes de codage sont respectées

  • La gestion de versions du code est gérée au fur et à mesure et à travers les outils adaptés

Antoine Pérus insiste sur le fait que le “code” logiciel est une construction collective et donne des règles de partage et d’échange pour le codage :

  • utilisation de tickets : espace privilégié pour échanger tant au sein du projet qu’entre les membres du groupe et le monde extérieur.

  • utilisation de labels, associées aux tickets, aux Merge/Pull Request (MR/PR) et qui permettent de catégoriser, et donc de structurer. Ils facilitent la lecture, le partage des tâches et donc la vie collective.

  • bonne utilisation des workflow de dépots de code

  • etc.

On trouvera sur le site de la formation ANF Qualité logicielle un ensemble de bonnes pratiques de production de code collaboratif.

  • Indicateur de suivi de la qualité logicielle - William Recart

  • Gestion de la documentation - Julien Peloton

  • Processus de traitement de la qualité logicielle: outils et notion d’usine logicielle - Alexis Chatillon

  • Partage de code et plateformes collaboratives - Cyril L’Orphelin

  • Outils de test- Cyril L’Orphelin

  • Outils d’analyse et de mesure de la qualité du code - Cyril L’Orphelin

  • Outils de construction du code final, d’intégration et de déploiement continus- Cyril L’Orphelin

Par ailleurs, une journée du réseau Qualité en Recherche a été entièrement consacrée à ce sujet en 2019. Plusieurs exposés ont permis d’illustrer les concepts associés à la qualité logicielle :

Qu’est-ce qu’un logiciel et qu’est-ce que la qualité ?

Henri VALEINS, Journée thématique Assurance Qualité Logiciel 2019, Paris.

Plans de Gestion de Logiciel et Assurance Qualité Logiciel, les apports de PRESOFT

Geneviève Romier, CC-IN2P3, Journée thématique Assurance Qualité Logiciel 2019, Paris.

Référentiels et normes de codage

Z.Tucsnak, Journée thématique Assurance Qualité Logiciel 2019, Paris.

Qualité Logiciel dans un projet de Nanosatellite

Colin Gonzalez, AstroParticules et Cosmologie, Journée thématique Assurance Qualité Logiciel 2019, Paris.

5.3.2. Retours d’expérience#

Dans le domaine environnemental, les chaines logicielles sont également mises en place pour automatiser et enchainer un certain nombre de traitements comme:

  • le contrôle qualité basé sur des paramètres physiques de l’instrument

  • le contrôle qualité spécifique à un type d’instrument

  • les corrections

  • le filtrage

  • les aggrégations

  • le stockage en base de données

Plusieurs présentations issues des journées du réseau SIST illustrent des mises en oeuvre de chaîne logicielle d’analyse de données:

Filtrage interactif de données multidimensionnelles

Patrick Brockmann, Laboratoire des Sciences du Climat et de l’Environnement
SIST16 OSU OREME 2016, Montpellier.

5.4. Optimiser l’utilisation des ressources#

L’analyse des données peut nécessiter l’usage de ressources assez massives en termes de puissance et de nombre, d’autant plus que la volumétrie des données a tendance à augmenter fortement.

Il est donc important de s’assurer d’optimiser l’utilisation de ces ressources.

En particulier au niveau des codes de calcul, le réseau Calcul propose régulièrement des journées sur ces sujets :

Une formation sur l’évaluation de la performance des codes, en particulier à travers les outils Paraver et Scalasca.

2019, Observatoire de Haute Provence.

Enfin, l’optimisation des ressources s’entend aussi au niveau environnemental, afin de réduire l’impact des analyses de données. Le GDS EcoInfo a organisé en 2017 une journée sur l’impact des logiciels sur l’environnement, dont certains exposés peuvent directement concerner la problématique de l’analyse des données :

TEEC: Logiciel vert et durable

Hayri ACAR, Université Lyon 1 Conf EcoInfo 2017, Grenoble.

Écoconception logicielle pour la gestion des datacentres de calcul

Olivier Richard, LIG Conf EcoInfo 2017, Grenoble.

Calcul Intensif, Consommation et Changement Climatique

Xavier Vigouroux Conf EcoInfo 2017, Grenoble.

Eco-élasticité logicielle pour un Cloud frugal

Thomas Ledoux, Ecole des Mines de Nantes Conf EcoInfo 2017, Grenoble.

5.5. Traitements sémantiques/ linguistiques#

L’accroissement massif de la production scientifique (données et publications) et la multitude de canaux de diffusion existants appellent au cœur des activités de recherche, la mise en place de solutions informatiques permettant le repérage, l’extraction, l’exploration et l’analyse de corpus de données. Les méthodes et outils TDM (Text and Data Mining) apportent une aide importante pour explorer et analyser le sens des textes et en donner une représentation compréhensible par les humains et les machines.

En 2013, déjà le réseau Renatis avait accueilli Claire Nedellec et Agnès Girad (INRA) pour illustrer l’usage possible des technologies sémantiques pour la gestion de l’information scientifique et technique ainsi que Fabien Amarger (IRIT IRSTEA) pour témoigner de la construction d’une base de connaissance partant d’un cas d’usage : l’annotation des Bulletins de Santé du Végétal

Dans leur présentation, Claire Nedellec et Agnès Girard expliquent les principes de l’analyse sémantique de texte à travers un exemple en recherche documentaire et présentent le projet TirPhase. La notion d’indexation sémantique à travers un exemple en physiologie animale est abordée en début de présentation sous les traits d’une carte d’identité thématique associée au document. Les auteurs présentent également la notion de termino-ontologie et définissent l’ontologie comme « un graphe où les nœuds sont des concepts et les arcs des relations entre ces concepts ». Elles expliquent que l’analyse sémantique identifie les unités sémantiques du texte et les associe aux concepts de l’ontologie. Partant de là, elle présente le processus de conception de termino-ontologie à partir de corpus en deux étapes : extraction automatique de termes avec l’outil Syntex et structuration et modélisation avec l’outil Protégé. La deuxième partie de la présentation est consacrée à la présentation du projet TriPhase. Ce projet a pour objectif d’analyser les publications d’un département de recherche à des fins stratégiques (analyse quantitative des termes au cours du temps) et disposer d’un moteur de recherche sémantique bibliographique spécialisé. Les auteurs expliquent les différentes phases de la construction de la termino-ontologie TriPhase et l’apport des documentalistes dans ce travail collaboratif.

Fabien Amarger, présente quant à lui un projet qui consiste à construire une base de connaissance à partir de source et de données hétérogènes. Il explique ce qu’est une base de connaissance et comment l’interroger.

Des technologies sémantiques pour l’information scientifique et technique

Claire Nedellec, Agnès Girard, INRA
Frédocs2013 - Gestion et valorisation des données de la recherche - 2013, Aussois

Annotation des Bulletins de santé du végétal (BSV) et interrogation

Fabien Amarger , IRIT-IRSTEA
Frédocs2013 - Gestion et valorisation des données de la recherche - 2013, Aussois

Plus récemment, Laurence El Khoury (DIST-CNRS) et Stéphane Schneider (INIST – CNRS) à l’occasion des Frédocs2018 ont présenté les projets ISTEX, VisaTM et OpenMinteD pour illustrer la mise à disposition d’une infrastructure de text-mining. ISTEX est une base documentaire qui propose un accès à distance et de manière pérenne à un corpus multidisciplinaire (plus de 23 millions de documents) en texte intégral. Cette base propose également des services permettant la mise en place de traitements des données : extraction, fouille de textes, production de synthèses documentaires. La première partie de l’intervention présente les objectifs, les ressources et les possibilités offertes par la plateforme. La seconde partie s’intéresse plus particulièrement à la fouille de texte et au projet VisaTM. Ce projet porté par l’INRA vise à étudier les conditions de production de services TDM à haute valeur ajoutée basés sur l’analyse sémantique à destination des chercheurs pour une généralisation des approches TDM dans les activités de recherche. Le Projet européen H2020 OpenMinteD présenté en 3e partie est une e-infrastructure encourageant et facilitant l’utilisation des technologies de fouille de textes. Sa connexion à ISTEX permet l’exploration de corpus. Plateforme open source, ouverte et pérenne elle offre aux chercheurs la possibilité de découvrir, créer, partager et réutiliser des logiciels, des documents et des ressources pour le text-mining, le TALN, l’Extraction d’Information en travaillant à partir de sources documentaires licitement utilisables tels qu’ISTEX, OPENAIRE et CORE.

Bases de ressources numériques et services aux chercheurs. Avec ISTEX et OpenMintedD, l’alliance pour une infrastructure de text-mining

Laurence El Khoury (DIST-CNRS), Stéphane Schneider (INIST – CNRS)
Frédocs2018 - Démarches innovantes en IST : expérimenter, proposer (se) réinventer, 2018, Albi