Détails du programme

Plénière 1 : Vision européenne du partage des données de la recherche

Vision européenne du partage des données de la recherche :
Damien Lecarpentier (International Collaborations & Partnerships, CSC - IT Center for Science)

Résumé : Le partage des données de la recherche est devenu un enjeu majeur en Europe ces dernières années, avec une prise de conscience croissante de l'importance de l'accès ouvert aux résultats de la recherche et de la collaboration entre les chercheurs. Dans cette présentation, nous examinerons les politiques et stratégies pour promouvoir l'accès ouvert et la réutilisation des données et renforcer la collaboration et la diffusion du savoir en Europe et dans les pays de l'Union. Nous verrons comment la Commission européenne a intégré des exigences de partage des données dans ses programmes de financement de la recherche et de l'innovation, tels que Horizon 2020 et Horizon Europe, et les initiatives nationales mises en place par les États membres de l'UE. Nous aborderons également les défis et opportunités liés à la mise en œuvre du partage des données en Europe, ainsi que les perspectives d'avenir offertes par les nouvelles technologies et les initiatives de collaboration internationale.
 
Session 1 : Des données nativement FAIR

Titre à venir :
Frédéric Huynh (Ingénieur de Recherche à l'IRD - Infrastructure de Recherche Data Terra)

Résumé : A venir

L’écosystème web sémantique PO2/TransformON : en route vers le FAIR by Design ! 
Magalie Weber (Ingénieur à l'INRAE - Unité BIA) 

RésuméNous assistons à une accélération de la volonté mondiale de faire converger les modes de consommation et de production vers une approche circulaire et plus durable des systèmes alimentaires.  Les systèmes alimentaires sont des systèmes complexes et multidimensionnels définis par l'OCDE comme les éléments et les activités liés à la production et à la consommation d’aliments et leurs effets, notamment sur l'économie, la santé et l'environnement. Pour relever le défi de reconnecter l'agriculture, l'environnement, l'alimentation et la santé, il est nécessaire d'intégrer et d'exploiter des données provenant de sources et de formats hétérogènes. Dans ce contexte, les ontologies peuvent jouer un rôle important car elles fournissent une représentation formelle des connaissances et une structure pour l'intégration des données. Nous présentons une nouvelle ontologie de domaine basée sur le modèle générique Process and Observation Ontology (PO2). L'objectif de l’ontologie PO2/TransformON est de décrire les procédés de transformation depuis les matières premières jusqu'aux produits finis, y compris le recyclage des déchets. Le champ d'application couvre également la caractérisation des denrées alimentaires, des sous-produits utilisés en alimentation animale et des résidus agro-alimentaires ainsi que des produits biosourcés non alimentaires comme par exemple des emballages. Nous montrerons comment l’utilisation de cette ontologie couplée aux technologies du web sémantique permet de répondre aux enjeux de la Science Ouverte en publiant des jeux de données nativement FAIR (Faciles à trouver, Accessibles, Interopérables et Réutilisables). Ces données peuvent ensuite être réassemblées et réutilisées par d’autres systèmes pour l’optimisation des procédés ou l’aide à la décision multicritère.

Vers des données FAIR en neurosciences : 
Olivier Coulon (Directeur de Recherche au CNRS - Laboratoire INT UMR 7289)

RésuméL’Institut de Neurosciences de la Timone a depuis trois ans commencé à rationaliser la gestion et le traitement de ses données. En particulier un objectif est d'aller vers des données FAIR quelque-soit la modalité d’acquisition. Je présenterai les difficultés inhérentes à cet objectif, les projets mis en oeuvre pour l’atteindre, et la nécessité d’utiliser ou de développer un environnement de structuration des données qui soit universel et compatible par nature avec le formalisme FAIR.

FAIR un processus inné et/ou acquis ?
Christophe Calvin (Directeur de Recherche au CEA)

Résumé : Le processus de FAIRisation des données peut intervenir depuis le stade de leur production jusqu’au stade de leur archivage. Pour certaines données, une FAIRisation by design constitue la garantie de leur partage et de leur réutilisabilité. Pour d’autres, c’est une FAIRisation at the end qui le sera. Toutefois, dans bien des cas, l’obtention de données FAIR by design n’exclue pas d’avoir à ré intervenir, ultérieurement, sur des démarches de FAIRisationin progress de tout ou partie des étapes du cycle de leur vie.

La problématique de ces trois « voies » de la FAIRisation sera illustrée au travers de quelques exemples issus de différentes disciplines scientifiques représentées au CEA (matériaux, neuroimagerie, physique des hautes énergies …) 

 

Session 2 : Éthique et données de recherche pour une réutilisation

Limites du partage des données de la recherche :
Jean-Gabriel Ganascia (Professeur Émérite  à Sorbonne Université - LIP6 UMR 7602)

Résumé : La recherche vise à repousser toujours plus loin les frontières de la connaissance humaine. L’humanité entière devrait en profiter. Et, comme le numérique autorise une diffusion quasiment gratuite, le partage devient indolore. Dès lors, on se doit de l’encourager et de promouvoir l’ouverture des publications et des données scientifiques pour que tous en profitent. Or, à l’analyse ce partage apparemment généreux se heurte à un certain nombre d’obstacles d’ordre éthique et technique. Certain tiennent au caractère personnel ou sensible des données, d’autres à l’iniquité du partage lorsqu’il prive les producteurs de données du bénéfice de leur travail, d’autres enfin à l’incompatibilité des formats.

L’exploitation des données génomiques : nouveaux enjeux éthiques :
Pierre Le Coz (Professeur à Aix-Marseille Université - Laboratoire ADES UMR 7268)

Résumé : Le traitement actuel des maladies mobilise de plus en plus les données génomiques. En cancérologie, la place croissante de la génétique conduit à un véritable changement de paradigme, la classification des tumeurs par organes cédant le pas à une classification en fonction des mécanismes génétiques (ou cellulaires) qui les caractérisent. Sur un plan éthique, l’accès élargi aux données génomiques est sources de nouveaux dilemmes. La problématique du risque se déplace. Une recherche biomédicale menée à partir d’échantillons biologiques prélevés auprès de patients est susceptible de fournir des informations inattendues. Ainsi, un patient ayant consenti à la cession d’un échantillon biologique peut être alerté sur un risque accru de développer une autre maladie que celle qu’il endure hic et nunc. C’est ce qui a lieu lorsque le séquençage de son génome met en lumière une autre mutation que celle qui était initialement recherchée. En vertu de la loi de bioéthique de 2021, les apparentés du patient doivent aussi être alertés dans les cas où le variant génétique est justiciable d’une mesure préventive. Le risque est de faire naître chez les patients et leurs proches des inquiétudes infondées.

Comment rendre l'utilisation des données compatible avec le respect de l'éthique de nos organisations ? :
Bertrand Monthubert (Professeur à l'Université de  Toulouse III - Institut de Mathématiques de Toulouse - Président d'Ekitia, co-président du groupe de travail Gouvernance des données du Global Partnership on AI)

Résumé :  l'accès aux données provenant de plusieurs organisations est souvent très difficile, de nombreux obstacles empêchent la réalisation de cas d'usage pourtant d'intérêt public. Nous examinerons les questions éthiques sous-jacentes et la manière dont une approche intégrative associant les aspects éthiques, juridiques, économiques, technologiques, peut permettre de lever ces obstacles. 

Mini Session : Évaluation de la recherche et Données. Prise en compte de la diversité dans l’évaluation

La réforme de l’évaluation individuelle des chercheurs et des chercheuses au CNRS :
Sylvie Rousset (Directrice de Recherche au CNRS - Direction des Données Ouvertes de la Recherche DDOR)

Dès juillet 2018, le CNRS a signé la déclaration de San Francisco DORA qui pose les bases d’une nouvelle façon d’évaluer la recherche. En 2019, un travail a été mené au sein du CNRS en concertation avec le système d’évaluation du Comité National. Ceci a conduit à mettre en avant une évaluation des chercheurs basées sur plus de qualitatif et moins de quantitatif. Depuis 2019, 4 nouveaux principes en phase avec la Science Ouverte sont à la disposition des sections du comité national pour les reprendre au sein de leurs propres critères d’évaluation, et vont dans le sens d’une plus grande diversité des critères et des éléments pris en compte dans l’évaluation. Il s’en est suivi une refonte des dossiers d’évaluation des chercheurs et des chercheuses en cohérence avec ces principes. En 2023, pour le concours 2024, une refonte des dossiers de concours, Directeur de Recherche et d’entrée au CNRS a été effectuée. Nous nous sommes beaucoup impliqués au niveau européen dans la construction de la coalition CoARA. J’ai été élue fin 2022 au premier steering board de cette coalition. J’ai participé à d’autres rencontres sur ce sujet à travers le monde, que cela soit en Amérique du Sud, ou lors d’un G7 informel en 2023 au Japon. Il s’agit donc d’une préoccupation internationale.

Evolution nécessaire de l'évaluation de la Recherche :
Françoise Genova (Directrice de Recherche émérite au CNRS - Laboratoire ObAS UMR 7550)

Résumé :  Il est largement reconnu que l'évaluation de la recherche doit évoluer et ne plus être dominée par les indicateurs bibliométriques. Cela concerne au premier chef, mais pas seulement, la généralisation de la science ouverte et donc la prise en compte du partage des données (et des logiciels) de la recherche. L'une des mesures préconisées par le deuxième plan national pour la science ouverte pour transformer les pratiques et faire de la science ouverte le principe par défaut est de "valoriser la science ouverte et la diversité des productions scientifiques dans l’évaluation des chercheurs et enseignants chercheurs, des projets et des établissements de recherche". La prise de conscience partagée de cette nécessaire évolution conduit à des initiatives qui travaillent sur la question au niveau institutionel, national et international. A ce niveau, on discutera en particulier la Coalition for Advancing Research Assessment (CoARA), une organisation internationale créée en 2022 avec la mission de faire reconnaître la diversité des produits, des pratiques et des activités qui maximisent la qualité et l'impact de la recherche. Les travaux menés dans le domaine de l'évolution de l'évaluation de la recherche par la Research Data Alliance, dont la mission est de faciliter le partage des données de recherche, seront égalament évoqués. Les deux organisations, ainsi que leurs chapitres nationaux sont en contact sur la question.

Plénière 2 : Métiers et actvités de la donnée

Métier et activités de la donnée : retours sur l'étude menée
Anne Laurent (Professeur des Université à Université de Montpellier - Laboratoire LIRMM UMR 5506) 

Résumé : Le MESR a lancé une étude sur les métiers de la donnée qui a été déclinée en plusieurs phases : étude bibliographique, enquêtes par questionnaire et entretiens, menées par un groupe de travail large et représentatif.

Visant à développer et reconnaître toutes les compétences et activités des chercheurs, enseignants-chercheurs, personnels d’appui à la recherche et administratifs, en matière de gestion, préservation, circulation et partage des données des données, cette étude a produit des résultats qui seront présentés lors de cette session.

Table ronde autour de la formation

Métiers et compétences des grandes entreprises et administrations publiques :
Marine de Sury (Directrice de Mission - CIGREF le nœud Français de GAIA-X)
Frédéric Lau (Directeur de Mission - CIGREF le nœud Français de GAIA-X)

Résumé : A venir

Titre à venir :
Sophie de Cacqueray (Maître de Conférence à Aix-Marseille Université - Vice Présidente Formation d'Aix-Marseille Université)

Résumé : A venir

Les données géographiques pour la recherche et la formation en géomatique :
Patrick Sillard (Directeur de l’ENSG-Géomatique)   

Résumé : Les données géographiques sont essentielles à la recherche. Leur contenu est précieux pour la mesure de l’impact des transitions climatique et écologique et accompagner les politiques qui y sont liées. D’une vision en coupe, fondée sur une photographie à un instant donné et, éventuellement à différents instants successifs, on s’intéresse de plus en plus aux changements qui se manifestent dans l’espace géographique. La détection de changements fait fortement appel aux méthodes d’IA, par apprentissage supervisé et réseaux de neurones, ainsi qu’aux méthodes d’IA générative pour la génération des fichiers d’apprentissage sur les changements. La mise à disposition de données massives à fréquence élevée sur l’espace géographique constitue aussi un puissant levier d’orientation de la recherche et d’évolution du contexte professionnel de ceux qui œuvrent dans le champ de l’observation de la Terre et de la modélisation géographique. Les formations des écoles d’ingénieurs s’adaptent à ce nouveau contexte où les données massives et les outils de l’IA ont puissamment intégré la trousse à outil du méthodologue de l’information géographique. L’exposé présentera les conséquences que tirent l’ENSG-Géomatique et l’IGN sur les enseignements délivrés aux élèves-ingénieurs, aux étudiants de licence, de master et en formation continue, ainsi que sur les données géographiques mises à disposition de la recherche.

Session 3 : Diversité des données au service de l’interdisciplinarité

IA à l’échelle industrielle : la place de la donnée :
Romain Gemignani (ENEDIS - Responsable du laboratoire d'Intelligence Artificielle de Marseille)

Résumé : Enedis pilote le plus grand réseau de distribution d’électricité d’Europe au service de la société et des territoires. En tant qu’entreprise à mission engagée dans la transition écologique, nous construisons la nouvelle France électrique, en accompagnant des usages visant à plus de sobriété énergétique.

 Dans le cadre de notre activité, nous sommes amenés à gérer un volume conséquent de données au quotidien. La collecte, le traitement et l’analyse de ces dernières sont au cœur de notre action opérationnelle tant sur le plan de la performance industrielle que dans l’objectif de faire face aux défis qui se posent à nous en tant qu’acteur central de la transition écologique de la France.

 Du fait de notre rôle d’opérateur et gestionnaire de réseau électrique, les métiers de la donnée font partie de nos fondamentaux. Nous avons fait évoluer ces derniers de manière synchrone avec les avancées technologiques et l’évolution de l’état de l’art dans les domaines des mathématiques et de l’informatiques. C’est donc naturellement que nous adaptons aujourd’hui nos processus internes à l’émergences de nouvelles opportunités liées aux avancées dans le domaine de l’Intelligence Artificielle.

 L’intégration de cette technologie au cœur de nos processus industriels repose sur plusieurs facteurs. 

Il y a d’abord des prérequis indispensables pour le passage à l’échelle. Pour être capable de faire de l’IA à l'échelle industrielle, il est absolument nécessaire de s’organiser collectivement et prendre la mesure des défis industriels et poser les fondamentaux d’une telle démarche, à savoir :

  • L'IA, c'est d'abord des données (pas de data, pas d’IA !)

  • Ce sont des compétences : les data scientists formés à l’IA certes et surtout une combinaison de compétences : data people + experts métiers

  • Ce sont des pratiques d’usage et de maintenance spécifiques : on connaissait la MCO, on va adorer la MCI (le Maintien de condition d’intelligence)

  • et c’est une gouvernance : priorisation des cas d’usage et conformité, transparence et frugalité sur les IA.

Ensuite pour réaliser nos cas d’usage, on commence par un processus d’évaluation de sa faisabilité et de sélections de modèles de bases. L’accès à des modèles pré-entrainés sur de très larges jeux de données est clé. Ces modèles sont publiés par les GAFAM.

Si nécessaires, nous constituons des jeux de données en vue de l’entrainement des modèles spécifiques aux cas d’usages métiers. Cette étape nécessite une grande qualité des données et implique souvent une contribution importante des experts et opérationnels des domaines concernés. De ce fait, il apparait plus que jamais nécessaire d’accéder simplement à des données de l’entreprise, mises en juste qualité, juste suffisante pour l’IA. Or ces données sont silotées par construction dans les SIs de l’entreprise. Il faut les désincarcérer pour les rendre accessible à toutes opérations de crunching de données !

Par ailleurs, l’IA a cela de particulier que, contrairement aux systèmes numériques classiques, son appropriation ne se réduit pas à la maitrise de ses fonctionnalités et de son interface fixant des usages déterminés et figés dans le temps. Sa performance peut s’améliorer dans le temps à la condition que l’IA soit améliorée par les salariés qui l’utilisent.

Enfin, le suivi de la dérive des distributions des données dans le temps constitue le dernier maillon de la chaîne. Il revêt une importance capitale dans un contexte industriel évoluant dans un environnement variable. On parle alors de maintenance en condition d’intelligence.

How does Airbus Helicopters unlock the value of flight data ?
Thomas Calvet (AIRBUS - Data engineering and science for HUMS)

Résumé : At Airbus Helicopters large amounts of data are collected in order to reach industrial excellence. These data cover design specification, aircraft maintenance and data from our numerous customer operations.

This presentation emphasises on operational data recorded in-flight thanks to the health and usage monitoring systems. Trustworthy insights from data require first reliable data streams. High performance systems to process and store data are thus deployed and presented here. Processed flight data is then accessed by a wide range of domains to generate value all across the company. The value-driven approach to data analytics and examples of advanced techniques are shown in this presentation. Finally, open challenges emerging from the processing of helicopter flight data will be discussed.

La recherche au Criteo AI Lab : ouverte et collaborative :
Liva Ralaivola (CRITEO - Vice Président Recherche)

Résumé : Cette présentation donnera un aperçu de la manière dont se conduit la recherche en Intelligence Artificielle au Criteo AI Lab, le laboratoire IA de l’entreprise Criteo. Elle décrira les missions de ce laboratoire, portées sur l’innovation et la création de science et les moyens singuliers mis en œuvre pour les réaliser : recherche collaborative, en partenariat avec le monde académique, et ouverte (publications sans restriction d’accès, organisation de Hackathons, partage de données).

L'hybridation physique, data et IA : une des clés de l'explicabilité et de l'exploitabilité des données :
Jean-Baptiste Léger (IQanto - Responsable des solutions numériques industrielles)

Résumé : iQanto est un spécialiste de la donnée et de l'IA appliquées à l'industrie.

La compréhension physique, la précision de la donnée et la performance de l'IA est un triptyque clé de sa démarche méthodologique hybride.
 
La modélisation physique apporte de l'interprétation et de la pertinence. Elle repose entre autres sur des fondamentaux structurés, organisés et formalisés de la connaissance.
 
Les données apportent de la justesse et de l'exactitude. Elles reposent entre autres sur des fondamentaux de précision, de répétabilité et de confiance de la mesure.
 
L'IA apporte de la finesse et de la profondeur. Elles reposent entre autres sur des fondamentaux de corrélations complexes et de renforcement du connexionnisme.

 

Session 4 : Sécurité et fiabilité des données, en particulier des données de santé

 

Session 4 (Part 1) : Vue générique sur la sécurité et la fiabilité des données de recherche

Au niveau des infrastructures :
Hervé Luga (Professeur à l'université des Pyrénées - Chargé de mission "Transformation Numérique DGRI SSRI A7)

Résumé : A venir

La confiance dans le numérique, un impératif pour partager et exploiter les données :
Marine de Sury (Directrice de Mission - CIGREF le nœud Français de GAIA-X)

Résumé : A venir

 

Session 4 (Part 2) : Table ronde, focus sur les données de santé

Intégrer l'expérience et les résultats rapportés par les patients au cœur des systèmes de santé et des technologies basées sur l'intelligence artificielle :
Laurent Boyer (
Professeur des Universités & Praticien Hospitalier Santé Publique - CEReSS / EA 3279)

Résumé : "Intégrer l'expérience et les résultats rapportés par les patients au cœur des systèmes de santé et des technologies basées sur l'intelligence artificielle."

Pour valoriser les données de santé : un socle technique robuste, interopérable et sécurisé :
Driss Ait Mani (Envacom - Expert eSanté)

Résumé : La nécessité d'un socle technique robuste, interopérable et sécurisé pour créer de la valeur à partir des données de santé personnelles est cruciale pour plusieurs raisons :

  • Fiabilité des données : Les informations recueillies sont exactes, complètes et à jour, ce qui est essentiel pour prendre des décisions médicales éclairées et fournir des soins de qualité aux patients

  • Interopérabilité : Pour l'échange fluide de données entre les différents acteurs et structures de santé pour faciliter la coordination des soins, la continuité des traitements et réduire les risques d'erreurs médicales

  • Protection de la vie privée et sécurité des données : Cela implique la mise en place de mesures de sécurité robustes telles que le chiffrement des données, l'authentification des utilisateurs, et le contrôle d'accès aux informations sensibles et le respect des certifications techniques comme la Certification HDS et le respect du RGPD

  • Analyse et exploitation des données : A travers des entrepôts de données sécurisées qui agrègent les information, les structurent et les mettent en qualité, il est possible de mettre en œuvre de meilleures stratégies de prévention, apporter une prise en charge plus personnalisée aux patients, identifier des tendances épidémiologiques, et améliorer les protocoles de traitement

  • Innovation et développement de nouvelles solutions de santé : Ce socle technique robuste favorise l'innovation et le développement de nouvelles solutions de santé à travers le développement d’applications mobiles de suivi de la santé, de dispositifs médicaux connectés, des outils d'intelligence artificielle pour le diagnostic médical, etc…
Personnes connectées : 1 Vie privée
Chargement...