Détails du programme (provisoire)

Plénière 1 : Vision européenne du partage des données de la recherche

Vision européenne du partage des données de la recherche :
Damien Lecarpentier (International Collaborations & Partnerships, CSC - IT Center for Science)

Résumé : Le partage des données de la recherche est devenu un enjeu majeur en Europe ces dernières années, avec une prise de conscience croissante de l'importance de l'accès ouvert aux résultats de la recherche et de la collaboration entre les chercheurs. Dans cette présentation, nous examinerons les politiques et stratégies pour promouvoir l'accès ouvert et la réutilisation des données et renforcer la collaboration et la diffusion du savoir en Europe et dans les pays de l'Union. Nous verrons comment la Commission européenne a intégré des exigences de partage des données dans ses programmes de financement de la recherche et de l'innovation, tels que Horizon 2020 et Horizon Europe, et les initiatives nationales mises en place par les États membres de l'UE. Nous aborderons également les défis et opportunités liés à la mise en œuvre du partage des données en Europe, ainsi que les perspectives d'avenir offertes par les nouvelles technologies et les initiatives de collaboration internationale.
 
Session 1 : Des données nativement FAIR

Titre à venir :
Frédéric Huynh (Ingénieur de Recherche à l'IRD - Infrastructure de Recherche Data Terra)

Résumé : A venir

L’écosystème web sémantique PO2/TransformON : en route vers le FAIR by Design ! 
Magalie Weber (Ingénieur à l'INRAE - Unité BIA) 

RésuméNous assistons à une accélération de la volonté mondiale de faire converger les modes de consommation et de production vers une approche circulaire et plus durable des systèmes alimentaires.  Les systèmes alimentaires sont des systèmes complexes et multidimensionnels définis par l'OCDE comme les éléments et les activités liés à la production et à la consommation d’aliments et leurs effets, notamment sur l'économie, la santé et l'environnement. Pour relever le défi de reconnecter l'agriculture, l'environnement, l'alimentation et la santé, il est nécessaire d'intégrer et d'exploiter des données provenant de sources et de formats hétérogènes. Dans ce contexte, les ontologies peuvent jouer un rôle important car elles fournissent une représentation formelle des connaissances et une structure pour l'intégration des données. Nous présentons une nouvelle ontologie de domaine basée sur le modèle générique Process and Observation Ontology (PO2). L'objectif de l’ontologie PO2/TransformON est de décrire les procédés de transformation depuis les matières premières jusqu'aux produits finis, y compris le recyclage des déchets. Le champ d'application couvre également la caractérisation des denrées alimentaires, des sous-produits utilisés en alimentation animale et des résidus agro-alimentaires ainsi que des produits biosourcés non alimentaires comme par exemple des emballages. Nous montrerons comment l’utilisation de cette ontologie couplée aux technologies du web sémantique permet de répondre aux enjeux de la Science Ouverte en publiant des jeux de données nativement FAIR (Faciles à trouver, Accessibles, Interopérables et Réutilisables). Ces données peuvent ensuite être réassemblées et réutilisées par d’autres systèmes pour l’optimisation des procédés ou l’aide à la décision multicritère.

Vers des données FAIR en neurosciences : 
Olivier Coulon (Directeur de Recherche au CNRS - Laboratoire INT UMR 7289)

RésuméL’Institut de Neurosciences de la Timone a depuis trois ans commencé à rationaliser la gestion et le traitement de ses données. En particulier un objectif est d'aller vers des données FAIR quelque-soit la modalité d’acquisition. Je présenterai les difficultés inhérentes à cet objectif, les projets mis en oeuvre  pour l’atteindre, et la nécessité d’utiliser ou de développer un environnement de structuration des données qui soit universel et compatible par nature avec le formalisme FAIR.

FAIR un processus inné et/ou acquis ?
Christophe Calvin (Directeur de Recherche au CEA)

Résumé : Le processus de FAIRisation des données peut intervenir depuis le stade de leur production jusqu’au stade de leur archivage. Pour certaines données, une FAIRisation by design constitue la garantie de leur partage et de leur réutilisabilité. Pour d’autres, c’est une FAIRisation at the end qui le sera. Toutefois, dans bien des cas, l’obtention de données FAIR by design n’exclue pas d’avoir à ré intervenir, ultérieurement, sur des démarches de FAIRisationin progress de tout ou partie des étapes du cycle de leur vie.

La problématique de ces trois « voies » de la FAIRisation sera illustrée au travers de quelques exemples issus de différentes disciplines scientifiques représentées au CEA (matériaux, neuroimagerie, physique des hautes énergies …) 

 

Session 2 : Éthique et données de recherche pour une réutilisation

Limites du partage des données de la recherche :
Jean-Gabriel Ganascia (Professeur Emerite  à Sorbonne Université - LIP6 UMR 7602)

Résumé : La recherche vise à repousser toujours plus loin les frontières de la connaissance humaine. L’humanité entière devrait en profiter. Et, comme le numérique autorise une diffusion quasiment gratuite, le partage devient indolore. Dès lors, on se doit de l’encourager et de promouvoir l’ouverture des publications et des données scientifiques pour que tous en profitent. Or, à l’analyse ce partage apparemment généreux se heurte à un certain nombre d’obstacles d’ordre éthique et technique. Certain tiennent au caractère personnel ou sensible des données, d’autres à l’iniquité du partage lorsqu’il prive les producteurs de données du bénéfice de leur travail, d’autres enfin à l’incompatibilité des formats.

L’exploitation des données génomiques : nouveaux enjeux éthiques :
Pierre Le Cos (Professeur à Aix-Marseille UNiversité - Laboratoire ADES UMR 7268)

Résumé : Le traitement actuel des maladies mobilise de plus en plus les données génomiques. En cancérologie, la place croissante de la génétique conduit à un véritable changement de paradigme, la classification des tumeurs par organes cédant le pas à une classification en fonction des mécanismes génétiques (ou cellulaires) qui les caractérisent. Sur un plan éthique, l’accès élargi aux données génomiques est sources de nouveaux dilemmes. La problématique du risque se déplace. Une recherche biomédicale menée à partir d’échantillons biologiques prélevés auprès de patients est susceptible de fournir des informations inattendues. Ainsi, un patient ayant consenti à la cession d’un échantillon biologique peut être alerté sur un risque accru de développer une autre maladie que celle qu’il endure hic et nunc. C’est ce qui a lieu lorsque le séquençage de son génome met en lumière une autre mutation que celle qui était initialement recherchée. En vertu de la loi de bioéthique de 2021, les apparentés du patient doivent aussi être alertés dans les cas où le variant génétique est justiciable d’une mesure préventive. Le risque est de faire naître chez les patients et leurs proches des inquiétudes infondées.

Gouverance des données :
Bertrand Monthubert (Professeur à Université Toulouse III - Laboratoire CERPOP UMR 1295)

Résumé : A venir

 

Mini Session : Évaluation de la recherche et Données. Prise en compte de la diversité dans l’évaluation

Titre à venir :
Syvlie Rousset (Directrice de Recherche au CNRS - Direction des Données Ouvertes de la Recherche DDOR)

Résumé : A venir

Evolution nécessaire de l'évaluation de la Recherche :
Françoise Genova (Directrice de Recherche émérite au CNRS - Laboratoire ObAS UMR 7550)

Résumé :  Il est largement reconnu que l'évaluation de la recherche doit évoluer et ne plus être dominée par les indicateurs bibliométriques. Cela concerne au premier chef, mais pas seulement, la généralisation de la science ouverte et donc la prise en compte du partage des données (et des logiciels) de la recherche. L'une des mesures préconisées par le deuxième plan national pour la science ouverte pour transformer les pratiques et faire de la science ouverte le principe par défaut est de "valoriser la science ouverte et la diversité des productions scientifiques dans l’évaluation des chercheurs et enseignants chercheurs, des projets et des établissements de recherche". La prise de conscience partagée de cette nécessaire évolution conduit à des initiatives qui travaillent sur la question au niveau institutionel, national et international. A ce niveau, on discutera en particulier la Coalition for Advancing Research Assessment (CoARA), une organisation internationale créée en 2022 avec la mission de faire reconnaître la diversité des produits, des pratiques et des activités qui maximisent la qualité et l'impact de la recherche. Les travaux mené dans le domaine de l'évolution de l'évaluation de la recherche par la Research Data Alliance, dont la mission est de faciliter le partage des données de recherche, seront égalament évoqués. Les deux organisations, ainsi que leur chapitres nationaux sont en contact sur la question.

Plénière 2 : Métiers et actvités de la donnée

Métier et activités de la données : retours sur l'étude menée
Anne Laurent (Professeur des Université à Université de Montpellier - Laboratoire LIRMM UMR 5506) 

Résumé : Le MESR a lancé une étude sur les métiers de la donnée qui a été déclinée en plusieurs phases : étude bibliographique, enquêtes par questionnaire et entretiens, menées par un groupe de travail large et représentatif.

Visant à développer et reconnaître toutes les compétences et activités des chercheurs, enseignants-chercheurs, personnels d’appui à la recherche et administratifs, en matière de gestion, préservation, circulation et partage des données des données, cette étude a produit des résultats qui seront présentés lors de cette session.

Table ronde autour de la formation

Titre à venir :
Marine de Sury (Directrice de Mission - CIGREF le noeud Français de GAIA-X)

Résumé : A venir

Titre à venir :
Sophie de Caquerey (Maître de Conférence à Aix-Marseille Université - Vice Présidente Formation d'Aix-Marseille Université)

Résumé : A venir

L’IA à l’échelle industrielle : La place de la donnée :
Hervé Isar (Professeur à Aix-Marseille Université - PDO d'Aix-Marseille Université)

Résumé : La présentation aura pour finalité de présenter, de façon didactique, le cadre juridique applicable aux données de la recherche à caractère personnel. Cette catégorie de données est, en effet, rarement bien comprise, alors que les législations applicables sont de plus en plus nombreuses et complexes.

Titre à venir :
Nicolas Paparoditis (Ingénieur de Recherche à IGN - Directeur Général adjoint)   

Résumé : A venir

Session 3 : Diversité des données au service de l’interdisciplinarité

IA à l’échelle industrielle : la place de la donnée :
Romain Gemignani (ENEDIS - Responsable du laboratoire d'Intelligence Artificielle de Marseille)

Résumé : Enedis pilote le plus grand réseau de distribution d’électricité d’Europe au service de la société et des territoires. En tant qu’entreprise à mission engagée dans la transition écologique, nous construisons la nouvelle France électrique, en accompagnant des usages visant à plus de sobriété énergétique.

 Dans le cadre de notre activité, nous sommes amenés à gérer un volume conséquent de données au quotidien. La collecte, le traitement et l’analyse de ces dernières sont au cœur de notre action opérationnelle tant sur le plan de la performance industrielle que dans l’objectif de faire face aux défis qui se posent à nous en tant qu’acteur central de la transition écologique de la France.

 Du fait de notre rôle d’opérateur et gestionnaire de réseau électrique, les métiers de la donnée font partie de nos fondamentaux. Nous avons fait évoluer ces derniers de manière synchrone avec les avancées technologiques et l’évolution de l’état de l’art dans les domaines des mathématiques et de l’informatiques. C’est donc naturellement que nous adaptons aujourd’hui nos processus internes à l’émergences de nouvelles opportunités liées aux avancées dans le domaine de l’Intelligence Artificielle.

 L’intégration de cette technologie au cœur de nos processus industriels repose sur plusieurs facteurs. 

Il y a d’abord des prérequis indispensables pour le passage à l’échelle. Pour être capable de faire de l’IA à l'échelle industrielle, il est absolument nécessaire de s’organiser collectivement et prendre la mesure des défis industriels et poser les fondamentaux d’une telle démarche, à savoir :

  • L'IA, c'est d'abord des données (pas de data, pas d’IA !)

  • Ce sont des compétences : les data scientists formés à l’IA certes et surtout une combinaison de compétences : data people + experts métiers

  • Ce sont des pratique d’usage et de maintenance spécifiques : on connaissait la MCO, on va adorer la MCI (le Maintien de condition d’intelligence)

  • et c’est une Gouvernance : priorisation des cas d’usage et conformité, transparence et frugalité sur les IA.

Ensuite pour réaliser nos cas d’usage, on commence par un processus d’évaluation de sa faisabilité et de sélections de modèles de bases. L’accès à des modèles pré-entrainés sur de très larges jeux de données est clé. Ces modèles sont publiés par les GAFAM.

Si nécessaires, nous constituons des jeux de données en vue de l’entrainement des modèles spécifiques aux cas d’usages métiers. Cette étape nécessite une grande qualité des données et implique souvent une contribution importante des experts et opérationnels des domaines concernés. De ce fait, il apparait plus que jamais nécessaire d’accéder simplement à des données de l’entreprise, mises en juste qualité, juste suffisante pour l’IA. Or ces données sont silotées par construction dans les SIs de l’entreprise. Il faut les désincarcérer pour les rendre accessible à toutes opérations de crunching de données !

Par ailleurs, l’IA a cela de particulier que, contrairement aux systèmes numériques classiques, son appropriation ne se réduit pas à la maitrise de ses fonctionnalités et de son interface fixant des usages déterminés et figés dans le temps. Sa performance peut s’améliorer dans le temps à la condition que l’IA soit améliorée par les salariés qui l’utilisent.

Enfin, le suivi de la dérive des distributions des données dans le temps constitue le dernier maillon de la chaîne. Il revêt une importance capitale dans un contexte industriel évoluant dans un environnement variable. On parle alors de maintenance en condition d’intelligence.

How does Airbus Helicopters unlock the value of flight data ?
Thomas Calvet (AIRBUS - Data engineering and science for HUMS)

Résumé : At Airbus Helicopters large amounts of data are collected in order to reach industrial excellence. These data cover design specification, aircraft maintenance and data from our numerous customer operations.

This presentation emphasises on operational data recorded in-flight thanks to the health and usage monitoring systems. Trustworthy insights from data require first reliable data streams. High performance systems to process and store data are thus deployed and presented here. Processed flight data is then accessed by a wide range of domains to generate value all across the company. The value-driven approach to data analytics and examples of advanced techniques are shown in this presentation. Finally, open challenges emerging from the processing of helicopter flight data will be discussed.

Titre à venir :
Liva Ralaivola (CRITEO - Vice Président Recherche)

Résumé : A venir

Mettre à profit la multitude de données au service de la Décarbonation du transport Martime et la réduction des émissions de CO2 :
Gabriel Bertrand (CMA-CGM - )
Caroline Fonti (CMA-CGM - Manager R&D Ships)

Résumé : TNTM avec une diversité de données permettant de comprendre et d’optimiser la conception / l’utilisation des navires en mettant en place des modèles numériques liés :
  • au fonctionnement / comportement des navires selon différents modes d’utilisation (en mer, à quai, en manœuvre,…) ;

  • à la définition des lignes maritimes (le réseau global mais également la prise en compte des moyens de transport multimodaux ou la météo) ;

  • à la définition des plans de chargement des navires ;

Smartship avec une diversité de données pour faire du Routage Dynamique, de l'optimisation de l'utilisation des navires et de l’optimisation de leurs programmes d’entretien via de la Maintenances Prédictive. L'objectif est de fournir des outils d'aide à la décision aux Equipes CMA CGM pour améliorer les performances opérationnelles des navires.

 

Session 4 : Sécurité et fiabilité des données, en particulier des données de santé

 

Session 4 (Part 1) : Vue générique sur la sécurité et la fiabilité des données de recherche

Au niveau des infrastructures :
Hervé Luga (Professeur à l'université des Pyrénées - Chargé de mission "Transformation Numérique DGRI SSRI A7)

Résumé : A venir

Enjeux Politiques :
Marine de Sury (Directrice de Mission - CIGREF le noeud Français de GAIA-X)
Frédéric Lau (Directeur de Mission - CIGREF le noeuf Français de GAIA-X)

Résumé : A venir

 

Session 4 (Part 2) : Table ronde, focus sur les données de santé

Intégrer l'expérience et les résultats rapportés par les patients au cœur des systèmes de santé et des technologies basées sur l'intelligence artificielle :
Laurent Boyer (
Professeur des Universités & Praticien Hospitalier Santé Publique - CEReSS / EA 3279)

Résumé : "Intégrer l'expérience et les résultats rapportés par les patients au cœur des systèmes de santé et des technologies basées sur l'intelligence artificielle."

Pour valoriser les données de santé : un socle technique robuste, interopérable et sécurisé :
Driss Ait Mani (Envacom - Expert eSanté)

Résumé : La nécessité d'un socle technique robuste, interopérable et sécurisé pour créer de la valeur à partir des données de santé personnelles est cruciale pour plusieurs raisons :

  • Fiabilité des données : Les informations recueillies sont exactes, complètes et à jour, ce qui est essentiel pour prendre des décisions médicales éclairées et fournir des soins de qualité aux patients

  • Interopérabilité : Pour l'échange fluide de données entre les différents acteurs et structures de santé pour faciliter la coordination des soins, la continuité des traitements et réduire les risques d'erreurs médicales

  • Protection de la vie privée et sécurité des données : Cela implique la mise en place de mesures de sécurité robustes telles que le chiffrement des données, l'authentification des utilisateurs, et le contrôle d'accès aux informations sensibles et le respect des certifications techniques comme la Certification HDS et le respect du RGPD

  • Analyse et exploitation des données : A travers des entrepôts de données sécurisées qui agrègent les information, les structurent et les mettent en qualité, il est possible de mettre en œuvre de  meilleures stratégies de prévention, apporter une prise en charge plus personnalisée aux patients, identifier des tendances épidémiologiques, et améliorer les protocoles de traitement

  • Innovation et développement de nouvelles solutions de santé : Ce socle technique robuste favorise l'innovation et le développement de nouvelles solutions de santé à travers le développement d’ applications mobiles de suivi de la santé, de dispositifs médicaux connectés, des outils d'intelligence artificielle pour le diagnostic médical, etc…

Titre à venir :
Oudomsanith Bresson (DocaPoste - Key Account Manager Marché eSanté)

Résumé : A venir

Personnes connectées : 2 Vie privée
Chargement...