Les espèces exotiques envahissantes constituent une menace de premier plan dans les écosystèmes aquatiques. Récemment les grands lacs péri-alpins ont été colonisés par un mollusque bivalve (la moule quagga) dont les impacts potentiels ou avérés sont multiples et d'ordre écologique, économique et sanitaire. Le Léman, le plus grand lac naturel profond d'Europe occidentale, est aujourd'hui envahi par cet animal. Le projet DRILL vise à compléter le monitoring des mollusques bivalves du genre Dreissena (quagga et zebra) mis en place à partir de 2024 par la CIPEL (et faisant suite au premier suivi du lac réalisé par l'UniGe et l'Eawag en 2022). Ce monitoring concerne l’ensemble du lac échantillonné à 70 stations, entre 10 m de profondeur et le fond du lac, suivant un protocole standardisé. Il ne concerne donc pas la frange littorale qui est pourtant particulièrement sensible à la présence et abondance des mollusques, en particulier de la moule quagga qui intervient ici massivement dans le processus de benthification, c'est à dire de changement fonctionnel de l'écosystème. De plus, si l'on trouve encore des moules zébrées dans le lac - comme l'indique le signal de l'ADNe - ce doit être dans cette zone moins profonde, puisque lors de l'étude de 2022, entre 10 et 309 m, seules des quaggas ont été trouvées. Ce projet visant à contribuer à mieux comprendre la progression de la moule quagga dans le Léman et aider à cartographier plus finement sa distribution.
Les panaches volcaniques sont des phénomènes naturels turbulents et complexes générés lors d’éruptions explosives expulsant des gaz et des fragments de magma (pyroclastes) à des altitudes pouvant atteindre plusieurs dizaines de kilomètres. Ces panaches sont ensuite dispersés par les vents sous la forme de nuages volcaniques ainsi générant des dépôts pyroclastiques sur de vastes zones géographiques. L'étude des panaches et nuages volcaniques est donc essentielle pour mieux comprendre les mécanismes gouvernant les éruptions explosives et pour mieux caractériser les aléas et risques associés à ces évènements.
Analyser et modéliser le comportement des panaches et nuages à différentes échelles est un défi majeur en raison (1) de leurs dynamiques atmosphériques instables, (2) de la diversité des pyroclastes qu’ils transportent, et (3) des processus volcaniques qui les génèrent. Actuellement, les outils d’analyse ne permettent pas une caractérisation multi-échelle suffisamment accessible, rapide, et précise. Le projet VolCloud-AI ("Vol" pour volcanique, "Cloud" pour nuage, "AI" pour intelligence artificielle) propose de développer une solution novatrice en utilisant l’intelligence artificielle (IA) pour segmenter et analyser les images de panaches volcaniques à trois échelles distinctes, préalablement acquises par divers outils d’observations et d’échantillonnages déjà implémentés, opérationnels et accessibles sur des volcans fréquemment actifs (Etna, Sakurajima, Sabancaya, Copahue, Stromboli).
(1) L'IA sera utilisée pour segmenter des images de panaches et nuages (échelle macroscopique, spectre visible), acquises par un réseau de caméras développés en interne, permettant une analyse systématique de leurs dimensions et de leurs formes réelles, ainsi qu’un suivi dans le temps et dans l’espace. Les données acquises permettront de déduire les dynamiques éruptives et les interactions entre les panaches volcaniques et l’atmosphère.
(2) L’IA sera aussi utilisée pour segmenter des images d’échantillons de pyroclastes (échelle particulaire, microscopie optique et électronique), collectés in-situ au sol ou par drone, pour étudier leurs tailles et formes réelles. Les données acquises permettront de mettre en avant les processus mis en jeu lors du transport aérien et du dépôt des pyroclastes.
(3) Enfin, l’IA sera également adaptée à la segmentation d’images examinant les textures internes des pyroclastes (vésicules et cristaux à l'échelle intra-particulaire, microscopie optique et électronique), dans le but de reconstituer les mécanismes de dégazage et de cristallisation magmatique à l’origine de la formation des pyroclastes et donc des éruptions volcaniques explosives.
(1) Les différentes conditions atmosphériques, (2) la présence d’agrégats de particules, et (3) les textures magmatiques complexes représentent autant de challenges pour la segmentation d’images auquel les algorithmes d’apprentissages profonds sont capables de répondre, au contraire d’outils numériques classiques. Pour ce faire, nous développerons un outil générique, pouvant être utilisé aux diverses échelles, voire même dans d'autres contextes, et qui sera rendu accessible à la communauté scientifique. Chaque utilisateur aura le choix du type d’image, des différentes classes d'intérêt et des paramètres de segmentation. Ce projet permettra donc l'exploitation inédite de données déjà répandues, représentant des avancées potentielles sur la compréhension globale de la formation des panaches volcaniques (intérêts en volcanologie), la dispersion des nuages volcaniques (sciences atmosphériques), ainsi qu'aux retombées des pyroclastes et de leurs impacts (sciences environnementales et socio-économiques).
In the Alpes, annual temperatures have increased by 2.5°C since pre-industrial times—more than double the global average. This rapid warming has intensified summer heatwaves and droughts, with notable events in 2003, 2015, 2018, and 2022. It has also led to accelerated glacier melt and permafrost thaw. Despite this, obtaining reliable long-term temperature records at high elevations remains a challenge due to the difficulty in maintaining observational networks. As a result, many climate analyses rely on short instrumental records, satellite data, or models. The Special Report on the Ocean and Cryosphere highlighted the need for longer observation series to better understand high-elevation environments. In this context, tree-ring anatomy—especially with AI-assisted image analysis—has emerged as a promising method for reconstructing long-term climate records at these elevations.
Our research aims to address this gap by developing AI-powered multicentennial, high-precision tree-ring anatomy chronologies in the French and Swiss Alps, allowing us to reconstruct summer temperature fluctuations in the Rhône basin. Our specific objectives are to: (1) reassess the extent of the Medieval Climate Anomaly (MCA) relative to the Current Warming Period (CWP), (2) investigate the characteristics of the Alpine Little Ice Age (LIA), (3) examine the "divergence" phenomenon, where recent warming is sometimes underrepresented in tree-ring data, and (4) compare climate fluctuations between the upper and lower Rhône basins for a more comprehensive understanding of regional dynamics.
Our approach involves creating two 1000-year tree-ring anatomy chronologies using AI to measure wood anatomical dimensions. We will use these data to develop temperature reconstructions and compare them with existing proxy records and climate reanalyses to ensure robustness.
We expect our high-precision reconstructions to resolve inconsistencies between tree-ring records from the Swiss and French Alps, offer new insights into temperature fluctuations in the Rhône basin, and address the longstanding "divergence" problem. The results will improve our understanding of past climate variability, providing context for current warming trends, and contribute to future IPCC assessments, helping inform climate models and support policy decisions for climate mitigation and adaptation.
En 2022, l’arrivée de ChatGPT bouleverse le paysage scolaire. Si la forme scolaire n’en est pas profondément transformée, l’introduction des modèles de langage de grande ampleur (LLM) a indéniablement modifié les pratiques enseignantes au quotidien. En Suisse romande, de nombreuses questions subsistent chez les enseignant·es du secondaire quant à l’utilisation de ces technologies en éducation, notamment en ce qui concerne leurs biais et leurs enjeux éthiques. La moitié d’entre elles et eux expriment un besoin de formation pour mieux comprendre les risques et les opportunités liés à l’IA. En France, une réticence vis-à-vis de l’intelligence artificielle a été documentée par le Conseil scientifique de l’Éducation nationale dès 2021 et elle se renforce depuis l’arrivée de ChatGPT.
Du côté des élèves, plusieurs études révèlent qu’un·e adolescent·e sur deux utilise l’IA pour faire ses devoirs, et la quasi-totalité des élèves au lycée l’a déjà expérimentée. Toutefois, bien que ces outils s’immiscent dans le quotidien scolaire, peu d’études ont été conduites dans les classes du secondaire, et aucune ne s’intéresse encore à la dimension de genre dans l’usage de l’IA.
En revanche, des recherches menées dans l’enseignement supérieur montrent que la fracture numérique genrée persiste. Par exemple, les femmes sont moins nombreuses que les hommes à percevoir l’IA générative comme un levier d’acquisition de compétences. Cet écart est d’autant plus préoccupant que la majorité des travailleuses occupent des emplois exposés à l’automatisation par l’IA, contre une proportion moindre chez les hommes. De plus, le secteur du numérique, aussi bien en Suisse qu’en France, compte moins de 20 % de femmes, et c’est le seul domaine où leur présence a continuellement diminué.
Dans ce contexte, notre recherche s’appuie d’une part d’une précédente enquête du réseau français Canopé pour interroger les élèves du secondaire (Collège en France, Cycle d’orientation en Suisse). L’objectif est d’identifier les perceptions et les usages de l’IA chez les filles et les garçons. Un second volet de cette étude portera sur les enseignant·es, afin de mieux comprendre leurs représentations de l’IA, leurs pratiques et leur sentiment de compétence face à ces nouvelles technologies. À titre de comparaison, des recherches antérieures montrent que, bien que les enseignant·es aient utilisé le numérique de manière similaire pendant la pandémie de COVID, leurs discours divergent en matière de compétences, les enseignantes se montrant souvent moins affirmatives.
Cette recherche constitue la première étape d’un projet plus large visant à évaluer l’impact de l’IA sur la réussite scolaire à long terme, en tenant compte des différences liées au genre, croisée avec la classe sociale. Par exemple, l’IA tend à faire disparaître les devoirs à la maison, dont on sait qu’ils sont la cause d’inégalités sociales. Est-ce pour autant un vecteur d’égalité ? De plus, si une relation genrée à l’IA se confirme chez les enseignant·es, elle pourrait avoir des répercussions sur les apprentissages et les représentations des élèves.
Ce projet a pour ambition d’analyser l’impact de l’intelligence artificielle (IA) sur les institutions publiques et le comportement des agents économiques à travers une approche pluridisciplinaire, en s’appuyant sur deux axes de recherche principaux. Il cherche à comprendre comment l’IA transforme les choix économiques, en intégrant des perspectives éthiques, de gouvernance et de politiques publiques.
Le premier axe, « Éthique, gouvernance algorithmique et communs », s’intéresse aux données en tant que bien commun. En se concentrant sur la domination des grands conglomérats technologiques (GAFAM et BATX), ce volet examine si la concentration du contrôle des données entraîne une dynamique similaire à la « tragédie des communs », où une exploitation excessive réduit l’accès aux ressources partagées. Bien que les données soient théoriquement accessibles à tous, elles sont souvent contrôlées par une minorité, limitant l'innovation et l’équité dans leur distribution. En projetant les effets de cette concentration, l'axe étudie les conséquences sur la concurrence et l’innovation, tout en proposant des solutions éthiques pour garantir un usage plus équitable et durable des données.
Le second axe, « Gouvernance algorithmique, politiques publiques et institutions », analyse l’usage croissant de l’IA dans les décisions publiques et privées. Des institutions comme les banques centrales utilisent des algorithmes pour analyser des ensembles de données complexes, affiner leurs prévisions économiques et améliorer leurs régulations. Des modèles d’IA, tels que le traitement du langage naturel (NLP), sont aussi utilisés pour analyser des sources non conventionnelles, comme les discours publics ou les réseaux sociaux, révélant des tendances qui échappent aux méthodes traditionnelles.
Ce projet pluridisciplinaire combine économie, sciences politiques, sociologie, éthique et sciences computationnelles pour offrir une analyse complète des enjeux posés par l’IA dans l’économie. Il vise à développer des solutions pour répondre aux défis d’équité, de régulation et de souveraineté numérique.
La création artistique entretient des relations fécondes avec l’IA, qu’il s’agisse de la représenter ou d’en faire usage. Jusqu’à peu, ces relations étaient cantonnées à des secteurs précis de la création : les littératures d’anticipation, les arts dits « numériques » ou le cinéma de science-fiction. Depuis 2010, à la faveur des progrès des large language models (LLM), une reconfiguration de ce paysage semble à l’œuvre : l’IA n’est plus l’affaire exclusive des spécialistes et des artistes les plus technophiles, mais est devenue l’affaire de tous et toutes ; elle s’est insinuée dans le quotidien de tout le monde, a changé nos pratiques et a bouleversé nos imaginaires. Comment les artistes s’accommodent-ils de ce nouveau partage ? Comment naviguent-ils entre l’intérêt pour la représentation des IA et la réflexion sur leur intégration aux processus de création ? Si l’art anticipe depuis longtemps les futurs possibles de l’IA, c’est désormais la modification des pratiques de création qui s’avère en jeu, que le recours toujours plus généralisé aux IA génératives vient enrichir (au sens où les IA se révèlent un outil supplémentaire) et peut-être même bouleverser (il reste à savoir comment). En effet, de nombreuses œuvres artistiques ont bénéficié du recours aux IA génératives pour la création de tout ou partie de leur contenu (Jean-François Peyret, Milène Tournier côté théâtre ; Raphaël Doan côté littérature). Ces pratiques suscitent de nombreuses questions : quelles IA sont sollicitées, à quels moments du processus artistique et à quelles fins (générer des inputs, introduire de l’étrangeté, corriger, etc.), de quelles manières (outils de recherche, assistants d’écriture, génération d’images, etc.), voire selon quels protocoles ? On peut aussi se demander quelles relations les auteurs entretiennent-ils avec « leur » IA, et en quoi cela modifie ou déplace leurs processus habituels. La recherche sur ces enjeux s’est fortement développée ces dernières années, mais elle porte peu sur des expériences menées dans le cadre de la recherche-création en littérature et en arts du spectacle. C’est précisément ce que propose le projet que nous portons. Celui-ci s’articule autour de trois résidences de recherche-création, menées en collaboration avec des auteurs et autrices issus des champs représentés par l’équipe : littérature (roman et poésie) et théâtre. Ces résidences de recherche-création ont vocation à expérimenter et étudier certains des usages les plus intéressants que les artistes peuvent faire des IA génératives en contexte d’écriture, ainsi que les pratiques créatives et discursives qui en émergent. Elles seront documentées et donneront lieu à une présentation publique du résultat créatif, accompagnée de réflexions sur le processus. Ces trois résidences seront préparées par un workshop interne, réunissant l’ensemble des participants. Elles seront aussi articulées à deux colloques internationaux de recherche universitaire, qui réuniront des spécialistes de la littérature et du théâtre, mais aussi de l’IA et des genres de l’imaginaire. Le premier aura lieu à Grenoble au début du projet : il proposera un premier inventaire de ses enjeux. Le second, à la fin du projet, permettra de ressaisir les résultats des résidences et de les inclure à une réflexion beaucoup plus large. Il prendra la forme d’un événement itinérant en trois journées – une par université partenaire : Grenoble, Lyon et Lausanne.
Neural networks are increasingly used to improve climate simulations due to their ability to approximate complex nonlinear operators and their low inference costs (Eyring et al., 2024). However, these models often struggle to generalize in scenarios far beyond their training conditions (Beucler et al., 2024). Neural operators, which can learn mesh-free mappings between spatial fields, offer improved generalization across different spatial resolutions (Li et al., 2020). Nonetheless, it remains uncertain whether they address persistent challenges in machine learning for climate modeling, such as ensuring the long-term temporal stability of dynamical systems and generalizing across a wide range of environmental conditions, including domain shifts induced by climate change.
To tackle these challenges, we propose accelerating the development of Physics-Informed Neural Operators (PINO, Li et al., 2024). Akin to physics-informed neural networks (Daw et al., 2022), PINOs integrate domain knowledge into the loss function to enhance physical consistency. Unlike previous efforts focused on general-purpose partial differential equations with soft constraints (Goswami et al., 2023), our approach will specifically incorporate knowledge of climate processes to improve the robustness of neural operators in atmospheric and oceanic applications.
To achieve this goal, we will coordinate two collaborative research visits between UGA and UNIL, where the research teams led by Julien Le Sommer (UGA) and Tom Beucler (UNIL) will work together on two synergistic projects: PINOs for oceanic and atmospheric column physics. Prototype neural networks have already been developed for both applications (Hu et al., 2024; https://github.com/meom-group/tunax), along with software that enables their testing in realistic climate models once trained (Yu et al., 2024). To solidify these efforts and reinforce the Campus Rhodanien Alliance's leadership in machine learning for climate applications, we propose dedicating a special session on PINOs during the Grenoble Artificial Intelligence for Physical Sciences workshop (see 2024 edition https://gap2024.sciencesconf.org/), scheduled in June at UGA, which will provide an opportunity for in-depth discussion and collaboration among ~100 participants focused on advancing this approach in the coming years.
References:
Beucler, T., et al. "Climate-invariant machine learning." Science Advances 10.6 (2024): eadj7250.
Daw, A., et al. "Physics-guided neural networks (pgnn): An application in lake temperature modeling." Knowledge Guided Machine Learning. Chapman and Hall/CRC (2022): 353-372.
Eyring, V., et al. "Pushing the frontiers in climate modelling and analysis with machine learning." Nature Climate Change (2024): 1-13.
Hu, Z., et al. "Stable Machine-Learning Parameterization of Subgrid Processes with Real Geography and Full-physics Emulation." arXiv preprint arXiv:2407.00124 (2024).
Goswami, S., et al. "Physics-informed deep neural operator networks." Machine Learning in Modeling and Simulation: Methods and Applications. Springer International Publishing (2023): 219-254.
Li, Z., et al. "Fourier neural operator for parametric partial differential equations." arXiv preprint arXiv:2010.08895 (2020).
Li, Z., et al. "Physics-informed neural operator for learning partial differential equations." ACM/JMS Journal of Data Science 1.3 (2024): 1-27.
Yu, S., et al. "ClimSim: A large multi-scale dataset for hybrid physics-ML climate emulation." Advances in Neural Information Processing Systems 36 (2024).
This project focuses on exploring the use of artificial intelligence (AI) in public administration within the transboundary Greater Geneva area, which spans parts of Switzerland and France. The aim is to understand how AI is currently applied by French and Swiss public administrations to address key policy issues such as mobility, water management, health, economic competitiveness, and crime. The project will examine why certain administrations use AI while others do not and how AI influences policy effectiveness in a cross-border context.
The research will be conducted using a combination of document analysis and a survey targeting public servants in the region. The survey will investigate the social acceptance of AI among civil servants, how AI tools are integrated into administrative practices, and the relationship between AI usage and policy effectiveness. The project aims to compare AI adoption across different jurisdictions, including the cantons of Vaud and Geneva and the French region of Rhône-Alpes, focusing on selected policy domains.
Theoretically, the project will draw on administrative traditions, the complexity of policy problems, and the need for coordination across borders. Ultimately, the research aims to generate insights that could inform a larger-scale, EU-funded project, broadening the scope to additional European cross-border regions and policy areas. The findings are expected to benefit both researchers and public administration practitioners by identifying the determinants of AI use in bureaucratic decision-making.
The project will also disseminate its findings through scientific publications and practical insights for local authorities in France and Switzerland, contributing to the improvement of public services using AI. This study is supported by collaborations between researchers from the Universities of Lausanne, Geneva, and Grenoble, and will lay the groundwork for future research projects at the European level.