Projets de recherche

Sur cette page, vous découvrirez les projets de recherche en cours à Avignon Université, qu’ils soient nationaux, européens ou internationaux. Si vous avez besoin d’assistance pour le dépôt de vos propres projets de recherche en cours, n’hésitez pas à contacter le pôle Projets, Partenariats et Développement International (DARI) pour obtenir plus d’informations et bénéficier d’un accompagnement.

Projets de recherche en cours

Programme

ANR – Sciences humaines et sociales

Sous-programme

Culture, création, patrimoine

Type de projet

Projet de recherche collaboratif

Durée

4 ans

Responsable Scientifique

Boris Deschanel

Coordination du projet

Université du littoral Côte d’Opale

Laboratoire

UMR 8562 CNE – Dynamique des mondes sociaux

Partenaires

Institutions et dynamiques historiques de l’économie et de la société – Université d’Erfurt – Centre de la Méditerranée moderne et contemporaine – Unité de recherche sur l’Histoire, les langues les littératures et l’interculturel – Transferts critiques anglophones – Centre de recherche interdisciplinaire en sciences de la société – Université de Montréal – Université de Leyde

Résumé

Le financement des entreprises par les actions marque l’époque moderne, et touche des secteurs entiers de l’économie. Les premières sociétés par actions s’inspirent au début du XVIIe siècle en France des modèles venus d’Angleterre et des Provinces-Unies. Le projet ACTIMOD est un projet d’histoire sociale qui grâce à une base de données sur les actionnaires identifiés participant aux différentes sociétés doit permettre de voir les caractéristiques sociales et culturelles de l’actionnariat en France et son évolution, et de mettre en évidence un groupe d’investisseurs actifs qui pèse sur les choix économiques et politiques de l’Etat et annonce les groupes d’influence de l’époque contemporaine. Ils sont une des clés de la compréhension des mutations économiques qui se produisent à la fin de la période moderne.

Référence

ANR-20-CE26-009

Site web

https://actimod.univ-littoral.fr/

Programme

ANR – Sciences du numérique

Sous-programme

Intelligence artificielle

Type de projet

Projet de recherche collaboratif entreprise

Durée

4 ans

Responsable Scientifique

Mohamed MORCHID

Coordination du projet

Avignon Université

Laboratoire

UPR 4128 LIA – Laboratoire Informatique d’Avignon

Partenaires

Institutions et dynamiques historiques de l’économie et de la société – Université d’Erfurt – Centre de la Méditerranée moderne et contemporaine – Unité de recherche sur l’Histoire, les langues les littératures et l’interculturel – Transferts critiques anglophones – Centre de recherche interdisciplinaire en sciences de la société – Université de Montréal – Université de Leyde

Résumé

Le financement des entreprises par les actions marque l’époque moderne, et touche des secteurs entiers de l’économie. Les premières sociétés par actions s’inspirent au début du XVIIe siècle en France des modèles venus d’Angleterre et des Provinces-Unies. Le projet ACTIMOD est un projet d’histoire sociale qui grâce à une base de données sur les actionnaires identifiés participant aux différentes sociétés doit permettre de voir les caractéristiques sociales et culturelles de l’actionnariat en France et son évolution, et de mettre en évidence un groupe d’investisseurs actifs qui pèse sur les choix économiques et politiques de l’Etat et annonce les groupes d’influence de l’époque contemporaine. Ils sont une des clés de la compréhension des mutations économiques qui se produisent à la fin de la période moderne.

 

Référence

ANR-20-CE26-009

Site web

https://aissper.univ-avignon.fr/

Programme

ANR – Spécifique

Sous-programme

ERANET CHIST ERA

Type de projet

ERANET

Durée

3 ans

Responsable scientifique

Juan-Emmanuel TORRES

Laboratoire
UPR 4128 LIA – Laboratoire Informatique d’Avignon

Coordination du projet

Université de Lorraine

Partenaires

University of Science and Technology – Deusto

Résumé

Avec le développement de l’information dans différents médias tels que les programmes télévisés ou l’internet, une nouvelle question se pose.
nouvelle question se pose. Comment un utilisateur peut-il accéder à l’information exprimée dans une langue étrangère ?
langue étrangère ?
L’idée du projet est de développer un système d’aide multilingue de compréhension sans aucune
l’intervention d’un être humain. Ce que nous aimerions faire, c’est aider les gens à comprendre
les nouvelles diffusées, présentées dans une langue étrangère et de les comparer à celles qui sont disponibles dans la langue maternelle de la personne concernée.
correspondante disponible dans la langue maternelle de l’utilisateur. Le concept de compréhension est abordé
dans ce projet en donnant accès à toute information quelle que soit la langue dans laquelle elle est présentée.
dans laquelle elle est présentée. En effet, avec le développement de l’internet et de la télévision par satellite, des dizaines de milliers d’émissions et de journaux télévisés sont disponibles dans différentes langues.
de télévision par satellite, des dizaines de milliers d’émissions et de nouvelles sont disponibles dans différentes langues, il s’avère que même les personnes ayant un niveau d’éducation élevé ne parlent pas plus de trois langues.
Il s’avère que même les personnes très instruites ne parlent pas plus de deux ou trois langues, tandis que la majorité n’en parle qu’une seule.
la majorité ne parle qu’une seule langue, ce qui rend cette énorme quantité d’informations inaccessible. Par conséquent, la
la majorité des programmes télévisés et radiophoniques ainsi que les informations sur internet sont
majorité des gens. Pourtant, on aimerait écouter les nouvelles dans sa propre langue et les comparer à ce qui a été dit sur les ondes.
comparer avec ce qui a été dit sur le même sujet dans une autre langue. Par exemple, comment
le sujet du SIDA est présenté en Arabie Saoudite et aux États-Unis ? Quelle est l’opinion du
Jerusalem-Post sur Yasser-Arafat ? Et comment est-il présenté dans Al-Quds ? Accéder à
à des informations diverses et de mettre à disposition des informations différentes et parfois opposées, nous proposons de développer AMIS (Accès à l’information et à la communication).
Ainsi, AMIS permettra d’avoir un autre point de vue sur l’événement.
Le processus de compréhension est considéré ici comme la compréhension des idées principales d’une vidéo.
La meilleure façon d’y parvenir est de résumer la vidéo pour avoir accès aux informations essentielles.
l’information essentielle. Désormais, AMIS se concentrera sur les informations les plus pertinentes en les résumant et en les traduisant à l’utilisateur si nécessaire. Un autre aspect d’AMIS est de
comparer deux résumés produits par ce système, en deux langues, sur un même sujet
quel que soit leur support : vidéo, audio ou texte et de présenter la différence entre leurs
contenu en termes d’informations, de sentiments, d’opinions, etc. En outre, la couverture du
web et des médias sociaux sera exploitée afin de renforcer ou d’affaiblir les
opinions. AMIS pourrait être intégré à une télécommande de télévision ou à un logiciel associé à n’importe quel navigateur Internet.
En conclusion, AMIS répondra aux points de recherche suivants : Résumé de texte, audio et vidéo – Reconnaissance automatique de la parole (ASR) – Traduction automatique – Analyse multilingue des sentiments -Réussir la synergie entre les thèmes de recherche précédents.

Référence

ANR-15-CHR2-001-04

Site web

https://anr.fr/Projet-ANR-15-CHR2-0001

Programme

ANR- Sciences de l’environnement

Sous-programme

Alimentation et systèmes alimentaires

Type de projet

Jeunes chercheurs et jeunes chercheuses

Durée

4 ans

Responsable Scientifique

Alice CHÂTEAU-HUOT

Laboratoire

UPRI

Coordination du projet

Avignon Université

Partenaires

Institut National de recherche pour l’agriculture l’alimentation et l’environnement (INRAE)

Résumé

Les objectifs du projet BCLYSIN sont I/ d’identifier et de caractériser les gènes impliqués dans les endolysines biosynthèse des ligands, conduisant à apporter de nouvelles connaissances au schéma général des voies biochimiques complexes qui permettent l’assemblage de l’enveloppe cellulaire chez B. cereus et l’identification des endolysines ligands et II/ d’évaluer l’effet antimicrobien des endolysines sur la formation de biofilms de B. cereus et suppression.

Référence

ANR-23-CE21-0001-01

Programme

ANR-Science de l’environnement

Sous-programme

Terre vivante

Durée

4 ans

Responsable scientifique

Elise BUISSON

Laboratoire

UMR 7263 IMBE – Institut Méditerranéen de Biodiversité et d’Écologie EECAR

Coordination du projet

Avignon Université

Partenaires

Institut National de recherche pour l’agriculture l’alimentation et l’environnement (INRAE) – Centre Nouvelle Aquitaine Bordeaux
Vrije Universiteit Brussel
DPT de Genetica, Ecologia e Evolução Universidade Federal de Minas Gerais
Dpt. of Plant Biology, University of Campinas

Résumé officiel

Les biomes herbacés tropicaux (TGB; savanes et pelouses) sont des écosystèmes anciens présentant une biodiversité exceptionnelle et fournissant des services écosystémiques clés.
L’objectif du projet est de comprendre les mécanismes fonctionnels qui favorisent l’établissement du couvert herbacé dans les communautés de TGB afin qu’elles soient résilientes au feu, durables, résistantes aux espèces exotiques envahissantes (EEE) et comportant des processus écosystémiques cruciaux. Notre modèle est le Cerrado, savane brésilienne. Nous mettrons en place une expérimentation de terrain « Biodiversité et Fonctionnement des Ecosystèmes » pour mieux comprendre comment la manipulation de la diversité fonctionnelle et de la richesse spécifique permet la restauration de communautés herbacées. Jusqu’à présent, la restauration du Cerrado a consisté en du semis direct d’espèces à croissance rapide, alors qu’ici, nous développerons des méthodes permettant l’installation d’espèces variées, dont des espèces conservatrices, caractéristiques des TGB.

1) Collecte de graines et de propagules de 4 groupes fonctionnels. Mise en place de l’expérience. 2) suivi de végétation (relevés, traits fonctionnels, EEE, inflammabilité) et processus écosystémiques (érosion des sols, productivité et cycles du carbone et de l’eau). Tester si la réponse des groupes fonctionnels aux EEE est modifiée par des événements météorologiques extrêmes, en utilisant des mésocosmes.

3) Mise en place des feux contrôlés et suivi de la résilience. Nous nous attendons à trouver une corrélation positive entre la complémentarité des traits fonctionnels et l’efficacité de la restauration. Les résultats contribueront à approfondir les connaissances écologiques sur l’assemblage des communautés de TGB et pour éclairer les lignes directrices pour une mise en œuvre des actions de restauration des TGB. Des partenariats seront mis en place avec les acteurs locaux et communautés locales Kalunga afin d’optimiser ces directives

Référence

ANR-23-CE02-0034-01

Programme

ANR – Sciences du numérique

Sous-programme

Intelligence artificielle

Type de projet

Projet de recherche collaboratif entreprise

Durée

4 ans

Responsable Scientifique

Christèle LAGIER

Laboratoire

UPR 3788 •JPEG – Laboratoire des sciences Juridiques, Politique, Économiques et de Gestion

Coordination du projet

Université de Lorraine

Partenaires

CEA LISTUniversité Paris Saclay – Avignon Université – Syllabs

Résumé

La question de la diversité de l’information – cruciale pour un débat démocratique sain – a été récemment soulevée en raison de l’utilisation massive des média sociaux comme source d’informations. Ces plateformes posent des problèmes car l’information présentée n’est souvent pas éditorialisée et est sélectionnée par des systèmes de recommandation. Ces derniers peuvent influencer les opinions des utilisateurs car proposent majoritairement des informations dans la lignée de leurs opinions initiales, les enfermant ainsi dans des bulles d’opinion. Dans un contexte politique, ces bulles peuvent mener à une polarisation des opinions, susceptible de générer des troubles politiques ou publics. BOOM va contribuer à la dépolarisation politique en proposant de nouveaux algorithmes qui identifient et ouvrent les bulles d’opinion. Le projet combine des expertises et des innovations en économie du numérique et études média, science politique, analyse multimédia et systèmes de recommandation.

Référence

ANR-20-CE23-0024

Site web

https://anr.fr/Projet-ANR-05-BDIV-0004

Programme

ANR – Domaines transverses

Sous-programme

Interfaces : sciences du numérique – sciences humaines et sociales

Type de projet

Projet de recherche collaboratif

Durée

3 ans et demi

Responsable Scientifique

Driss MATROUF

Laboratoire

UPR 4128 LIA – Laboratoire Informatique d’Avignon

Coordination du projet

Avignon Université

Partenaires

CEAIrcam – SNPS

Résumé

Le nombre de paiements par carte connaît depuis dix ans une croissance exponentielle. La valeur
totale des transactions par carte en 2018 représentait près de 1 800 milliards dans la zone euro. La
nouvelle Directive européenne PSD2 entrée en vigueur en janvier 2018 [1], prévoit une protection
accrue des consommateurs et vise une lutte efficace contre la fraude grâce à une sécurisation des
paiements électroniques par une authentification forte aussi appelée authentification à double
facteur. L’authentification forte repose sur l’utilisation de deux éléments ou plus appartenant aux
catégories « connaissance » (ce que l’utilisateur connaît, mot de passe), « possession » (ce que
l’utilisateur possède, un token) ou « propre à » (ce que l’utilisateur est, une empreinte biométrique
ou une reconnaissance vocale). Ces éléments doivent être indépendants en ce sens que la
compromission de l’un ne remet pas en question la fiabilité des autres, et sont conçus de manière à
protéger la confidentialité des données d’authentification.
Parmi les éléments de biométrie possibles pour cette authentification, la voix fait partie des pistes
retenues [2]. Cette technique a l’avantage d’être non intrusive, elle peut s’effectuer à distance et ne
nécessite pas de contact physique ni d’équipement spécialisé. Son taux de fiabilité et sa simplicité
d’implantation en font une mesure d’identification parfaitement acceptable dans de nombreux
contextes d’application. La reconnaissance vocale vise à vérifier l’identité d’une personne grâce à sa
voix, celle-ci n’est pas une caractéristique purement biologique, mais également comportementale :
elle n’est pas aussi stable et mesurable que d’autres modalités telles que les empreintes digitales ou
les motifs de la rétine. La voix est dynamique et peut varier selon le comportement, l’âge, la situation
et l’état du locuteur. De plus, les caractéristiques des microphones et l’environnement sonore jouent
également un rôle important. Cette grande variabilité constitue l’un des plus grands défis pour arriver
à une identification efficace de l’individu.

Référence

ANR-22-CE39-0009-01

Site web

https://www.ircam.fr/projects/pages/bruel

Programme

ANR – Spécifique

Sous-Programme

FLASH JO 2024

Type de projet

PRCE

Durée

2 ans

Responsable Scientifique

Johnny DOUVINET

Laboratoire

UMR 7300 ESPACE – Étude des Structures, des Processus d’Adaptation et des Changements de l’Espace

Coordination du projet

Avignon Université

Partenaires

ATRISC – QWANT – CHROME – GEDICOM

Résumé

Cap4 Multi-Can’Alert est un projet de développement expérimental s’inscrivant dans le cadre des JO 2024. Il a pour but de développer une solution d’alerte multicanale innovante, qui combinera différents canaux de diffusion, adaptés aux contextes réglementaire et technologique se profilant en France, et qui intègrera les besoins des utilisateurs finaux et les réactions à attendre des populations

Référence

ANR-19-FLJO-0006-01

Site web

En quelques mots…

Programme

ANR – Spécifique

Sous-Programme

LABCOM CONSOLIDATION

Type de projet

LABCOM CONSOLIDATION

Durée

2 ans

Responsable Scientifique

Grégory DURAND

Laboratoire

UPRI-Laboratoire-Unité propre de Recherche et d’Innovation
ERIT-Equipe de recherche et d’innovation thématique-S2CB

Coordination du projet

Avignon Université

Partenaires

Résumé

Depuis avril 2015, Chem2staB, Laboratoire Commun de Recherche et Développement associe les équipes de chimistes de l’Université d’Avignon (UMR 5247 – Equipe Chimie Bioorganique et Systèmes Amphiphiles – CBSA) et de biochimistes de l’entreprise CALIXAR. L’objectif principal de Chem2staB est de développer de nouvelles molécules capables d’extraire et de stabiliser et/ou de cristalliser des cibles thérapeutiques et des antigènes (protéines membranaires principalement) sans les dénaturer. La recherche de réactifs chimiques pour l’étude et la validation de cibles pharmaceutiques de type membranaire est un domaine assez récent avec des enjeux en santé humaine et animale très importants.

En effet, plusieurs études mettent en avant le besoin essentiel pour l’industrie pharmaceutique mondiale d’innover en renforçant ses recherches dans le domaine de la validation des cibles/antigènes. Ceci implique notamment d’inventer de nouvelles manières de préparer ces cibles/antigènes avec une chimie adaptée non dénaturante. Actuellement, les procédés utilisés pour isoler les cibles/antigènes complexes recourent très souvent à une chimie inadaptée et trop agressive qui dénature les cibles/antigènes à partir desquels des médicaments et vaccins vont être développés. Ceci a un impact majeur sur la performance des nouveaux médicaments/vaccins.

Cette mise en commun de compétences académiques et privées au sein de Chem2staB a permis la création et la validation de nouveaux composés chimiques à fort potentiel d’application dans les domaines stratégiques de l’unité de recherche et de la PME. Nous avons procédé à la mise sur le marché de 11 molécules comme agents d’extraction et de stabilisation disponibles directement auprès de CALIXAR et distribués mondialement par différents distributeurs.

Fort des premières ventes en 2018, le laboratoire Chem2staB souhaite consolider sa stratégie de valorisation. L’objectif du projet LabCom Consolidation sera d’accompagner cette phase de pérennisation. D’une part, il sera nécessaire de promouvoir les premières molécules mises sur le marché et permettre leur validation dans des applications pour lesquelles peu de solutions chimiques sont actuellement disponibles et dont le potentiel marché est important. D’autre part, nous développerons de nouveaux agents chimiques et formulations extractantes et stabilisantes afin de contrer la concurrence notamment sur les approches qui n’ont pas encore été développées au sein de Chem2staB.

La feuille de route révisée de Chem2staB se divise maintenant en 3 axes. Un premier axe concerne la recherche et le développement de nouveaux détergents capables d’extraire et stabiliser toute catégorie de protéines de tout type (récepteurs, canaux ioniques, transporteurs, enzymes, …) pris sous leur forme complète (sans mutation, ni troncature) et quel que soit la nature de ces membranes (bactérie, virus, levures, cellules de mammifère, cellules humaines …).

Un deuxième axe est focalisé sur la validation biochimique des différentes molécules développées sur des cibles/antigènes d’intérêts scientifique et industriel produits par CALIXAR pour son propre compte, ou pour le compte de tiers notamment industriels mais également académiques en science de la vie.

Le troisième axe concerne la valorisation scientifique et économique des réactifs validés en axe 2. Certains réactifs alimentent directement le pipeline de composés utilisés par CALIXAR pour isoler/formuler des cibles et antigènes, d’autres sont mis sur le marché au travers d’un réseau de distributeurs dans le monde entier.

Référence

ANR-18-LCCO-0003-01

Site web

https://www.chem2stab.org/

Programme

Horizon Europe

Sous-Programme

HORIZON-CL4-2023-DATA-01

Type de projet

Durée

Responsable Scientifique

Francesco De Pellegrini

Laboratoire

UPR 4128 LIA – Laboratoire Informatique d’Avignon

Coordination du projet

Centre for Research and Technology-Hellas (GR)

Partenaires

FIWARE FOUNDATION EV (DE) – SBA Research Gemeinnutzige Gmbh (AT) – National Center for Scientific Research Demokrit (EL) – Fraunhofer Gesellschaft Zur Forderung Der Ang (DE) – Teknologian Tutkimuskeskus vtt Oy (FI) – University of Lancaster (UK) – Elliniko Mesogeiako Panepistimio (EL) – Netcompagny-Intrasoft SA (LU) – Engineering Ingegneria Informatica SPA (IT) – Siemens SRL (RO) – AVL List Gmbh (AT) – Axon Logic Idiotiki Kefalaiouxiki Etaireia (EL) – Beyond Semiconductor, Raziskave In Razvoj DOO (SI) – K3Y (BG) – Ubitech Limited (CY)

Résumé

CoGNETs vise à révolutionner la gestion de l’infrastructure intelligente en introduisant un cadre middleware
middleware distribué évolutif et interopérable pour l’informatique autonome IoT-to-Cloud, durable pendant et après le projet via la FIWARE Foundation
(Directeur technique) et soutenu par un solide écosystème industriel et académique
entre l’UE et le Japon en matière de souveraineté des données pour la chaîne d’approvisionnement de l’automobile et de la fabrication.
L’idée est de tirer parti de l’intelligence informatique au point que les appareils puissent réaliser eux-mêmes leur hétérogénéité et décider de la manière de former un essaim dynamique IoT-to-Cloud pour répondre aux tâches courantes d’IA et aux éléments importants de l’informatique cognitive de manière automatisée, sécurisée et économe en énergie.

Au cœur de notre middleware, nous intégrerons une nouvelle architecture de courtier multi-contexte fédérée et décentralisée, enrichie d’agents intelligents de jeu, d’apprentissage collaboratif fédéré et d’un système de gestion de l’information (y compris la sécurité matérielle RISC-V et l’accélération de l’IA) afin de réaliser des tâches dynamiques et des tâches de calcul cognitif.

CoGNETs atteindra également la neutralité énergétique/CO2 et la sensibilisation à la sécurité « par conception » en tirant parti de tous ses processus d’intergiciels pour une optimisation unifiée de l’informatique, de l’énergie et de la sécurité, introduisant ainsi une nouvelle logique pour améliorer systématiquement l’informatique de manière conjointe et égale aux performances en matière d’énergie et de sécurité qui sont nécessaires pour soutenir les nouveaux services et modèles commerciaux.
Cette nouvelle logique permet d’améliorer systématiquement l’informatique en termes conjoints et égaux aux performances en matière d’énergie et de sécurité qui sont nécessaires pour soutenir les nouveaux services et modèles d’entreprise.
Les validations seront effectuées sur 3x démos verticales et 1x démos inter-verticales pour soutenir les secteurs émergents de la fabrication, de la mobilité et de la santé et d’examiner comment CoGNETs peut sauvegarder la résilience économique, commerciale et sociétale, et comment il est possible d’étendre la souveraineté numérique, l’autonomie stratégique et la sécurité industrielle de l’Europe dans la prochaine vague d’évolution technologique.

Référence

101135930

Programme

ANR-Sciences de la vie

Sous-programme

Biochimie et chimie du vivant

Type de projet

Projet de recherche collaboratif

Durée

4 ans

Responsable Scientifique

Grégory DURAND

Laboratoire

UPRI-Laboratoire-Unité propre de Recherche et d’Innovation
ERIT-Equipe de recherche et d’innovation thématique-S2CB

Coordination du projet

Avignon Université

Partenaires

Montpellier Université, I2BC, CALIXAR

Résumé

L’originalité de la proposition de Cytergents réside dans le développement de détergents inspirés des métabolites cycliques et lipidiques
pour l’extraction et la stabilisation des MPs, évitant ainsi leur exposition aux détergents classiques, plus classiques, plus agressifs. D’un point de vue chimique, l’originalité l’originalité de la synthèse réside dans l’utilisation de la formation de liaisons C-C pour la préparation de détergents et sur l’utilisation d’un métabolite lipidique d’une plateforme lipide-métabolite. Nous envisageons que les détergents
détergents cycliques identifiés puissent être utilisés comme détergents doux pour pour extraire directement les MP de la membrane hôte, offrant ainsi un avantage décisif par rapport à la plupart des autres systèmes
qui continuent à dépendre des détergents pour la solubilisation et la purification des MP. pour la solubilisation et la purification.

Programme

ANR-Spécifique

Sous-programme

Water4All

Type de projet

PRCI

Durée

3 ans

Responsable Scientifique

Konstantinos CHALIAKIS

Laboratoire

EMMAH

Coordination du projet

Università Vanvitelli

Partenaires

University of the Western Cape (ZA) – Instituto de Geociência, Universidade de São Paulo (BR) – Politechnika Gdanska (PL)

Résumé

L’objectif global de DATASET est de développer un outil efficace pour aider à la protection et à la régulation de l’utilisation et de la gestion des ressources en eau dans les aquifères côtiers en tenant compte de toutes les conditions dynamiques causées par l’augmentation prévue de la fréquence de l’EEH.
Ainsi, nous favoriserons la protection des eaux souterraines qui constituent une ressource d’une valeur insondable pour les nombreux habitants de la région.
Nous allons donc promouvoir la protection des eaux souterraines qui constituent une ressource d’une valeur insondable pour les nombreuses activités anthropiques et pour les environnements fragiles présents dans les plaines côtières.
Pour ce faire, DATASET vise à atteindre les objectifs suivants :
OBJ1 : Développer et appliquer une méthode pour créer des cartes de vulnérabilité à travers une évaluation holistique des aquifères côtiers, en couplant l’évaluation de l’AGR et de le SP dans une méthodologie unique afin d’améliorer la gouvernance de l’eau en vue de l’alerte précoce, de la prévention et de l’atténuation de la dégradation de la qualité des eaux souterraines dans les conditions actuelles et futures, en tenant compte des impacts du changement climatique et de la pollution de l’eau.
OBJ2 : Promouvoir un changement de paradigme dans la gestion de l’eau, grâce à l’accès aux données et aux modèles via l’internet,
la diffusion d’outils de gestion pour la planification et l’implication sociétale et leur transfert aux parties prenantes.
OBJ3 : Promouvoir la sensibilisation sociale à l’importance des eaux souterraines et à leur sensibilité au changement climatique et à la pollution de l’eau. Depuis les parties prenantes et les décideurs jusqu’aux utilisateurs finaux.

 

Référence

ANR-23-W4AP-0001-04

Programme

ANR-Domaines transverses

Sous-programme

Révolution numérique

Type de projet

Projet de recherche collaboratif

Durée

5 ans et 3 mois

Responsable Scientifique

Pierre-Henri MORAND et Vincent LABATUT

Laboratoire

LIA/LBNC

Coordination du projet

Avignon Université

Partenaires

Centre de recherches administratives – DATACTIVIST

Résumé

L’ouverture massive des données publiques recouvre une importance économique et sociétale considérable. C’est en particulier vrai des données des marchés publics, aujourd’hui disponibles, et sur lesquelles sont fondées l’espoir de découvrir et de combattre les phénomènes de fraudes et de corruption qui y sont malheureusement massivement présents ; et ce en permettant de mettre en lumière les informations critiques et de développer des outils améliorant l’efficacité du droit. Alliant Informatique, Économie et Droit, DeCoMap vise ainsi à collecter, traiter et analyser ces données relatives aux marchés publics français, afin d’élaborer des outils de détection automatique des risques de corruption et de fraude et de proposer une grille d’analyse normative mettant en évidence les principaux facteurs de risques que le législateur devrait identifier et sur lesquels les autorités de contrôle devraient porter leur attention. Soutenu par Transparency International France et Open Contracting Partnership, DeCoMaP regroupe 10 enseignants-chercheurs de 7 universités spécialistes du droit de la commande publique et du droit de la donnée, d’analyse économique et économétrique des marchés publics, d’analyse économique du droit, d’optimisation de graphes, et d’analyse et d’extraction de réseaux complexes. 4 membres de Datactivist, société coopérative spécialiste de l’Open Data et fortement impliquée dans l’ouverture des données de la commande publique, complètent le consortium.

Le projet vise à établir et analyser une base de données exhaustive des pratiques de corruption identifiées, s’appuyant sur une diversité de sources juridiques, primaires et secondaires.

La collecte des données nécessaires au projet est d’importance et permettra de constituer la première base de données relative aux pratiques de fraudes dans les marchés publics français. Le projet permettra ainsi d’établir et d’analyser, économiquement et juridiquement, cette vérité terrain.

Référence

ANR-19-CE38-0004-02

Site web

https://anr.fr/Projet-ANR-19-CE38-0004

Programme

ANR-Générique

Type de projet

PRC

Durée

4 ans et 6 mois

Responsable Scientifique

Yannick Estève

Laboratoire

UPR 4128 LIA – Laboratoire Informatique d’Avignon

Coordination du projet

INRIA Grand Est

Partenaires

Laboratoire d’informatique de l’Université du Mans – Magnet

Résumé

La reconnaissance vocale est maintenant utilisée dans de nombreuses applications, dont les assistants virtuels qui collectent, traitent et stockent des données vocales personnelles sur des serveurs centralisés, ce qui soulève de sérieuses préoccupations concernant la privacité. Des approches à base de reconnaissance vocale embarquée ont récemment été proposées pour traiter ces aspects de privacité, mais seulement pendant la phase de reconnaissance de la parole. Dans ce cas, comme tous les traitements sont effectués sur le terminal de l’utilisateur, les données vocales restent privées. Cependant, il y a encore besoin d’améliorer davantage la technologie de reconnaissance vocale car ses performances restent limitées dans des conditions défavorables (e.g., environnements bruyants, parole réverbérée, accents forts, etc). Cela ne peut être obtenu qu’à partir de grands corpus de parole représentatifs de conditions d’utilisation réelles et variées. Pour cela, il est nécessaire de partager des données vocales tout en gardant l’identité du locuteur privée. Les améliorations sont alors bénéfiques pour tous les utilisateurs, . Il est également évident que l’utilisateur doit avoir le contrôle sur ses données, afin de ne pas transmettre de données dont les contenus linguistiques sont critiques.

Dans ce contexte, DEEP-PRIVACY propose un nouveau paradigme basé sur une approche distribuée, personnalisée et préservant la privacité pour le traitement de la parole, en mettant l’accent sur les algorithmes d’apprentissage pour la reconnaissance de la parole. Pour ce faire, nous proposons une approche hybride: le terminal de chaque utilisateur ne partage pas ses données vocales brutes et exécute des calculs privés localement, alors que certains calculs inter-utilisateurs sont réalisés sur un serveur (ou un réseau peer-to-peer). Pour satisfaire aux exigences de privacité, les informations communiquées au serveur ne doivent pas exposer d’informations sensibles. Le projet aborde les défis ci-dessus d’un point de vue théorique, méthodologique et empirique à travers deux objectifs scientifiques majeurs.

Le premier objectif concerne l’apprentissage de représentations du signal vocal préservant la privacité, c’est-a-dire qui démêlent les caractéristiques susceptibles d’exposer des informations privées (à conserver sur le terminal) de celles génériques utiles à la tâche concernée (qui satisfont des aspects de privacité, et peuvent être partagées). Pour la reconnaissance de la parole, cela correspond respectivement à des informations de locuteur (à protéger) et à des informations linguistiques (à partager) portées par la parole. Pour atteindre cet objectif, nous explorerons plusieurs directions, toutes basées sur des approches d’apprentissage profond ; et, outre les mesures classiques de reconnaissance de parole et du locuteur, nous utiliserons également des notions formelles de privacité pour évaluer leur performance.

Le deuxième objectif concerne les algorithmes distribués et la personnalisation, grâce à la conception d’algorithmes distribués efficaces fonctionnant dans un environnement où les données utilisateur sensibles sont conservées sur le terminal, avec des composants globaux fonctionnant sur des serveurs et des composants personnalisés fonctionnant sur des terminaux personnels. Les données transférées aux serveurs devraient contenir des informations utiles pour l’apprentissage et la mise à jour des composants globaux (modèles acoustiques), tout en préservant la privacité. Nous étudierons le type de données à échanger (e.g.., gradients, modèles partiels …) et étudierons les informations de locuteur restant présentes dans ces données. De plus, les composants personnalisés permettent d’introduire des transformations spécifiques aux locuteurs et d’adapter certains paramètres du modèle au locuteur. Enfin, nous considérerons un contexte peer-to-peer, comme une alternative aux serveurs, pour le partage de données et l’apprentissage de modèles.

Référence

ANR-18-CE23-0018-04

Site web

https://anr.fr/Projet-ANR-18-CE23-0018

Programme

ANR – Sciences du numérique

Sous-programme

Intelligence artificielle et science des données

Type de projet

Projet de recherche collaboratif

Durée

4 ans et 1 mois

Responsable Scientifique

Rachid ELAZOUZI

Laboratoire

UPR 4128 LIA – Laboratoire Informatique d’Avignon

Coordination du projet

Avignon Université

Partenaires

LAAS-CNRS, Toulouse – Université de ToulouseUniversité de New-York (Etats-Unis) – Université de Oulu (Finlande)

Résumé

L’efficacité énergétique gagne du terrain dans la communauté de l’IA à mesure que les chercheurs sont sensibilisés à l’importance
carbone ainsi que les coûts en dollars de la course en cours pour améliorer la précision de l’apprentissage automatique
applications. Des travaux récents ont mis en lumière ces coûts cachés des modèles de pointe existants
pour le traitement du langage naturel (NLP) [St19] et la reconnaissance d’images [Sc20]. Dans [Sc20], il a été montré que
la formation d’un seul modèle NLP émettait 300 000 kg de CO2, soit l’équivalent de 125 vols aller-retour entre New York et New York.
York et Pékin. L’un des modèles d’apprentissage profond les plus élaborés, connu sous le nom de GPT-3, nécessite un montant
d’énergie équivalente à la consommation annuelle de 126 foyers danois. Si la croissance de l’apprentissage automatique
applications continue dans la direction actuelle, la quantité d’énergie nécessaire à l’apprentissage automatique sera
deviennent vite prohibitifs d’un point de vue climatique, technique et économique. Avec accès à de grands
ressources de données à grande échelle, la quantité de calculs utilisés pour former des modèles d’apprentissage a augmenté de 300 000 en 6
ans [Sc20]. De plus, l’informatique massive a non seulement une empreinte carbone très élevée, mais elle a également
effets négatifs sur l’inclusion de la recherche et le déploiement de véritables applications basées sur l’IA, en particulier dans
le contexte actuel où les prix de l’énergie ne cessent de grimper et de battre de nouveaux records.

Référence

ANR-22-CE23-0024-01

Site web

https://anr.fr/Projet-ANR-22-CE23-0024

Programme

Sous-programme

FLASH OURAGAN

Type de projet

Projet de recherche collaboratif

Durée

4 ans et 4 mois

Responsable Scientifique

Damien SERRE

Laboratoire

UMR 7300 ESPACE – Étude des Structures, des Processus d’Adaptation et des Changements de l’Espace

Coordination du projet

UPEM

Partenaires

Laboratoire d’Urbanisme – Espaces et sociétés – IFSTTAR – Association, Robin des Bois – Etude des structures, des processus d’adaptation et des changements de l’espace

Résumé

Les premiers retours sur les territoires impactés par les Ouragans Irma et Maria, montrent que les quantités de déchets ont largement désorganisé le service de gestion des déchets (UN Environnement / OCHA Joint Unit, 2017). En octobre 2017, l’Ecosite des Grandes Cayes, à Saint-Martin, a reçu l’équivalent de 2 ans et demi de collecte des déchets de période normale. Ces chiffres, courants dans ce type de catastrophes, ont déjà été observés par le passé. Les retours d’expériences montrent en outre que la gestion des déchets est un enjeu important de la post crise. Selon l’agence fédérale américaine des situations d’urgence (FEMA) le coût de la gestion des déchets post catastrophe est supérieur au 1/3 du cout de redémarrage du territoire. C’est aussi un enjeu d’image pour les territoires impactés, notamment pour le secteur touristique. Les enjeux sanitaires et environnementaux d’une mauvaise gestion peuvent impacter la santé des habitants et polluer sols et eaux. Enfin les nombreux déchets gênent la progression des services de secours et l’accès des services techniques aux installations de captage et de production d’eau potable, aux transformateurs électriques,… Les retours d’expérience internationaux montrent que l’amélioration de la gestion des déchets post-catastrophes peut également améliorer la gestion des déchets courants en situation normale. Le projet DéPOs, s’attache spécifiquement au problème de la gestion des déchets post-ouragans. Il permet de travailler avec des partenaires expérimentés et d’associer des compétences multiples approchant ainsi le problème sous les angles complémentaires de la quantification prédictive des gisements et de la caractérisation (axe 1), à la gestion intégrée des déchets (axe 3) en passant par la modélisation spatiale (axe 2). DéPOs insiste sur la recherche appliquée qui permet de construire les connaissances méthodologiques et les connaissances spécifiques d’une gestion améliorée de la post-catastrophe. DéPOs propose également une recherche impliquée dans les territoires investis. Sur la base des connaissances acquises dans les axes 1 et 2, le terrain des Antilles françaises donne lieu dans l’axe 3 à des propositions de gestion construite en collaboration étroite avec les acteurs locaux. Les services régionaux (Martinique et Guadeloupe) en charge de la planification et de la gestion des déchets post-ouragans dans les Antilles ont d’ailleurs confirmé leurs volontés de collaborer.
Dans le domaine scientifique, DéPOs contribue au champ de recherche sur les risques spatialisés et la résilience d’après-crise. Au-delà du binôme aléa/vulnérabilité DéPOs apporte des connaissances sur la mise en action de la résilience par la planification, l’adaptation des organisations et le fonctionnement des systèmes sociotechniques soumis à des contraintes exceptionnelles.
En temps normal, le service de gestion des déchets est un service important pour le fonctionnement des territoires, il devient essentiel après un ouragan.

Référence

ANR-18-OURA-0003-03

Site web

https://anr.fr/Projet-ANR-18-OURA-0003

Programme

AAP – Générique, sciences du numérique

Sous-programme

Intelligence artificielle

Type de projet

JCJC

Durée

3 ans et 6 mois

Responsable Scientifique

Richard DUFOUR

Laboratoire

UPR 4128 LIA – Laboratoire Informatique d’Avignon

Coordination du projet

Avignon Université

Partenaires

Résumé

Un problème majeur des métriques d’évaluation en traitement du langage concerne le fait qu’elles sont conçues pour mesurer globalement une approche par rapport à une référence, et ainsi comparer des systèmes entre-eux. Bien que ces systèmes automatiques soient destinés aux utilisateurs finaux, ces utilisateurs sont peu étudiés: l’impact de ces erreurs automatiques sur l’humain, et la façon dont elles sont perçues au niveau cognitif, n’a jamais été étudié, et est donc absent dans le processus d’évaluation. Le projet DIETS propose de se focaliser sur la problématique du diagnostic/évaluation des systèmes de reconnaissance automatique automatique (RAP) end-to-end en intégrant la réception humaine des erreurs de transcription d’un point-de-vue cognitif. Le défi est double: 1) analyser finement les erreurs de RAP par rapport à une réception humaine et 2) comprendre et détecter comment ces erreurs se manifestent dans un cadre de RAP end-to-end, dont le travail s’inspire du cerveau humain.

Référence

ANR-20-CE23-0005

Site web

Presentation

Programme

ANR- Sciences Humaines et Sociales

Sous-programme

Sociétés et territoires en transistion

Type de projet

Projet de recherche collaboratif International

Durée

3 ans

Responsable Scientifique

Laure CASANOVA

Laboratoire

UMR 7300 ESPACE – Étude des Structures, des Processus d’Adaptation et des Changements de l’Espace

Coordination du projet

Avignon Université

Partenaires

Université Polytechnique Hauts-de-France – LARSH

Résumé

La répartition du patrimoine foncier et ses implications socio-économiques font l’objet d’un regain d’intérêt. Le contexte actuel est en effet marqué par une hausse des inégalités et une flexibilisation du régime fiscal et réglementaire. Le projet propose d’élargir le champ d’étude de l’économie politique par une évaluation de l’encastrement sociojuridique des marchés fonciers en France et au Luxembourg, à travers deux cas d’étude : les métropoles d’Aix-Marseille et de Luxembourg. Le projet DISTRILAND analyse les incidences spatiales, en termes de production de logements ou encore de planification, des interrelations entre les structures foncières héritées, les systèmes de régulation et les structures institutionnelles.

Référence

ANR-22-CE55-0009-01

Site web

https://anr.fr/Projet-ANR-22-CE55-0009

Programme

ANR- Mathématiques et leurs interactions

Sous-programme

Mathématiques

Type de projet

Projet de recherche collaboratif

Durée

5 ans

Responsable Scientifique

Erwann DELAY

Laboratoire

UPR 2151 LMA – Laboratoire de Mathématiques

Coordination du projet

Sorbonne Université

Partenaires

LMA (AU), Institut Denis Poisson (Université François Rabelais Tours)

Résumé

Paramétrisation de l’ensemble de données initiales des équations d’Einstein. Le projet se concentre sur la géométrie globale des variétés riemanniennes satisfaisant les contraintes d’Einstein apparaissant en générale relativité. En d’autres termes, le projet s’intéresse aux propriétés géométriques et analytiques des ensembles de données, constitués d’une hypersurface de type spatial (représentant une tranche de temps « présent ») dans un espace-temps satisfaisant les équations de champ d’Einstein (éventuellement couplé aux champs de matière). Parmi nos principaux objectifs, nous chercherons une paramétrisation de « toutes » ces hypersurfaces et décrirons leurs propriétés géométriques et asymptotiques globales, par exemple leur comportement à l’infini comme dans l’espace ou au voisinage des singularités gravitationnelles.

Référence

ANR-23-CE40-0010-02

 

Programme

ANR – Générique

Type de projet

PRC

Durée

4 ans et 9 mois

Responsable Scientifique

Frédéric MONIER

Laboratoire

Centre Norbert Elias HEMOC

Coordination du projet

Université de Nantes

Partenaires

Laboratoire techniques, territoires et sociétés – TRIANGLE – Centre Universitaire de Recherches sur l’Action Publique et le Politique – Centre de sociologie des organisations – Centre de recherches juridiques – Centre d’études et de recherches administratives, politiques et sociales

Résumé

En France, les rétributions financières des hommes et femmes politiques qu’ils soient élus locaux ou nationaux représentent une dépense de plus d’un milliard d’euros par an. Ces coûts associés au travail politique font régulièrement l’objet de vives critiques sur un registre plus ou moins accusateur. Selon cette opinion, les élus rémunérés coûteraient cher et privilégieraient leurs intérêts financiers personnels. Cherchant à rompre avec ces représentations communes et globalisantes, le projet ELUAR propose d’interroger de manière fine le rôle joué par les rétributions financières dans le processus de professionnalisation des élus. D’un point de vue scientifique, il cherche à combler un manque dans la littérature française relative au travail politique. Bien que depuis les années 1990, les publications se soient multipliées sur ce sujet, l’analyse des conditions matérielles d’exercice des mandats reste un angle mort de la recherche en France. En s’inscrivant dans une approche interdisciplinaire (sociologie, science politique, histoire, droit), cette recherche collective a pour ambition de réintroduire la dimension financière au centre de l’analyse des carrières et des engagements des personnels politiques élus. L’hypothèse centrale du projet est de mettre en évidence l’hétérogénéité et l’inégalité des rémunérations des élus et des formes de professionnalisation politique. Pratiquement, le projet est structuré autour de deux volets. Le premier porte sur l’étude de la production des réformes et de l’encadrement juridique afin de mettre à jour la construction politique d’une hiérarchisation économique entre les mandats. Qui sont les acteurs investis dans la production des réformes ? Quels sont les registres de justification mobilisés depuis les années 1950 ? Quelle place occupe, en France, le principe du cumul des mandats dans ces jeux ? Quelles sont les possibilités de rémunération et de gratifications matérielles offertes aux élus ? Retrouve-t-on les mêmes logiques de hiérarchisation à l’étranger ? Le second volet analyse les usages et les appropriations des règles qui encadrent la rémunération des élus. L’attention aux rémunérations et plus largement aux conditions matérielles d’exercice des mandats permettra de saisir la variété des formes contemporaines de la professionnalisation politique, les rapports subjectifs des élus à l’argent et les usages politiques de l’argent. Par quels processus des élus arrivent-ils à abandonner leur profession initiale au profit d’un mandat politique ? Quelles stratégies de sécurisation économique déploient-ils ? Comment concrètement sont attribuées les indemnités et gratifications financières aux élus ? L’argent permet-il de fidéliser des équipes politiques ? Est-il construit comme une arme politique pour disqualifier l’adversaire ? Voilà quelques-unes des interrogations que traitera ce second volet. Au final, le projet ELUAR cherche à opérer une double rupture. Une rupture par rapport aux discours ordinaires qui tendent à homogénéiser les élus et à apprécier leurs rémunérations sous le registre de la suspicion et une rupture par rapport au point de vue savant qui affleure dans les recherches sur le travail politique selon lequel l’indemnisation fait quasi mécaniquement le professionnel.

Référence

ANR-16-CE26-0013-02

Site web

https://eluar.hypotheses.org/

Programme

Horizon 2020

Sous-Programme

H2020-MSCA-RISE

Durée

4 ans

Responsable Scientifique

Jean-François Bonastre

Laboratoire

UPR 4128 LIA – Laboratoire Informatique d’Avignon

Coordination du projet

Université du Mans

Partenaires

Laboratoire national de metrologie et d’essais (FR) – Vysoke Uceni Technicke V Brne (CZ) – Université Grenoble Alpes (FR) – Avignon Université (FR) – University of Sheffield (UK) – Allo-Media (FR) – ELYADATA (TN) – Omilia Ltd (EL) – Phoenexia Sro (CZ) – University of Yaounde (CM) – Consejo nacional de investigaciones cientificas y tecnicas (AR) – Universidad de Chile (CL) – Centro de aplicaciones de tecnologias de Avanzada (CU) – Universiti Malaysia Sarawak (MY) – Universiti sains Malaysia (MY) – John Hopkins University (US) – MILA (CA)

Résumé

Le projet ESPERANTO vise à pousser les technologies de traitement de la parole à leur prochaine étape afin de permettre la diffusion de ces technologies dans les PME européennes et de maximiser et sécuriser leur utilisation dans la société civile pour la médecine légale, la santé ou l’éducation.
Le consortium ESPERANTO prévoit que la prochaine génération d’algorithmes d’intelligence artificielle pour le traitement de la parole devrait :
1. être plus accessible : via un plus grand nombre de langues parlées, et pour des applications où les ressources sont fortement limitées (santé, éducation, robotique).
ressources sont fortement limitées (santé, éducation, robotique…) ;
2. intégrer un humain dans la boucle pour garantir une plus grande facilité d’utilisation, de déploiement et de maintenance ;
3. être explicable afin de permettre des applications sensibles liées à la médecine légale ou à la santé et contribuer à la préservation des données personnelles en détectant et en caractérisant les biais existants dus à la nature axée sur les données des technologies vocales actuelles.
ESPERANTO a l’intention de guider la communauté scientifique en publiant des mesures d’évaluation, des protocoles et des normes qui permettront de
stimuler le développement et l’évaluation de cette nouvelle génération d’algorithmes. Pour atteindre cet objectif ambitieux, le projet ESPERANTO rassemble une communauté large et transsectorielle d’experts en applications liées à la parole, telles que la transcription, la séparation, l’amélioration, la traduction, la compréhension et le locuteur afin de transférer des connaissances, d’organiser, de produire et de normaliser des ressources.
Le but est de catalyser et de croiser les efforts dans ce domaine.
de catalyser et de croiser les efforts dans ce domaine.
Les principaux objectifs du projet ESPERANTO sont les suivants :
– soutenir le développement d’outils open-source qui encourageront le développement rapide, les échanges et la reproductibilité ;
– produire des tutoriels et des lignes de base compétitives sur divers sujets du traitement de la parole afin d’encourager la création de nouveaux étudiants, chercheurs et ingénieurs en IA de la vocale ;
– faciliter la collecte et le partage des ressources linguistiques et vocales par le biais de normes ;
– organiser des ateliers pour faire progresser les technologies de la parole et favoriser le transfert de connaissances.

Référence

101007666

Programme

ANR – Sciences du numérique

Sous-programme

Intelligence artificielle et science des données

Type de projet

Projet de recherche collaboratif

Durée

4 ans

Responsable Scientifique

Yannick ESTEVE

Laboratoire

UPR 4128 LIA – Laboratoire Informatique d’Avignon

Coordination du projet

Avignon Université

Partenaires

Université Paris DauphineLaboratoire d’Informatique de Grenoble

Résumé

L’apprentissage auto-supervisé (Self-Supervised Learning ou SSL) a émergé récemment comme une méthode d’intelligence artificielle (IA) incroyablement prometteuse. Grâce à cette méthode, les colossales masses de données non annotées qui sont accessibles peuvent être utilisées par des systèmes d’IA pour dépasser les performances connues jusque-là. En particulier, le domaine du traitement automatique de la parole (TAP) se voit rapidement transformé par l’arrivée du SSL grâce, notamment, aux investissements industriels massifs et l’explosion des données, tous deux mis à disposition par une poignée d’entreprises. Les gains en performance sont impressionnants, mais la complexité des modèles SSL impose aux chercheurs et industriels du secteur de se doter d’une capacité de calcul hors normes réduisant drastiquement à la fois l’accès à la recherche fondamentale sur cette thématique, ainsi que son déploiement dans des produits du quotidien. Par exemple, une grande partie des travaux utilisant un modèle SSL pour le TAP reposent sur un système entretenu et mis à disposition par une seule et même entreprise (wav2vec 2.0). L’intégralité du cycle de vie de la technologie, en partant de ses fondations théoriques jusqu’à son déploiement pratique, en passant par l’analyse des aspects sociétaux, dépend donc uniquement d’institutions ayant les moyens physiques et financiers de soutenir l’intensité du développement de cette technique. Le projet E-SSL vise à redonner à la communauté scientifique et aux industriels du TAP le contrôle nécessaire sur l’apprentissage auto-supervisé afin d’assurer son évolution et un déploiement égalitaire en facilitant à la fois la recherche académique et son transfert vers l’industrie. En pratique, E-SSL intègre de façon holistique trois problèmes clés de l’apprentissage auto-supervisé pour le TAP incluant son efficience computationnelle effective, son impact sociétal ainsi que la faisabilité de son extension aux produits de demain.Le projet BRUEL concerne l’évaluation/certification des systèmes d’identification par la voix face aux attaques adverses.

Référence

ANR-22-CE23-0013-01

Site web

https://anr.fr/Projet-ANR-22-CE23-0013

Programme

Sciences du numérique

Sous-programme

Intelligence artificielle et science des données

Durée

4 ans

Responsable scientifique

Jean-François BONASTRE

Laboratoire

UPR 4128 LIA – Laboratoire Informatique d’Avignon

Coordination du projet

Orange

Partenaires

INSTITUT DE RECHERCHE ET COORDINATION ACOUSTIQUE MUSICALE
UNIVERSITE DE RENNES
Centre National de la Recherche Scientifique (CNRS) – Délégation Régionale Ile-de-France -Villejuif

Résumé officiel

Décrire une voix en quelques mots est une tâche arbitraire. Nous pouvons parler d’une voix « grave », « soufflée » ou « rauque », mais la caractérisation d’une voix nécessiterait un ensemble restreint d’attributs rigoureusement définis constituant une ontologie. Or, une telle grille de description n’existe pas. L’apprentissage automatique appliqué à la parole souffre de la même faiblesse : dans la plupart des tâches de traitement automatique, le locuteur est modélisé par des représentations globales abstraites aux caractéristiques pas ou peu explicites. Par exemple, l’identification automatique des locuteurs est généralement abordée via le paradigme des x-vectors, qui consiste à décrire la voix d’un locuteur par un « embedding » spécialement conçu pour cette tâche. Malgré leur bonne précision, les x-vectors sont généralement inadaptés pour détecter des similitudes entre différentes voix présentant des caractéristiques communes. Mêmes observations pour la génération de la parole : le contrôle de la synthèse vocale est généralement effectué en injectant le style ou l’identité du locuteur via des représentations non structurées. Ces représentations permettent de contourner la tâche de définition et d’apprentissage d’ontologies, mais elles permettent uniquement d’imiter un sous-ensemble des caractéristiques d’une voix (genre, fréquence fondamentale, rythme, intensité) sans en expliciter les attributs. Elles restent également limitées par leur incapacité à générer de nouvelles voix originales. L’objectif de ce projet est de déchiffrer les codes des voix humaines par l’apprentissage de représentations explicites et structurées des attributs de la voix. La réalisation de cet objectif aura un fort impact scientifique et technologique, dans au moins deux domaines d’application : premièrement, dans l’analyse de la parole, il permettra de comprendre l’enchevêtrement complexe des caractéristiques d’une voix humaine ; deuxièmement, pour la génération de voix, il alimentera une large gamme d’applications pour créer une voix avec les attributs souhaités, permettant la conception de ce que l’on appelle une personnalité vocale. L’ensemble des attributs sera défini par expertise humaine ou découvert à partir des données en utilisant des réseaux neuronaux légèrement ou non supervisés ou non supervisés. Il comprendra une description détaillée et explicite du timbre, de la qualité de la voix, de la phonation, des biais du locuteur tels que des prononciations spécifiques ou des troubles de la parole (par exemple zézaiement), des accents régionaux ou non natifs, et des éléments paralinguistiques tels que les émotions ou le style. Idéalement, chaque attribut pourrait être contrôlé dans la synthèse et la conversion par un degré d’intensité, ce qui permettrait de l’amplifier ou de l’effacer de la voix, dans le cadre d’une intégration structurée. Ces nouveaux attributs pourraient être définis par des experts ou par des algorithmes de réseaux neuronaux tels que le démêlage automatique de la voix ou des représentations auto-supervisées qui découvriraient automatiquement les attributs saillants dans des ensembles de données multilocuteurs. Les principaux résultats industriels attendus concernent différents cas d’utilisation de la transformation de la voix. Le premier est l’anonymisation de la voix : afin de permettre des enregistrements vocaux conformes à la RGPD, les systèmes de conversion vocale pourraient être configurés pour supprimer les attributs fortement associés à l’identité d’un locuteur, tandis que les autres attributs resteraient inchangés pour préserver l’intelligibilité, le naturel et l’expressivité de la voix manipulée ;
le deuxième est la création de voix : de nouvelles voix pourraient être sculptées à partir d’un ensemble d’attributs souhaités, afin d’alimenter l’industrie de la création.

Référence

ANR-23-CE23-0018-04

Site web

Projet ANR EVA

Programme

ANR-Montage de Réseaux Scientifiques Européens ou Internationaux

Sous-programme

Type de projet

Montage de Réseaux Scientifiques Européens ou Internationaux

Durée

2 ans

Responsable Scientifique

Francesco DE PELLEGRINI

Laboratoire

UPR 4128 LIA – Laboratoire Informatique d’Avignon

Coordination du projet

Avignon Université

Partenaires

INRIA (France)
TU Delft (Pays-Bas)
Technion (Israel)
IMDEA (Espagne)
NOKIA (France)

Résumé

FINALITY in a Nutshell. FINALITY is a MSCA DN forming a novel AI curriculum for engineering researchers
exploring safe techniques for socio-technical systems where human decisions for resource allocation are
supported by AI. The ESRs engaged in the FINALITY DN will develop new methodological tools focusing on the
following expertise areas: constrained and delayed MDP theory and their application to safe Reinforcement
Learning, Online Convex Optimization and Federated Learning under constraints

Référence

ANR-23-MRS1-0007-01

Site web

https://anr.fr/Project-ANR-23-MRS1-0007

Programme

ANR – Générique

Type de projet

PRCI

Durée

4 ans et 1 mois

Responsable Scientifique

Grégory DURAND

Laboratoire

UPRI-Laboratoire-Unité propre de Recherche et d’Innovation
ERIT-Equipe de recherche et d’innovation thématique-S2CB

Coordination du projet

Avignon Université

Partenaires

Institut de biologie structurale – Martin Luther University Halle-Wittenberg – University Kaiserslautern

Résumé

Les protéines membranaires ont un rôle essentiel dans la communication cellulaire et les processus de transport et de ce fait représentent la majorité des cibles thérapeutiques actuelles. Malheureusement, les progrès dans notre connaissance et notre compréhension de leurs structures, dynamique et fonctions sont actuellement insuffisants, principalement en raison de difficultés expérimentales dues à leur nature très hydrophobe.

En effet, afin de les manipuler in vitro et de les conserver à la fois solubles et actives, ces protéines nécessitent un environnement qui mime la membrane. Traditionnellement, ceci est réalisé à l’aide de composés tensioactifs, appelés détergents, qui sont capables de les extraire de la membrane puis de les maintenir solubles. Cependant, de nombreuses protéines se dénaturent une fois extraites par ces mêmes détergents, et perdent alors leur structure et leur fonction native.

Ces observations ont motivé des recherches dont le but est de proposer des alternatives plus douces aux détergents classiques, parmi lesquelles les tensioactifs fluorés semblent particulièrement prometteurs. En raison de la faible affinité des segments perfluorés vis-à-vis de ceux hydrogénés et au plus grand volume occupé par les chaines fluorées par rapport aux chaines hydrogénées, les tensioactifs fluorés sont considérés comme moins dénaturants que les détergents classiques. De nombreux exemples rapportent une stabilité accrue des protéines membranaires solubilisées en tensioactifs fluorés. Ceci provient du fait qu’ils entrent moins en compétition avec les interactions protéine-protéine et protéine-lipides/cofacteurs hydrophobes, interactions qui stabilisent l’édifice protéique. Cependant, le principal inconvénient à l’utilisation des tensioactifs fluorés réside dans la nécessité d’extraire la protéine de la membrane par des détergents conventionnels, puis de la transférer en tensioactifs fluorés à un stade ultérieur du processus de purification. D’autre part à ce stade, les protéines les plus sensibles ont déjà subi des dommages irréversibles.

Nous avons très récemment démontré que contrairement à ce qui est communément admis, la nature fluorée des parties hydrophobes des tensioactifs fluorés ne compromet en rien leur capacité à dissoudre des membranes artificielles. Les tensioactifs fluorés pourraient donc présenter à la fois des propriétés extractantes et stabilisantes vis-à-vis de protéines membranaires.

Dans ce projet, notre objectif est de poursuivre nos efforts pour développer et tester des détergents fluorés (i) synthétisable en quantité et en pureté suffisante pour permettre une utilisation rapide dans la communauté scientifique; (ii) capable d’afficher des propriétés d’auto-assemblage compatibles avec des analyses structurales des protéines membranaires par cristallographie aux rayons X notamment; (iii) capable également de se partitionner et de solubiliser les bicouches lipidiques de façon rapide et de façon thermodynamiquement contrôlée; (iv) d’extraire les protéines membranaires directement à partir de membranes natives ou synthétiques sans nécessiter l’ajout de détergents; et (v) d’offrir un environnement stabilisant pour les protéines ainsi extraites afin qu’elles conservent leur structure et leur fonction native sur des plages de temps compatibles avec leur étude fonctionnelle et structurale.
De tels détergents fluorés ouvriraient de nouvelles possibilités pour l’étude in vitro des protéines membranaires d’intérêt physio- et pharmacologique trop instables en détergent pour être étudiées. Ce projet hautement interdisciplinaire sera réalisé grâce à un consortium franco-allemand particulièrement qualifié pour traiter avec succès la synthèse, les études physico-chimiques, biophysiques, biochimiques ainsi que la biologie structurale des détergents fluorés et des protéines membranaires solubilisées dans ce nouveau milieu.

Référence

ANR-16-CE92-0001-01

Site web

https://anr.fr/Projet-ANR-16-CE92-0001

Programme

ANR – Générique

Type de projet

PRC

Durée

3 ans et demi

Responsable Scientifique

Georges LINARES et Damien MALINAS

Laboratoire(s)

UPR 4128 LIA – Laboratoire Informatique d’Avignon

UMR 8562 CNE – Dynamique des mondes sociaux ECC

Coordination du projet

Avignon Université

Partenaires

Syllabs – Cabinet d’études et de sondages – EURECOM

Résumé

Les festivals connaissent un succès croissant et certains d’entre eux, comme Cannes ou Avignon, suscitent une activité très significative sur le Web. Le projet propose d’analyser cette activité pour mieux comprendre les pratiques festivalières et développer des méthodes d’accès et de visualisation des contenus générés dans et autour des festivals. Ces deux objectifs sont complémentaires et les problèmes scientifiques sous-jacents relèvent à la fois des sciences et des technologies de l’information et des sciences humaines et sociales, qui sont associées dans le projet.
Le projet se concentre donc sur deux axes : l’étude des usages via des données collectées sur la toile et la ré-éditorialisation des contenus captés ou produits par les internautes. Ces deux axes reposent sur la collecte des données liées à un festival à partir de sources variées (Twitter, blogs, forums, etc.). La structuration de ces collections doit permettre d’y mener des enquêtes, d’en extraire de la connaissance sur les publics et les pratiques culturelles, de montrer des points de vue particuliers ciblant une catégorie de spectateurs :
– structuration : il s’agira d’extraire des descripteurs, d’identifier des similarités, de produire des représentations concises des contenus. Nous proposerons des paradigmes de représentation robuste des documents, basés en particulier sur les méthodes à régressions partielles, qui permettent de combiner connaissance à priori et analyses non supervisées de grandes quantités de données.
– terrains numériques : l’objectif de cet axe est de repenser ce que pourraient être les outils d’enquête et de suivre les publics dans leurs choix et leurs interactions spectatoriels (choix d’un spectacle, conseils, évaluation). L’invention d’un terrain numérique pose la question du protocole d’observation du comportement des publics, de la quantité d’informations, des stratégies de collecte et de sélection, de la capacité à traiter ce qui doit devenir des données. La structuration automatique des données collectées nous amènera donc à traiter la question de l’existence des terrains numériques et à proposer un cadre technologique et méthodologique pour leur exploration.
-ré-éditorialisation : l’objectif est d’exploiter les données vidéos collectée pour la composition de vues synthétiques des collections. Concrètement, il s’agira de produire automatiquement des films répondant à une demande précise de l’utilisateur (par exemple: une présentation courte des spectacles d’une journée des Transmusicales). Nous évaluerons des approches basées sur l’extraction puis le ré-assemblage de segments vidéos, en traitant les questions de fond liées aux fonctions d’intérêt dans un contexte culturel et aux logiques de composition, problèmes ouverts qui seront traités conjointement par les informaticiens et par les sociologues.
Le potentiel de rupture porté par le projet est donc lié aux réponses qu’il apportera à la question des terrains d’enquêtes numériques et sur la façon dont nous envisageons d’intégrer la connaissance des publics et de la réception des oeuvres dans les systèmes de ré-éditorialisation des contenus vidéos. Les expériences seront réalisées sur 4 grands festivals : festival de théâtre d’Avignon, le festival Lumière, les Transmusicales et le festival de Cannes. Le projet a été présenté aux sociétés organisatrices des trois premiers et à la société UniversCiné, qui couvre assez largement le festival de Cannes. Tous nous ont apporté formellement leur soutien.La valorisation des résultats du projet passera notamment par le développement d’un « Observatoire des festivals », application ouverte destinée à la fois au public, aux organisateurs et aux analystes. Cette application devrait offrir une vue synchrone des indicateurs extraits automatiquement, permettre la navigation dans les données collectées et structurées, de montrer des aperçus vidéos composés automatiquement en fonction d’une requête utilisateur.

Référence

ANR-14-CE24-0022-01

Site web

https://anr-gafes.univ-avignon.fr/

Programme

ANR – Générique

Type de projet

PRC

Durée

3 ans et 11 mois

Responsable Scientifique

Grégory DURAND

Laboratoire

UPRI-Laboratoire-Unité propre de Recherche et d’Innovation
ERIT-Equipe de recherche et d’innovation thématique-S2CB

Coordination du projet

CNRS Languedoc-Roussillon

Partenaires

Equipe Chimie Bioorganique et Systèmes Amphiphiles

Résumé

Les récepteurs couplés aux protéines G (RCPG) constituent une des principales familles de récepteurs membranaires et sont impliqués dans de nombreux processus cellulaires fondamentaux. Ils constituent, de ce fait, une des principales cibles pour des molécules à visée thérapeutique avec des applications potentielles dans de multiples sphères cliniques telles que les désordres neurologiques et métaboliques, l’inflammation, le cancer ou les infections virales. La plupart des programmes de recherche de candidats médicament ciblant un RCPG reposent sur l’utilisation de systèmes de criblage fondés sur des cellules surexprimant les récepteurs suivie de la détection de la liaison des ligands ou de la production de seconds messagers. Bien que ces programmes aient conduit à l’identification des molécules actuellement utilisées en thérapeutique, les techniques de criblage employées présentent des inconvénients majeurs qui limitent l’identification de composés originaux. En particulier, les nouveaux concepts issus de la pharmacologie des RCPG tels que la sélectivité fonctionnelle, la dimérisation des récepteurs ou encore la modulation allostérique de la réponse posent le problème du choix d’une détection appropriée. De la même façon, le criblage de fragments de basse affinité est impossible dans les systèmes cellulaires, alors qu’il s’agit pourtant d’un procédé central en chimie médicinale. L’accès à des tests qui permettraient de visualiser des voies de signalisation multiples, prendraient en compte la dimérisation des récepteurs et la sélectivité fonctionnelle des ligands et permettraient le criblage de fragments est donc absolument nécessaire pour l’identification et l’optimisation de composés originaux ciblant les RCPG. Dans ce contexte, nous proposons ici un programme multidisciplinaire visant à mettre en place des biosenseurs originaux pour des tests de criblage acellulaires qui reposent sur l’immobilisation, sur des supports solides, de récepteurs purifiés sous forme de monomères et hétérodimères. L’immobilisation sera réalisée via des polymères amphiphiles non-ioniques fonctionnalisés, permettant ainsi la fixation de la protéine native. Ces biosenseurs présentent la plupart des caractéristiques nécessaires à un test à haut débit, à savoir la possibilité de cribler un nombre important de composés, la préservation des propriétés pharmacologiques des récepteurs après immobilisation, de faibles coûts de mise en œuvre, la possibilité de miniaturiser et automatiser le test, l’absence d’utilisation de composés radiomarqués ou encore la sensibilité et la robustesse. Ils seront validés par criblage de banques de composés par deux techniques complémentaires. La première, la Résonance Plasmonique de Surface, apportera des informations sur les propriétés de fixation des ligands sur le récepteur immobilisé (affinité, constantes cinétiques). La seconde, fondée sur l’utilisation de la fluorescence, renseignera sur l’état l’activation du récepteur sous l’effet de la liaison du ligand. La preuve de concept sera faite avec le récepteur GHSR de la ghréline. Indépendamment du fait que ce récepteur est un modèle de RCPG permettant l’extension ultérieure à d’autres récepteurs de la même famille, il s’agit également d’une cible thérapeutique majeure avec des applications potentielles dans le traitement de l’obésité, du diabète et de l’addiction aux drogues d’abus ou à l’alcool. Ce travail devrait ainsi, d’une part, permettre la mise en œuvre de biosenseurs originaux pour le criblage de composés ciblant les RCPG et, d’autre part, l’identification de ligands originaux du récepteur GHSR pour une utilisation thérapeutique ultérieure.

Référence

ANR-17-CE18-0022-03

Site web

https://anr.fr/Projet-ANR-17-CE18-0022

Programme

ANR – Spécifique

Sous-Programme

FLASH DATA

Type de projet

PRC

Durée

2 ans

Responsable Scientifique

Jean-François BONASTRE

Laboratoire

UPR 4128 LIA – Laboratoire Informatique d’Avignon

Coordination du projet

EURECOM

Partenaires

Centre de recherche Inria Nancy Grand-Est

Résumé

A travers l’usage croissant des interfaces vocales et des applications smartphone, une quantité croissante de données vocales est capturée, stockée et utilisée par les fournisseurs des services. Dans la majorité des cas, cet usage des données vocales ne montre pas d’intention malveillante.
Cependant, les données vocales contiennent par nature des informations personnelles, sensibles, qui ne doivent pas être diffusées à d’autres.
Elles informent sur votre état de santé, votre statut socio-économique, vos origines géographiques et ethniques, votre personnalité ou vos ressentis émotionnels. Les enregistrements vocaux sont également une source d’information sur votre cercle familial, vos proches ou vos relations professionnelles.
Protéger ces informations des usages malveillants ou éthiquement répréhensibles est une nécessité pour éteindre le risque d’atteintes à notre vie privée.

Deux stratégies permettent cela : protéger/crypter les données ou les anonymiser. Si le choix de la meilleure solution dépend naturellement de l’application visée, ces deux stratégies sont complémentaires, d’une part, et l’anonymisation est plus flexible pour un surcoût réduit, d’autre part.
Les techniques d’anonymisation peuvent être mises en œuvre pour supprimer du signal vocal les éléments personnels à protéger tout en conservant l’intelligibilité et la qualité du message. Une fois anonymisés, les enregistrements vocaux peuvent être traités, stockés et (re)utilisés sans risque de lier les éléments d’information aux locuteurs concernés. Malheureusement, l’offre de solutions d’anonymisation et les progrès de celles-ci restent limités par un manque d’outils et de jeux de données ouverts accessibles à tous. Ces éléments sont indispensables pour évaluer la performance des solutions et les comparer. Comme pour tout problème de reconnaissance de formes, ce manque de ressources est un verrou majeur.

Harpocrates formera un groupe de travail et une communauté de développement de développement de ressource qui en plus de proposer les premières ressources ouvertes du domaine organisera également le premier challenge international en anonymisation de données vocales. L’expérience acquise dans d’autres domaines (reconnaissance de la parole, du locuteur, de la langue…) montre qu’un tel effort, poursuivi année après année, permet des progrès significatifs et un transfert rapide vers l’industrie. Ce dernier point est capital car la demande en termes de protection des données personnelles croit fortement et est urgente (des données publiées ne peuvent plus être protégées). Les solutions d’anonymisation seront de fait un composant nécessaire pour répondre aux attentes de la législation sur la protection des données sensibles, pour les approches de développement « privacy by design »?

Référence

ANR-19-DATA-0008-02

Site web

https://anr.fr/Projet-ANR-19-DATA-0008

Programme

ANR – Spécifique

Sous-Programme

SHS FRAL

Type de projet

PRCI

Durée

4 ans

Responsable Scientifique

Frédéric MONIER

Laboratoire

UMR 8562 CNE Dynamique des mondes sociaux  HEMOC

Coordination du projet

Avignon Université

Partenaires

Technische universität Darmstadt Institut für Geschichte – Sorbonne identités

Résumé

La transparence est aujourd’hui considérée comme une valeur politique, synonyme de démocratie, de participation et de responsabilité. On oublie ainsi deux points: les exigences de transparence ne sont ni passagères, ni réellement nouvelles, mais liées à des contextes déterminés et dotées d’une histoire propre. De plus, elles ont des effets ambivalents. Comme il n’y a encore pratiquement pas d’études historiques de la transparence, nous avons mis l’accent sur l’histoire politique.
Apparemment, la transparence est une propriété d’un système politique. En réalité, elle s’exprime dans des exigences politiques de transparence, venues du bas, en particulier pour l’accès à l’information et les questions que le politique rend « lisibles ». Nous entendons nous concentrer sur l’histoire des demandes de transparence dans le domaine politique en Allemagne et en France. Nos directions d’enquêtes portent, premièrement sur l’histoire des commissions d’enquête parlementaire entre 1890 et 1970 environ, et deuxièmement sur deux scandales qui ont eu un fort effet dans le domaine du financement des partis (le scandale Flick et l’affaire Urba). Cela est lié à plusieurs interrogations : quand est-ce que la transparence est devenue une exigence effective ? Quelles mesures ont-elles été proposées ? Qui étaient les acteurs principaux ? Dans quelles configurations ? L’exigence de transparence a-t-elle produit plus ou moins de connaissance des processus politiques? A-t-elle fortifié la confiance politique, ou au contraire l’a-t-elle réduit ? Parmi les théories de la transparence, se signalent les catégories analytiques mises au point par David Heald [Heald, 2006].
Parmi nos hypothèses de travail figure l’idée, selon laquelle les demandes de transparence durant la première moitié du XXe siècle portaient plutôt sur des membres du personnel politique, selon une perspective individualisée et au cas par cas. À partir des années 1970-1980, l’injonction de transparence a pris une nouvelle dimension, et cette exigence s’est portée sur le système lui même, sommé de se montrer transparent. À l’appui de cette hypothèse interprétative, un argument peut être évoqué: l’exigence croissante de transparence n’a pas renforcé la confiance dans la démocratie. En outre, la configuration générale et les acteurs ont changé. À partir des années 1980, sont apparus, aux côtés de la presse, de nouveaux acteurs issus de la société civile, qui ont plaidé pour des instruments producteurs de transparence.
Le projet ici proposé s’inscrit dans le fil d’une coopération entre chercheurs français et allemands associés depuis 2011 dans des études historiques sur la corruption. Cette nouvelle thématique élargit et complète ces recherches antérieures, dans la mesure où la transparence est comprise, dans le contexte, comme un concept opposé à celui de corruption. Ce projet de recherche bénéficiera du réseau scientifique international de ses animateurs.

Référence

ANR-17-FRAL-0013-01

Site web

https://anr.fr/Projet-ANR-17-FRAL-0013

Programme

ANR – Générique

Type de projet

Projet de recherche collaboratif

Durée

5 ans et 5 mois

Responsable scientifique

Guilhem Boulay

Laboratoire(s)

UMR 7300 ESPACE – Étude des Structures, des Processus d’Adaptation et des Changements de l’Espace

Coordination du projet

UPEM

Partenaires

TELEMME – CDED – ESPACE – LAB’URBA – LATTS

Résumé

InveST analyse la mise en œuvre de l’injonction au développement durable dans l’action publique territoriale dans un contexte de renforcement de la rigueur financière. Deux hypothèses seront examinées. La première énonce que les rationalités, instruments et pratiques associés à la rigueur financière pèsent sur la sélection des priorités et le contenu de l’action publique territoriale en matière de durabilité ; et la seconde que l’action publique territoriale sous contrainte financière contribue à l’accentuation des disparités socio-spatiales entre et au sein des territoires. Le projet testera ces hypothèses dans la perspective de dépasser le verrou scientifique constitué par l’insuffisante prise en compte par la littérature des contraintes et opportunités politico-économiques dans lesquelles s’inscrivent les politiques de durabilité des systèmes territoriaux. Les travaux en sciences sociales portant sur le rôle des collectivités locales dans les politiques de durabilité et ceux envisageant les conséquences de la rigueur financière sur l’action publique territoriale restent en effet largement cloisonnés, empêchant d’analyser les articulations entre durabilité et rigueur financière. Pour lever ce verrou, nous porterons l’attention sur les pratiques financières et les relations de pouvoir traversant les processus de mise en durabilité. Cela nous permettra de qualifier le rôle de la rigueur dans la transformation des agendas politiques, des objectifs et des conditions de production de l’action publique de la durabilité. L’une des originalités du projet consistera à prendre en compte la diversité des configurations territoriales et des spécificités des différents domaines d’action publique étudiés.

Référence

ANR-18-CE22-0004-03

Site web

https://anr.fr/Projet-ANR-18-CE22-0004

Programme

ANR- Sciences Humaines et Sociales

Sous-programme

Arts, langues, littératures, philosophies

Type de projet

Projet de recherche collaboratif

Durée

4 ans

Responsable Scientifique

Florence BISTAGNE

Laboratoire

UPR 4277 ICTT – Laboratoire Identité Culturelle, Textes et Théâtralité

Coordination du projet

Avignon Université

Partenaires

Université Lyon II, Università di Napoli Federico II, Université de Lausanne, Università della Campania Luigi Vanvitelli, Universitat de València, Università di Napoli l’Orientale, Università di Napoli Federico II, Museo Nacional de Ceràmica y Artes Suntuarias, Museo Nacional del Prado (Madrid), CESR UMR, MSH Lyon Saint-Etienne,

Résumé

Le programme LUXART a pour objectif de renouveler l’étude des pratiques et des théories sur le luxe tout au long du XVe siècle dans l’aire méditerranéenne occidentale, sur laquelle la monarchie aragonaise de Naples (1442-1501) déploie son influence. Cet enjeu, fondamental dans la culture italienne, doit être abordé à la croisée des études littéraires, linguistiques et artistiques. D’une part, les textes sur l’usage de l’argent et sur l’esthétique du luxe, notamment ceux de Giovanni Pontano (1429-1503), sortiront de leur isolement théorique, par l’édition critique numérique avec de nouvelles traductions en français et d’autre part, ils seront étudiés en symbiose avec les œuvres et objets qu’ils mentionnent, en resituant dans ce contexte les œuvres d’un patrimoine artistique aujourd’hui démembré (manuscrits, médailles, peintures, sculptures, ornements domestiques). Du latin au vulgaire napolitain, en passant par le castillan utilisé dans les actes de la chancellerie d’Alphonse V, les textes envisagés permettront de constituer de nouvelles généalogies critiques et de réévaluer un corpus mal sollicité sur la théorie artistique et la consommation ostentatoire de la Renaissance.

Référence

ANR-23-CE54-0002-01

Programme

ANR – Générique

Type de projet

PRCE

Durée

3 ans et 6 mois

Responsable scientifique

Rachid ELAZOUZI

Laboratoire(s)

UPR 4128 LIA Laboratoire Informatique d’Avignon

Coordination du projet

Orange

Partenaires

Nokia Bell Labs France – Centre de recherche Inria Grenoble Rhône-Alpes – Télécom SudParis – Laboratoire des Signaux et Systèmes – Centre d’études et de recherche en informatique et communications

Résumé

Les réseaux 5G, en répondant aux besoins des industries verticales et des villes intelligentes, auront la capacité de révolutionner nos vies quotidiennes et notre industrie. Ces réseaux devront alors servir du trafic avec des exigences très différentes, allant de la connectivité massive de capteurs jusqu’à la télé-opération de robots en temps réel. Le concept de slicing permet de satisfaire ces exigences diverses sur une infrastructure unique. En effet, le slicing permet de créer des partitions de réseau isolées sur un plan logique, un slice représentant une unité de ressource programmable (fonction réseau, calcul, stockage). Le slicing a été initialement proposé pour les réseaux coeur, mais il est question de l’utiliser dans les réseaux d’accès radio (RAN – Radio Access Network) grâce à l’essor de technologies permettant son implémentation : principalement la virtualisation des équipements du RAN et la programmabilité de son contrôle, l’avènement du Mobile Edge Computing et la conception flexible de réseaux 5G sur les couches physiques et MAC. Cependant, plusieurs challenges doivent être relevés pour permettre une implémentation complète du slicing dans le réseau d’accès mobile, en particulier concernant la gestion des slices et des plans de contrôle et de données associés, ainsi que sur les mécanismes d’ordonnancement et d’allocation des ressources.
Le projet MAESTRO-5G développe des technologies permettent d’implémenter et de gérer les slices des réseaux d’accès radio 5G, pour permettre de fournir des services hétérogènes, mais aussi pour permettre le partage dynamique d’infrastructure entre opérateurs. Pour y parvenir le projet rassemble des experts des domaines de l’évaluation de performances, de la théorie des files, de la théorie des jeux et de la recherche opérationnelle.

Le projet Maestro-5G doit fournir :

  • un cadre pour l’allocation de ressources pour les slices, qui intègre des contraintes de qualité de services variées et l’utilisation de ressources hétérogènes;
  • une architecture complète de gestion des slices qui inclut des modules de provisionnement et de ré-optimisation ainsi que leur intégration dans les couches SDN et NFV ;
  • une couche business pour le slicing dans les réseaux 5G, afin de garantir que les services 5G seront commercialement viables et seront acceptés par le marché ;
  • un démonstrateur, démontrant la réalisabilité pratique ainsi que l’intégration des fonctions et mécanismes principaux proposés dans le projet, sur une plateforme de réseau d’accès 5G.

Cette plateforme ainsi enrichie doit permettre de simuler plusieurs services 5G et de démontrer les aspects clés du slicing tels que:

  • la possibilité de créer et d’opérer plusieurs slices en parallèle, sur la même infrastructure physique et partageant les mêmes ressources radio, chaque slice ayant ses propres contraintes de qualité de service,
  • la possibilité de créer et d’opérer plusieurs slices, indépendantes les unes des autres, en parallèle, partageant la même infrastructure et appartenant à des acteurs différents, par exemple différents opérateurs ;
  • démontrer le contrôle entre les slices, garantissant le respect des contrats de service et un partage de ressources équitable.

Référence

ANR-18-CE25-0012-04

Site web

https://anr.fr/Projet-ANR-18-CE25-0012

Programme

ANR-Thématiques Spécifiques en Intelligence Artificielle (TSIA) 2023

Sous-programme

Giga-modèles pour le traitement automatique du langage naturel et des données multimodales

Type de projet

Projet de recherche collaboratif

Durée

4 ans

Responsable scientifique

Mickaël ROUVIER

Laboratoire

UPR 4128 LIA – Laboratoire Informatique d’Avignon

Coordination du projet

Université de Nantes

Partenaires

Université d’Aix- Marseille
Centre Hospitalier Universitaire de Nantes (CHU Nantes)

Résumé officiel

L’arrivée récente des Grands Modèles de Langue (Large Language Models ou LLMs) et de leurs outils associés pour le grand
public laisse entrevoir des enjeux majeurs pour la société. Parmi les nombreux domaines qui sont, ou vont être, impactés par
ces modèles génératifs, le domaine biomédical est un de ceux qui actuellement attirent le plus l’attention des industriels, des
chercheurs, mais également du grand public. En effet, le besoin d’outils et d’applications potentielles paraît immense, que ce
soit, par exemple, au niveau du traitement de documents textuels, d’imagerie médicale, ou encore d’interaction par la parole. De
par la nature sensible des données à caractère personnel manipulées et des craintes de la société associées aux outils d’aide à
la décision, les travaux en traitement automatique du langage (TAL) se doivent d’innover en considérant les problématiques
inhérentes à ce domaine. Dans le cadre du projet MALADES, nous proposons des approches innovantes pour l’intégration de
LLMs dans les centres de santé. Il s’agit de doter ces centres d’outils du TAL dérivés des LLMs et adaptés pour le domaine
biomédical en gardant une souveraineté des modèles et un contrôle complet de leurs données de santé. Les travaux que nous
menons se concentrent sur quatre axes de recherche : 1) l’étude des aspects légaux et éthiques en France des LLMs pour le
domaine biomédical, 2) l’intégration d’une interaction vocale des LLMs au moyen d’approches end-to-end, incluant la collecte
massives de données de parole, 3) La collecte de nouveaux cas d’étude originaux orientés pour l’évaluation de modèles de
langue génératifs, et 4) l’intégration de LLMs dynamiques et souverains pour le domaine biomédical, déployés sur des
ressources matérielles contraintes, et intégrant des approches originales fournissant aux LLMs des capacités supplémentaires
aux moyens de bases de connaissances maîtrisées et vérifiées.

Référence

ANR-23-IAS1-0005-02

Site web

https://www.univ-nantes.fr/universite/vision-strategie-et-grands-projets/malades-grands-modeles-de-langue-adaptables-et-souverains-pour-le-domaine-medical-francais

Programme

ANR – Sciences humaines et sociales

Sous-programme

Etudes du passé, patrimoines, cultures

Type de projet

Projet de recherche collaboratif

Durée

4 ans

Responsable Scientifique

Gerald CULIOLI

Laboratoire

UMR 7263 IMBE – Institut Méditerranéen de Biodiversité et d’Écologie EECAR

Coordination du projet

CNRS

Partenaires

Avignon Université – Université de Montpellier – Archéozoologie, archéobotanique, sociétés, pratiques et environnements (AASPE)

Résumé

Ce projet propose de réunir archéologues, archéomètres, tracéologues et archéozoologues pour déterminer les zones d’origine de ces biens prestigieux et comprendre la nature et les modalités des relations entre les régions Maya et le Costa Rica. Nous passons en revue toutes les données archéologiques disponibles sur les objets étudiés afin de documenter leurs contextes et leurs cadres chronologiques. L’étude de leur provenance implique des analyses chimiques des pierres et des adhésifs par un ensemble de techniques spectroscopiques, chromatographiques, de datation et isotopiques. Les microtraces de fabrication des pierres seront caractérisées par la tracéologie afin de comprendre les techniques lapidaires et de déterminer si elles ont été importées ou travaillées localement. Les matériaux de spondylus trouvés dans la région maya seront soumis à des analyses malacologiques et isotopiques afin de distinguer leurs sources géographiques. L’étude iconographique et épigraphique du corpus de plaques et de miroirs permettra de documenter leur origine, leur date et leur statut dans l’aire maya. Enfin, toutes les données seront croisées en étant placées dans des contextes géographiques et chronologiques afin de comprendre les distributions, les productions, les réutilisations et les fonctions de ces biens dans les deux régions. Ce projet nous permet de repenser les anciennes distinctions entre ce que l’on appelle la Mésoamérique et ce que l’on considère souvent comme une « zone intermédiaire » afin de définir les entités qui les composent de manière beaucoup plus dynamique.

Référence

ANR-22-CE27-0023-05

Site web

https://anr.fr/Project-ANR-22-CE27-0023

Programme

ANR – Sciences du numérique

Sous-programme

Interaction, robotique

Type de projet

Projet de recherche collaboratif entreprise

Durée

4 ans

Responsable Scientifique

Fabrice LEFEVRE

Laboratoire

UPR 4128 LIA – Laboratoire Informatique d’Avignon

Coordination du projet

Avignon Université

Partenaires

Laboratoire Hubert Curien (Université Jean Monnet) – Centre de recherches INRIA Grenoble – APHP Maladie d’Alzheimer

Résumé

Dans muDialBot, notre ambition est d’incorporer pro-activement des traits de comportements humains dans la communication parlée humain-robot. Nous projetons d’atteindre une nouvelle étape de l’exploitation de l’information riche fournie par les flux de données audio et visuelles venant des humains. En particulier en extraire des événements verbaux et non-verbaux devra permettre d’accroître les capacités de décision des robots afin de gérer les tours de parole plus naturellement et aussi de pouvoir basculer d’interactions de groupe à des dialogues en face-à-face selon la situation.

Récemment on a vu croître l’intérêt pour les robots compagnons capable d’assister les individus dans leur vie quotidienne et de communiquer efficacement avec eux. Ces robots sont perçus comme des entités sociales et leur pertinence pour la santé et le bien-être psychologique a été mise en avant dans des études. Les patients, leurs familles et les professionels de santé pourront mieux apprécier le potentiel de ces robots, dans la mesure où certaines limites seront rapidement affranchies, telles leur capacité de mouvement, vision et écoute afin de communiquer naturellement avec les humains, aù-délà de ce que permettent déjà les écrans tactiles et les commandes vocales.

Les résultats scientifiques et technologiques du projet seront implémentés sur un robot social commercial et seront testés et validés avec plusieurs cas d’usage dans le contexte d’une unité d’hôpital de jour. Une collecte de données à grande échelle viendra compléter les test in-situ pour nourrir les recherches futures.

Référence

ANR-20-CE33-0008

Site web

https://anr.fr/Projet-ANR-20-CE33-0008

Programme

ANR – Sciences du numérique

Sous-programme

Caractérisation des structures et relations structure-fonction de macromolécules biologiques

Type de projet

Projet de recherche collaboratif International

Durée

3 ans et 8 mois

Responsable Scientifique

Grégory DURAND

Laboratoire

UPRI – ERIT S2CB

Coordination du projet

Avignon Université

Partenaires

Leipzig University (Allemagne) – Technische Universität Kaisersalutern (Allemagne)

Résumé

Les protéines membranaires (PMs) jouent un rôle fondamental dans le fonctionnement cellulaire en contrôlant la communication entre cellules et avec leur environnement ainsi que le transport de nutriments. Les PMs représentent à l’heure actuelle environ la moitié des cibles thérapeutiques. Malheureusement, leur caractérisation reste délicate en raison de la nécessite de maintenir un environnement mimant la membrane native. Or, les méthodes classiques pour isoler les PMs reposent souvent sur une chimie inappropriée et agressive conduisant à leur dénaturation.

Parmi les stratégies chimiques alternatives, les nanodisques de phospholipides et de copolymères amphiphiles styrène/acide maléique (SMA) présentent un fort potentiel. Le SMA peut former directement des « patchs » à partir de membranes naturelles ou artificielles. Ces « patchs », constitués d’une double couche lipidique dans laquelle la protéine est insérée, imitent l’organisation lamellaire des membranes cellulaires. Cependant, cette technologie prometteuse est limitée par le fait que les polymères actuellement disponibles affectent la dynamique des lipides et de la protéine qui est un élément essentiel à la fonction des PM. Deux autres limitations sont la présence de cycles aromatiques qui absorbent fortement en UV ainsi que la densité de charge élevée due à la présence de groupes carboxyliques sur la chaîne polymère. Dans ce contexte, NanoBelt vise à développer de nouveaux polymères amphiphiles combinant une forte capacité à solubiliser des membranes tout en ayant un impact modéré sur la dynamique des lipides, une faible absorption UV, une densité de charge négligeable, ainsi que la capacité à maintenir la fonction et de la dynamique conformationnelle des protéines encapsulées.

NanoBelt repose sur le constat que les propriétés solubilisantes des polymères dépendent fortement de plusieurs paramètres structuraux (nature et répartition des monomères le long du polymère, hydrophobie, degré de polymérisation…) qui à leur tour modulent la dynamique conformationnelle des protéines et des lipides. Ces variables cruciales ne pourront être ni identifiées ni améliorées si des séries de polymères aux propriétés bien définies ne sont pas produites.

Référence

ANR-20-CE92-028

Site web

https://anr.fr/Projet-ANR-20-CE92-0028

Programme

ANR – Sciences du numérique

Sous-programme

Fondements du numérique : informatique, automatique, traitement du signal

Type de projet

Projet de recherche collaboratif

Durée

4 ans

Responsable Scientifique

Yezekael HAYEL

Laboratoire

UPR 4128 LIA – Laboratoire Informatique d’Avignon

Coordination du projet

CNRS

Partenaires

Centre de recherche en automatique de Nancy (Université de Lorraine) — Laboratoire des signaux et systèmes (Université Paris-Saclay) – – Bureau d’Economie Théorique et Appliquée (Université Strasbourg Lorraine)

Résumé

Dans le projet NICETWEET nous développons une méthodologie à la fois innovante, complète et unifiée pour traiter un problème important qui apparaît dans de nombreux domaines, tels que l’économie, les finances et la politique. Plusieurs décideurs se retrouvent en compétition pour promouvoir leurs produits, services ou idées au sein d’un grand groupe d’agents qui sont connectés via un réseau social physique ou numérique. Les agents sont donc sous l’influence (endogène) de leurs voisins dans le graphe du réseau social mais aussi sous l’influence exogène des décideurs. Ces derniers ont une certaine connaissance du réseau social et de la dynamique d’opinion sous-jacente et l’utilisent pour implanter des mécanismes d’influence ciblés. Pour traiter ce problème intrinsèquement interdisciplinaire, nous avons formé une équipe de chercheurs qui possèdent les compétences dans les domaines suivants: théorie du contrôle et plus précisément dynamique de l’opinion, théorie des jeux, théorie de l’information, réseaux complexes et économie. Contrairement aux travaux les plus proches, nous supposons que le réseau social possède certaines caractéristiques essentielles pour modéliser de manière réaliste les applications économiques d’intérêt qui sont traitées. Il est très important de noter que nous supposons également la présence de multiples décideurs. Nos connaissances préliminaires sur les applications économiques indiquent que certaines caractéristiques clés doivent être prises en compte simultanément. Ces caractéristiques sont les suivantes: le réseau social est très grand est parcimonieux; les agents peuvent rejoindre ou quitter le réseau à tout moment; les décideurs peuvent avoir une connaissance imparfaite des paramètres du réseau social et de la dynamique des opinions; certains agents peuvent échanger non seulement leur opinion mais aussi leur fiabilité; présence éventuelle d’extrémistes. Une caractéristique fondamentale au regard de l’état de l’art est que la dynamique de l’opinion peut être contrôlée et de surcroît par plusieurs décideurs. Pour traiter ce problème de dynamique d’opinion contrôlée en présence de décideurs qui peuvent avoir des intérêts divergents (i.e., des fonctions d’utilités non-alignées), nous aurons recours à l’exploitation de la théorie des jeux et nous contribuerons à établir des passerelles entre la littérature formelle du contrôle et celle de l’économie beaucoup moins formelle. En particulier, un de nos objectifs techniques sera d’élaborer une technique formelle et systématique de conception de stratégies de marketing viral qui soient à la fois efficaces et implantables. Une question importante dans la conception des stratégies de marketing viral est la politique d’allocation spatio-temporelle d’un budget de marketing, publicitaire ou d’influence, le problème étant de savoir comment répartir un budget entre les agents des réseaux sociaux et dans le temps. L’efficacité sera mesurée en termes de qualité d’exploitation de la connaissance disponible pour un décideur ainsi qu’en termes de réaction stratégique. Pour concevoir ces stratégies et manager le risque propre à certaines voies de recherche, nous adopterons pour celles-ci plusieurs approches en parallèle. Une approche sera d’exploiter les théorèmes de caractérisation des performances limites sous information partielle pour des modèles de jeux stochastiques (répétés) comme guide de conception. Une autre sera d’exploiter et d’adapter des règles d’apprentissage multi-joueur telles que celle issues de l’apprentissage multi-agent bayésien. Pour mettre en oeuvre la feuille de route ambitieuse de NICETWEET et mener les recherches correspondantes, les résultats récents et prometteurs obtenus au sein du consortium seront exploités comme base du projet.

Référence

ANR-20-CE48-009

Site web

https://anr.fr/Projet-ANR-20-CE48-0009

Programme

ANR – Sciences de la vie

Sous-programme

Physiologie et physopathologie

Type de projet

Projet de recherche collaboratif

Durée

4 ans

Responsable Scientifique

Cyril REBOUL

Laboratoire

UPR 4278 LAPEC – Laboratoire de Physiologie Expérimentale Cardiovasculaire

Coordination du projet

Avignon Université

Partenaires

Physiologie et médecine expérimentale du coeur et des muscles – Médicaments et Technologies pour la Santé

Résumé

L’augmentation des contraintes mécaniques cardiaques aboutit à des adaptations fonctionnelles et éventuellement structurelles du myocarde lorsque le stress mécanique persiste. La répétition de ces contraintes mécaniques peut conduire à un remodelage physiologique du cœur, comme cela est observé en réponse à l’exercice physique. Néanmoins, lorsque ce stress devient chronique, il peut conduire à un remodelage défavorable associé à des incohérences fonctionnelles et ainsi au développement d’une pathologie cardiaque. À ce jour, le principal traitement permettant de limiter l’apparition d’un remodelage cardiaque délétère consiste à réduire la surcharge de pression. Par conséquent, il semble essentiel d’améliorer la compréhension des voies de signalisation impliquées dans la réponse fonctionnelle et structurelle du cœur à l’augmentation des contraintes de charges ventriculaires.
En réponse à l’étirement, le myocarde augmente sa production d’oxyde nitrique (NO). Jusqu’à récemment, la signalisation du NO était considérée comme étant liée à l’activation de la voie impliquant la protéine kinase dépendante de la guanosine monophosphate cyclique (GMPc) (voie NO-GMPc-PKG). Cependant, le NO peut également moduler la signalisation cellulaire en se fixant directement et de manière covalente aux résidus cystéines de protéines, un processus appelé S-nitrosylation (SNO). Ce second mécanisme a été moins étudié et est au centre du projet NitrosoCard. La SNO est une modification post-traductionnelle réversible majeure impliquée dans la régulation de l’activité des protéines et permettant aussi de les protéger d’une oxydation irréversible. Ce processus a été bien décrit dans les mitochondries où il est associé à une moindre production d’espèces réactives de l’oxygène et à une cardio-protection. Les myofilaments cardiaques sont bien décrit comme étant sensibles aux phénomènes de signalisation redox et, sont par conséquent, potentiellement sensibles à la SNO. Néanmoins, à ce jour le rôle de la SNO dans la régulation de la machinerie contractile cardiaque demeure non élucidé.
Dans le projet NitrosoCard, nous émettons l’hypothèse qu’un stress d’étirement cardiaque est à l’origine d’une translocation de la signalisation endothéliale NO-synthétase (eNOS) -SNO vers les myofilaments, permettant de réguler leurs propriétés contractiles. Lorsque le stress d’étirement myocardique devient trop important et chronique, cette signalisation cellulaire devient défectueuse et pourrait contribuer à expliquer le développement à plus long terme d’une réponse pathologique du cœur.
Les objectifs du projet NitrosoCard sont d’élucider le rôle de la SNO des protéines sarcomériques en réponse à un stress d’étirement en condition physiologique ou pathologique. Notre hypothèse sera testée à travers trois objectifs originaux permettant une approche de l’animal entier jusqu’à l’échelle moléculaire. Le projet NitrosoCard aura comme objectif d’évaluer 1- l’impact du stress d’étirement myocardique sur la translocation de la signalisation eNOS/NO/SNO vers les myofilaments ; 2- l’impact direct ou indirect de la SNO sur la fonction de la machinerie contractile en réponse à un étirement myocardique ; et enfin 3- si la répétition (activité physique) ou la chronicité (pathologie) des stress d’étirements myocardiques aboutissent à différents profils de S-nitrosylation des protéines de la machinerie contractile et ainsi à différents profils de réponses adaptatives du cœur.
Le projet NitrosoCard devrait permettre d’identifier de nouvelles voies de signalisation redox-dépendantes impliquées dans la réponse physiologique du cœur à une situation de stress. La perte de cette signalisation dépendante du NO pourrait jouer un rôle clé dans la transition vers un remodelage pathologique du cœur. L’identification de ces mécanismes pourrait aboutir à l’identification de nouvelles cibles moléculaires cruciales pour le développement de nouvelles stratégies thérapeutiques.

Référence

ANR-21-CE14-0058-01

Site web

https://anr.fr/Projet-ANR-21-CE14-0058

Programme

JPI : Patrimoine culturel, société et éthique

Sous-programme

Type de projet

JPI

Durée

4 ans

Responsable Scientifique

Julie DERAMOND

Laboratoire

UMR 8562 CNE – Dynamique des mondes sociaux

Coordination du projet

Avignon Université

Partenaires

Politecnico de Leiria (Portugal) – Université de Thessalie (Grèce)

Résumé

OLIVE4ALL est fondé sur l’idée de sensibiliser au développement durable par le biais du patrimoine. Nous souhaitons à partir de l’étude du patrimoine lié à l’olive et l’olivier, choisi parce qu’il est représentatif de l’identité méditerranéenne, porteur de valeurs et de symboliques fortes mais pas assez valorisées en Euro-Méditerranée, construire une méthodologie innovante, interdisciplinaire et transposable. A partir d’une approche critique du patrimoine, nous souhaitons étudier et rendre visible un patrimoine rural souvent négligé ainsi que les acteurs et communautés qui lui sont liés, tous n’étant pas conscients de la valeur sociétale de ce patrimoine. OLIVE4ALL retrace et met en exergue le processus de patrimonialisation et de constitution des communautés patrimoniales autour de l’olivier, interrogeant le concept même de patrimoine. Le projet propose une expérimentation inédite centrée sur un dispositif transmédia qui étudie comment des formes de médiation soigneusement élaborées fondées sur la narration, le sensoriel et le numérique peuvent être à même de sensibiliser des acteurs à plusieurs échelles territoriales ou des publics éloignés du patrimoine. OLIVE4ALL s’intéresse ainsi de près aux dispositifs permettant un accès inclusif au patrimoine. Une fois l’appropriation faite, reste l’action. Nous développerons des outils spécifiques afin d’aider les acteurs locaux à dialoguer et à se mettre en réseau, pour intégrer le patrimoine au cœur du développement de leur territoire. OLIVE4ALL souhaite ainsi valoriser le patrimoine dans la société, par des actions visant à renforcer les politiques publiques. L’objectif d’OLIVE4ALL est de démontrer qu’en donnant plus de place au patrimoine, on peut répondre aux challenges globaux que la crise sanitaire actuelle rend plus urgents encore. Valoriser un patrimoine alimentaire dans les sociétés européennes sensibilise plus largement les hommes et les femmes au développement durable, dans ses dimensions humaines et sociales, économiques, et environnementales. Afin de nous assurer de l’impact le plus large possible d’OLIVE4ALL, nous mobilisons largement les acteurs invités à participer et collaborer, afin de partager le savoir, apprendre des bonnes pratiques et susciter des changements durables, pour construire la société résiliente de demain.

Référence

ANR-21-CHIP-0002

Site web

https://anr.fr/Projet-ANR-21-CHIP-0002

Programme

ANR – Générique

Type de projet

PRCE

Durée

4 ans et 3 mois

Responsable Scientifique

Yannick ESTEVE

Laboratoire(s)

UPR 4128 LIA Laboratoire Informatique d’Avignon

Coordination du projet

Avignon Université

Partenaires

Laboratoire d’informatique de l’Université du Mans – Université Grenoble Alpes – Airbus Defence and Space SAS

Résumé

Le projet ON-TRAC propose de changer radicalement les architectures utilisées en traduction de parole actuellement. Il s’appuie sur les modèles neuronaux de type end-to-end pour la traduction automatique et vise plus particulièrement les applications légères et portatives de traduction de la parole qu’Airbus développe pour les opérations de sécurité sur les théâtres d’opération.

Au-delà de l’étude des approches end-to-end s’appuyant sur des couples de langue associés à des données d’apprentissage de taille conséquente, ON-TRAC étudiera le développement de modèles pour des langues orales ou dialectales peu dotées.
Une approche end-to-end de traduction de la parole telle que nous l’envisageons permettrait de revoir la méthodologie de collectes de données pour le développement d’un système de traduction de la parole.
En effet, avec cette approche, une transcription de la langue source devient inutile : le coût de production des données nécessaires à l’apprentissage d’un système de traduction de la parole est donc fortement réduit et le développement d’un tel système pour de nouvelles langues (y compris celles n’ayant pas de système d’écriture) serait facilité et accéléré.
Puisque le projet vise des applications portatives de traduction, ON-TRAC s’intéresse également à l’étude du temps de calcul et de l’empreinte mémoire nécessaires pour la traduction neuronale de la parole.
ON-TRAC permettra le traitement de trois paires de langues distinctes avec un intérêt opérationnel sécurité et défense et un niveau de difficulté croissants (anglais-français ; pashto-français ; tamacheq-français).

Le projet ON-TRAC s’inscrit dans l’axe 4 « Données, Connaissances, Big Data, Contenus multimédias, Intelligence Artificielle » du défi 7 « Société de l’information et de la communication » du plan d’action 2018 de l’ANR.
Par sa thématique scientifique principale dédiée à la traduction de la parole par des approches neuronales end-to-end, il se positionne clairement dans les thèmes  »Des données aux connaissances » et  »Traitement des contenus multimedia ».

Les technologies développées dans le projet ON-TRAC seront expérimentées sur trois paires de langues, avec le français écrit comme langue cible systématique.
La première paire de langues étudiée sera l’anglais parlé vers le français écrit pour des raisons de simplicité et pour une meilleure perception des phénomènes se manifestant durant la traduction à travers l’analyse des sorties de nos systèmes, l’anglais étant suffisamment maîtrisé par l’ensemble des acteurs du projet.
La langue pashto sera la langue source de la seconde paire de langues. Ce choix est dicté par le fait que le traitement d’un dialecte oral entre dans les objectifs affichés du projet, et par le fait d’un coût de collecte minimisé puisque le consortium dispose déjà d’une centaine d’heures d’enregistrements audio en pashto, avec leurs traductions textuelles en français (ainsi que leur transcription en pashto).
Enfin, la troisième paire de langue aura pour langue source le tamacheq, dialecte oral parlé par les Touaregs dans différentes zones d’intérêt pour le renseignement et la sécurité (Sahel, Niger, Mali, Burkina Faso, Libye…). À ce titre, il revêt un intérêt fort et déjà exprimé par les services d’État concernés.

Référence

ANR-18-CE23-0021-01

Site web

https://on-trac.univ-avignon.fr/

Programme

ANR-Thématiques Spécifiques en Intelligence Artificielle (TSIA) 2023

Sous-programme

Giga-modèles pour le traitement automatique du langage naturel et des données multimodales

Type de projet

Projet de recherche collaboratif

Durée

3 ans

Responsable scientifique

Yannick Estève

Laboratoire

UPR 4128 LIA – Laboratoire Informatique d’Avignon

Coordination du projet

Université Grenoble Alpes

Partenaires

Institut National de l’Audiovisuel (INA)
UNIVERSITE PARIS CITE
Centre National de la Recherche Scientifique (CNRS) – Délégation Régionale Ile-de-France Gif-sur-Yvette

Résumé officiel

Le projet Pantagruel est une initiative ambitieuse qui vise à développer et à évaluer des modèles linguistiques multimodaux (écrit, oral, pictogrammes) et inclusifs pour le français. Le projet s’appuie sur l’expertise de chercheurs de différentes disciplines, notamment l’informatique, le traitement du signal, la sociologie et la linguistique, afin de garantir la diversité des perspectives ainsi que la fiabilité et la pertinence des résultats. Les principales contributions du projet sont le développement de modèles
autosupervisés librement accessibles pour le français, comprenant une à trois des modalités pour les domaines généraux et cliniques. Le projet ne se contentera pas de produire des modèles mais il concevra également des bancs d’essais permettant d’évaluer la généralisation de ce type de modèles en s’appuyant sur l’expérience gagnée lors des projets FlauBERT et LeBenchmark. Une part du projet sera consacrée aux biais et stéréotypes véhiculés dans les corpus d’entraînement et dans les modèles en aval. Une réflexion sera menée avec un comité éthique, pour limiter un effet amplificateur de biais au sein des corpus d’entraînement, en particulier en travaillant sur les caractéristiques démographiques des locuteurices (pour l’oral audio ou retranscrit) et des auteurices (pour une partie des données écrites). Nous pourrons ainsi comparer les modèles appris sur des corpus d’entraînement aux proportions variables pour ces caractéristiques, comme par exemple le genre. Cette étude permettra de quantifier dans quelle mesure les prédictions des modèles de langue sont des reflets fiables des corpus en amont, et de mieux contrôler la façon par laquelle ils peuvent être utilisés comme outils de recherche pour les sciences sociales. Le projet développera des composants logiciels qui faciliteront l’intégration des modèles de langage dans diverses applications et permettront le développement de solutions innovantes exploitant la puissance des modèles de langues du français multimodaux. Ces outils sont en particulier destinés aux non-informaticiens tels que ceux membres du consortium (sociologues, linguistes, médecins, orthophonistes), des chercheurs d’autres domaines ou des artistes. Le projet Pantagruel a ainsi le potentiel de faire progresser de manière significative l’état de l’art en matière de modèles de langues multimodaux et d’avoir un impact positif sur un large éventail de domaines appliqués, des soins de santé aux arts en passant par les sciences humaines et sociales.

Référence

ANR-23-IAS1-0001-04

Site web

Pantagruel: construction et évaluation de grands modèles de langue multimodaux et inclusifs (écrit, oral, pictogrammes) pour le français général et clinique

Programme

ANR – Sciences du numérique

Sous-programme

Réseaux de communication multi-usages, infrastructures hautes performances, Sciences et technologies logicielles

Type de projet

Projet de recherche collaboratif

Durée

3 ans et demi

Responsable Scientifique

Francesco DE PELLEGRINI

Laboratoire

UPR 4128 LIA – Laboratoire Informatique d’Avignon

Coordination du projet

Avignon Université

Partenaires

Centre d’études et de recherche en informatique et communications (CEDRIC) – Centre de recherche Inria Sophia Antipolis-Méditerranée – Laboratoire d’Informatique du Parallèlisme – Laboratoire d’informatique, systèmes, traitement de l’information et de la connaissance

Résumé

Les nouvelles générations de réseaux d’accès mobiles promettent une communication haut débit, des délais restreints et des capacités de traitement offertes par le réseau lui même. Les données générées par l’IoT (vidéo par exemple) ou les smartphones des utilisateurs alimenteront les applications IA exécutées au niveau de serveurs périphériques (edge/fog). PARFAIT s’attaque aux nouveaux problèmes d’allocation des ressources pour des applications relevant de l’IA et composées de microservices containairisés. Cette allocation pose des problèmes majeurs car elle se doit d’être désormais orchestrée de manière distribuée alors que l’empreinte des applications IA modernes dotées de capacités d’apprentissage, reste inconnue. Le projet PARFAIT développe des bases théoriques pour une allocation efficace de ressources distribués et évolutives sur des infrastructures IT de pointe effectuant des traitement IA. Des solutions algorithmiques seront développées en se basant sur la théorie des processus de décision de Markov avec contraintes et distribués afin d’orchestrer le placement des services et l’allocation des resources et de quantifier l’effet des politiques d’orchestration. En outre, en formalisant notre problème sous le prisme de la théorie des jeux en équipe, le projet ouvrira la voie à une orchestration décentralisée, un élément manquant pour répondre au besoin de proximité des données et des applications ainsi qu’aux problèmes de synchronisation survenant lorsque plusieurs orchestrateurs coopèrent en prenant des décisions basées sur une vision locale ou partielle du système. En outre, afin d’obtenir une orchestration efficace et à la volée des services (edge), ces solutions seront dotées de techniques d’apprentissage par renforcement afin de définir un ensemble d’algorithmes d’orchestration capables de s’adapter au fil du temps à la charge des applications et de faire face à des informations incertaines en ce qui concernent les empreintes des applications IA. La validation sera effectuée dans l’optique de démontrer des solutions concrètes pour des cas pratiques d’utilisation d’orchestration, en tirant partie de simulation à large échelle et des testbeds de recherche.

Référence

ANR-21-CE25-0013-01

Site web

https://anr.fr/Projet-ANR-21-CE25-0013

Programme

ANR – Générique

Type de projet

Projet de recherche collaboratif entreprise

Durée

5 ans et 3 mois

Responsable Scientifique

Driss MATROUF

Laboratoire(s)

UPR 4128 LIA Laboratoire Informatique d’Avignon

Coordination du projet

Avignon Université

Partenaires

A.I.MERGENCE – INRIA Nancy Grand Est

Résumé

Durant les périodes d’inactivité, utiliser un robot mobile autonome pour surveiller des locaux industriels est une solution offrant un rapport coût/efficacité excellent. Le robot se déplace dans les locaux et analyse l’activité dans ceux-ci. Lorsqu’une personne est détectée, le robot est chargé de vérifier son identité. En cas de difficulté, le robot contacte alors un opérateur humain. Un des objectifs majeurs de ce projet est de prendre en compte de manière aussi réaliste que possible les conditions réelles d’utilisation du robot. Cela implique de mener des expériences sur le robot lui-même et dans un environnement réaliste. L’identification vocale dans le cadre d’un robot mobile de sécurité doit faire face à plusieurs défis relatifs à l’identification à distance d’une personne en conditions réelles, pouvant réduire à l’heure actuelle les performances de façon drastique : le bruit ambiant et les bruits internes du robot (liés aux activateurs du robot) qui se répercutent sur les capteurs audio amenant de faibles rapports signal sur bruit (RSB), les phénomènes de réverbération dus à la configuration des lieux très variables dans lesquels se trouve le robot, l’emplacement variable des locuteurs, etc. Nous proposons dans ce projet des méthodes et des approches pour tenter de lever les différents verrous scientifiques précédemment cités. Les solutions proposées sont basées sur notre expertise dans le domaine de la modélisation acoustique et du traitement du signal, ainsi que sur l’exploitation des réseaux de neurones profonds. Ces derniers sont au cœur de la recherche en apprentissage automatique dans bon nombre de domaines, ils dépassent les méthodes purement statistiques utilisées jusqu’à lors.

Malgré les efforts fournis pour lever les verrous acoustiques, il existe des scénarios dans lesquels l’identification vocale seule ne pourra pas offrir une fiabilité totale. Dans les applications où un haut niveau de sécurité est nécessaire, l’utilisation d’une modalité unique est souvent trop risquée et l’identification vocale est souvent mise en oeuvre conjointement avec d’autres modalités d’identification. Ainsi, pour répondre à ce besoin, le robot proposé dans ce projet utilise ses capacités d’interaction avec les personnes détectées. Cette modalité est utilisée lorsque le robot ne dispose pas d’assez d’éléments pour prendre une décision fiable. Il peut jouer sur ses capacités d’interaction d’une part pour acquérir davantage de données acoustiques dans le but de consolider l’authentification vocale. Le robot peut également utiliser le module d’interaction pour lever une ambiguïté par un jeu de questions-réponses simples basées sur des connaissances vérifiables par le robot (par exemple demander le prénom ou le nom du responsable direct de la personne inspectée). Enfin, des informations sur l’état émotionnel du locuteur et sur la scène acoustique seront transmises au système de manière à adapter la stratégie de dialogue, le comportement du robot et les algorithmes de pré-traitement et d’identification vocale.

En addition des attendus scientifiques et techniques directs, ce projet sera l’occasion de la création et la diffusion d’un corpus unique qui permettra pendant et après le projet d’évaluer les solutions apportées pour lever différents verrous, tels que le bruit ambiant, la réverbération ou les courtes durées. Un plan d’évaluation avec un protocole expérimental seront définis pour s’assurer que les solutions développées durant le projet sont pertinentes aussi bien pour la communauté scientifique que pour le partenaire industriel.

Référence

ANR-18-CE33-0014-01

Site web

https://anr.fr/Projet-ANR-18-CE33-0014

Programme

Horizon 2020

Sous-Programme

RIA (Research and Innovaction Actions)

Durée

2 ans et 3 mois

Responsable scientifique

Yannick ESTEVE

Laboratoire(s)

UPR 4128 LIA Laboratoire Informatique d’Avignon

Coordination du projet

Deutsche Welle (DE)

Partenaires

Latvijas Universitates Matematikas Un Informatikas Instituts (LV) – Priberam Informatica SA (PT) – Fraunhofer Gesellschaft Zur Foerderung Der Angewandten Forschung EV (DE)

Résumé

De grandes quantités de données textuelles et vocales multilingues sont disponibles sur l’internet, mais jusqu’à très récemment, le potentiel d’exploitation de ces données est resté inexploité. Les progrès récents en matière d’apprentissage profond et d’apprentissage par transfert ont ouvert
la porte à de nouvelles possibilités – en particulier l’intégration des connaissances de ces grands ensembles de données non annotées dans des modèles enfichables pour s’attaquer à des tâches d’apprentissage automatique.
L’objectif du Stream Learning for Multilingual Knowledge Transfer (SELMA) est de répondre à trois tâches : ingérer de grandes quantités de données et entraîner en continu l’apprentissage automatique pour plusieurs tâches en langue naturelle ; contrôler ces flux de données à l’aide de ces modèles dans le but d’améliorer la la surveillance des médias multilingues ; améliorer la production de contenu pour les médias multilingues ;
production de contenu médiatique multilingue, bouclant ainsi la boucle entre la surveillance et la production de contenu.
SELMA a huit objectifs :
1. Permettre le traitement de flux massifs de données vidéo et textuelles de manière distribuée et évolutive.
2. Développer de nouvelles méthodes pour former des modèles linguistiques d’apprentissage profond non supervisé dans 30 langues.
3. Permettre le transfert de connaissances entre les tâches et les langues, en soutenant les langues à faibles ressources.
4. Développer de nouvelles méthodes d’analyse de données et de visualisation pour faciliter le processus de prise de décision en matière de surveillance des médias. 5. Développer une plateforme open-source pour optimiser la production de contenu multilingue dans 30 langues
6. Affiner les modèles d’apprentissage profond à partir du retour d’information des utilisateurs, en réduisant la répétition des erreurs.
7. Assurer une exploitation durable de la plateforme SELMA
8. Sensibiliser et encourager l’implication active des utilisateurs dans la plateforme.
Pour atteindre ces objectifs, il faut faire progresser l’état de l’art dans de multiples technologies : apprentissage par transfert, modélisation linguistique, reconnaissance vocale, traduction automatique, résumés, etc,
la reconnaissance vocale, la traduction automatique, le résumé, la synthèse vocale, l’association d’entités nommées, l’apprentissage à partir du retour d’information des utilisateurs.

Référence

957017

Site web

https://selma-project.eu/

Programme

ANR – Générique

Type de projet

PRC

Durée

4 ans

Responsable Scientifique

Corinne FREDOUILLE

Laboratoire(s)

UPR 4128 LIA Laboratoire Informatique d’Avignon

Coordination du projet

Université Toulouse 3

Partenaires

CHU Toulouse Direction de la Recherche – Laboratoire Parole et Langage – Unité de recherche interdisciplinaire Octogone

Résumé

Dans le contexte des troubles de la production de la parole observés dans les cancers ORL, les pathologies neurologiques, sensorielles ou structurelles, l’objectif du projet RUGBI est d’apporter des améliorations à la mesure du déficit d’intelligibilité. En effet, les troubles de la production de la parole peuvent entraîner une grave perte d’intelligibilité, rendant difficile la communication des patients avec leur entourage et limitant leur vie professionnelle et / ou sociale. Classiquement, l’évaluation clinique de l’intelligibilité repose sur une évaluation perceptive globale jugée peu satisfaisante de part sa subjectivité, son manque de précision et sa durée qui conduisent à des mesures erronées de l’intelligibilité des patients. De plus, les tâches de production de parole dédiées à ce type d’évaluation (répétition de mots, de phrases, lecture) sont loin d’être adaptées à une mesure précise de l’intelligibilité et ne permettent qu’une évaluation globale de l’altération fonctionnelle.

RUGBI se propose de pallier ces limites en développant un nouvel outil d’évaluation objective fondé sur i) l’identification des unités linguistiques pertinentes, d’un point de vue acoustique et prosodique, et ii) l’identification des tâches linguistiques sensibles. L’objectif du projet RUGBI est ainsi de compléter les outils du thérapeute par une mesure précise, robuste et rapide permettant de développer un projet thérapeutique optimisé en vue d’une amélioration tangible de l’intelligibilité.

Pour cela, RUGBI s’appuie sur des corpus importants, et déjà disponibles regroupant des productions de parole de sujets sains (190) et de patients (365) présentant des pathologies d’origine structurelle (cancers des VADS) et neurologique (Maladie de Parkinson), et ce dans l’exécution de différentes tâches linguistiques, et pour une partie d’entre eux, à différents stades de la maladie. Ces corpus sont un atout considérable pour la conduite des deux axes d’études du projet, respectivement basés sur i) la perception de l’intelligibilité de la parole et ii) la modélisation par traitement automatique de la parole, et plus particulièrement, sur le Deep Learning et ses propriétés de représentation des données qui devront être exploitées ici. Dans ce cadre, l’objectif central du projet convoque l’expertise de ses membres issus du domaine médical, du domaine des sciences du langage et de l’ingénierie de la parole et du langage pour répondre aux défis de la biologie et de la santé. L’expertise multidisciplinaire dont se dote ainsi RUGBI est un gage de réussite.

Référence

ANR-18-CE45-0008-04

Site web

https://anr.fr/Projet-ANR-18-CE45-0008

Programme

ANR – Sciences de l’énergie et des matériaux

Sous-programme

Polymères, composites, physique et chimie de la matière molle

Type de projet

Projet de recherche collaboratif

Durée

4 ans et 3 mois

Responsable Scientifique

Raphaël PLASSON

Laboratoire

UMR_A 408 SQPOV – Sécurité et Qualité des Produits d’Origine Végétale

Coordination du projet

Sorbonne Université

Partenaires

Institut Charles Sadron (Université de Strasbourg) – Institut des sciences chimiques de Rennes (Université Rennes I) – Processus d’Activation Sélectif par Transfert d’Energie Uni-électronique ou Radiatif (ENS)

Résumé

Pour doter les molécules et les matériaux de propriétés, les chimistes peuvent s’appuyer sur des relations structure-propriété établies, ce qui est pertinent aux niveaux moléculaire et supramoléculaire où il existe beaucoup d’informations pour la synthèse et la prévision des propriétés physico-chimiques, mais demeure délicat pour concevoir des fonctions complexes intégrant de multiples interactions et réactions. Une stratégie propriété-structure inverse peut alors être adoptée en criblant des banques de constituants en interaction/réaction pour des propriétés cibles. Cependant, le criblage est long, limitant la taille des banques et donc la diversité du système. Les biologistes ignorent cette limite. Ils conditionnent la survie de cellules vivantes à la propriété qu’ils veulent obtenir. Cette stratégie puissante est actuellement sans précédent dans un système abiotique, ce qui a motivé le projet SACERDOTAL. Le but est d’introduire et valider un protocole de sélection/survie dans un système chimique monomères/polymères pour l’évolution dirigée vers une propriété.
Notre protocole applique un gradient de température sur des monomères engagés dans des réactions réversibles de ligature/hydrolyse. Cet état de hors-équilibre force continuellement le système à explorer au hasard longueurs et séquences possibles des polymères. Parmi les polymères formés, la sélection et la survie d’une sous-population est conditionnée à la réalisation de la propriété recherchée par application de contraintes expérimentales. Nous avons adopté acides aminés et peptides comme monomères et polymères, ces derniers sont très utilisés pour produire des nanoparticules hydrosolubles pour des applications biomédicales. Nous proposons donc de sélectionner et de produire des nanoparticules conjuguées à des peptides au moyen d’un test de survie qui sélectionne les composés se liant aux surfaces de nanoparticules et générant des conjugués luminescents. Cet objectif est important pour l’imagerie puisque ces nanoparticules souffrent encore d’inconvénients (toxicité, manque de brillance et/ou stabilité colloïdale), qui pourraient être surmontés avec des coques de protection optimisées du cœur inorganique.
Ce projet intégratif et pluridisciplinaire comprend des développements chimiques originaux (banques combinatoires dynamiques d’acides aminés, protocoles de synthèses de nanoparticules), des simulations théoriques et numériques de polymérisation hors-équilibre (des modèles de réaction-diffusion aux modèles stochastiques métadynamiques), la conception et la réalisation de dispositifs instrumentaux (microsystèmes, chauffage optique et imagerie de fluorescence) et des analyses de nanoparticules et de leurs peptides conjugués par des techniques reconnues ou innovantes.
Au-delà de la production de nanoparticules fonctionnalisées, la validation de notre protocole de sélection/survie sera également significative dans une perspective méthodologique et elle sera ainsi brevetée pour le transfert de technologie et le développement économique. Ce protocole aborde des aspects théoriques, instrumentaux, analytiques, qui devraient être communs à tous les travaux dans ce domaine émergent. Il exploite des critères discriminants (coefficients de diffusion et constantes de vitesse des réactions), dépassant les critères thermodynamiques utilisés dans les protocoles de criblage actuels. Il est compatible avec de nombreuses chimies et il possède une diversité moléculaire supérieure à celle actuellement accessible aux micro-organismes et qui est libre de toute contrainte physiologique ou de toxicité. Dans ce projet, il exploite des peptides dont le potentiel d’interactions et de catalyses fournit une plate-forme attractive pour sélectionner de nombreuses propriétés de systèmes chimiques Darwiniens (auto-assemblage, dynamique hors équilibre, découverte de catalyseurs).

Référence

ANR-19-CE06-0010-02

Site web

https://anr.fr/Projet-ANR-19-CE06-0010

Programme

Sous-programme

Type de projet

Jeunes chercheurs et jeunes chercheuses

Durée

4 ans

Responsable Scientifique

SANJUAN Eric

Laboratoire

UPR 4128 LIA – Laboratoire Informatique d’Avignon

Coordination du projet

Université de Brest

Partenaires

University of Minho (Portugal) – Université d’Avignon – Université Bretagne Sud – Université d’Aix-Marseille – University of Amsterdam (Pays-Bas)

Résumé

Les systèmes d’information donnent aux citoyens un accès à des informations provenant de sources fiables telles que la littérature scientifique. Cette dernière est difficilement accessible aux non-experts en raison de sa complexité langagière et du manque d’acculturation scientifique. Des décisions individuelles ou politiques peuvent être impactées par une méconnaissance des travaux scientifiques, comme pendant la pandémie du COVID-19. La simplification automatique de textes se donne pour objectif de réduire ces obstacles et pourrait être utile dans divers domaines tels que la communication et le journalisme scientifique, la politique et l’éducation. SimpleText sera une avancée pour rendre la recherche véritablement accessible et compréhensible pour tous et contribuera à contrer les fake news fondées sur des résultats scientifiques (ODD ÉDUCATION DE QUALITÉ). Les textes simplifiés sont également plus accessibles aux locuteurs non natifs, jeunes lecteurs et personnes souffrant de troubles de la lecture (ODD INÉGALITÉ RÉDUITE). SimpleText vise à répondre aux questions de recherche suivantes : RQ1 – Quelles expressions textuelles porteuses d’information doivent être simplifiées (documents et passages à inclure dans le résumé simplifié) ? RQ2 – Quels types d’information de base devraient être fournis (quelles notions devraient être contextualisées en donnant une définition, une application, un exemple etc.) ? RQ3 – Comment améliorer la lisibilité d’un texte court donné (e.g. en réduisant le vocabulaire et la complexité syntaxique) avec un taux acceptable d’altération de l’information ? RQ4 – Dans quelle mesure les approches utilisées pour l’anglais sont-elles applicables au français ? Répondre à ces questions présuppose de fournir des algorithmes, des données et des mesures qui seront valorisés lors de campagnes d’évaluation internationales (e.g. CLEF), ainsi que pendant les cours des humanités numériques, localisation de sites web, pré-édition et rédaction technique.

Référence

ANR-22-CE23-0019

Site web

https://anr.fr/Projet-ANR-22-CE23-0019

Programme

ANR – Montage de réseaux scientifiques européens ou internationaux

Sous-programme

Type de projet

Montage de Réseaux Scientifiques Européens ou Internationaux

Durée

2 ans

Responsable Scientifique

Christine PEPIN

Laboratoire

UPRI

Coordination du projet

Avignon Université

Partenaires

Bracco Suisse (Suisse) – Université de Zurich (Suisse) – Université de Genève (Suisse) – Institute for Cancer Research (Grande-Bretagne) – Sorbonne Université (France) – University of Magdeburg (Allemagne) – SINTEF Industry (Norvège)

Résumé

Ce projet vise à étudier l’utilisation de gouttelettes de perfluorocarbone monodispersées (PFCD) à la place des
Agents de contraste MB actuellement utilisés dans tous les essais cliniques d’ouverture du BBB. Ces « ouvreurs BBB » (D1
gouttelettes) généreront des bulles sur mesure dont les caractéristiques physico-chimiques (type de coque, taille et
sonosensibilité) sera conçu en utilisant la dynamique moléculaire ainsi que des simulations de sonoporation qui aideront
dans la compréhension et l’optimisation des processus pertinents, afin d’obtenir un BBB sûr et contrôlé
perméabilisation. Une valeur ajoutée du projet sera de développer un contrôle en temps réel de l’ouverture du BBB par
combinant tomographie optoacoustique et guidage/surveillance par imagerie par résonance magnétique (IRM). Nous développerons des supports de médicaments sophistiqués (gouttelettes D2) capables d’améliorer la fenêtre thérapeutique du
Processus d’ouverture du FUS-BBB en (i) augmentant la concentration cérébrale du médicament (meilleure diffusion à travers le
BBB, interaction limitée avec les pompes à efflux, administration concomitante d’inhibiteurs d’efflux), (ii) permettant le
libération localisée du médicament à la demande sous activation acoustique non invasive et spécifique (médicament déclenché par le FUS
version optimisée par le suivi IRM). Enfin, des expérimentations in vitro et in vivo valideront l’efficacité thérapeutique
potentiel de nos deux familles d’outils sono-activables (D1 pour l’ouverture BBB et D2 pour l’administration de médicaments) sur
le glioblastome, le trouble cérébral « modèle » choisi. Nous nous concentrerons sur l’administration contrôlée de médicaments au cerveau de
le témozolomide, qui est jusqu’à présent le médicament chimiothérapeutique le plus efficace pour le traitement du glioblastome, mais nous le faisons
n’exclut pas d’appliquer cette technologie à d’autres molécules, surtout si les essais cliniques en cours devaient mettre en évidence
leurs mérites dans un avenir proche.

Référence

ANR-22-MRS3-0001-01

Programme

ANR – Domaines transverses

Sous-programme

Technologies pour la santé

Type de projet

Projet de recherche collaboratif

Durée

4 ans

Responsable Scientifique

Christine PEPIN

Laboratoire

UPRI

Coordination du projet

Sorbonne Université

Partenaires

Avignon Université – Institut national de la santé et de la recherche médicale (iBrain) – Laboratoire de physique de l’ENS

Résumé

Le système nerveux central (SNC) est une cible thérapeutique pour de nombreux troubles du cerveau dont la maladie de Charcot (SLA) qui est l’objet de notre projet. Si une perméabilité de la barrière hémato-encéphalique (BHE) est admise pour certaines pathologies du cerveau, traverser la BHE demeure un défi majeur à surmonter pour traiter la plupart des pathologies du SNC dont la SLA. Notre projet consiste à créer un outil provoquant l’ouverture transitoire de la BHE puis la ibération contrôlée d’un principe actif dans le SNC. Pour cela nous utiliserons un cocktail de grosses et de petites gouttes de perfluorocarbure sensibles à des séquences acoustiques différentes. L’activation par ultrasons des grosses gouttes induira l’ouverture de la BHE faisant alors passer les petites restées intactes. Puis, une autre séquence acoustique différente de la première induira dans le compartiment cérébral la libération du principe actif par les petites gouttes.

Référence

ANR-22-CE19-0031-02

Site web

https://anr.fr/Projet-ANR-22-CE19-0031

Programme

ANR – Sciences de l’environnement

Sous-programme

Alimentation et systèmes alimentaires

Type de projet

Projet de recherche collaboratif

Durée

5 ans

Responsable Scientifique

Guillaume WALTHER

Laboratoire

UPR 4278 LAPEC – Laboratoire de Physiologie Expérimentale Cardiovasculaire

Coordination du projet

Avignon Université

Partenaires

CHU Grenoble Alpes – Centre des sciences du goût et de l’alimentation – LBTI Biologie tissulaire et ingénierie thérapeutique (Université Lyon I) – Inserm

Résumé

La consommation de produits contenant des édulcorants non nutritifs est en pleine expansion dans le monde et semble associée à une prise de poids et au risque de développer des pathologies chroniques, notamment cardio-métaboliques. Cependant les mécanismes sous-jacents nécessaires pour mieux décrypter les conséquences sur la santé humaine ne sont pas connus. Des travaux récents ont identifié la présence de récepteurs du gout sucré (T1R) dans le pancréas ou l’intestin, mais aussi de manière plus surprenante dans le cerveau et les cellules endothéliales. Ainsi, nous émettons l’hypothèse que ces T1R activés par les édulcorants sont impliqués de manière directe (au niveau du vaisseau) et indirecte (via une intégration centrale ou modulation métabolique) dans la réactivité vasculaire, un marqueur précoce du développement des pathologies cardio-métaboliques.

Référence

ANR-19-CE21-0003-01

Site web

https://anr.fr/Projet-ANR-15-CE38-0011

Programme

Sciences du numérique

Sous-programme

Intelligence artificielle et science des données

Durée

4 ans

Type de projet

Projet de recherche collaboratif

Responsable scientifique

Yannick Estève

Laboratoire

UPR 4128 LIA – Laboratoire Informatique d’Avignon

Coordination du projet

Université de Lorraine

Partenaires

Urecom

Résumé officiel

Telles qu’elles sont définies par le règlement général sur la protection des données (RGPD), les données vocales entrent dans le cadre des données à caractère personnel. Son utilisation
dans les applications est en outre considérée comme présentant un risque élevé dans la future « AI act ». En effet, les enregistrements de la parole contiennent bien plus que le contenu
parlé (mots), mais aussi, par exemple, l’identité du locuteur, son sexe, son âge, son accent régional, etc. Toutes ces informations personnelles et privées peuvent potentiellement être
estimées à partir des données vocales et utilisées à des fins malveillantes ou non désirées. Des technologies pour améliorer la privacité sont nécessaires, pour les utilisateurs de
technologies vocales afin d’empêcher l’utilisation de leur enregistrements vocaux à des fins pour lesquelles l’utilisateur n’a pas donné son consentement. La protection de la vie privée
en ce qui concerne les données vocales est encore sous-développée en raison de nombreux défis. Le projet SpeechPrivacy envisage une approche qui va bien au-delà des solutions
existantes, en permettant de diminuer la nécessité de faire confiance aux fournisseurs de services vocaux, en donnant à l’utilisateur le contrôle total de sa confidentialité. Ainsi
l’utilisateur ou l’utilisatrice pourra choisir quels attributs (sensibles du point de vue de la confidentialité) il ou elle pourra de donner accès au fournisseur de services. SpeechPrivacy offrira une solution flexible pour la préservation de la vie privée, basée sur des représentations isolées/désenchevêtrées et sur l’obfuscation d’attributs sélectionnés. Les scénarios d’utilisation sont multiples : protection de témoins, préservation de la vie privée des adolescents ou adolescentes en ligne et dans les médias sociaux, stockage d’enregistrements de données médicales (en supprimant les informations personnelles du patient ou de la patiente et en préservant la qualité du signal pour un accès à la recherche). Les objectifs de SpeechPrivacy sont de proposer (1) des solutions spécifiques et optimisées pour dissocier l’âge, le sexe, l’identité vocale et les accents régionaux, entre autres attributs de la parole ; (2) une solution capable de désenchevêtrer plusieurs attributs, comprenant ceux mentionnés en (1), et d’évaluer l’impact de leur obfuscation sur d’autres attributs ainsi que de l’utilité du signal résultant sur les cas d’utilisation donnés ; (3) une solution pour la détection robuste des mots sensibles ainsi que des informations sur l’âge/le sexe du locuteur ou de la locutrice dans le contenu linguistique, afin de les remplacer dans le signal vocal ; (4) une interface utilisateur pour donner aux utilisateurs et utilisatrices un contrôle total sur le compromis vie privée/utilité du signal résultant. La recherche est organisée en plusieurs tâches distincts afin d’atteindre nos objectifs. Dans un premier temps, nous développerons des solutions pour obfusquer des attributs vocaux spécifiques et uniques, dans le cadre d’une approche de modélisation « un-contre-tous ». Nous étendrons ensuite ce travail à la prise en compte d’attributs multiples et à leur désenchevêtrement, à l’aide d’un apprentissage conjoint et adversaire. Nous développerons un cadre dans lequel des attributs distincts sont explicitement modélisés par des dimensions spécifiques dans une représentation commune qui permettra d’obfusquer simultanément plusieurs attributs sélectionnés. La troisième tâche concernera la confidentialité sémantique et abordera la protection des entités nommées sensibles, des attributs d’âge et de sexe dans le contenu linguistique et leur obfuscation dans le signal acoustique. Enfin, la conception de bases de données, de protocoles et de mesures, commune à toutes les tâches, sera étudiée dans une quatrième tâche avec des activités de démonstration conçues pour assurer la diffusion et l’impact au niveau international.

Référence

ANR-23-CE23-0022-03

Site web

https://anr.fr/Projet-ANR-15-CE38-0011

Programme

ANR – Générique

Type de projet

PRCE

Durée

4 ans

Responsable scientifique

Jean-François BONASTRE

Laboratoire(s)

UPR 4128 LIA  Laboratoire Informatique d’Avignon

Coordination du projet

IRCAM

Partenaires

Dubbing Brothers

Résumé

Le projet TheVoice s’attaque à la création de voix pour la production de contenu dans le secteur de l’industrie créative (films, séries, documentaires), secteur très important en termes de potentiel industriel mais extrêmement exigeant en termes de qualité. Le projet s’appuie sur un constat simple : la production de voix demeure exclusivement effectuée par des opérateurs humains dans un secteur quasi exclusivement numérique. Les objectifs scientifiques et technologiques du projet visent à modéliser la «palette vocale» d’un acteur pour permettre la recommandation de voix par similarité, et la création de voix artificielles capables de reproduire l’identité vocale d’un acteur. Le projet créera une rupture des usages par la réalisation et l’industrialisation de nouvelles technologies pour la création de contenus vocaux naturels et expressifs. Le consortium, porteé par un acteur majeur du secteur de l’industrie de la création de contenus numérique et constitué de laboratoires de recherches reconnus, ambitionne de consolider une position d’excellence de la recherche et des technologies numériques «Made-in-France» et la promotion de la culture française à travers le monde.

Référence

ANR-17-CE23-0025-02

Site web

https://anr.fr/Projet-ANR-17-CE23-0025

 

Programme

ANR- Accompagnement Spécifique des Travaux de Recherche et d’Innovation Défense (ASTRID)

Sous-programme

Guerre Cognitive

Type de projet

Projet de recherche collaboratif

Durée

3 ans

Responsable Scientifique

Yannick ESTEVE

Laboratoire

UPR 4128 LIA – Laboratoire Informatique d’Avignon

Coordination du projet

Université de Lorraine

Partenaires

 

Résumé

La guerre de 4ème génération (4GW) est connue comme étant la guerre de l’information impliquant des populations non nécessairement militaires. Elle est menee par des groupes nationaux ou transnationaux et suivant des idéologies fondées sur des convictions culturelles, sur des dogmes religieux, sur des intérêts économiques ou politiques avec comme objectif de semer le chaos dans un endroit visé du monde. Avec l’apparition des réseaux sociaux, le champ de bataille dont les contours étaient flous a trouvé un lieu pour la 4GW. En effet, un des points d’attaque de la 4GW est l’utilisation massive des réseaux sociaux pour manipuler les esprits. L’objectif étant de préparer l’opinion publique d’un endroit du monde à accepter un état de fait et de le rendre humainement acceptable et politiquement correct. Cela peut se produire avant l’invasion d’un pays, à l’approche d’une élection présidentielle, pour la provocation d’un effondrement, l’augmentation du prix de l’énergie ou encore la déstabilisation politique dans des pays où le regime democratique est vacillant, etc.
Une des modalites de la 4GW est ce que l’on appelle : la guerre cognitive. Tout comme la guerre de quatrième génération, l’objectif est de brouiller les mécanismes de compréhension de la politique, de l’economie, de la religion, etc. La conséquence de cette action est de d´estabiliser et de réduire l’adversaire. Cette guerre cognitive vise donc le cerveau de ce qui est supposé être l’ennemi. Finalement, le terrain d’action de la 4GW se déplace vers le cerveau de l’adversaire ou plus exactement dans le subconscient de la population de l’adversaire. Cette guerre a comme objectif d’altérer la réalité, entre autres, en inondant souvent la population de l’adversaire par des informations erronées, étayées parfois par des soit-disant experts, par des rumeurs, par des vidéos fabriquées ou modifiées. De plus, la multiplication des social bots permet de générer automatiquement de la désinformation dans les réseaux sociaux. Ainsi selon 400 000 bots auraient généré automatiquement environ 19% du volume total de tweets lors de la campagne présidentielle américaine de 2016.
Dans TRADEF, qui entre dans le cadre de l’appel à projets ASTRID ciblé sur la guerre cognitive, nous proposons de nous attaquer à quelques voies de la désinformation : les fake news et le deepfake. L’idée est de détecter très rapidement dans les réseaux sociaux, la naissance d’une fake sous sa forme textuelle, audio ou vidéo et sa propagation à travers les réseaux. Contrairement à Botsentinel, qui utilise les comptes Twitter pour les classer comme dignes de confiance ou non en les stockant et en les suivant quotidiennement, l’approche dans TRADEF est complètement différente. Il est question de détecter la naissance d’une ”fake” et de la suivre dans le temps. A tout moment, cette rumeur potentielle est analysée et se voit attribuer une mesure de confiance, en la pistant à travers les réseaux sociaux dans la langue de référence ainsi que dans les réseaux sociaux où la langue est différente de celle qui a été choisie. L’´evolution de l’information suspecte à travers le temps verra son score changer en fonction des données auxquelles elle sera confrontée. Ces données peuvent être mises en correspondance avec des donées audios ou vidéos qui peuvent infirmer ou confirmer la crédibilité de l’information à traiter. Les vidéos qui peuvent servir de sources pour d´enoncer une fake peuvent être elles-mêmes des deepfakes. Cela nous amène à être
vigilants quant à l’examen de ces vidéos en développant des méthodes robustes de détection de deepfake. En effet, selon les différentes campagnes internationales d’évaluation de ces méthodes, il est possible d’obtenir des taux d’identification élevés sur les baselines utilisés, en revanche les résultats se d´egradent d’une manière drastique sur de nouvelles donnèes comme on le montrera plus loin dans ce projet. Enfin une dimension d’explicabilité des résultats est introduite dans ce projet permettant d’expliquer le processus ayant conduit à l’affirmation ou non du statut de l’événement à un instant donné. Etant donnée l’expérience des équipes participantes en apprentissage profond et en traitement automatique de la langue arabe standard et ses dialectes, nous nous proposons de pister et d’identifier les fakes et les informations potentiellement nocives dans les réseaux sociaux arabes, ce qui engendre d’autres défis scientifiques intéressants comme le traitement du code-switching,
la variabilité des dialectes arabes, l’identification dans le continuum de la parole des entités nommées, le d´eveloppement de méthodes neuronales pour des langues peu dotées en ressources et l’explicabilité des résultats obtenus.

Référence

ANR-22-ASGC-003-02

Site web

https://anr.fr/Projet-ANR-22-ASGC-0003

Programme

Europe Creative

Sous-programme

CREA-CULT-2023-COOP-1

Durée

3 ans

Responsable scientifique

Paola Ranzini

Laboratoire

Laboratoire Identité Culturelle, Textes et Théâtralité

Coordination du projet

Avignon Université

Partenaires

National and Kapodistrian University of Athens (EL) – Associazione Culturale PACTA Arsenale dei Teatri (IT) – Multicultural city e.V. (DE) – Libera Università di Lingue e communicazion IULM (IT) – Theatro Atomon Me Anapiria (EL)

Résumé officiel

TraNET est né d’une observation des formes de consommation théâtrale dans le paysage théâtral européen actuel. Le projet vise à
mettre en œuvre de nouvelles stratégies pour l’internationalisation du théâtre en direct par le biais d’outils audiovisuels afin d’accroître l’accès et la participation à la culture transnationale.
La culture transnationale, ainsi que l’implication et le développement du public – à la fois physiquement et numériquement. Le défi du projet est de
s’attaquer à la fragmentation de la consommation théâtrale nationale et linguistique en permettant de nouveaux modes de circulation transnationale des représentations théâtrales (public international) et des professionnels de la création.
(public international) et des professionnels de la création (échanges créatifs). Afin d’être actif au niveau international, le projet cherche à inclure des organisations de base.
projet cherche à inclure les organisations de base et les micro-organisations dans le renforcement des capacités au sein des secteurs culturels et créatifs européens.
secteurs culturels et créatifs européens.
Le projet se concentre sur l’édition biennale d’un festival de théâtre transnational au cours duquel trois nouvelles pièces, des reprises de classiques nationaux sur les priorités transversales de l’UE, et une nouvelle pièce de théâtre seront présentées.
et une nouvelle coproduction européenne multilingue. Les pièces seront jouées en personne dans un pays et des projections simultanées en streaming depuis l’étranger seront organisées.
dans un pays et des projections simultanées en streaming des représentations théâtrales en direct dans les autres pays. La nouvelle stratégie de performance numérique
de surtitrage et d’interprétation multilingues en direct permettra aux spectateurs de faire partie d’un public transnational virtuel, impliqué dans un spectacle multilingue et dans une nouvelle coproduction européenne multilingue.
d’un public transnational virtuel qui participe à une représentation multilingue et à un débat d’après-spectacle géré par les sociétés de production impliquées.
Les classiques nationaux seront sélectionnés en fonction des thèmes suivants : (i) la démocratie pour responsabiliser les étudiants des régions éloignées/défavorisées ; (ii) l’égalité pour
(ii) l’égalité pour inspirer les groupes minoritaires qui n’ont pas encore été inclus ; (iii) la parité pour prévenir la discrimination fondée sur le sexe.
La coproduction transnationale sera une adaptation théâtrale différenciée et multilatérale du poème The Waste Land de T.S. Eliot.
Chaque compagnie théâtrale impliquée projettera sa propre perspective et son propre point de vue, tout en interprétant ce chef-d’œuvre européen classique.

Référence

101132043

Programme

ANR – Spécifique

Sous-programme

Sciences de la matière et de l’ingénierie

Type de projet

PRC

Durée

4 ans

Responsable scientifique

Christine PEPIN

Laboratoire(s)

UPRI

Coordination du projet

CNRS Hauts-de-France

Partenaires

Sorbonne Université – Centre national de la recherche scientifique

Résumé

Le projet vise à étudier l’utilisation de la sonication sur des vecteurs de médicaments micrométriques afin d’augmenter de manière significative la charge utile et les taux de libération de médicaments par rapport aux stratégies actuelles.
Les substances actives pouvant être hydrophobes ou hydrophiles, nous considérerons à la fois des vecteurs constitués de gouttelettes remplies d’huile et stabilisées par des surfactants, et des vecteurs remplis d’eau et stabilisés par une membrane réticulée ou gélifiée. Dans tous les
cas, la sonication doit être ajustée pour éviter la cavitation à l’intérieur des microgouttelettes (MD).
L’objectif est d’étudier comment la stimulation ultrasonique du vecteur de médicament (DC) influence les mouvements du fluide et du médicament, et comment les médicaments peuvent être utilisés au mieux dans les microgouttelettes afin d’atteindre les tissus exovasculaires en traversant la paroi perméable du vaisseau.
L’avancée du projet est de fournir des techniques expérimentales et de modélisation numérique avancées pour comprendre la libération sous sonication à partir de la paroi d’un vaisseau perméable.
En effet, de nombreuses quantités/phénomènes ne peuvent pas être mesurés/étudiés expérimentalement (par exemple les contraintes internes des membranes, la formation de dommages) et doivent être étudiés dans le cadre d’un projet de recherche. Ces résultats viendront compléter les grandes campagnes expérimentales du projet et aideront à fournir une compréhension fondamentale du couplage entre (i) la déformation en courant continu sous la stimulation ultrasonique et l’hydrodynamique induites par l’écoulement confiné du fluide externe,
et (ii) les transferts de masse du médicament hors du DC et dans les tissus environnants.

Programme

ANR- Domaines tranverses

Sous-programme

Interfaces : sciences du numérique – sciences humaines et sociales

Type de projet

Projet de recherche collaboratif

Durée

4 ans

Responsable Scientifique

Tania JIMENEZ

Laboratoire

UPR 4128 LIA – Laboratoire Informatique d’Avignon

Coordination du projet

Centrale Supélec

Partenaires

CRAN (Centre de recherche en automatique de Nancy) – Avignon Université – ESCE (Ecole supérieure du commerce extérieur)- FPF(Financement participatif France)

Résumé

Le projet UMICrowd explore le Crowfunding d’un point de vue économique et sociologique, en utilisant des outils de modélisation mathématique, d’intelligence artificielle (IA) et analyse empirique. Il vise à proposer des outils d’aide à la décision qui aident les entrepreneurs dans la conception de leurs campagnes et les responsables des plateforme de crowfunding en sélectionnant, classant et promouvant les projets.

Référence

ANR-22-CE38-0013-03

Site web

https://anr.fr/Projet-ANR-22-CE38-0013

Programme

LIFE

Sous-programme

Climate Action

Durée

4 ans

Responsable scientifique

Armin BISCHOFF

Laboratoire(s)

UMR 7263 IMBE Institut Méditerranéen de Biodiversité et d’Écologie EECAR

Coordination du projet

Landgesellschaft Sachsen (DE)

Partenaires

HBLFA Raumberg-Gumpenstein (AT) – Ökológiai Mezőgazdasági Kutatóintézet (HU) – Hochschule Anhalt (DE) – Steirisches Landesweingut Silberber (AT) – Marrenon Vignobles en Luberon & Ventoux (FR) – Landesweingut Kloster Pforta ( DE)

Résumé

La viticulture en Europe doit faire face aux effets du changement climatique. L’augmentation des sécheresses en été, le risque élevé d’érosion dû aux fortes précipitations et l’arrivée de nouveaux parasites nécessitent des solutions innovantes.

Le projet LIFE VineAdapt a pour objectif de contribuer à améliorer la résilience des écosystèmes viticoles face aux changements climatiques. Une biodiversité plus riche et une gestion des vignobles mieux adaptée sont cruciales. Ce projet s’appuie sur les résultats du projet LIFE VinEcos qui l’a précédé.

Le projet LIFE VineAdapt se déroule sur 5 ans. Huit partenaires scientifiques et techniques, d’Allemagne, de France, d’Autriche et de Hongrie se concentreront sur les cinq thèmes du projet jusqu’en juin 2025. Le transfert de connaissances entre chercheurs, techniciens viticoles et viticulteurs est un axe essentiel de ce projet.

Référence

LIFE19 CCA/DE/001224

Site web

https://www.life-vineadapt.eu/aktuelles

Programme

ANR – Spécifique

Sous-programme

ANR JST CREST

Type de projet

Projet de recherche collaboratif International

Durée

5 ans

Responsable scientifique

Jean-François BONASTRE

Laboratoire(s)

UPR 4128 LIA Laboratoire Informatique d’Avignon

Coordination du projet

Avignon Université

Partenaires

EURECOM – National Institute of Informatics

Résumé

Grâce aux avancées récentes en traitement automatique de la parole et du langage, les humains sont de plus en plus fréquemment en position d’interagir par la voix avec des agents artificiels intelligents. Le nombre d’applications utilisant ainsi la voix est en forte expansion et ce mode d’interaction est de plus en plus accepté. De nos jours, les systèmes vocaux peuvent proposer des messages synthétisés d’une telle qualité qu’il est difficile de les discerner de messages enregistrés par un humain. Ils sont également capables de comprendre des requêtes exprimées en langage naturel, toutefois en restant dans leur cadre applicatif précis. Enfin, ces systèmes reconnaissent ou identifient fréquemment leurs utilisateurs par leur voix.
Ce projet s’intéresse à la notion d’identité vocale. Cela concerne en premier lieu la génération de voix et la reconnaissance du locuteur. La génération de voix correspond à l’ensemble des modules des interfaces vocales permettant de produire de extraits de parole qui sonnent comme une voix naturelle donnée. Ces modules incluent des technologies de synthèse vocale et de conversion de voix, les deux pouvant produire des échantillon de voix correspondant à l’identité vocale d’une personne ciblée. La reconnaissance du locuteur relève de la biométrie vocale et consiste à déterminer ou à vérifier l’identité d’une personne par sa voix. La génération de voix et la reconnaissance du locuteur sont deux technologies pouvant générer des conflits, entre elles ou avec d’autres aspects des interfaces vocales. La génération de voix cherche à produire artificiellement de la parole sonnant comme « naturelle » et produite par une personne donnée quand la reconnaissance du locuteur cherche à vérifier l’authenticité d’un message vocal et l’identité de la personne qui l’a produit. Un système de reconnaissance du locuteur peut être employé pour entrainer un système de génération de voix ce qui a pour conséquence que la voix synthétique produite par le système final peut tromper ledit système de biométrie vocale… Un second conflit apparait quand la reconnaissance du locuteur est employée aà l’insu du locuteur. Pour se protéger de cela, une approche « d’anonymisation vocale », qui concerne à la fois des aspects de reconnaissance du locuteur et de génération de voix doit être développée pour supprimer l’identité d’un locuteur d’un message vocal tout en préservant a minima son contenu linguistique mais aussi ses aspects naturels, son émotivité, sa « couleur’ »… Les trois aspects, génération, reconnaissance d’identité et anonymisation sont étroitement liés et doivent être pris en compte conjointement.
VoicePersonae vise à combler le déficit technologique entre les différents aspects de la notion « d’identité vocale » présentés précédemment. Ce projet propose (a) de modéliser « l’identité vocale » (b) d’améliorer la sécurité et la robustesse des systèmes de biométrie vocale (c) de protéger la vie privée des utilisateurs. VoicePersonae va réunir des approches encore disparates de génération multi-locuteurs de voix, alliant la synthèse et la transformation de voix. Pour cela, VoicePersonae exploitera les dernières technologies de reconnaissance du locuteur. VoicePersonae renforcera la sécurité et la robustesse de la biométrie vocale en exploitant les résultats obtenus pour contrer les attaques utilisant de la génération de voix. Cela sera réalisé en estimant que les fraudeurs connaissent les technologies que nous employons, en employant la finesse de la modélisation de « l’identité vocale » développée dans ce projet. Enfin, VoicePersonae proposera la première solution explicite d’anonymisation vocale pour protéger les données personnelles. Pour stimuler ce champs de « identité vocale » et plus précisément la tâche d’anonymisation vocale, VoicePersonae organisera le premier défis ouvert sur l’anonymisation et la re-identification de la parole.

Référence

ANR-18-JSTS-0001-02

Site web

https://anr.fr/Projet-ANR-18-JSTS-0001

Programme

ANR- Générique

Type de projet

PRC

Durée

5 ans

Responsable scientifique

Jean-François BONASTRE

Laboratoire(s)

UPR 4128 LIA Laboratoire Informatique d’Avignon

Coordination du projet

Avignon Université

Partenaires

Aix-Marseille Univerité – Laboratoire de Phonétique et Phonologie – Laboratoire national de métrologie et d’essais – Service central de la Police technique et scientifique

Résumé

VoxCrim concerne l’identification des individus par leur voix dans le domaine criminalistique et, plus exactement, la “comparaison de voix” pour la sécurité nationale et l’expertise judiciaire. Il s’inscrit pleinement dans le Défi 9 et plus précisément dans l’Axe 3. VoxCrim propose un cadre scientifique objectif et validé pour la comparaison de voix, quel que soit le type de méthode employée (automatique ou phonétique). Il propose d’objectiver scientifiquement les possibilités de mise en œuvre d’une comparaison de voix. Ce projet regroupe des spécialistes de l’informatique (LIA), de la phonétique (LPL, LPP) et de la normalisation (LNE) et les représentants des forces de l’ordre (SDPTS). L’IRCGN sera également sollicité comme centre d’expertise. Les objectifs de VoxCrim s’organisent en deux piliers : (1) une exploitation rapide des résultats pour des situations bien contrôlées et (2) un élargissement de l’opérabilité de la méthode à plus long termes. (1) Le premier pilier s’appuie notamment sur les résultats du projet ANR Fabiole. Il en reprend la méthodologie et la base de données et en étend les attendues pour définir le concept novateur de « box-rule », soit un jeu de conditions de mise en œuvre de la comparaison de voix parfaitement défini à l’intérieur duquel une certification est possible. Les outils technologiques et la base de données élaborés au sein de Fabiole seront améliorés, étendues et packagés afin qu’ils soient diffusés aux partenaires du consortium. (2) Le second pilier vise à ajouter des dimensions aux conditions de mise en œuvre de la comparaison de voix. Il s’agit de prendre en compte des caractéristiques de la voix très liées au contexte « terrain » des services de la police, comme l’influence du milieu-socio-culturel et linguistique (langue maternelle, langue familiale…). Pour cela, une base de données (PTSVox) enregistrée par la SDPTS dans une condition micro et une condition GSM a été créée et sera exploitée dans ce projet. La stratégie retenue consiste à développer deux types d’analyses complémentaires : a) une analyse acoustique des productions visant à dégager des indices pertinents pour la caractérisation des voix et b) des expérimentations perceptives visant à évaluer la capacité des auditeurs dans la discrimination des voix. Les analyses acoustiques permettront de délimiter la variabilité inter et intra locuteurs afin de tester la robustesse de ces marqueurs. Les expérimentations perceptives verront, si les descripteurs acoustiques mis précédemment en évidence sont effectivement utilisés par les auditeurs pour identifier les locuteurs, particulièrement pour la parole téléphonique (cas le plus courant dans les affaires de police scientifique) et évalueront les performances d’un auditeur en matière de discrimination de voix. Ce projet permettra à terme aux laboratoires de police technique et scientifique d’adjoindre la comparaison de voix à leur démarche normative de type 17025 des laboratoires de police technique et scientifique. Voxcrim a pour ambition de diffuser les principes et intérêts d’une démarche qualité dans le domaine de la comparaison de voix auprès de la communauté de la parole mais aussi auprès des acteurs du système judiciaire (police, magistrats). Pour cela, des journées thématiques seront organisées pour la dissémination des connaissances et des problématiques traitées auprès du public concerné. De plus, les doctorants et post-doctorants recrutés au sein des laboratoires partenaires feront des stages « pratiques » à la SDPTS et à l’IRCGN pour comprendre les problématiques de ces services opérationnels. VoxCrim formera, ainsi, un large groupe de scientifiques spécialistes de la comparaison de voix dans le domaine criminalistique, palliant ainsi une faiblesse souvent remarquée en France.

Référence

ANR-17-CE39-0016-01

Site web

https://voxcrim.univ-avignon.fr

Programme

ANR – Générique

Type de projet

PRC

Durée

3 ans et 7 mois

Responsable scientifique

Laure CASANOVA

Laboratoire(s)

UMR 7300 ESPACE Étude des Structures, des Processus d’Adaptation et des Changements de l’Espace

Coordination du projet

CNRS IDF OUEST&NORD

Partenaires

Centre Max Weber – Géographie-cités – Etudes des structures, des processus d’adaptation et des changements de l’espace

Résumé

WIsDHoM analyse la croissance des inégalités socio-spatiales dues à l’inflation des prix immobiliers. Dans la majorité des villes, les prix du logement ont crû plus vite que les revenus. L’immobilier est ainsi devenu une composante essentielle des inégalités, les ménages concentrant toujours plus leurs investissements et leur patrimoine dans ce secteur. Un PRC (CES 41, challenge B8, axe 2) est sollicité pour étudier les inégalités de revenu et de patrimoine selon une approche pluridisciplinaire (géographie, aménagement du territoire, histoire, sciences politiques, sociologie, économie) et comprendre le rôle de l’immobilier dans le renforcement des inégalités spatiales et patrimoniales.

WIsDHoM réunit des experts du logement afin d’analyser le caractère systémique des inégalités liées aux dynamiques et au contexte politique et financier du marché français depuis la fin des années 1990. Les agglomérations françaises se distinguent depuis une vingtaine d’années par une hausse durable des prix doublée d’une augmentation régulière du taux de propriétaires. Cette situation qualifiée de “bulle robuste” accrédite l’idée d’un nouveau régime de prix élevés susceptible d’expliquer la résilience des marchés, paradoxale au vu de la dégradation du pouvoir d’achat des ménages et de la rentabilité des logements locatifs après la crise de 2008. Ce régime articule des facteurs de différents niveaux : nationaux (conditions d’accès au crédit, incitation à l’accession à la propriété, place croissante de la propriété immobilière dans les patrimoines des ménages et comme forme de protection se substituant aux systèmes de protection sociale), et locaux (politiques de stimulation du marché et différenciation spatiale des prix de l’immobilier).

L’ambition du projet WIsDHOM consiste à saisir les interactions entre la dynamique locale des prix, les inégalités et les politiques menées. La variabilité des prix des logements, dépendant d’un certain nombre de conditions locales, détermine à la fois le tri social des propriétaires immobiliers, les conditions de (dé)valorisation du patrimoine des ménages, et les opportunités immobilières pour les acteurs locaux, publics ou privés. En retour ces éléments influencent les conditions de marché. C’est l’étude spatialisée de cet effet d’auto-renforcement qui constitue le cœur du projet.

Afin de restituer la spatialisation de ce régime d’inégalités, l’étude s’appuie sur trois cas à trois niveaux de la hiérarchie urbaine : Paris, Lyon et Avignon. L’analyse empirique consiste en une approche multiscalaire pour saisir l’articulation entre les politiques nationales, locales et les stratégies des ménages. Notre programme scientifique se décline en trois axes : 1) une analyse approfondie de la construction sociale des marchés locaux du logement par les acteurs publics et privés dans les trois agglomérations retenues 2) L’analyse spatiale des inégalités d’accès à la pierre à partir de bases de données désagrégées (transactions immobilières, fiscalité, crédit immobilier, cadastre) ;3) Une enquête ménages sur les stratégies patrimoniales dans nos trois terrains, visant à mettre en évidence d’une part les formes d’enrichissement et de vulnérabilisation liées à la propriété immobilière et, d’autre part, la façon dont ces stratégies (réhabilitations de logements, bimby, nimby, etc.) peuvent avoir des répercussions sur les politiques locales de l’habitat. L’expertise pluridisciplinaire de l’équipe en matière d’enquête et de traitement des données permettra de relever le défi de l’intégration de sources jamais traitées conjointement jusqu’ici.

Référence

ANR-18-CE41-0004-02

Site web

https://wisdhom.hypotheses.org/

Contact

Pôle Projets, Partenariats et Développement International
aap-recherche@univ-avignon.fr