Saison 2 Épisode #5 : DiploIA, une IA souveraine, sécurisée et sobre
Publié le
DiploIA : quand le ministère de l’Europe et des Affaires étrangères mise sur une IA sobre et souveraine
Dans cet épisode, animée Mélanie RAPHAËL, Experte numérique écoresponsable de la DINUM (Direction Interministérielle du Numérique), reçoit Virginie Rozière, Directrice du numérique du ministère de l'Europe et des Affaires Etrangères (MEAE) et Jean-Yves Mahé chef de secteur IA et Data, à la direction du numérique du MEAE.
Description de l'épisode
- Le lancement de DiploIA, un portail de transcription et de traduction sécurisé (niveau Diffusion Restreinte) à destination des agents.
- Le choix de modèles experts légers, plus sobres et entraînés en interne, pour limiter l’impact environnemental.
- Les enjeux de souveraineté, de sécurité et de biais dans l’utilisation de l’IA au service public.
- Le rôle essentiel de l’humain : l’IA comme appui quotidien, mais pas comme substitut à l’expertise des agents.
Transcription du podcast
Voix OFF : Bienvenue dans « MiNumEchos », le podcast de la mission interministérielle pour un numérique éco-responsable. Cette saison, nous explorerons trois grands défis. L'impact environnemental de l'intelligence artificielle, la mobilisation des agents publics et les enjeux liés à l'extraction minière. Des échanges concrets, des retours d'expérience et des pistes d'action pour construire ensemble un numérique plus durable.
Mélanie RAPHAËL : Bonjour à toutes et à tous, je suis Mélanie Raphaël, experte numérique éco-responsable de la DINUM, la direction interministérielle du numérique. Et pour ce nouvel épisode de la MiNumEchos, enregistré en mai, je reçois Virginie Rozière, directrice du numérique des Affaires étrangères, et Jean-Yves Mahé, qui est chef de secteur Pole IA et Data. C'est bien ça ? Parfait, merci beaucoup à tous les deux d'être présents. Cet épisode fait partie de la série « IA et Environnement ». Vous pouvez retrouver les autres épisodes ainsi que la série « Engager les agents publics » et « extraction minière » sur « écoresponsable.numérique.gouv.fr. » Avant de commencer, je vais peut-être vous laisser vous présenter. Peut-être commencer par toi Virginie ?
Virginie ROZIÈRE : Merci Mélanie. Virginie Rozière, je suis directrice du numérique au ministère de l'Europe et des Affaires étrangères depuis un peu plus d'un an et demi maintenant. J'ai un parcours à la fois dans les affaires européennes, le numérique public, un peu dans différents ministères.
Mélanie RAPHAËL : Merci beaucoup d'être présente. Jean-Yves ?
Jean-Yves MAHÉ : De mon côté, je suis Jean-Yves Mahé, je suis chef d'équipe données et intelligence artificielle au sein du ministère, sous la tutelle de Virginie.
Mélanie RAPHAËL : Merci beaucoup d'être présent. Vous l'avez compris, aujourd'hui, on va parler d'IA, bien entendu d'IA dans le secteur public. Et il y a beaucoup d'actualités, comme la manifestation d'intérêt qui a été lancée par la DINUM. On a parlé également avec l'ambassadeur du numérique du sommet... IA qui a été organisée par la France. Et puis, il y a une autre actualité, et c'est celle dont on va principalement parler aujourd'hui, c'est le lancement par votre ministère d'un outil de transcription et de traduction pour les communications, dite DR, diffusions restreintes. Du coup, peut-être que vous allez pouvoir nous en dire un peu plus et nous dire aussi ce que c'est que ce DR et qu'est-ce que c'est que cet outil DiploIA ?
Virginie ROZIÈRE : Effectivement ! Dans le cadre de la transformation numérique, l'agenda qui a été fixé il y a plus d'un an et demi maintenant, forcément la question de la valorisation de l'innovation numérique, notamment dans la dimension intelligence artificielle, était centrale. Avec un contexte particulier au ministère de l'Europe et des Affaires étrangères, c'est que nous manipulons des informations sensibles sur l'état du monde, la situation des pays, et cet échange d'informations entre les postes diplomatiques à l'étranger, l'administration centrale, donc celle du ministère, mais aussi Matignon, l'Elysée, c'est vraiment le cœur de l'activité et du sens de la mission des Affaires étrangères. Cette information, comme je le disais, elle est sensible. Parfois elle est classifiée, on va parler alors d'informations secrets ou très secrets, et parfois elle revêt un niveau de sensibilité qui fait qu'elle doit être protégée sans pour autant qu'on aille jusqu'à la classification. Et à ce moment-là, on utilise non pas une classification mais une mention « diffusion restreinte », c'est la mention qu'on utilise pour qualifier cette information et cette donnée quand elle est sensible. Et donc c'est tout le défi de l'intelligence artificielle dans la transformation numérique des affaires étrangères, c'est d'arriver à retirer tous les bénéfices potentiels pour les besoins de nos utilisateurs, et on en dira quelques mots, on s'est vraiment focalisé sur les besoins premiers très concrets que sont la traduction et la transcription, mais dans un contexte qui permet de maîtriser la sensibilité et la sécurité de l'information. On est un ministère particulièrement exposé aux services de renseignements étrangers, aux cyberattaques. On est la deuxième entité publique, la plus attaquée après l'Elysée. Donc évidemment, cette question de la sécurité de l'information, elle a été centrale pour nous et c'est tous les défis que Jean-Yves et son équipe ont dû relever dans la mise en œuvre de nos outils d'intelligence artificielle.
Mélanie RAPHAËL : Un défi qui a été relevé puisque DiploIA a été lancé récemment ?
Jean-Yves MAHÉ : Oui, DiploIA est un portail de services à destination des agents qui offre des services qu'on va appeler génériques, c'est-à-dire utilisables par tous les agents du ministère. C'est un portail de services souverain, sécurisé au niveau diffusion restreinte, ce qui était dès le démarrage du projet. Une hypothèse qui est devenue très rapidement une exigence primordiale à respecter puisqu'il fallait d'un côté, comme l'a évoqué Virginie, arriver à protéger l'information qui était manipulée par nos collègues dans les services opérations, mais aussi bien entendu apporter de la clarté dans le niveau des usages qui étaient autorisés au travers de la plateforme. Un agent qui vient utiliser les services de transcription, c'est-à-dire transformer de la voix en texte ou de traduction. Là, ça se passe d'explication n'a pas à se posé la question de savoir quel est l'outil à utiliser, que ces usages soient de niveau non protégé ou diffusion restreinte, la plateforme DiploIA apportera la réponse au traitement qu'il essaie d'opérer.
Mélanie RAPHAËL : Vous avez à peu près répondu à la question pourquoi l'utiliser, mais est-ce que la qualité de la traduction est aussi bonne que les outils qu'on peut trouver pour le grand public ?
Jean-Yves MAHÉ : De manière assez surprenante, et c'est peut-être parce que c'est un usage qui est un petit peu plus épatant, la transcription est le premier des usages. Dans la chaîne de valeur : d'abord j'entends, puis je passe de la voix dans du texte, et je vous donnerai peut-être tout à l'heure quelques exemples d'utilisation qui en sont faits. Et ensuite, ce texte-là, ou un texte qui a été pris par un autre canal, peut être porté à la traduction. Dans le cadre de la traduction, on a décidé de porter deux types de modèles de traduction. Premier modèle de traduction, qui sont des modèles qu'on appelle entre nous experts, qui sont des modèles entraînés en interne. Et là, on peut déjà rentrer dans le sujet de la frugalité, puisque ces modèles qui sont produits sont des modèles qui sont très légers, par rapport aux très très grands modèles qui sont habituellement utilisés pour faire de la traduction. Deuxième type de modèle est un modèle qui est certes un petit peu plus lourd, mais qui embarque dans son usage 420 langues et dialectes. Ce qui nous permettait de pouvoir déployer une grande capacité d'utilisation à l'international, où nos collègues sont exposés à toutes langues et dialectes qui peuvent être utilisés sur leur zone géographique. Le juste milieu entre les deux étant de se dire que petit à petit, au moment où on va entraîner des modèles experts, donc plus légers, on va petit à petit décommissionner les modèles plus larges que l'on utilise pour fournir ces 420 langues. En termes de frugalité, on est bien toujours dans la recherche de cet équilibre entre les deux, répondre aux besoins opérationnels d'une part et apporter des usages qui sont les plus légers possible en utilisation.
Mélanie RAPHAËL : Effectivement, comme tu l'as dit, on va aussi parler de frugalité et de sobriété. J'ai une question qui est un petit peu en parallèle, qui n'est pas directement sur le modèle, mais plutôt sur la vision du monde qu'on peut avoir. Le fait d'être justement sur de la traduction et de travailler avec le ministère pour avoir une traduction qui est de qualité. Est-ce que ce n'est pas aussi promouvoir un modèle de société ? Je prends un exemple tout simple. La dernière fois, j'ai fait une petite traduction sur Google. Je passais de l'anglais au français, donc il y a beaucoup de termes qui ne sont bien entendu pas genrés en anglais. Et alors même que la phrase était genrée au féminin, tous les termes qui étaient sur la technicité et sur le savoir ont été traduits au masculin. Et du coup, je me pose la question, est-ce que vous avez réussi à éviter ces biais ? Et quel modèle de société ça peut... peut-être pas quel modèle, mais est-ce que le fait d'agir sur la traduction, ça peut aussi être la promotion d'un modèle de société ? Et c'est sans doute important dans la diplomatie.
Virginie ROZIÈRE : J'aimerais pouvoir dire qu'on a évacué tous les biais. Ce serait un petit peu prétentieux, voire même problématique, parce que malheureusement, les biais sont partout. Et on doit rester vigilant en permanence, notamment sur les biais, mais pas uniquement. On parlait de sensibilité de l'information, mais aussi sur la qualité de l'information, d'éventuelles distorsions volontaires ou involontaires qui peuvent être introduites par les modèles d'intelligence artificielle donc comment dire s'agissant de la traduction on a deux enjeux effectivement alors ça c'est plutôt dans l'entraînement des modèles et le choix des corpus aller chercher des corpus qui peut-être intègrent le moins de biais possible c'est d'ailleurs un avantage pour le ministère de l'Europe et des affaires étrangères parce que dans les perspectives d'amélioration de performance on peut s'appuyer sur des corpus internes qui sont on va dire aligné avec la vision du monde française, ce qu'on va pouvoir rechercher. La qualité du modèle est aussi très tributaire du corpus sur lequel il s'appuie. Et puis, on a une population qu'on peut sensibiliser peut-être plus directement à la nécessaire distance critique vis-à-vis de l'intelligence artificielle.
D'abord parce qu'on a parlé de la sécurité de l'information et donc en mettant à disposition des outils souverains sécurisés de niveau diffusion restreinte, on met en lumière le fait que l'information manipulée dans le cadre d'intelligence artificielle, qu'elle soit celle fournie au modèle ou utilisée pour l'entraînement des modèles, c'est quelque part quelque chose qui n'est absolument pas neutre et auquel on doit faire attention. Et donc, on sensibilise évidemment au fait qu'on ne peut pas mettre n'importe quelle information dans n'importe quel service d'intelligence artificielle. L'information sensible doit rester sur nos services internes, mais aussi sur le fait que ce qui est renvoyé, retranscrit par l'intelligence artificielle, ça s'appuie sur des données, des corpus et qu'il faut garder une lecture, une vigilance humaine, une lecture humaine et avec la bonne distance critique vis-à-vis de la production d'intelligence artificielle. C'est notamment vrai pour la traduction. L'outil qu'on met en place est évidemment une aide et était très attendu notamment par nos agents dans les postes qui sont confrontés à des environnements multilingues. Mais on garde la nécessité de garder une expertise humaine interne et qui est très présente au ministère et sur laquelle on s'est appuyé d'ailleurs pour l'entraînement des modèles. Quand la France doit engager sa parole dans une autre langue que le français, ce sont bien des traducteurs tout à fait humains et tout à fait experts qui sont les seuls à même de produire la parole française dans d'autres langues.
Mélanie RAPHAËL : Donc c'est effectivement plus une aide du quotidien que l'outil officiel ?
Virginie ROZIÈRE : C'est l'outil officiel dans le sens où c'est celui qui est préconisé pour traiter de l'information du ministère, mais la parole de la France ne saurait de toute façon être engagée que par des êtres humains.
Mélanie RAPHAËL : Je vois que l'aspect travail humain a été pris en compte. Je sais aussi, Virginie, l'engagement que tu as sur l'aspect environnemental, puisque tu travaillais sur le sujet avant même que j'arrive à la DINUM. Là, dans le développement de cet outil-là et plus largement dans votre transformation numérique, est-ce que vous avez pris la dimension d'impact environnemental et comment ?
Virginie ROZIÈRE : Alors forcément, quand on va se préoccuper d'intelligence artificielle, on va se poser la question de la ressource consommée. Parce qu'on est sur des technologies et des modèles qui sont très consommateurs dans des proportions qui changent d'échelle par rapport au numérique classique. Donc on s'est posé la question par nécessité aussi, puisque comme on le disait, c'est de l'information sensible. Donc les modèles doivent être dans nos infrastructures maîtrisées, sécurisées, pour lesquelles on a des limites physiques avec lesquelles on doit composer. Donc c'était une vraie préoccupation, à la fois dans la pure dimension environnementale, mais aussi sur les questions de pragmatisme et de faisabilité. Et en fait, ce qu'on voit, c'est que le choix qu'on a fait de se concentrer sur des modèles experts, comme le disait Jean-Yves, mais des modèles spécialisés pour certaines fonctionnalités, ça permet d'avoir des modèles qui sont beaucoup moins consommateurs, beaucoup moins étendus. Et donc d'être tout à fait gérable avec une empreinte environnementale qui reste vraiment calibrée au plus juste et qui évite de surconsommer de la ressource pour un résultat pas forcément en adéquation avec les besoins. C'est vrai qu'on voit souvent avec tout le discours du marketing de l'innovation qui promet énormément et délivre parfois pas exactement la promesse sur une forme de surenchère, sur le recours à l'intelligence artificielle pour couvrir... presque toutes les activités basiques du travail quotidien, ce n'est pas quelque chose qu'on a souhaité nous encourager.
C'est vrai que la question des agents conversationnels peut se poser, mais dans la recherche de la réponse aux besoins des utilisateurs, il nous a paru beaucoup plus pertinent et beaucoup plus responsable de cibler des réponses sur des besoins spécifiques, très prégnants, plutôt que d'avoir une approche très large qui ne répond que très partiellement et imparfaitement aux besoins.
Mélanie RAPHAËL : Du coup, je suis taquine, mais je reviens un peu sur l'aspect, est-ce que vous mesurez du coup l'empreinte environnementale aujourd'hui de DiploIA ? Vous avez forcément peu de recul, donc c'est plus une question de savoir si vous avez pensé ça ?
Jean-Yves MAHÉ : Sans rentrer dans le détail quantitatif, on sait dire dans quelle classe de coûts on va se positionner. On peut en déterminer au moins trois. La première classe de coûts aurait été de dire, tiens, pour ces usages-là, on va se positionner en utilisant une intelligence artificielle générative, donc un gros modèle qui nécessite énormément de capacités de traitement. Ce n'est clairement pas un sujet sur lequel on a voulu se positionner. On a préféré aller vers un système de modèles experts qui sont entraînés en interne de notre administration, qui nécessitent des temps d'entraînement très très courts, des itérations rapides qui nous permettent d'améliorer petit à petit les modèles sans engager énormément de finances et de temps de traitement. La dernière classe de coûts aurait été de ne rien faire et auquel cas le problème n'aurait pas été résolu. Donc on ne sait pas encore aujourd'hui le traité d'un point de vue quantitatif indicateur. Mais on sait dire qu'on est déjà dans l'adoption de bonnes pratiques environnementales lorsqu'on a ce raisonnement de dire quel est le problème à résoudre, quelles sont les solutions que je peux activer et parmi celles que l'on peut activer, celles qui sont les moins consommatrices de ressources, qu'elles soient financières ou énergétiques.
Virginie ROZIÈRE : La question de la mesure, elle est plus globale, de toute façon, et elle est devant nous, on y travaille. Ça fait partie, effectivement, des objectifs qu'on s'est fixés, on espère, à court terme, de manière générale, sur la mesure de l'empreinte environnementale, à la fois de nos infrastructures et de nos usages. Mais on compte beaucoup sur l'appui de la MiNumEco pour aussi nous accompagner dans le développement et la mise en œuvre des outils. Je sais qu'il y a des initiatives en ce sens, et on les attend avec impatience. Mais ça va vraiment nous aider, et c'est vrai que c'est important, c'est important de pouvoir objectiver ce paramètre-là d'une part pour le faire exister parce que ce que je constate c'est que la question de l'impact environnemental de l'intelligence artificielle c'est très présent pour les personnes qui sont sensibilisées à l'impact environnemental du numérique en général mais dans l'écosystème numérique On va penser plus facilement aux biais, on va possiblement penser aux coûts, à la sécurité de l'information en s'agissant de l'intelligence artificielle, mais l'impact environnemental n'est pas si présent à l'esprit que ce qu'on peut imaginer, alors qu'on est potentiellement dans des impacts colossaux. Donc la question de la mesure, elle est importante pour justement prendre en compte cette dimension aussi, et rentrer dans une logique de numérique responsable globalement, et particulièrement en s'agissant de l'IA, et c'est vrai que c'est un champ technologique qui emporte des questions de responsabilité, que ce soit éthique ou environnementale, voire même sociale, qui nécessitent d'être vraiment traité en tant que tel.
Mélanie RAPHAËL : Très bien. Je me pose la question, puisque vous parliez des différents modèles. Est-ce que vous êtes partie de zéro ? Est-ce que vous avez utilisé des modèles qui existent ?
Jean-Yves MAHÉ : On a beaucoup de chance sur ce type de projet qui embarque de l'intelligence artificielle. C'est qu'il y a énormément de modèles qui sont réutilisables, qui ont été entraînés par d'autres et qu'on n'a pas besoin de revenir aux phases initiales d'un projet et donc de supporter les coûts d'entraînement qui sont très impactant d'un point de vue environnemental. On peut réutiliser. Dans le cadre de la transcription, on utilise le modèle Whisper dans une version condensée. Dans le cadre de la traduction, on en a parlé tout à l'heure, on utilise des modèles experts entraînés en interne ou un gros modèle qui nous apporte énormément de langue pour énormément d'utilisateurs.
Virginie ROZIÈRE : En fait, la question des modèles, elle est importante. Et c'est vrai qu'on essaie d'avoir une logique d'optimisation, une réduction de l'empreinte sur le choix des modèles. Mais ça va aussi se décliner dans toute la manière dont on opérationnalise, c'est très laid, mais dont on met en œuvre concrètement et vraiment jusqu'au service rendu auprès des utilisateurs. Parce qu'on peut, et c'est le cas, je pense, aujourd'hui beaucoup dans la sphère publique, Aller explorer, faire tourner des modèles et arriver à avoir des prototypes qui sont satisfaisants dans certains contextes. Mais après, la difficulté, c'est quand on souhaite rendre le service à toute une population. Aujourd'hui, on ne parle pas effectivement s'agissant de DiploIA, de POC ou de prototypes, mais bien d'un service qui est passé à l'échelle, qui est utilisable et utilisé. D'ailleurs, on est maintenant depuis... plusieurs semaines par la totalité des agents du ministère de l'Europe et des Affaires étrangères. . Le fait de prendre un modèle sur étagère, c'est une plus-value. Mais on a vraiment besoin d'expertise aussi et de toute la compétence, en l'occurrence, et je voulais la saluer, des équipes de la DINUM qui sont parties effectivement de ces modèles disponibles open source, mais pour en faire un vrai service qui aujourd'hui fonctionne avec les bonnes propriétés, comme on l'a dit, d'emprunt environnemental, mais aussi de performance dans le service rendu aux utilisateurs, avec une optimisation qui demande d'être regardé avec soin.
Mélanie RAPHAËL : Visiblement, on est plutôt sur une réussite. Si on est un agent public et qu'on veut justement, enfin un agent public ou un service public, et qu'on veut développer une IA pour son service et le faire avec le plus de sobriété possible. J'ai retenu de ce que vous avez dit, avoir un cas d'usage adapté et du coup avoir les modèles qui sont vraiment adaptés à ce cas d'usage et donc partir du besoin de penser à la mesure environnementale dès que possible. Mais est-ce que vous avez des recommandations pour pouvoir reproduire et réussir ce que vous avez fait sur DiploIA ?
Jean-Yves MAHÉ : Si c'est pour de la traduction ou de la transcription, il ne faut pas hésiter à venir nous voir. On pourra partager autour du service et voir de quelle manière on pourrait apporter son retour d'expérience ou des débuts de solutions aux collègues du reste du public. Parmi les bonnes pratiques, je pense qu'il faut essayer d'éviter les effets de buzz et revenir peut-être à une intelligence artificielle plus traditionnelle, c'est-à-dire avant l'arrivée des LLM et des Transformers. Il existe tout un tas de manières de traiter l'intelligence artificielle qui s'est un peu perdue de vue face aux buzz des « chatGPT » et solutions similaires qui sont pourtant efficaces, moins consommatrices en énergie, avalisées par le temps et par la pratique. Ce qui peut être vu par certains services comme étant une régression dans le temps et donc un manque d'innovation. Mais avant de faire de l'innovation, on aime bien faire des choses qui marchent.
Virginie ROZIÈRE : Oui, je pense que c'est le défi, en fait. Le défi, il est évidemment dans la mise en œuvre des solutions et la performance technologique, mais c'est loin d'être le seul paramètre, de très loin. Le vrai défi, à mon sens, sur l'IA, il est vraiment d'arriver à replacer les solutions et les services rendus dans une forme de... comment dire ? De responsabilité, justement, et de rationalité dans la manière dont on y a recours. Replacer aussi le rôle, j'en parlais tout à l'heure, le rôle de l'humain. Une IA y compris générative, ne fera que produire une proposition de résultat qui peut être une très grande qualité, parfois bluffant, d'ailleurs. Et on en est ravi. On est ravi de le constater, y compris sur les services qu'on met à disposition. Mais on constate aussi régulièrement... des erreurs, des biais. Et le besoin de garder une analyse humaine et un œil critique, c'est indispensable en termes d'éthique professionnelle, mais c'est aussi indispensable dans notre capacité justement à faire en sorte que les modèles d'IA à l'avenir rendent un service encore meilleur, parce que cette expertise humaine pour justement permettre d'améliorer les modèles, permettre de bien les entraîner, elle est indispensable, elle doit être maintenue.
Donc le travail de ce discours de responsabilité, que ce soit dans la dimension des biais, dans la dimension de la sécurité de l'information, dans la dimension de l'impact environnemental, c'est aussi un travail qu'on a devant nous dans la culturation au numérique et à l'IA, parce qu'on est confronté à un marketing extrêmement offensif qui vend beaucoup de rêves et qui vend aussi des solutions parfois effectivement bluffantes, mais derrière, de manière sous-jacente, on a des enjeux très forts qui sont parfois un peu occultés et qu'on doit vraiment prendre en compte pour avoir une IA performante. Sinon, on prend le risque de perdre de vue la qualité de la réponse pour se focaliser uniquement sur le côté divertissant ou en tout cas marketing de l'outil.
Mélanie RAPHAËL : Je vais peut-être faire un petit pas de côté, justement, mais en tant qu'utilisateur, si je suis un agent public, moi, je n'arrête pas de répéter que l'utilisation de Chat GPT, de Mistral ou d'autres a un impact environnemental qu'il faut mettre dans la balance. Par exemple, effectivement, un prompt avec Chat GPT, c'est dix fois l'impact environnemental d'une recherche Google ? Pour avoir un petit ordre d'idée.
Est-ce que vous, vous voyez d'autres problématiques, comme la question de la souveraineté, des données qu'on peut donner librement à ces modèles-là ? Et effectivement, aux affaires étrangères, c'est assez prégnant. Est-ce que peut-être vous pouvez nous éclairer un peu sur les autres risques qu'on pourrait rencontrer, qui ne sont pas que environnementaux, quand on utilise des modèles comme ça, grand public, et hébergés sur des serveurs potentiellement dans d'autres pays à l'étranger ?
Virginie ROZIÈRE : Je vais commencer puis je laisserai Jean-Yves compléter. On les a documentées parce que forcément, on met à disposition des solutions d'intelligence artificielle. On sait aussi qu'elles sont disponibles aujourd'hui partout et qu'elles sont aussi utilisées. Le Shadow IT et l'utilisation d'outils personnels pour des fins professionnelles, c'est quelque chose qu'on connaît tous. Simplement, c'est vrai que dans notre contexte, on le disait sur la sécurité de l'information, ça revêt une importance toute particulière. Donc, on doit... expliquer aux agents du ministère que s'ils déposent un document dans le Chat GPT pour essayer de trouver par exemple d'autres sources, c'est une compromission potentielle de ce document. Mais voire même qu'en faisant des recherches dans une IA générative du public, la nature même de la recherche peut être révélatrice d'informations. Donc voilà, il y a la vraie question de la sensibilité de l'information. Ça, c'est le côté de captation d'informations sortantes, on est, comme je le disais, très fortement exposés. On est cible des services de renseignement étrangers. Donc toutes les données qui peuvent sortir nous exposent systématiquement. Mais on a aussi un autre risque, le travail du ministère de l'Europe et des Affaires étrangères, c'est d'éclairer la décision du chef de l'État notamment s'agissant de la géopolitique mondiale et les positions françaises et la posture de la France à l'international, et donc de produire de l'analyse, du décryptage, d'être vraiment cette production d'intelligence dans la connaissance du monde. Et c'est quelque part la valeur du ministère, elle est dans la qualité, la pertinence, la finesse des analyses qui sont produites. Quand on demande qu'on a recours potentiellement à de l'intelligence artificielle, notamment générative, pour préparer, voire même parfois produire ces analyses-là, on prend le risque. On parlait des biais. Il y a des biais flagrants notamment dans le domaine des discriminations, qui sont pour le coup très fortement en opposition avec la position de la France et les valeurs défendues par la France. Mais de manière plus insidieuse, on peut imaginer, de manière d'ailleurs volontaire, instrumentalisée ou passive, des résultats qui seraient plus ou moins subtilement divergents avec l'installation de présupposés ou de suggestions qui viendraient ensuite contaminer les analyses qui sont produites. Et ça, autant sur la sensibilité de l'information sortante, on a quelque chose qui commence à être bien perçu. La manière dont on peut être influencé par les résultats de l'intelligence artificielle, c'est encore quelque chose qui n'est pas totalement perçu et sur lequel on a un vrai travail d'acculturation.
Mélanie RAPHAËL : C'est vrai que sur ce que vous disiez, on le voit très fortement quand c'est sur les affaires étrangères. Mais en réalité, ça peut être subtil. Et dans nos métiers, en tant qu'agent public, il faut aussi faire attention qu'on soit effectivement aux affaires étrangères, mais aussi dans un autre ministère ou par exemple à la DINUM.
Virginie ROZIÈRE : Je dirais même en tant que citoyen. C'est très flagrant. On l'a vu avec DeepSeek, le modèle d'IA génératif chinois, où on a des biais énormes qui sont presque assumés pour masquer le caractère totalitaire du régime chinois. Donc là, on le voit, on le sait. Mais aujourd'hui, ce qu'on ne perce pas forcément, c'est que les IA génératifs sont des outils d'influence et de propagation d'une vision du monde de manière encore une fois délibérée ou indirecte on occulte en fait toute la question des corpus sous-jacents à l'entraînement et ce sont ces corpus là et le choix de la manière dont ils vont être filtrés ou valorisés par les modèles donc tout le paramétrage de cet entraînement qui va orienter le résultat et on a malheureusement l'impression qu'une IA Générative va dire la vérité. C'est très loin d'être le cas et ça charrie énormément à la fois de réplication de biais existants et parfois aussi d'arrière-pensée.
Mélanie RAPHAËL : Justement, par rapport à ça, le ministère de la Culture a lancé ComparIA, qui permet à la fois de comparer l'empreinte environnementale de deux modèles et puis de se rendre compte que parfois, à empreinte environnementale vraiment, vraiment différente du simple au double, on peut avoir une réponse qui est totalement adaptée. Et aussi pour promouvoir la langue française dans les corpus. Et du coup, ma question, c'est est-ce qu'on a un rôle en tant qu’entité publique dans la construction de ces corpus ? Et là, on parle d'une IA... que vous avez fait au ministère des Affaires étrangères et à l'utilisation dans la sphère État, mais justement dans des modèles qui sont plus grand public. Est-ce que l'État a un enjeu à se positionner, à la fois sur les corpus et à la fois sur des modèles qu'il pourrait proposer ?
Virginie ROZIÈRE : Je ne sais pas si c'est le rôle de l'État, on va dire, parce que le choix des corpus, c'est quelque part inhérent aux entités, en général privées, qui vont entraîner et mettre à disposition les modèles. Donc, ce n'est pas directement le rôle, je pense, de l'État de le faire. Par contre, dans toutes les initiatives autour, justement, de « Choose France", de soutien à l'émergence d'acteurs de l'intelligence artificielle sur la scène française et européenne, je pense que c'est le cas mais en tout cas moi je suis convaincue que ça doit être un élément structurant du choix des initiatives qui seront soutenues. A la fois que la dimension éthique et puis d'influence, n'ayons pas peur de revendiquer notre propre capacité d'influence, c'est aussi le rôle du ministère de promouvoir des corpus en langue française de promouvoir aussi des outils des solutions qui s'appuient sur des corpus qui reflètent nos valeurs et dans la manière aussi dont les IA sont entraînées. Donc oui, je pense que ça devrait, et j'espère que ce sont des éléments structurants dans le soutien aux initiatives privées dans le domaine de l'intelligence artificielle.
Jean-Yves MAHÉ : Forcément, le fait que les modèles soient prioritairement entraînés en anglais apporte forcément une distorsion à partir du moment où on interagit en français. Pour donner un exemple, et je m'excuse par avance auprès des juristes qui pourraient écouter l'intervention, mais le droit dans le monde anglo-saxon n'est pas du tout composé de la même manière que le droit que l'on applique en France. Je crois qu'on parle de common law dans le monde anglo-saxon. Si on pose une question juridique à un modèle qui a été entraîné via le droit tel qu'il est vu par le monde anglo-saxon, il ne faut pas s'attendre à de bonnes réponses du côté de l'utilisateur franco-français qui utiliserait un modèle.
Mélanie RAPHAËL : Je pense qu'on a vu déjà pas mal de sujets, mais est-ce qu'il y a quelque chose qu'on n'aurait pas couvert, une information que vous voudriez absolument transmettre pour que les agents publics soient plus dans une utilisation vertueuse, soit pour créer l'IA, soit pour l'utiliser ?
Virginie ROZIÈRE : Je pense que ce serait de ne pas oublier leur propre compétence et leur propre valeur. On a un discours légitimement très positif, enthousiaste vis-à-vis de l'intelligence artificielle, mais la qualité des services publics, la qualité de l'action de l'État, elle repose avant tout et surtout sur les agents, leur qualité, leur engagement et leur esprit critique et d'analyse. Il faut surtout que ça se poursuive.
Mélanie RAPHAËL : L'IA ne se fera pas sans humain et … ne se fait pas non plus sans empreinte environnementale. Merci beaucoup à tous les deux pour votre intervention. On continuera un petit peu plus tard. Vous aurez un petit peu de bonus avec Virginie Rozière où on va pouvoir parler un petit peu justement de la création humaine à travers la question du droit d'auteur et plus largement d'éthique et IA. Merci encore à vous.
Et bien entendu, pour retrouver les autres épisodes MiNumEchos, vous pouvez vous rendre sur « ecoresponsable.numérique.gouv.fr. » Merci à toutes et à tous. Bonne journée.
Voix OFF : Merci d'avoir écouté cet épisode de MiNumEchos. Pour aller plus loin, retrouvez tous nos contenus, ressources et formations sur le site « écoresponsable.numérique.gouv.fr. » Et n'hésitez pas à écouter les autres épisodes de cette saison. À bientôt.