Saison 2 Épisode #4 : Quelle diplomatie pour un numérique écoresponsable et souverain ?
Publié le
Mobilisation des agents publics
Dans cet épisode, animée Mélanie RAPHAËL, Experte numérique écoresponsable de la DINUM (Direction Interministérielle du Numérique), nous recevons Henri Verdier Ambassadeur Français aux affaires numériques.
Description de l'épisode
-
L’impact environnemental du numérique et de l’intelligence artificielle;
-
Le rôle clé de la diplomatie numérique : comment la France défend ses valeurs et promeut une souveraineté numérique européenne, fondée sur les communs et l’open source;
-
Le Sommet pour l’IA et la nécessité de réguler le développement de l’intelligence artificielle face à ses impacts économiques et sociétaux.
undefined
Voix OFF : Bienvenue dans « MiNumEchos », le podcast de la mission interministérielle pour un numérique éco-responsable. Cette saison, nous explorerons trois grands défis. L'impact environnemental de l'intelligence artificielle, la mobilisation des agents publics et les enjeux liés à l'extraction minière. Des échanges concrets, des retours d'expérience et des pistes d'action pour construire ensemble un numérique plus durable.
Mélanie RAPHAËL : Bonjour à toutes et à tous, je suis Mélanie Raphaël, je travaille à la DINUM sur le numérique responsable et vous écoutez le podcast « MiNumEchos ». Cet épisode fait partie de la série IA et environnement, vous pourrez retrouver sur « ecoresponsable.numerique.gouv.fr » les autres épisodes et les autres séries sur l'engagement des administrations et sur les ressources minières. J'ai la chance aujourd'hui de recevoir monsieur Henri Verdier, ambassadeur au numérique. On va passer une trentaine de minutes ensemble. Pour information, ce podcast est enregistré en mai, donc quelques temps après le sommet pour l'IA. Je vais d'abord vous laisser vous présenter.
Henri VERDIER : Bonjour, très heureux d'être avec vous. Je m'appelle Henri Verdier. J'ai été longtemps un entrepreneur dans le numérique et j’ai rejoint l'État pour m'occuper d'Open Data. J'ai eu le plaisir de diriger l'ancêtre de la DINUM, qui s'appelait la DINSIC. Et depuis sept ans, je suis l'ambassadeur pour les affaires numériques, ce dont nous allons parler un petit peu maintenant.
Mélanie RAPHAËL : Effectivement, vous connaissez bien la DINUM. Pour rappel, on travaille justement à essayer de faire connaître les enjeux du numérique responsable avec le ministère de la Transition écologique pour les administrations et les agents publics. Donc, je vous invite aussi à vous former. J'en profite, petite minute de pub avant qu'on commence. Qu'est-ce que ça veut dire, être ambassadeur au numérique et quelle est votre mission ?
Henri VERDIER : Merci de poser la question parce que plus j'avance, plus je me rends compte qu’une grande partie de nos concitoyens et même nos familles ne savent pas ce que c'est la diplomatie. Ils imaginent qu'on fait des réceptions avec des Ferrero Rochers et éventuellement des grandes négociations très compliquées. Et d'autre part, ils ignorent à quel point le numérique repose sur un ensemble de normes, de standards, de règles, d'accords, de conventions, d'enceintes, de forums où sont prises les décisions collectives. Et donc, il y a une diplomatie qui est chargée de représenter la France et ses valeurs et ses intérêts dans les enceintes où on décide de l'avenir du numérique. Alors, ça peut être à l'ONU pour parler du droit de la guerre dans le cyberespace, ça peut être à l'UNESCO pour parler d'intelligence artificielle, ça peut être à l'UIT, c'est l'Union Internationale des Télécommunications, pour parler de nouveau d'intelligence artificielle, mais aussi de câbles transatlantiques, des grandes normes techniques. On a eu des controverses sur le DNS over HTTP, à un moment, l'entreprise Huawei a proposé de changer le protocole TCP/IP, on a refusé. Et voilà, donc il y a un énorme travail, action diplomatique au service de la gouvernance globale du numérique. Et après, il peut s'y rajouter la promotion de certaines valeurs. Donc, par exemple, nous avons beaucoup contribué à promouvoir la nécessité d'une souveraineté numérique européenne et l'idée qu'il y a peut-être un chemin européen aussi pour être souverain, que les communs, l'open source et les standards ouverts peuvent être une manière assez européenne de garantir non pas notre hégémonie, mais que personne ne dominera. Ce qui est déjà assez européen de dire moi, je ne veux pas dominer tout le monde, mais je ne veux pas être dominé. On a du bilatéral, on a un travail très intense avec le Japon, avec l'Inde, avec le Brésil sur les nouveaux chemins de développement qui peuvent servir au reste des économies émergentes, etc. Donc c'est de la diplomatie La diplomatie, c'est les relations internationales, mais dans l'objet numérique.
Mélanie RAPHAËL : Très intéressant. Un événement pour nous qui a été forcément marquant, où la France était organisatrice, c'est bien entendu le sommet pour l'IA, un sujet très actuel. Est-ce que vous pouvez nous en dire quelques mots ? Quelle a été la participation de la France et l'organisation, le rôle dans cette organisation ?
Henri VERDIER : Oui, avec plaisir. Il faut comprendre que l'IA, ça arrive vite. On sent que ça va bouleverser beaucoup de choses, pas seulement l'économie. En fait, c'est une dimension anthropologique. Moi, je suis un peu un vétéran du numérique puisque j'ai commencé ma première entreprise Internet en 1995. Je retrouve un peu les sensations de l'époque, quand on sentait bien que d'innombrables avenirs étaient possibles, mais qu'on ne savait pas lesquels allaient l'emporter, on sentait qu'il était encore temps de peser sur ce futur-là. On n'a peut-être pas réussi, d'ailleurs, c'est une autre histoire. Donc, on sent que ça va vite. On sent aussi que c'est de la puissance, c'est de l'or en barre. Enfin, je ne sais pas si vous mesurez que par exemple, Sam Altman, il fait le tour du monde pour essayer de lever 7 000 milliards de dollars, 7 trilliards de dollars, pour financer les prochains développements d'OpenAI. On est au-delà du PIB de la plupart des États du monde. Il y a un travail pour essayer de réguler, ou au moins organisé, ou au moins cadré, ou au moins trouver des garde-fous, ou au moins designer le marché de ces technologies qui vont très vite. En Europe, en tout cas, on se dit qu'on avait raté le coche sur les réseaux sociaux, que le laisser-faire a très mal tourné et qu'on aurait dû être plus présent et mieux réfléchir et trouver les bons concepts pour trouver le cadre intellectuel et donc légal d'analyse des réseaux sociaux et qu'on ne veut pas refaire la même erreur sur l'IA. On se dit également, par exemple, en France, que le fait qu'on était un petit peu réticent à robotiser et à automatiser notre industrie il y a 40 ans fait qu'on a perdu de l'industrie et donc à la fin de l'emploi. Et il faut trouver les cadres de régulation, mais il faut aussi embrasser cette révolution, la dessiner nous-mêmes, y avoir une contribution forte, etc. Donc, cet énorme paysage un peu complexe, ça fait qu'il y a beaucoup, de tracts dans les relations internationales où on discute d'intelligence artificielle. On en parle au G7, au G20, à l'ONU, à l'UIT, à l'UNESCO, à l'OCDE, à l'OTAN, au Conseil de l'Europe et j'en passe. Et il y a deux ans, les Anglais, en marche d'un G7, ont dit « faisons un vrai sommet de chef d'État, dédié sur l'IA et parlons de tout ». Sauf qu'eux, il y a deux ans, ils ont parlé d'un sujet précis et qu'il faut regarder en face, mais qui est un sujet unique, qui était « y a-t-il un risque existentiel ?». C'est vrai que c'est une vraie question.
Est-ce que l'IA peut un jour se retourner contre l'humanité et devenir un danger de catastrophe absolue ? Et nous avons proposé d'organiser le suivant. Mais pour tout dire, on n'achetait pas entièrement l'idée du risque existentiel. C'est évidemment une responsabilité des gouvernements de regarder, puisque des chercheurs nous disent « faites attention, il faut faire attention ». Et on sent bien que les choses vont très vite, que c'est toujours difficile d'anticiper, j'ai envie de dire une exponentielle, quand les choses doublent tous les deux ans. Vous avez beaucoup de mal à avoir une anticipation adéquate de la pente. Notre cerveau, il ne sait pas penser les exponentiels. Il sait penser les trucs linéaires. Donc, il faut faire très attention. Mais il y a beaucoup d'autres problèmes. On arrive à nos sujets. Et par exemple, il y a de grandes questions d'environnement. Si on ne fait pas attention, DPT7, dans deux ans, consommera juste pour son run quotidien, plus d'énergie que la ville de New York. Et ils auront des concurrents et ça accélère et ça double tous les ans. Mais il y a aussi des questions, par exemple, de diversité culturelle et linguistique. On ne veut pas vivre dans un monde où on est tous obligés de travailler en anglais parce que le seul modèle vraiment, vraiment intelligent, il est conçu et éduqué avec des données anglaises. Et on ne veut pas non plus vivre dans un monde où notre histoire à nous, nos récits, notre littérature, etc. ne sont même pas connus des IA parce qu'ils n'ont pas accédé à nos archives. On ne veut pas vivre dans un monde archi concentré autour d'un petit oligopole de trois boîtes qui dicterait leurs conditions et qui dirait à Guerlain, si vous voulez faire votre prochain parfum, il faut me partager les royalties avec moi parce que désormais, vous ne pouvez plus faire un parfum sans IA. Parce qu'aujourd'hui, on ne fait plus jamais un parfum sans IA pour intégrer une incroyable quantité de normes et leur diversité sur toute la planète. Et pour être sûr que notre formule n'a fait aucune erreur, on utilise de l'IA.
On veut être sûr que la question du futur du travail sera pensée de manière un peu sérieuse et avec les partenaires sociaux et les syndicats. On veut être sûr qu'il restera de la science publique. Et donc, on a décidé au sommet de Paris, qui s'appelait donc le sommet pour l'action sur l'IA, de faire le moment le plus ouvert et le plus inclusif possible. Donc, pour la première fois dans l'histoire, pas loin d'une centaine de pays se sont réunis et pas loin de 70 chefs d'État et de gouvernement pour parler de toutes ces questions. Ça a l'air de rien, mais c'est énorme. Il y avait un rapport de l'ONU en, septembre 2024, qui montrait que sur les 200 pays de la planète, il y en avait une vingtaine, dont tous ceux du G7 qui participaient à l'ensemble de la plus de vingtaine d'enceintes où on discute de gouvernance de l'IA, mais il y en avait une centaine qui n'avaient jamais été entendues nulle part, qui avaient été exclues de tous les débats sur l'avenir de l'IA. Donc nous, on a voulu faire un sommet inclusif en termes de gouvernement invité. On a voulu faire un sommet inclusif en termes de participation de la cité civile, de la recherche. Donc il a été précédé, mais c'était collé deux jours avant par un sommet de plus de 4000 chercheurs qui se sont rassemblés à l'école polytechnique, qui ont fait le point justement sur l'état de la menace, si je puis dire. On a invité les artistes, et on en a mis dans le Grand Palais, et on a fait une très belle exposition à la conciergerie. On a invité des ONG, et dans la salle du Grand Palais, il y avait 1500 personnes, mais il y avait près de la moitié, c'était la société civile , les ONG et les entreprises. Donc la société civile, quoi. Et c'est la première fois qu'un sommet était à ce point ouvert. Et en particulier, on a commencé à poser la question de l'impact sur l'environnement de l'IA. Bon, d'abord, tout le monde dit attention, ça consomme de plus en plus. Et c'est vrai. D'autres disent oui, mais certains des grands défis qui nous attendent, et notamment le réchauffement global, pourront difficilement être traités sans une puissance de traitement de données de masse et d'intelligence qui fait que l'IA sera sans doute indispensable. Ils n'ont probablement pas tort. Il y a aussi des questions un peu compliquées. Parce que quand on dit que ça coûte très cher de poser une question à Chat GPT, c'est vrai. Mais il faut voir ce qu'on évite comme dépenses à la place. Parce que s'il avait fallu prendre un 4x4 pour aller traverser la ville en faisant des bouchons pour aller à la bibliothèque nationale pour trouver la réponse, peut-être qu'on aurait consommé encore plus d'énergie. Moi, autrefois, avant de faire du numérique, j'ai travaillé sur la méthode des analyses de cycles de vie, des éco-bilans. Et je sais que pour mesurer l'impact sur l'environnement, il faut regarder d'abord tout le cycle de vie, du tout début à la toute fin, et il faut le comparer à une opération évitée. Sinon, vous avez une analyse qui peut même être contradictoire avec le réel. Vous pouvez dire, ah là là, ça consomme beaucoup, alors qu'en fait, on vient d'économiser beaucoup. Et justement, il y a des livrables du grand public, mais super intéressants du sommet, c'est qu’on a obtenu un vrai intérêt, et on va voir jusqu'où on peut pousser la norme, le CGDD avait poussé des travaux pour développer une analyse de cycle de vie, pour être capable de comparer sérieusement, et en prenant tout en compte, le coût environnemental de différents modèles d'IA, et en les comparant sur la même opération. Cette méthode a commencé à créer du consensus, et on regarde si on peut en faire une norme européenne. Donc pas une norme qui interdit de faire des choses, mais une norme qui permet de mesurer avec une certitude scientifique, et de comparer deux modèles. Mais le consensus aussi, c'est que on est encore un peu loin d'être capable de prendre des décisions précises. En tout cas, moi, après tous les débats auxquels j'ai assisté, je me dis que la première chose, c'est le niveau d'éducation des informaticiens, un niveau un peu profond, qui est... enfin, pardon, je fais un détour . Je vous l'ai dit, j'ai commencé à faire du numérique en 1995. À l'époque, on codait presque tout à la main. On peaufinait le code. On essayait de le faire le plus compact possível, le plus raffiné possible. Et finalement, quand même, l'un dans l'autre. Il y a une série de vagues qui nous ont dit « vas-y, tu peux être paresseux, ce n’est pas grave ». Donc on nous a dit « pose tout ça dans le cloud, prends des fonctionnalités on-prémisse ». On nous a dit « vas-y, prends du logiciel libre ». Dieu sait que je suis un ardent défenseur du logiciel libre. Mais il faut remarquer que parfois, il y a une propension à l'obésité. Puisque, comme chacun arrive et rajoute sa fonctionnalité sur un socle sans le retoucher... Enfin, vous savez peut-être que quand j'étais la DINSIC, ancêtre de la DINUM, on a fait TCHAP. Et pour faire TCHAP, on a pris un logiciel très performant, qui est un logiciel libre, qui s'appelait Matrix. Mais on l'a réaudité avec l'ANSSI , pour enlever toutes les lignes de code dont on ne savait pas trop à quoi elles servaient. Et en fait, on a enlevé les deux tiers des lignes de code qui étaient embarquées.
Il y avait un truc qui tapait dans l'horloge de l'ordinateur, des trucs dont on n'avait plus besoin, mais qui étaient encore là, qui étaient peut-être des failles de sécurité, mais qui consommaient de l'énergie dans le fonctionnement. Après, on nous a dit, vas-y, fais du big data, tu n'as pas besoin de réfléchir, tu fais du massivement parallèle, tu allumes un rack de machine, tu auras ta réponse. Après, on nous a dit, vas-y pose ta question à Chat GPT, t'as pas besoin de te demander 30 secondes quelles questions poser à Google. Il y a cette pression marketing qui nous dit, vas-y, passe en force. Je ne sais pas chiffrer, mais ça multiplie par 4 ou 10, la consommation globale du numérique, juste par une espèce de paresse. Parce qu'on utilise en permanence des marteaux pilons pour écraser des mouches. Et on l'a beaucoup entendu en marge du sommet. On voit bien que la réponse, elle n'est pas en régulant l'IA. La réponse, elle est en repensant à la formation initiale des développeurs, en parlant en DSI, en prouvant qu'il y a des chemins plus frugaux et qui sont tout aussi efficaces. Et peut-être même, c'est un travail plus intéressant pour les informaticiens. Et il y avait ce trouble parce que c'est quelque chose d'un peu civilisationnel.
Mélanie RAPHAËL : C'est effectivement une demande qu'on retrouve dans les préconisations du CESE sur justement IA et environnement, de former les ingénieurs et de faire rentrer justement cette compréhension et cette connaissance de l'impact environnemental pour réduire et avoir des modèles un peu plus sombres. Avec tout ce que vous nous avez dit, selon vous, sur le sommet de l'IA, quels sont les grands enjeux qui ont été tirés ? Et quelle est la suite ? Quelle gouvernance pour suivre l'atteinte de ces objectifs ?
Henri VERDIER : D'abord, on avait annoncé un sommet pour l'action et on voulait qu'il y ait beaucoup d'actions. Et on a été dépassé par un succès, puisque si vous allez sur le site du sommet, vous verrez qu'il y a eu plus de 100 livrables de tous ordres. Des grands, des petits, des prometteurs, des stratégiques, des tactiques, des symboliques, Moi, il y en a un qui est cher à mon cœur, par exemple, il y a un programme qui s'appelle Roost, où les équipes de Trust & Safety, vous savez, ceux qui luttent contre la pédocriminalité, contre le terrorisme en ligne, contre le harcèlement, partagent enfin leurs outils en open source, ça a plusieurs intérêts. L'un d'entre eux, c'est que les toutes petites entreprises auront des outils de sécurité aussi forts que les grosses qui ont 10 ans de R&D au compteur. L'autre, c'est que si par hasard, les États-Unis aient désormais une administration très hostile au contrôle des contenus et à la protection des minorités, on pourrait sauver les outils de ces entreprises avant qu'elles ferment leurs équipes de trottement safety et avoir une vraie communauté aguerrie qui pourrait les faire survivre. Par hasard, imaginez un monde dystopique où les grandes entreprises américaines arrêteraient de protéger les citoyens. Donc, c'est un des résultats. Il s'appelle Roost. Du point de vue de la gouvernance, c'était le track dont je m'occupais. Moi, je suis assez content parce qu'on a créé un consensus international à très bon niveau sur le fait, justement, qu'il fallait une approche complète de la gouvernance et qu’il ne fallait pas seulement se protéger de l'hypothétique risque existentiel, mais qu'il fallait regarder les questions d'environnement, l'avenir du travail, les droits de l'homme, la concentration de marché. Et je vous prie de croire que ce n'était pas une mince affaire dans le monde dans lequel on vit d'imposer l'idée que la régulation du marché faisait partie de la régulation de l'IA. Et c'est un premier résultat.
Ça ne change rien d'un certain point de vue et ça change tout d'un autre point de vue puisque toutes les prochaines réunions qui auront lieu dans les fameuses enceintes dont je vous ai parlé seront obligées à tenir compte du fait qu'il y a eu un fort consensus à Paris qu'il fallait traiter tout ça et pas seulement un fragment. Une emphase a été portée sur le fait qu'il fallait garantir la possibilité de recherche publique. Franchement, si on vit dans un monde totalement privatisé, et moi qui suis un vétéran du numérique et qui rêvais d'un monde avec plus de liberté, plus de coopération, plus de transparence, plus d'emplois des gens, plus d'autonomie, Je vois bien qu'en fait, la force qui essaie de capturer ce numérique au profit de quelques-uns ou de nous capturer via le numérique au profit de quelques-uns est quand même puissante et qu'il faut se battre si on veut défendre le commun et la démocratie et l'autonomie des citoyens. Il faut se battre. Il faut que la France se batte et les citoyens, parfois même contre nous-mêmes, contre notre État. Et c'est normal. Et donc, ce qui est intéressant, c'est qu’on n’a pas seulement plaidé pour ça, mais on a essayé de mettre en place un véhicule. Donc, quand même, une des grandes annonces de ce sommet, c'est la fondation Current AI, qui a déjà trouvé 400 millions d'euros d'investissement, mais qui cherche 2 milliards qui est là, pour financer les infrastructures, les données, les recherches d'intérêt public, donc des données pour la recherche, des plateformes pour que des chercheurs puissent accéder à des données sensibles, des briques logicielles mais en open source, donc des choses qui ne sont pas capturées ni capturables, des choses d'intérêt général.
Et puis, il y a eu un consensus, mais ça ouvre un chemin compliqué sur le fait qu'il faut trouver les chemins d'une gouvernance plus collective, que ce n'est pas seulement aux entreprises sous prétexte qu'elles font l'IA de décider de notre avenir à tous, et qu'il faut trouver des moyens d'impliquer les citoyens, les chercheurs, les collectivités locales, les États, dans ce qu'on appelle parfois le « multistakeholderism » en anglais, le « multi-acteur », qui n'est pas un chemin facile. Ce n'est pas facile de prendre des décisions quand on est très nombreux, très divers et qu'on n'a pas construit de canaux de légitimité. C'est-à-dire, si je vais à « l'Internet Governance Forum », par exemple, je suis un parmi 6000 délégués. Mais je ne sais pas qui sont les autres. Et il y a un ambassadeur français, 40 salariés de Microsoft qui ont des éléments de langage super bien écrits, super réfléchis, et ils ont le droit. Ils font valeur à leur point de vue. Mais ils sont 40, et moi, je suis tout seul. Des ONG puissantes et qui ont pignon sur rue , d'autres dont je n'ai jamais entendu parler, et je ne suis pas sûr à 100% que c'est des ONG. Et dans cette grande salle, on ne peut pas voter à main levée et compter les mains levées. Donc il faut trouver des processus un peu plus subtils d'intelligence collective.
Mélanie RAPHAËL : Très intéressant. Et justement, les citoyens se sont beaucoup mobilisés aussi pour le sommet pour Action sur l'IA.
Henri VERDIER : Ils sont mobilisés pour, contre, à côté, pendant, dedans, dehors. C'est génial.
Mélanie RAPHAËL : Exactement. C'est ce que j'allais dire. Il y avait énormément de contre-événements ou d'événements en parallèle.
Henri VERDIER : J'espérais mieux, pour tout dire. Moi, j'espérais qu'il allait y avoir du contre-événement parallèle. Très, très, très dense. Il y en a eu, il était là, il était sympa, mais je trouvais qu'on aurait pu espérer encore mieux.
Mélanie RAPHAËL : D'accord. Et selon vous, qu'est-ce qui aurait manqué pour cette mobilisation ? Est-ce que c'est un peu d'information des citoyens ?
Henri VERDIER : Moi, ce que je pense, et c'est intéressant à analyser, mais il nous manque quelques grands penseurs. On est enfermé dans un faux débat. Quelque part, la technologie est-elle bonne ou mauvaise ? Alors après, on s'en sort. Moi, j'aime bien citer la phrase de Kranzberg « La technologie n'est ni bonne ni mauvaise, mais elle n'est pas neutre non plus ». Mais il y a encore autre chose. En fait, moi, plus je travaille dans ces questions... Je n'ai pas d'opinion sur l'IA. J'ai une opinion sur l'état du marché et sur l'état du capitalisme. Et sur l'état des relations internationales et des rapports entre les États et les grandes entreprises. Prenons plutôt les réseaux sociaux, D'abord, c'est intéressant d'en parler parce que finalement, c'est notre premier contact avec l'IA. Il n'est pas très bon. Parce que finalement... nous vivons et nos enfants vivent désormais dans un espace public qui n'est pas public, qui est privé et qui n'est pas neutre puisqu'il est desingné par des algos qui décident tout, qui décident les informations qu'on voit, les amis qu'on nous présente, les publicités qu'on reçoit, les messages de nos amis qu'on va voir parce qu'on ne voit même pas 10% de nos timelines et c'est choisi par des IA et qui le décident au nom d'un business model et ce business model Essaye de capter notre attention, de nous rendre dépendants, de créer une addiction, et donc nous proposer en permanence du sensationnalisme, en plus celui qui nous parle à nous, celui qui active nos tripes. Et ça rend les gens fous, et ça rend les gens violents, et ça divise la société, et ça fait que les gens attaquent le Capitole il y a quatre ans, totalement persuadés que Trump a gagné les élections, parce qu'ils vivent dans des bulles de filtres, et bien sûr, je n'accuse pas les entreprises d'avoir sciemment décidé de rendre les gens fous.
C'est juste que si vous dites à une IA qui est polie et bien élevée et qui va vous obéir, propose-lui un truc qui va cliquer, l'IA finit par vous proposer un truc qui vous fait cliquer, donc un truc qui vous touche. Mais si on disait à nos enfants, par exemple, je vais te donner à manger ce que tu as préféré la semaine dernière, au bout d'un mois, ils ne mangeraient plus que des frites et du coca et de la glace. Heureusement que de temps en temps, on leur dit non, aujourd'hui, il faut manger des légumes, il faut des fibres. L'IA ne vous propose jamais des légumes, elle est démago. Elle vous propose votre plante la plus facile. Mais ça, c'est parce qu'on a posé cette question-là. Parce que les entreprises qui investissent avec des investisseurs, qui voulaient faire du profit, et c'est légitime, elles ont juste demandé à augmenter les recettes publicitaires. On aurait très bien pu imaginer, il n'aurait peut-être pas marché aussi bien, mais un réseau social un peu socratique qui vous aurait dit « Regarde, tu as aimé Game of Thrones, tu sais, tu pourrais lire de Shakespeare, c'est presque pareil. » On pourrait le faire. On pourrait demander ça à la même technologie. Donc le problème, ce n'est pas la technologie, C'est les gens qui investissent dessus, au service d'un business modèle, qu'ils ont en tête, qui d'ailleurs souvent, moi je suis assez frappé, c'est un peu pauvre, leurs idées de manière de faire du fric sont un peu bébêtes. C'est toujours, je vais faire plus de pub, on va cliquer plus. J'ai vu des belles applications de l'IA de temps en temps, trèsrares, mais c'est sophistiqué. Mais aujourd'hui, la majorité des milliards de milliards de dollars qui sont investis, c'est pour faire plus de clics, plus de pubs. Mais on pourrait aussi réfléchir à une autre analogie. C'est les OGM. Il y a très longtemps, on nous avait dit qu'on pourrait faire des plantes qui poussent dans le désert. On pourrait faire des fruits avec des vaccins dedans. On pourrait faire des trucs dingues. Puis à la fin, Monsanto s'est dit « Moi, je veux vendre plus de graines. Comment je fais ? J'ai une idée géniale. Je vais vendre des semences stériles. Comme ça, ils devront me racheter des graines tous les ans. Et ils ne pourront pas les replanter eux-mêmes ». C'est triste que les choix d'investissement de Monsanto aient été pour faire le jeune Terminator. Et ce n'est pas un problème d'OGM, là. C'est un problème de choix d'investissement de Monsanto. Parce qu'en fait, je n'ai pas l'air, mais je réponds à votre question.
Ce qui manque, c'est de savoir, mais il nous manque beaucoup de concepts pour ça. Construire le débat en termes politiques et sortir des apories. Est-ce qu'elle est bonne ou mauvaise ? Est-ce qu'il faut la réguler ou pas la réguler ? Il faut transformer le débat en projet de société. Et ça, il n'existe pas. Et peut-être qu'il y a quand même des gens qui y contribuent. Puisque je suis un vétéran du numérique, j'en ai vu d'autres... Il y a la courbe de la hype de chaque nouvelle technologie, mais c'est toujours la même chose en fait. Il y a quelques pionniers, je l'ai vu sur le big data, je l'ai vu surtout sur la blockchain, quelques pionniers s'éclatent à inventer des trucs. À ce moment-là, il y a un rapport de Gartner ou de McKinsey qui dit « il y a un marché de 3000 milliards de dollars ». À ce moment-là, il y a des vendeurs de solutions qui se mettent à courir dans les boîtes en disant « vous êtes en retard, vous êtes en retard, il faut investir sur une infrastructure ». Et après, comme ils ont acheté des infrastructures hyper chères, elle cherche des business models rapides et avec un retour sur investissement très rapide et pour ça il faut faire du massif donc cette espèce de culture et puis de peur de rater la vague c'est entretenu c'est des stratégies marketing en fait on n'était pas obligé de le faire comme ça moi, j'aime bien raconter une anecdote. Je suis désolé si je suis trop long.
Mélanie RAPHAËL : Non pas du tout.
Henri VERDIER : Quand j'étais à la DINSIC, on a créé pour la première fois le poste d'administrateur général des données et donc la fonction de chief data officer de l'État. J'ai recruté quatre jeunes data scientists extrêmement talentueux. Et on est allé voir les administrations en disant, si vous voulez, on vous aide à régler des problèmes. Et on a fait une quarantaine de missions géniales. On a aidé le service d'achat de l'État à calculer l'optimum de sa facture électrique sur 17 000 bâtiments en faisant des prévisions de consommation. On a des missions géniales. Et puis, au bout de deux ans, les quatre jeunes, ils viennent me voir et ils me disent, « Henri, on s'emmerde un peu pour tout te dire ». Je dis, « ah bon, mais quand même, vous traitez des problèmes magnifiques ». Ils me disent, « oui, c'est vrai. Mais tu sais quand même que depuis qu'on est là, on fait tout ça sur des PC, avec des tableurs Excel et des régressions linéaires ». Parce qu'on n'a pas besoin de plus. On n'a pas besoin de faire du Elasticsearch, d'acheter des racks de serveurs, de prendre du cloud, l'État a des données très propres, des questions assez simples. Et il n’y avait pas besoin de faire tous les investissements que tout le monde nous recommandait. Quand on savait faire des calculs et quand on comprenait les problèmes des gens, il n'y avait pas besoin de plus. J'en ai tiré une vraie leçon parce qu'en fait, c'est souvent le cas. Souvent, on commence par investir sur le marteau pilon alors que ce n'était pas nécessaire.
Mélanie RAPHAËL : Très intéressant, effectivement, quelque part, quand on fait bien les choses et qu'on s'intéresse vraiment au cas d'usage, on est sobre, par essence, parce qu'on répond simplement aux besoins.
Henri VERDIER : Là aussi, quand j'étais à la DINSIC, j'ai reçu je ne sais combien de boîtes de blockchain qui voulaient me faire des blockchains. Et chaque fois, c'était un peu la même histoire. Ils me disaient, vous savez, vous pourrez mettre le diplôme du baccalauréat sur la chaîne. Et je leur disais, « mais pourquoi ? » Nous sommes l'État. On a la liste des bacheliers et on a l'identité numérique des gens. Il suffit que les gens se loguent et téléchargent leur diplôme. Il n'y a pas besoin d'une blockchain. Souvent, l'État, il n'a pas besoin de tiers de confiance puisqu'il est la source de confiance. Donc, il n'a pas besoin de blockchain. Parfois, il en a besoin. J'ai vu deux, trois cas d'usage très intéressants. Mais pour la plupart des trucs, c'était du pipo.
Mélanie RAPHAËL : Je vais changer complètement de sujet, je vais revenir un petit peu en arrière. On a parlé de l'implication des citoyens, de la compréhension aussi des enjeux des réseaux sociaux, etc. Et justement, vous avez lancé, je crois que c'est une startup, Open Terms Archives, qui permet justement de savoir quels sont ce contrat qui nous lie, justement à ces différents réseaux sur les CGU et de les suivre dans le temps, il me semble. Peut-être que je vais vous laisser présenter, vous présenterez ça mieux.
Henri VERDIER : D'abord, c'est une start-up d'État, ce n'est pas une start-up. C'était un projet dans l'administration, au Quai d'Orsay, et puis il s'est autonomisé maintenant, donc c'est un commun. Il a sa communauté, il vit, mais on continue à le co-financer. Et on ne change pas complètement de sujet, puisque à la fois, ça répond à ce besoin de trouver des nouveaux chemins pour la gouvernance multi-acteurs. Et ça répond aussi à plusieurs sujets dont nous avons parlé. Parce que je l'ai rappelé, c'est extrêmement difficile de décider dans ce monde multi-acteurs, mais c'est encore plus difficile si l'information est asymétrique. Et donc, si on n'a pas le cœur net sur ce que font ou ne font pas les entreprises. Et c'est difficile de les réguler si on ne peut pas les attraper quand elles mentent. Or, le meilleur moyen en général, surtout dans les entreprises anglo-saxonnes qui sont pleines de lawyers à tous les étages et qui ont cette culture protestante du fait que le pire crime, c'est le mensonge. Le meilleur moyen de savoir à peu près où ils en sont, c'est de suivre finement leurs conditions générales d'utilisation. Et donc, on a décidé de mettre sous surveillance les conditions générales d'utilisation d'un certain nombre de boîtes. Maintenant, on en a 800. Et de regarder toutes leurs évolutions toutes les 4 heures. Et de stocker, je dis en termes techniques, de stocker le DIF, donc, d'enregistrer toutes les transformations. Ce qui est ajouté, ce qui est détruit, etc. C'est fascinant parce que, parfois, on a des alertes et si vous voulez, on en racontera une ou deux et on voit tout d'un coup des choses qui n’étaient pas prévues ou qu'il faut interpréter.
Nous, l'idée est venue parce qu'aux élections européennes de 2018, les entreprises nous avaient promis des engagements volontaires. Et on a vu qu'ils n'ont pas été tenus. Et on s'est dit comment savoir s'ils tiennent leurs engagements volontaires. Et comme leurs engagements volontaires, c'était des promesses de certaines philosophies de modération de contenu, S'ils l'avaient fait, on l'aurait vu dans leurs conditions générales d'utilisation. Donc déjà, vous pouvez voir s'ils tiennent la promesse, s'ils respectent le Digital Service Act, s'ils respectent le Digital Market Act, s'ils respectent le EA Act, s'ils tiennent. Mais aussi, vous pouvez voir des stratégies de plus long terme. Par exemple, si vous commencez à analyser les différences entre les CGU, YouTube, par exemple, entre l'Angleterre et l'Europe continentale, vous voyez les premières conséquences du Brexit. Vous pouvez aussi voir des stratégies d'un peu long terme. Au début du Covid, ça, c'est pas long terme, c'est même du très court terme. Mais brutalement, les conditions générales d'utilisation de Airbnb ont changé et la définition de la nature du service a changé. Et ils ont dit très précisément, attention, on ne vous loue pas une chambre, on vous met en relation avec un gars qui vous loue une chambre. « Sous-entendu, si vous attrapez le Covid, c'est pas ma faute, c'est la faute du propriétaire ». Et on a vu la même chose chez Alibaba. Et donc, ça crée de la connaissance partagée, de la connaissance commune. Et quand il y a de la connaissance commune, les régulateurs, la Commission européenne, la CNIL, la DGCRF, les associations citoyennes, les chercheurs, etc. peuvent commencer à travailler et à contester, à dire « ça ne nous va pas », etc. Tant qu'on n'avait pas cette connaissance. Et vous le savez comme moi, ces CGU sont faites pour ne pas être lues. Elles sont plus longues qu'un gros roman. Et ça, je peux vous le dire, puisqu'on fait le travail. Les modifications ne sont pas toujours signalées. De temps en temps, on vous dit, est-ce que vous acceptez les nouvelles modifications ? Mais ce n'est même pas une sur dix de toutes celles qui se passent tous les jours. Parce que tous les jours, il y a des petits ajustements et certains sont très choquants.
Mélanie RAPHAËL : En termes de modifications qui peuvent nous paraître choquantes et d'événements récents, vous parliez tout à l'heure de dystopie aux États-Unis. Effectivement, l'élection de Trump a peut-être modifié la vision de la société. Est-ce que vous avez vu des changements ?
Henri VERDIER : Oui, par exemple, il y a eu un tout petit peu d'écho médiatique, mais la semaine d'après l'investiture de Trump, avec ce moment de discours viriliste, etc., Meta, donc Facebook, Insta, a changé ses conditions générales d'utilisation. Alors, quand je dis conditions générales d'utilisation, là aussi, c'est intéressant. La constitution de ces entreprises, si je puis dire, est écrite dans de très nombreuses formes de textes. Il peut y avoir les CGU, il peut y avoir les termes de la licence. Et dans ces entreprises-là, il y a souvent des community notes qui expliquent les règles de bonne pratique qui sont demandées à la communauté. Dans les community notes de Facebook, avant, il y avait écrit, par exemple, « Il faut respecter la dignité humaine et, par exemple, nous enlèverons toute phrase qui comparerait une femme à du matériel de cuisine ou un noir à du matériel agricole. », ces deux phrases ont été effacer la semaine de l’investiture de Donald Trump dans les community notes de Facebook et en plus, ils ont rajouté qu'il était tout à fait normal et légitime de se moquer de quelqu'un pour son orientation sexuelle ou pour son orientation de genre. Il y a quand même un juriste qui s'est levé un matin, qui a pris son clavier et qui a écrit « C'est tout à fait normal de se moquer d'un transgenre et d'un homosexuel. » Ce qui est quand même effrayant.
Mélanie RAPHAËL : Oui, tout à fait effrayant. On est au courant qu'il y a ce changement-là. Comment on peut se protéger ? Comment on peut agir ? Est-ce que vous, à votre niveau, vous avez des moyens d'action ?
Henri VERDIER : Oui, mais pas tellement, parce que je vous l'ai rappelé tout à l'heure, moi, je suis l'ambassadeur. Alors, je suis très fier aussi d'avoir apporté au Quai d'Orsay cette idée que parfois, la diplomatie — puisque la diplomatie, ça gère les rapports,Les relations internationales et donc aussi des rapports de force — on peut plaider, négocier des traités ou faire du bilatéral. Mais on peut aussi tenter de rééquilibrer les rapports de force en injectant une ressource. Donc là, on a injecté une ressource ça s'appelle l'Open Terms Archive. Vous savez que je suis théoricien de l'État plateforme. Donc c'est une plateforme pour que des tas de gens s'en servent. Maintenant, on commence à avoir des beaux usages. La Commission européenne s'en sert pour surveiller le respect du Digital Service Act. Et non seulement elle s'en sert d'ailleurs, mais elle contribue. C'est-à-dire qu'elle opère elle-même une instance pour la communauté. Les chercheurs de l'université de Beyrouth font des recherches sur les rapports du droit et du contrat. Et je pourrais vous citer une demi-douzaine d'exemples comme ça. Nous, on a fait notre travail, c'est-à-dire on a tenté de rééquilibrer légèrement le rapport de force. Moi, j'adore, en plus, c'est pour ça aussi que j'ai rejoint l'État sur l'open data, juste remonter le niveau de connaissances communes et laisser la société faire son travail. Parce que on peut peut-être même servir aux grandes entreprises, après tout, avec Open Terms Archives. Si aujourd'hui, vous êtes un big tech et que vous pouvez aussi dire à votre directeur juridique, tu as deux heures pour me dire quelle est la clause standard de protection de la vie privée. Et ils peuvent le savoir. Mais comme on aide tout le monde, on donne plus quand même à ceux qui étaient très coupés de l'information pertinente donc, on rééquilibre c'est ce qu'on a fait. Ce n'est pas à moi de veiller à la mise en œuvre du DSA ou d'aucun des grands textes européens. Mais on a créé une ressource.
Mélanie RAPHAËL : On a balayé pas mal de sujets. Est-ce qu'il y a une question qu'on n'aurait pas abordée et que vous voudriez partager avec nous ?
Henri VERDIER : Je vais tenter. Donc, moi, ça fait quand même des années qu'on m'interroge sur cette question IA environnement ou numérique environnement. Et j'ai vaguement l'impression qu'on rate quelque chose. Mais c'est un peu théorique, c'est un peu abstrait, c'est un peu philosophique. Il y a un coût sur l'environnement de la situation numérique, et donc plus on serait frugaux, précis, mieux on se porterait. Il y a le fait que probablement, pour régler certaines grandes questions, on aurait besoin de ces ressources, si les gens essayent vraiment de régler ces questions, ce qui n'est pas encore prouvé. Et on ne va pas très loin si on s'arrête à cette aporie-là. Moi, je me dis, politiquement, une dimension un peu insoupçonnée du numérique, c'est quand ça permet aux acteurs de se synchroniser, d'être plus rationnels. Parce que vous voyez bien que le problème de notre époque, c'est la difficulté de faire de l'action collective.
Finalement, par exemple, si je vais voter ou pas la semaine prochaine, ça ne change rien au résultat de la présidentielle. Donc j'y vais ou par passion, ou par conscience de mon devoir citoyen. Mais si je me retrouve embarqué dans un réseau de gens qui disent « Allez, on y va tous ensemble, etc. », je deviens un collectif. Et là, « Allez voter », ça a de l'impact et donc, les gens vont voter. Mais c'est pareil pour le tri sélectif, pour beaucoup de choses. Donc, le numérique, c'est aussi quelque chose qui permet à la multitude de se synchroniser et de fabriquer une force collective. C'est très peu exploité, ça. L'environnement, bon, bien sûr, il y a de la prédation, des industries extractives, des polluants éternels.
Mais il y a aussi le fait qu'il nous manque une sorte de culture d'harmonie avec la nature, c'est-à-dire il ne faut pas passer en force, il ne faut pas la brutaliser. Ce n'est pas normal de dire qu'il y a un problème. Ce n'est pas grave, je vais envoyer des produits chimiques dans l'atmosphère pour faire pleuvoir. Parce que ce n'est pas harmonieux. Et je me dis qu'il faudrait ouvrir un dialogue entre le numérique et l'environnement autour de cette question de l'harmonie, d'un art de vivre, d'une manière douce de régler les problèmes, de meilleure synchronisation, de meilleure coordination. Donc en fait, ce qui nous manque, c'est peut-être non pas de savoir si c'est bien ou mal, mais un projet commun de deux écosystèmes, l'écosystème du numérique et l'écosystème de protection de l'environnement mais au service d'un projet commun. Et qui commence probablement par une question un peu philosophique ou politique, ou de philosophie politique.
Bon, c'est peut-être un peu évanescent à ce stade, mais je suis assez convaincu que c'est ça qui nous manque. Moi, je les croise très peu, en fait. Et j'ai un collègue, ambassadeur climat. Et chaque fois qu'on se croise, on se dit qu'il faudrait qu'on fasse quelque chose ensemble. Mais on n'a pas de choses immédiates à faire et qu'on a des énormes urgences l'un et l'autre. Ça n'arrive jamais. Mais c'est peut-être faute d'un grand dessin collectif, en tout cas de ces deux écosystèmes.
Mélanie RAPHAËL : Très intéressant. Et effectivement, c'est un mouvement qu'on voit aussi sans forcément avoir ce grand dessin commun. On voit par exemple que la nature prend part dans les conseils d'administration d'entreprise. Donc, ça veut dire qu'il y a une prise de conscience. Et effectivement, ça rejoint aussi le travail qu'on fait aujourd'hui à la DINUM d'essayer de créer une communauté autour du numérique responsable. En tout cas, je vous remercie d'avoir participé à ce podcast. Merci beaucoup. Et vous pouvez retrouver l'ensemble des ressources, podcasts, vidéos et bien entendu outils communs à utiliser sur « ecoresponsable.numérique.gouv.fr. » Je vous souhaite à toutes et tous une bonne journée et à bientôt.
Voix OFF : Merci d'avoir écouté cet épisode de la « MiNumEchos ». Pour aller plus loin, retrouvez tous nos contenus, ressources et formations sur le site « ecoresponsable.numérique.gouv.fr. » Et n'hésitez pas à écouter les autres épisodes de cette saison. A bientôt !