Une réunion s’est tenue sur le sujet concerné. Trois axes étaient au menu : la stratégie ministérielle IA, l’étude impact IA sur métiers du contrôle et la Qualité de vie - Conditions de Travail (QVCT). Solidaires Finances a alerté sur le fait que traiter ces deux (vastes) sujets IA et QVCT en 1/2 journée était impossible. Au final, le sujet de la QVCT sera abordé ultérieurement dans le cadre d’une Formation Spécialisée Ministérielle.
Stratégie ministérielle en matière d'IA.
Pour mémoire, il faut rappeler ici le contexte, avec un rapport de la Cour des comptes qui avait pointé une absence de cadrage général et de pilotage. Le principe veut que le ministère et chaque direction définissent une stratégie IA, afin d’éviter que les projets soient développés de façon non coordonnée.
Les fiches de ce GT reprennent d’inévitables poncifs habituels. C’est notamment le cas d’une vision de l’IA censée accroître l’efficacité, plébiscitée par agent.es et usagèr.es, mais sans réelle preuve à l’appui. On peut, par exemple, supposer que si les usagèr.es recourent aux chatbots, c’est peut-être moins par choix que par manque d’alternatives face à la dématérialisation à la réduction des accueils physiques. Mais, plutôt que de questionner ces causes, l’administration persiste à présenter l’IA comme solution miracle à tous les maux.
Dans un souci de mutualisation des coûts, infrastructures et solutions d’IA, l’administration évoque l’idée d’un socle technique commun. En gros, l’idée serait d’avoir des modèles d’IA facilement adaptables pour les différentes missions. La solution proposée par l’entreprise Mistral est évoquée comme possible. Fait étonnant, l’administration nous a rapporté une anecdote révélatrice de la pertinence d’utiliser ce type de solution sur étagère : lors d’une démonstration, le chatbot de Mistral, interrogé sur la liste des services et directions du ministère, a fourni un résultat totalement à côté de la plaque… Et c’était censé nous rassurer ? Quant au prix de la licence que Mistral ferait payer au ministère : aucune réponse.
À la demande de Solidaires Finances d’une étude d’impact environnemental systématique avant toute expérimentation IA, l’administration a balayé l’idée en expliquant que l’écologie ne devait pas servir de « totem » contre l’IA. Pourtant, le discours officiel du ministère répète à l’envi les mantras du « Bercy vert » et de la sobriété numérique. Et là, aucune réponse sur l’existence d’une mission GreenTech et de son rôle à jouer. Si auparavant les décideurs faisait au moins semblant, là pas trop : on ne s’embarrasse pas avec l’écologie sacrifiée sur l’autel de l’efficacité.
Sur le volet souveraineté : l’administration affirme disposer des compétences en interne, mais reste incapable de préciser la composition des effectifs réellement capables de développer ces projets, ni leur origine (contractuel.les pour la plupart). Aucune politique de formation n’existe pour permettre aux informaticiens « maison » de monter en compétence sur les data sciences.
Une charte ministérielle a été rédigée pour « responsabiliser » (culpabiliser ?) les agent.es et leur rappeler le risque de fuite de données en utilisant des outils commerciaux comme ChatGPT. Ce risque existe, certes, mais l’administration ferait bien de s’appliquer le même devoir de vigilance. En effet, elle continue de recourir massivement aux produits Microsoft. Or, comme l’a reconnu sous serment le PDG de Microsoft devant une commission d’enquête cet été, il est impossible de garantir l’absence de fuites de données sur les PC équipés de Windows, soit 130 000 postes dans notre ministère qui traitent de données ultrasensibles. Un danger à nos yeux tout aussi préoccupant.
En parlant de souveraineté, Solidaires Finances a demandé où était passé « Albert ». Le projet, encore cité au dernier GT et mis en avant par E. Macron il y a six mois, a curieusement disparu des fiches. Développé par la Dinum et expérimenté dans les maisons France Services, « Albert » devait aussi faciliter le travail des
agent.es en les aidant à répondre aux questions des usagèr.es. Pas de faux semblant, on nous l’avoue sans détours : « Albert est un échec » dans le réseau France Services. Il est même référence à l’émission Cash Investigation (avril dernier) pour évoquer la tragique destinée d’« Albert ». Or, aucun bilan officiel n’a été communiqué : sans notre question, nous ne l’aurions jamais su. RIP « Albert » !
Enfin, concernant la nouvelle mission confiée à la DGCCRF, chargée de veiller à l’application du règlement européen « IA Act » au sein de notre ministère : quels moyens ? quelles prérogatives ? Aucune réponse, si ce n’est qu’il y aura… du boulot !
Dans la définition de cette stratégie, le volet dialogue social est une fois de plus traité comme un simple ornement. Ce qui est présenté dans la fiche est inconséquent : aucune analyse de fond, aucune perspective concrète, seulement quelques voeux pieux qui ne changent rien à la réalité vécue par les agent.es.
Etude d'impact IA.
Cette étude avait été confiée à l’INRIA, un labo public, ce qui nous change des sociétés de conseil. On peut déjà s’en féliciter...
Après avoir rappelé la “hype” actuelle autour de l’IA, il a exposé les problèmes rencontrés pour mener l’étude, à commencer par les difficultés pour accéder aux utilisateur.rices finaux (les agent.es qui bossent avec l’IA). Ceci est largement dû à des blocages hiérarchiques, et des directions qui freinent. Le labo a aussi souligné la culture du secret et l’opacité prégnantes dans notre administration. À noter : l’étude n’a pas été présentée aux directions ayant participé à l’enquête. La version finale devrait nous être officiellement livrée en novembre. Discours plutôt mesuré quant à l’efficacité des IA génératives, les chercheurs ne cachent pas que 95 % des projets n’aboutissent jamais !





