L’été n’a pas été de tout repos pour le secteur public. Tandis que la révolution des grands modèles de langage (LLM) continue de bousculer nos routines, mon livre blanc s’est offert une mise à jour ambitieuse — et franchement, il était temps.
Sécurité des LLM : de la théorie à la pratique
On ne va pas se mentir : intégrer l’IA dans les processus administratifs, c’est ouvrir la porte à des opportunités… et à quelques sueurs froides. Prompt injection, divulgation d’informations sensibles, empoisonnement des données d’entraînement — les LLM ont leurs failles, et il était urgent de les adresser.
Ce nouveau chapitre plonge dans les vulnérabilités spécifiques des LLM, avec des exemples concrets et des recommandations pour que l’innovation ne rime pas avec imprudence.
Déploiement : choisir sa propre aventure
Cloud, on-prem, hybride… Les options de déploiement sont désormais réécrites de fond en comble. On a analysé chaque scénario, ses avantages, ses contraintes, et surtout ses implications pour la souveraineté et la sécurité des données publiques.
Parce qu’il n’existe pas de solution universelle, mais un éventail de choix à adapter à chaque contexte.
Biais, éthique et le grand chamboulement du EU AI Act
L’IA n’est pas neutre, et les biais algorithmiques peuvent avoir des conséquences bien réelles. Désormais, un chapitre entier est consacré à ces questions, avec une analyse du EU AI Act qui s’impose comme le nouveau gardien du jeu européen.
Discrimination, transparence, supervision humaine… La régulation européenne redéfinit les règles, et invite chaque acteur public à repenser ses pratiques.
Conclusion
L’IA n’est plus un gadget, c’est un levier de transformation — à manier avec lucidité et exigence. Cette mise à jour du guide est une invitation à s’approprier les enjeux, à questionner les évidences, et à bâtir une administration publique à la hauteur des défis de demain.
Comments