Intelligence artificielle: Vingt autorités s’allient pour bâtir un cadre mondial
À l’occasion de la 47e Assemblée mondiale de la protection de la vie privée, vingt autorités de protection des données, dont la CNIL, ont signé une déclaration commune pour promouvoir un cadre de gouvernance fiable de l’intelligence artificielle. En insistant sur la protection des droits fondamentaux, la transparence, la responsabilité et la nécessité d’un encadrement juridique clair, cette déclaration rejoint plusieurs principes majeurs portés par FO-Cadres.
Un front commun pour une IA digne de confiance
Réunies à Séoul le 17 septembre 2025, vingt autorités issues d’Europe, d’Asie-Pacifique et d’Amérique du Nord ont officialisé une alliance autour d’un objectif commun : bâtir un cadre mondial de gouvernance pour une intelligence artificielle innovante et respectueuse des droits fondamentaux. Cette initiative, amorcée lors du Sommet sur l’IA organisé à Paris en février, reconnaît à la fois le potentiel transformateur de l’IA dans la santé, les services publics, la sécurité ou encore les ressources humaines, et les risques majeurs qu’elle soulève : atteintes à la vie privée, discriminations, biais algorithmiques ou désinformation.
La déclaration appelle à intégrer les principes de protection des données dès la conception des systèmes, à instaurer une gouvernance solide et à anticiper les risques tout au long du cycle de vie des outils d’IA. Cette approche “privacy by design”, qui met la confiance du public au cœur du déploiement technologique, fait directement écho aux principes de finalité, de proportionnalité et de vigilance portés par FO-Cadres.
Des engagements concrets pour encadrer les usages
La déclaration commune engage les régulateurs à clarifier les bases légales du traitement des données dans le contexte de l’IA, qu’il s’agisse du consentement, de l’intérêt légitime ou d’autres fondements juridiques. Elle appelle également à renforcer le partage d’informations et à définir des mesures de sécurité proportionnées, fondées sur des évaluations scientifiques rigoureuses et mises à jour régulièrement pour suivre l’évolution rapide des technologies.
Cette approche rejoint les principes de loyauté, de responsabilité et de transparence. Elle s’accompagne d’un engagement à surveiller en continu les impacts techniques et sociétaux de l’IA, en associant chercheurs, ONG, pouvoirs publics et entreprises aux politiques publiques. L’objectif : créer un environnement favorable à l’innovation sans sacrifier les droits fondamentaux, notamment grâce à des dispositifs comme les bacs à sable réglementaires ou le partage de bonnes pratiques.
Vers une régulation coordonnée et globale
La déclaration souligne aussi l’importance de renforcer la coopération entre autorités de protection des données et régulateurs d’autres domaines – concurrence, consommation, propriété intellectuelle – afin d’assurer la cohérence des cadres applicables aux systèmes d’IA. Là encore, cette approche transversale répond à l’un des appels centraux du plaidoyer FO-Cadres : agir sur l’ensemble de la chaîne algorithmique, du concepteur à l’utilisateur, pour garantir que les choix technologiques restent orientés vers l’intérêt général et n’érodent ni les droits sociaux ni les libertés fondamentales.
En réaffirmant leur volonté d’accompagner l’essor de l’IA sans compromettre la vie privée ni l’intégrité des individus, les signataires posent les bases d’une gouvernance mondiale qui ne se limite pas à l’aspect technique, mais embrasse la dimension sociale et démocratique de l’innovation.
La déclaration : urlr.me/9t7zqj
Afficher les commentaires
L’automatisation progresse plus vite que la formation
IA et emploi: L’automatisation progresse plus vite que la formation
L’organisme britannique BSI publie une étude internationale sur l’impact de l’intelligence artificielle sur l’emploi et les compétences. Réalisée auprès de 850 dirigeants dans huit pays, elle révèle que les entreprises investissent massivement dans l’IA pour gagner en productivité et réduire leurs coûts, mais souvent sans stratégie claire d’accompagnement humain. Une situation qui menace particulièrement les débuts de carrière et pourrait, à terme, fragiliser les parcours des cadres et ingénieurs.
L’automatisation s’impose comme priorité stratégique
L’étude montre que l’IA s’impose désormais comme un levier central de compétitivité : 61 % des dirigeants l’utilisent pour accroître la productivité, 49 % pour réduire les coûts, et 59 % la jugent cruciale pour la croissance de leur organisation. Dans les rapports annuels analysés, le mot “automation” apparaît près de sept fois plus souvent que “formation” ou “compétences”. Ce déséquilibre traduit un angle prioritairement technologique, les entreprises cherchant d’abord à ne pas paraître en retard face à leurs concurrents.
Pourtant, ce choix stratégique soulève des questions sur la préparation des salariés à l’ère de l’IA. Plus d’un dirigeant sur deux (55 %) estime que les bénéfices de l’IA valent les perturbations qu’elle provoque sur les effectifs, et 18 % investissent explicitement pour réduire les postes. Cette approche centrée sur l’automatisation, si elle n’est pas compensée par une politique ambitieuse d’investissement humain, risque de creuser un fossé dans l’adaptation des organisations aux mutations du travail.
« Génération jaded » : une entrée sur le marché du travail fragilisée
C’est au niveau des postes juniors que l’impact se fait déjà sentir. Près de 39 % des entreprises ont réduit ou supprimé des fonctions d’entrée de carrière grâce à l’IA, et 43 % prévoient d’aller plus loin dans l’année à venir. La tendance est claire : près d’un tiers des dirigeants (31 %) explorent des solutions d’IA avant même d’envisager un recrutement humain. Cette automatisation précoce menace de priver les jeunes actifs d’opportunités d’apprentissage et d’expérience, au risque d’une « génération jaded » – pour “jobs automated, dreams eroded” (emplois automatisés, rêves érodés -jaded = blasé).
Plus globalement, 50 % des dirigeants reconnaissent que l’IA contribue déjà à réduire les effectifs. Plus de la moitié (56 %) disent se sentir “chanceux” d’avoir commencé leur carrière avant l’ère de l’IA, et 43 % pensent qu’ils n’auraient pas développé les mêmes compétences si ces outils avaient existé. Plus d’un quart (28 %) estiment même que leur poste actuel n’existera plus d’ici 2030.
Formation : un retard préoccupant face à l’essor de l’IA
Malgré la rapidité de la transformation, seules 34 % des organisations disposent d’un programme structuré de formation à l’IA. La France se situe même en dessous de cette moyenne, à 28 %. Si 56 % des dirigeants pensent que leurs salariés de niveau débutant possèdent déjà les compétences nécessaires, cette confiance semble déconnectée de la réalité. L’étude souligne aussi que 48 % des entreprises ne seraient pas capables de continuer à fonctionner normalement en cas d’indisponibilité temporaire des outils d’IA.
Les écarts sont notables entre grandes entreprises et PME : 50 % des grandes structures ont déjà supprimé des postes juniors contre 30 % dans les petites, et elles sont deux fois plus nombreuses à disposer d’un programme de formation (46 % contre 23 %). Ce différentiel pourrait se traduire à terme par un transfert de la charge de formation vers les plus petites entreprises, accentuant les inégalités dans l’accès aux compétences.
Une tension croissante sur les compétences clés
Si 73 % des dirigeants s’attendent à voir leurs capacités de collecte d’information améliorées par l’IA, et 67 % leur créativité, ils sont 46 % à estimer que l’outil pourrait réduire les compétences critiques des jeunes générations. Dans l’Hexagone, 47 % des dirigeants pensent que la pensée critique des jeunes salariés sera affaiblie par l’IA, et 28 % anticipent une baisse de leurs capacités décisionnelles. Plus inquiétant encore, 52 % jugent que l’IA peut aider des salariés peu qualifiés à masquer leurs lacunes de performance.
Ce constat interroge sur la capacité des entreprises à préparer les futurs cadres à exercer leurs responsabilités dans un environnement où certaines compétences fondamentales risquent de s’éroder. Or ce sont précisément ces compétences – créativité, collaboration, intelligence émotionnelle – que l’IA ne peut remplacer et qui restent indispensables pour piloter des projets complexes.
Miser sur l’humain et repenser la formation
Pour BSI, la clé réside dans une stratégie de long terme alliant innovation technologique et investissement humain. Automatiser les postes d’entrée sans développer un vivier de talents constitue un risque de “latence de compétences” : sans expérience initiale, les futurs cadres manqueront de l’expertise nécessaire aux fonctions supérieures. Cela suppose de bâtir des écosystèmes d’apprentissage continu intégrant des compétences techniques (prompt engineering, compréhension des limites de l’IA) et humaines (créativité, empathie, collaboration).
Enfin, l’étude souligne les risques psychosociaux liés à la transformation du travail : surcharge cognitive, perte de sens, pression accrue sur les managers. Dans un contexte où la nouvelle génération de travailleurs accorde plus d’importance au bien-être qu’à la rémunération, intégrer la prévention de la santé mentale dans les stratégies IA devient une nécessité.
L’étude ici (en anglais uniquement) : urlr.me/ydhzc3