Participatif
ACCÈS PUBLIC
19 / 03 / 2026 | 84 vues
Denis Duplan / Membre
Articles : 1
Inscrit(e) le 17 / 03 / 2026

Intelligence Artificielle – Un manuel de survie pour le CSE et la CSSCT

Vadémécum de l’IA générative de texte (en l’état de l’art de mars 2026)


L’IA générative est une technologie expérimentale qui prend la forme de modèles (dits LLMs, pour « Large Language Models ») qui ne cessent d’évoluer, et dont le fonctionnement reste encore mystérieux même pour les éditeurs qui les conçoivent (« boite noire »).

 

Les éditeurs de modèles ont consciemment précipité les utilisateurs dans leur expérimentation, externalisant de facto sur eux la charge de trouver des usages fiables à la technologie. Ce comportement peut être reproduit par des utilisateurs, notamment les entreprises en direction de toutes leurs autres parties prenantes, notamment leurs salariés et leurs clients.

 

Cette technologie est inédite, car quand bien même il s’agit d’une technologie informatique, elle n’est comparable à aucune autre technologie informatique qui l’a précédée.

 

En effet, s’ils peuvent être fascinants et utiles, les résultats produits par l’IA générative sont toujours inattendus et incertains.

 

Il en résulte que l’utilisateur doit systématiquement fournir un travail qu’il n’avait jusqu’alors pas à fournir :

 

  • il doit expérimenter pour découvrir ce dont l’outil est a priori capable et incapable, ce qui dépend de tout un contexte que l’utilisateur ne maîtrise que partiellement, dont ce qui est demandé à l’outil (le prompt) ainsi que les données et outils auxquels ce dernier peut accéder ;

 

  • quand il détermine un usage possible, il n’en doit pas moins contrôler le résultat produit ;

 

  • quand ce résultat n’est pas correct, il doit le corriger sans certitude qu’à l’avenir, l’erreur ne se reproduira pas ;

 

  • quand il dispose d’un résultat correct, il doit déterminer si utiliser l’outil en vaut finalement la peine, sans certitude que le contexte évoqué se retrouvera, ni que l’outil se comportera pareillement dans ce dernier.

 

A ce jour, il n’existe aucun moyen technique pour exempter l’utilisateur de ce travail, et quand il est possible d’en concevoir pour le soulager d’une partie de ce travail, ces moyens ont toutes les chances d’être complexes, donc coûteux, si bien que leur existence ne peut être présumée.

 

Par ailleurs :

 

  • s’agissant d’interaction avec un modèle via un chat, la question que l’on pose (le prompt utilisateur), n’est jamais celle qui est réellement posée : elle est toujours précédée d’instructions données au modèle pour cadrer la réponse (le prompt système) ;

 

  • s’agissant de l’entraînement d’un modèle sur des données, il n’existe aucun moyen réellement praticable pour supprimer du modèle une donnée sur laquelle il a été entraîné, à moins de réitérer l’entraînement en omettant cette dernière.

 

La technologie expose l’utilisateur à des risques spécifiques, le premier étant que tout ce qui vient d’être dit cesse de l’étonner.

 

LE LABORATOIRE DE L’EXPÉRIMENTATION GÉNÉRALE

 

Depuis l’apparition des chats, une formule revient systématiquement en bas de leur interface :

 

Conditions Générales d'Utilisation des chats à base de LLMs

 

Personne n’y prête guère attention, mais la formule devrait étonner. Ce n’est pas que l’outil puisse commettre une erreur qui devrait surprendre. C’est que si une erreur survient, son éditeur ne pourra rien pour vous. Et avant même cela, c’est que l’éditeur ne vous aidera pas à détecter si une erreur est survenue. Étrange pour un outil dont l’objet est de répondre aux questions qu’on lui pose…

 

Pour comprendre cette situation, il faut remonter quelques années en arrière – une éternité à l’échelle temporelle du changement dans le domaine de l’IA.

 

Ce 25 mars 2023, Lex Fridman, qui s’est fait connaître pour ses entretiens si approfondis qu’ils durent des heures avec des grands de ce monde, reçoit Sam Altman [[1]]. Le CEO d’OpenAI est incontestablement la star du moment. N’est-ce pas de son fait que tout est arrivé ? Fin novembre 2022, c’est lui qui a poussé OpenAI – même forcé, comme on l’apprendra plus tard – à lâcher dans la nature ChatGPT. L’outil a connu un succès foudroyant. En quelques mois, pas moins de 100 millions d’utilisateurs, s’il vous plaît, qui à cette occasion ont découvert un nouveau genre d’intelligence artificielle, l’IA générative.

 

Mais ce succès ne va pas sans soulever certaines questions. C’est que ChatGPT peut raconter n’importe quoi, et cela avec un aplomb remarquable. De quoi vous induire en erreur, car si vous l’interrogez sur un sujet, c’est a priori que vous n’y entendez rien. Un problème dont la résonance est nécessairement particulière dans un pays où la parole publique a progressivement glissé de l’évocation des « faits alternatifs » à la pratique du mensonge le plus éhonté, construisant les conditions objectives d’un assaut sur les institutions au prétexte que la dernière élection a été « volée ».

 

Invité à commenter, Sam Altman le fait en ces termes [[2]] :

 

Nous construisons en toute transparence et nous mettons notre technologie à disposition, car nous pensons qu’il est important que le monde y ait accès tôt, afin d’influencer la manière dont elle sera développée, de nous aider à identifier ce qui fonctionne bien et ce qui pose problème. À chaque fois que nous publions un nouveau modèle — et nous l’avons particulièrement ressenti cette semaine avec GPT-4 — l’intelligence collective et les compétences du monde extérieur nous permettent de découvrir des choses que nous ne pourrions pas imaginer ni réaliser en interne. Cela inclut à la fois des capacités impressionnantes du modèle, de nouvelles fonctionnalités, et aussi de vraies faiblesses qu’il nous faut corriger.

 

Ainsi, l’outil a été comme lâché dans la nature, et chacun invité à expérimenter, contrôler et corriger par lui-même en attendant que son éditeur l’améliore sur la base de ce qu’il en retient. OpenAI assume parfaitement d’avoir fait du monde un laboratoire d’expérimentation générale.

 

Comme le rapporte la journaliste Karen Hao dans son incontournable chronique d’OpenAI [[3]], quoique controversé jusqu’au sein d’OpenAI, ce geste inaugural va être reproduit par tous ses concurrents, y compris par ceux qui se prétendent les plus soucieux du bien public, à commencer par Anthropic.

 

Il est vrai qu’ils n’ont pas le choix, si l’on veut. C’est qu’avant que cela soit une nécessité pour justifier les investissements astronomiques qu’ils engloutissent, les éditeurs doivent composer avec une réalité qui dérange : l’IA générative est une technologie expérimentale.

 

En effet, derrière un chat, l’on trouve un grand modèle de langage – un LLM, pour « Large Language Model » –, un assemblage de milliards d’unités de calcul élémentaires, ces fameux neurones qui forment un réseau. Or même pour ceux qui le conçoivent, un LLM, c’est une boîte noire. Quelque chose que l’on sait assembler, mais dont on ne sait pas expliquer comment il fonctionne, au sens où l’on ne sait pas dire pourquoi étant donné tel texte qui lui a été fourni, il l’a complété par tel autre – à la base, un LLM ne fait que cela, même quand il répond visiblement à une question.

 

Cette situation a été bien décrite par des chercheurs d’Anthropic dans un papier publié en octobre 2023, et elle n’a guère progressé depuis [[4]] [[5]] :

 

Nous comprenons parfaitement les maths du réseau entraîné – chaque neurone dans un réseau de neurones procède à de simples calculs arithmétiques – mais nous ne comprenons pas pourquoi ces opérations mathématiques produisent les comportements que nous observons.

 

Anthropic est l’un des rares éditeurs à investir sérieusement dans la recherche en interprétabilité, cette discipline qui cherche à nous éclairer sur le sujet. L’interprétabilité est le parent pauvre du domaine, les éditeurs investissant clairement plus dans l’amélioration de leurs modèles que dans la compréhension de leur fonctionnement. Cela peut paraître surprenant, mais l’IA générative est avant tout un bricolage de génie.

 

Cela confronte les éditeurs à deux problèmes qui sont donc toujours pour l’heure indépassés, et qui sont peut-être même indépassables. Le premier est qu’il est impossible de dire ce dont un LLM est capable. Le second est qu’il est tout aussi impossible de garantir qu’un LLM produira un résultat fiable.

 

Dans ces conditions, l’utilisateur d’un outil à base de LLM tel qu’un chat doit systématiquement fournir un travail qui se décline ainsi :

 

  • Expérimenter pour déterminer quand l’outil peut visiblement marcher. Cela dépend de tout un contexte, qui comprend notamment ce que l’utilisateur a demandé à l’outil, des données auxquelles l’outil a accédé, des outils qu’il a pu d’actionner par lui-même.

 

  • Contrôler systématiquement le résultat que l’outil génère. Non seulement l’utilisateur ne peut être certain que l’outil va produire un résultat fiable, mais le fait que l’outil a produit un résultat fiable ne garantit pas qu’il en produira un d’aussi fiable par la suite, même dans un contexte apparemment similaire.

 

  • Corriger au besoin le résultat en question. A moins que ce résultat ne lui paraisse inexploitable, le premier réflexe de l’utilisateur est de chercher à corriger les erreurs dont ce résultat est grevé. Pour cela, l’utilisateur peut demander à l’outil de corriger et/ou corriger lui-même, réitérant finalement le processus déjà décrit.

 

  • Arbitrer pour déterminer s’il est rentable de recourir à l’outil. L’utilisateur compare le travail qu’il a dû fournir avec celui qu’il aurait dû fournir, révise éventuellement ses exigences à la baisse, etc. Bref, il fait son petit calcul de productivité – un calcul nécessairement limité par la relative maîtrise qu’il a du contexte et du fonctionnement de l’outil.

 

Le rapport que l’utilisateur entretient avec un outil à base d’IA générative est de ce fait très différent de celui qu’il peut avoir avec un outil informatique « classique ». L’absence de garantie quant à la qualité du résultat entretient l’utilisateur dans un état d’attente. Il le vivra positivement s’il attend de l’outil qu’il fasse preuve de créativité, et négativement s’il attend à l’inverse que l’outil fasse preuve de rigueur. Dans tous les cas, l’utilisateur devra donc garder un œil sur ce qui se passe.

 

C’est pourquoi il ne faut pas faire l’erreur de réduire le recours à un outil à base d’IA générative à une automatisation. Avant toute chose, c’est une sous-traitance.

 

POUR LES ENTREPRISES, DES COÛTS CACHÉS CONSÉQUENTS

Dans cette expérimentation générale, les entreprises ne sont pas mieux traitées que l’utilisateur lambda. Elles aussi se retrouvent chargées d’accomplir tout ce travail d’expérimentation / contrôle / correction et arbitrage dont les éditeurs externalisent la charge sur les autres. Sauf qu’à leur échelle, ce travail est nécessairement plus considérable.

 

En effet, chaque fois qu’il est question d’introduire un outil à base d’IA générative, une entreprise doit se soucier des conséquences dans tout un tas de domaines :

 

  • conformité à des régulations générales (RGPD, AI Act, …) ;

 

  • conformité à des régulations spécifiques ;

 

  • sécurité informatique ;

 

  • impacts environnementaux ;

 

  • etc.

 

Tout cela nécessite des compétences dont l’entreprise ne dispose pas nécessairement tant que la technologie est nouvelle et inédite. Or dans chacun de ces domaines, le sujet est pour le moins épais.

 

Prenons le cas de la sécurité informatique – un sujet dont il a été question dans un précédent article il y a quelques années [[6]]. Même si sa lecture ne saurait être assez recommandée, inutile de se reporter aux Recommandations de sécurité pour un système d'AI générative [[7]] de l’Agence Nationale pour la Sécurité des Systèmes d’Information (ANSSI) pour constater qu’il y a de quoi faire transpirer le Responsable de la Sécurité des Systèmes d’Information (RSSI) à grosses gouttes.

 

En effet, quand bien même il ne serait question que d’introduire un chat dans l’entreprise, cet outil s’appuiera sur un LLM qui présente la très grande originalité de ne pas être en capacité de toujours faire la distinction entre les données, d’une part, et les instructions, d’autre part. En fait, pour un LLM, cette frontière est particulièrement poreuse.

 

Pour l’illustrer tout bêtement, prenons le cas d’une rédaction où il serait question de déployer un chat, disons Le Chat de Mistral. Un journaliste reçoit ce document Word, que l’on présumera plus long mais c’est pour l’exemple :

 

Prompt injection indirecte : Le document vu par le journaliste

 

Le journaliste décide de demander à Le Chat d’en faire une synthèse :

 

Prompt injection indirecte : Le journaliste demande une synthèse du document

 

Tout pour plaire et servir, Le Chat obtempère :

 

Prompt injection indirecte : La synthèse contient une blague ?

 

Quelle blague demandée ? Ben, le journaliste ne l’a pas vu, mais après le texte, écrit en blanc pour que justement il ne le voit pas, l’astucieux rédacteur du document avait injecté deux lignes :

 

Prompt injection indirecte : Des instructions étaient cachées dans le document

 

Le Chat a lu le document et entrepris d’en faire une synthèse, mais parvenu à la ligne « # INSTRUCTIONS », il a interprété ce dernier comme un délimiteur l’enjoignant à s’interrompre dans sa tâche pour enchaîner sur une autre décrite sur la ligne d’après, à savoir raconter une blague.

 

Ces instructions auraient pu être plus mal intentionnées, comme par exemple demander à Le Chat d’utiliser un outil auquel l’entreprise lui aurait donné accès pour exfiltrer des données confidentielles, sans rien mentionner de tout cela à l’utilisateur qui plus est.

 

Mais sans même qu’il soit nécessaire d’en arriver là, remarquons que le seul fait d’injecter des données peut avoir de très sérieuses conséquences. Ainsi, si notre astucieux rédacteur s’était contenté de rajouter du texte écrit en blanc, le journaliste n’aurait pas vu que ce texte rapportait faits erronés :

 

Prompt injection indirecte : Il suffit de simplement cacher du texte...

 

…et comme il est possible de le constater, Le Chat n’aurait pas fait la différence :

 

Prompt injection indirecte : ...pour fausser la synthèse de ce dernier !

 

Sur le moment, le journaliste au fait de l’actualité pourrait se dire cette histoire n’est pas vraisemblable. Mais supposons que ce journaliste ne le soit pas, et qu’en plus le document soit rédigé dans une langue qu’il ne comprend pas ? Ou que plutôt que de donner ce document à Le Chat pour l’exploiter à chaud, ce journaliste se contente de l’enregistrer dans une base pour l’exploiter à froid ? Cette base se trouve de ce fait empoisonnée – c’est le terme utilisé en sécurité informatique. Qui sait si à des années de distance, un journaliste interrogeant cette base ne se fera pas avoir ?

 

Sur ce modèle qui est techniquement celui de l’injection de prompt indirecte, l’on conçoit aisément tout le potentiel qu’un hacker peut exploiter pour empoisonner un fichier de contacts, un carnet de commandes ou autres données essentielles. Pour nuire ainsi à une entreprise, nul besoin que ce hacker détienne un savoir ésotérique : il lui suffit de savoir écrire comme tout un chacun. Car comme l’a fait remarquer début 2023 le célèbre Andrej Karpathy dans un tweet resté célèbre : « The hottest new programming language is English » [[8]]. Un LLM parlant n’importe quelle langue, l’on peut prendre le risque de traduire par : « Le langage de programmation le plus branché est le Français ».

 

Comme l’on vient de voir, Mistral n’est d’aucune aide pour résoudre le problème qui vient d’être illustré. D’abord, quand bien même la faille de sécurité est notoire et béante, à l’heure où l’auteur écrit ces lignes, la démonstration déroulée prouve que l’éditeur n’a strictement rien fait pour la combler. Par ailleurs, c’est à l’utilisateur de se débrouiller avec Le Chat, conformément aux conditions générales d’utilisation qui ont été rappelées au début de cet article : « Le Chat peut faire des erreurs. Vérifiez les réponses. ».

 

Pour lui faire justice, relevons que l’éditeur français ne fait certainement pas exception – l’on a rappelé la mention qui invite l’utilisateur d’un chat à faire attention aux erreurs, tous éditeurs confondus. Toutefois, après avoir testé la concurrence, force est de constater que si l’on aimerait bien se montrer chauvin, le béret et la baguette vont être difficiles à porter. En effet, Le Chat expose bien plus ses utilisateurs gratuits au risque d’être trompés que ceux de ChatGPT ou de Claude. Le premier se laisse abuser par le texte écrit en blanc, mais pas par l’instruction, sans toutefois en informer l’utilisateur. Le second ne se fait avoir dans aucun de ces deux cas, et par ailleurs avertit l’utilisateur :

 

Prompt injection indirecte : Claude ne se laisse pas avoir et signale la tentative

 

 

Prompt injection indirecte : Claude ne se laisse pas avoir et signale la tentative

 

Toutefois, dans ce jeu éternel du chat et de la souris qu’est la sécurité informatique, ce type d’attaque peut évidemment revêtir des formes incroyablement plus sophistiquées. En conséquence, à l’utilisateur de prendre ses précautions pour se protéger d’injections de prompt indirectes, ce qui représente évidemment un coût pour lui. Et pour une entreprise, cela sera encore moins gratuit.

 

La révélation de ce genre de coût caché peut faire l’effet d’une douche froide. Et encore n’a-t-il donc été question que de sécurité informatique, et dans ce domaine uniquement du risque d’injection de prompt indirecte. Or comme cela a été pointé, le recours à l’IA générative soulève aussi des enjeux spécifiques dans bien d’autres domaines : conformité réglementaire, protection de l’environnement, etc. Au final, pour se mettre véritablement en ordre de marche afin d’accueillir l’IA générative dans ses murs, l’entreprise risque d’avoir à lourdement investir.

 

Sans compter qu’il ne faut pas voir ces coûts comme des tickets à l’entrée qu’il est possible de ne payer qu’une seule fois. D’outil à base d’IA générative en outil à base d’IA générative, les coûts s’accumulent. L’entreprise doit donc se préparer à gérer des multiples dettes, qui présentent par ailleurs un caractère évolutif : sous l’effet du progrès technologique, de l’évolution des réglementations ou de tout autre source exogène de changement, le coût aujourd’hui peut ne pas être le même demain, tant à la baisse… qu’à la hausse !

 

Les directions sont-elles bien conscientes de cela ? Les pressions qui s’exercent sur elles pour recourir à la technologie ne manquent pas, venant tant de l’extérieur que de l’intérieur – les salariés ne sont pas les derniers à réclamer de pouvoir accéder à la technologie, sous la menace d’y recourir par eux-mêmes et de contribuer ainsi au développement du « shadow IA », cette IA de l’ombre. Dans un tel contexte, la peur de rater le coche – un risque bien réel qu’il ne faut pas sous-estimer – suffira pour faire agir certaines directions, avec précipitation. A l’inverse, d’autres directions jugeront utiles de se poser pour faire leurs petits calculs avant plutôt qu’après que se lancer, histoire de déterminer si le jeu en vaut vraiment la chandelle.

 

DES SALARIÉS MIS A CONTRIBUTION SANS EN AVOIR L’AIR

 

Informées ou non de l’existence de ces coûts cachés, les directions peuvent de facto en venir à les faire assumer par d’autres, en premier lieu les salariés.

 

Un symptôme est cette pratique assez répandue qui consiste à déployer un outil à base d’IA générative dans le cadre du « volontariat ». L’outil est mis à disposition, présenté comme présentant des vertus, et les salariés sont laissés libres de l’utiliser ou non.

 

Ce recours au « volontariat » peut paraître comme une concession de la direction pour ménager l’acceptabilité sociale, mais l’on peut se demander si la direction a vraiment le choix. C’est qu’à défaut de se saisir sérieusement de la technologie et de construire à grand frais l’édifice qui permet d’en fiabiliser le recours, comment une direction pourrait-elle faire autrement que de se décharger sur les salariés de cette responsabilité, tout comme les éditeurs s’en sont déchargés sur elle ? Dans ces circonstances, recourir au « volontariat » l’aide clairement à faire passer la pilule.

 

Le recours au « volontariat » ne doit surtout pas être considéré comme allant de soi. A la base, pourquoi une direction investirait-elle dans un outil sans espérer que cet investissement débouche sur des gains, tout particulièrement des gains de productivité ?

 

Cette question, le salarié ne peut que se la poser. S’il décide d’utiliser l’outil, en cas de difficulté rencontrée avec ce dernier, engagera-t-il sa responsabilité différemment que si l’utilisation de l’outil lui avait été imposée ? A l’inverse, s’il décide de ne pas l’utiliser, ne sera-t-il pas un jour jugé comptable de ne pas l’avoir fait au titre que cela aurait grevé sa productivité, témoigné d’une défiance, etc. ?

 

Toutefois, cela dépend nécessairement du contexte. Il est clair que le salarié se sentira d’autant moins contraint dans son « choix » que l’encadrement n’exerce aucune pression, que les collègues n’en exercent pas plus, que l’entreprise n’est pas en difficulté, etc. Plus généralement, cela tient non seulement à l’entreprise, mais aussi à la situation qu’elle traverse. Or du jour au lendemain, tout cela peut évoluer.

 

Au-delà, le salarié qui décide d’utiliser l’outil à base d’IA générative qui lui est « proposé » ne va pas manquer d’avoir à fournir le travail qui a été décrit : expérimenter, contrôler, corriger et arbitrer. Dès lors, il n’est pas certain qu’il constate y gagner. A son échelle, le calcul des gains de productivité peut se révéler très délicat, cela d’autant plus que le salarié peut de lui-même aussitôt les réinvestir : combien de fois n’entendra-t-on pas des salariés rapporter que le recours à un chat leur permet d’automatiser telle tâche, d’« augmenter » telle autre, quand ce n’est pas carrément en permettre une nouvelle ? Pour compliquer la chose, un gain ne sera pas nécessairement quantitatif ; il pourra être simplement qualitatif, voire à la fois quantitatif et qualitatif.

 

A l’échelon de la direction, comment collecter cette information et la consolider pour la traduire en gains potentiels qui se traduiront par des économies – notamment en ETP – et/ou des réinvestissements ?

 

L’éléphant étant dans le couloir, inutile de faire l’autruche. Dans le cadre d’une information-consultation sur l’introduction d’un outil à base d’IA générative, l’on ne saurait que trop inviter les représentants du personnel à poser d’emblée la question des gains de productivité, avant qu’elle ne soit posée dans la précipitation, et donc mal posée, lorsqu’il s’agira de supprimer des emplois. Si chacun conçoit qu’il n’est pas réaliste de demander à une direction de chiffrer les gains de productivité d’emblée dans un contexte où les salariés sont « libres » de recourir à l’outil, du moins est-il possible d’exiger que la direction précise la méthode qu’elle entend mettre en œuvre pour mesurer ces gains le moment venu.

 

LA COMPÉTENCE DE L’EXPERT, PLUS QUE JAMAIS UN ENJEU CRUCIAL

 

Au terme de cet article, le lecteur peut le juger un peu long. Malheureusement pour lui, il doit bien comprendre que l’auteur n’a fait qu’effleurer le sujet. C’est dire tout ce que les représentants du personnel qui siègent au CSE sont en droit d’attendre d’un expert qu’ils missionneraient pour analyser les impacts potentiels de l’introduction d’un outil à base d’IA générative ou d’une politique de recours à l’IA générative dans leur entreprise.

 

Ce n’est pas seulement une question de surface, c’est aussi une question de profondeur.

 

De surface, car s’il faut suivre au quotidien l’actualité technique du milieu, c’est qu’il est impossible de décrocher longtemps sous peine de rater un changement de paradigme. Que l’on prenne ce mois de février. Il a été pour le moins agité avec l’adoption généralisée d’OpenClaw, un système qui permet de donner le contrôle total d’un ordinateur personnel à un agent – un outil à base d’IA générative qui accomplit pour vous des tâches en permanence pour peu que vous lui donniez accès à vos outils et à vos données. Cela a radicalement redessiné les horizons.

 

De profondeur, car tandis que le recours à l’IA générative se généralise, la technologie évolue énormément et les outils en font des usages toujours plus complexes (RAG, instrumentation, agentique, etc.). Dans ces conditions, pour saisir les enjeux que soulève le déploiement de l’IA générative dans une entreprise, il faut être toujours plus en capacité de rentrer dans le détail technique de la manière toujours plus spécifique dont l’entreprise s’y prend. Cela signifie que loin de se contenter d’observer ce qui se passe, il faut mettre les mains dans le cambouis.

 

A défaut de trouver un expert compétent, les représentants du personnel risquent de passer à côté d’enjeux essentiels et/ou d’être fort mal conseillés sur ceux qui sont identifiés.

 

C’est qu’ainsi que les éditeurs de LLMs le font avec nous, le premier réflexe de l’incompétent qui entend le rester est d’externaliser sur d’autres sa responsabilité, travestissant cela sous le mauvais conseil de répéter le geste. Comme par exemple en recommandant l’installation d’un « comité éthique » notamment composé de « personnalités » extérieures à l’entreprise – la chose à ne surtout pas faire, tant il est inévitable que conjuguant les incompétences technique et juridique pour ne s’en tenir qu’à elles, un tel comité dégénère rapidement en chambre d’enregistrement…

 

Pour ne pas laisser le lecteur sur sa faim, et quand bien même de nouveaux grands bouleversements s’annoncent avec l’irruption de l’agentique à peine évoquée, l’auteur de ces lignes a condensé sur une page quelques éléments essentiels. En rien techniques, ils constituent la culture générale minimale dont tout représentant du personnel qui siège à un CSE doit être équipé pour se confronter à l’introduction de l’IA générative dans son entreprise. Un vadémécum, pour ainsi dire, et c’est pourquoi il est désigné ainsi. Le lecteur le trouvera dans la première section de cet article.

 

RÉFÉRENCES

 

[1] Sam Altman: OpenAI CEO on GPT-4, ChatGPT, and the Future of AI | Lex Fridman Podcast #367 (https://www.youtube.com/watch?v=L_Guz73e6fw).

 

[2] « We are building in public and we are putting out technology because we think it is important for the world to get access to this early to shape the way it's going to be developed, to help us find the good things and the bad things, and every time we put out a new model, and we've just really felt this with GPT4 this week, the collective intelligence and ability of the outside world helps us discover things that we cannot imagine, we could never done internally. And both, like, great things that the model can do, new capabilities and real weaknesses we have to fix. »

 

[3] Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI (https://karendhao.com/).

 

[4] « We understand the math of the trained network exactly – each neuron in a neural network performs simple arithmetic – but we don't understand why those mathematical operations result in the behaviors we see. »

 

[5] Decomposing Language Models Into Understandable Components (https://www.anthropic.com/news/decomposing-language-models-into-understandable-components).

 

[6] Sécurité informatique : le CSE et la CSSCT doivent être informés (et consultés ?) (https://www.miroirsocial.com/participatif/securite-informatique-le-cse-et-la-cssct-doivent-etre-informes-et-consultes).

 

[7] Recommandations de sécurité pour un système d'AI générative (https://cyber.gouv.fr/publications/recommandations-de-securite-pour-un-systeme-dia-generative).

 

[8] The hottest new programming language is English (https://x.com/karpathy/status/1617979122625712128).

Pas encore de commentaires