Participatif
ACCÈS PUBLIC
05 / 10 / 2024 | 41 vues
Jacky Lesueur / Abonné
Articles : 1862
Inscrit(e) le 04 / 03 / 2008

Impacts de l'intelligence artificielle : risques et opportunités pour l'environnement

Elle existe depuis des décennies, mais a fait une entrée fracassante dans notre vie quotidienne. L'intelligence artificielle (IA) est à présent partout autour de nous : dans nos smartphones et assistants intelligents, sur les réseaux sociaux, mais aussi dans des secteurs entiers comme l'industrie, le transport, le marketing...

Cette omniprésence nous amène aujourd'hui à questionner son impact sur le changement climatique.

Certains dénoncent une menace et un impact déjà effectif pour l'environnement.

D'autres soulignent son potentiel d'outil indispensable à la transition écologique. Qui croire ?

 

Le Conseil économique, social et environnemental (CESE) ne pouvait manqué de s'intéresser à ce sujet...


Il a examiné et adopté  en séance plénière, la semaine dernière,  le projet d’avis sur les impacts de l’intelligence artificielle : quels risques et quelles opportunités pour l’environnement ?
 

Rapporté par Fabienne Tatot (CGT) et Gilles Vermot-Desroches (Entreprises) au nom de la commission Environnement présidée par Sylvain Boucherand (Environnement et Nature), cet avis comprends des préconisations pour une IA respectueuse de l'environnement (dite Green IA) et à finalité environnementale (dite IA for green). 

 

Celui-ci pointe les paradoxes entre les innovations favorables à la transition écologique et l’impact de l’usage de ces nouvelles technologies sur l’environnement.

 

Cet avis comprends des préconisations pour une IA respectueuse de l'environnement (dite Green IA) et à finalité environnementale (dite IA for green). 

 

Aussi, le CESE appelle les pouvoirs publics à se saisir pleinement du sujet afin de mettre en lumière une réalité encore trop peu connue des consommateurs.

 

Si le législateur et les pouvoirs publics s’interrogent sur l’encadrement et les finalités de l’IA comme en témoigne l'AI ACT établi par l’Union européenne en février dernier, ou la 28ème Conférence des Parties sur les changements climatiques (COP 28) de Dubaï qui a consacré les systèmes d’IA (SIA) comme des instruments majeurs de lutte contre le changement climatique, aucun n’adresse les impacts environnementaux de son usage. 

 

Pourtant, en 2023 déjà, la direction d’Alphabet, la maison-mère de Google, estimait qu’un « prompt » émis à une IA générative demandait l’équivalent de dix fois l’énergie consommée par une simple recherche sur Google. Une étude récente établit également que les systèmes d’IA pourraient consommer en 2027 entre 4,2 et 6,6 milliards de mètres cubes d’eau, soit une consommation légèrement supérieure à celle du Danemark et équivalente à la moitié de celle du Royaume-Uni.

 

Il est enfin nécessaire d’anticiper un potentiel effet rebond. Les usagers, se rendant compte des économies d’énergie et d’eau obtenues grâce à l’IA, pourraient paradoxalement intensifier son usage, induisant une augmentation de la consommation en ressources ainsi qu’une obsolescence accélérée des matériels et un accroissement des déchets.

 

C’est ce paradoxe qui a conduit le CESE à s’interroger quant à la place de l’IA dans la lutte contre le réchauffement climatique et au moyen de concilier son utilisation avec sa finalité.

 

Pour construire cet avis, le CESE a mené de nombreuses auditions et interrogé un large spectre d’actrices et d’acteurs à la fois du privé, des chercheuses et chercheurs, comme des institutionnels. La rapporteure et le rapporteur ont notamment souhaité entendre les diversités d’analyse et compiler les cas d’usage.

 

Avec cet avis le CESE souhaite initier le débat et appelle les pouvoirs publics à se saisir du sujet, notamment à l’échelle internationale.

 

Autour de 4 grandes  priorités :
 

  1. Agir au niveau mondial, avec la France comme figure de proue portant le sujet du bilan environnemental de l’IA
  2. Se donner les moyens d’une IA frugale et au service de la lutte contre le dérèglement climatique dans le monde du travail
  3. Responsabiliser les utilisateurs en les sensibilisant sur son impact environnemental
  4. Limiter l’impact environnemental des datacenters dans les territoires

 

 

Le  CESE  propose 6 pistes  de préconisations afin de construire une IA frugale à finalité environnementale 

- Veiller à ce que les actrices et acteurs de la formation initiale et continue intègrent, dans leurs programmes de formations sur les SIA, les exigences d’éco-conception et d’usage frugal pour les développement et algorithmes d’IA

-Concentrer les financements publics de recherche et d’innovation sur les IA à finalité directement environnementale et sur les IA frugales

-Evaluer systématiquement l’empreinte environnementale des IA, en exigeant des entreprises concernées la transparence sur la consommation des ressources et en construisant un référentiel d’évaluation

-Lancer une campagne d’information auprès des utilisateurs afin de développer leurs connaissances sur l’empreinte environnementale des IA et leur donner la possibilité de déconnecter sur leurs applications les usages d’IA et collecte des données

-Intégrer systématiquement les démarches d’écoconception des équipements, notamment des terminaux

-Faire respecter l’objectif de zéro artificialisation nette pour les projets d’implantation des centres de données, et intégrer pour chacun d’eux le principe de récupération de la chaleur fatale

 

 

Cet avis(*) est le premier rendu par le CESE sur la thématique de l'agence artificielle : Compte tenu de l'importance du sujet, d'autres avis devraient suivre  tout au long de cette année.

Une commission temporaire dédiée à l'intelligence artificielle vient d'ailleurs de commencer ses travaux, et a intégré, pour enrichir ses réflexions, 15 citoyennes et citoyens. 
En savoir plus

 

(*) Le rapport complet:

https://www.lecese.fr/sites/default/files/pdf/Avis/2024/2024_14_IA_Environnement.pdf

 

 

A LIRE...ET FAIRE LIRE


La dernière publication du CEET ( Le Centre d'études de l'emploi et du travail) sur  " L'IA dans les entreprises : que révèlent les accords négociés ? " réalisée par Nathalie Greenan, Silvia Napolitano, Justin Pillosio (**)

 

L'intelligence artificielle (IA) suscite un débat autour de la transformation des métiers. Son introduction au travail nécessite des choix collectifs quant à son déploiement, ce qui motive les syndicats à encourager un dialogue social au niveau européen et français pour pouvoir explorer de façon participative son potentiel.

Dans ce  dernier numéro de "Connaissance de l'emploi" , les auteurs(es) proposent une analyse des accords d'entreprise français signés entre 2017 et 2024 qui mentionnent l'IA.

Même s'ils ne représentent qu'une faible part des accords signés, leur nombre a rapidement augmenté au cours des dernières années. Ces accords concernent désormais, dans des proportions variables, presque tous les secteurs d'activité et à peu près toutes les thématiques de négociations.

L’analyse des accords d’entreprise révèle un intérêt croissant pour les multiples questions que pose l’IA dans le monde du travail, bien que le sujet reste encore marginal.

 

Les approches varient selon les secteurs, oscillant entre vision prospective et considérations concrètes sur l’emploi et l’organisation du travail.

 

Actuellement, les discussions se concentrent principalement sur les enjeux d’emploi. Il est crucial d’élargir le dialogue aux transformations du travail induites par l’IA. Cette perspective plus large permettrait d’orienter l’utilisation de l’IA vers l’amélioration des conditions de travail et une meilleure adaptation aux besoins des travailleurs, avec des effets bénéfiques à long terme sur l’emploi.

(**) le document du CEET: Télécharger la publication

Afficher les commentaires

Invité à débattre de l’incidence de l’intelligence artificielle (IA) sur l’emploi des cadres, Éric Pérès, secrétaire général de la fédération FO Cadres, a exposé à quelles conditions cet outil pourrait contribuer à l’émancipation des salariés. Il estime que l’introduction de l’IA dans les entreprises devrait être conditionnée à une étude d’impact.

 

L’IA peut être une opportunité pour les salariés, déclarait Éric Pérès, secrétaire général de la fédération FO Cadres, lors d’une table ronde consacrée à l’incidence de l’intelligence artificielle (IA) sur l’emploi des cadres, organisée le 23 septembre 2024 par l’Association des journalistes de l’information sociale (Ajis).

 

Thierry Bouvines, journaliste, revient sur ces échanges pour l'Info militante....

 

 

Une opportunité, mais à trois conditions.

 

Premièrement : connaître les finalités de l’outil. Pour le secrétaire général de FO Cadres, il ne fait aucun doute que le déploiement de l’IA par une direction ou une administration a pour objectif d’augmenter la productivité des salariés. Si l’IA générait effectivement de la productivité – les experts ne sont pas d’accord sur ce point –, cela pourrait se traduire par des suppressions d’emplois. Le repérage automatisé des piscines non-déclarées aux services fiscaux devrait ainsi entraîner 3 000 suppressions de postes à la direction générale des finances publiques, selon le syndicat FO des finances publiques, FO-DGFIP. (lire encadré).

 

Une IA émancipatrice ?

Mais s’agissant du travail lui-même et des conditions de sa réalisation, Éric Pérès est convaincu que l’IA peut être émancipatrice, parce qu’il n’y a pas de déterminisme technologique. Tout dépend, là encore, de la finalité de l’outil. L’IA a-t-elle pour but de dégager les salariés de tâches ingrates, de redonner des marges de manœuvres aux cadres, ou, au contraire, d’intensifier le travail, ou encore de faire du ranking (classement, Ndlr), par exemple un classement des ingénieurs en fonction de leur potentielle mobilité à l’international ?, interroge Éric Pérès.

Les usages de l’IA générative sont déjà nombreux. Elle permet d’automatiser des tâches simples (faire des comptes rendus, pré-rédiger des mails). Ou de rédiger des offres d’emploi. Les conseillers de l’Apec se servent de ChatGPT à cette fin, témoigne Éric Pérès, qui est également vice-président de l’Association pour l’emploi des cadres. Mais l’IA peut aussi être utilisée pour la recherche de salariés qu’une direction mal intentionnée estimera « toxiques », par exemple des militants syndicaux ou des salariés potentiellement démissionnaires...

 

Des CSE rarement consultés

 

Deuxième condition pour que l’IA soit réellement une opportunité pour les salariés : l’outil doit être proportionné à l’objectif recherché. Il y a des tâches qui peuvent être automatisées parce qu’elles ont une faible valeur ajoutée, mais qui, pour autant, ont un sens à être réalisée par un humain, explique le secrétaire général de FO Cadres. Enfin, dernière condition : la loyauté. Les entreprises et les administrations doivent présenter le nouveau dispositif aux salariés, déclare Éric Pérès.

 

 Si ces trois conditions sont réunies, cela forme une éthique opérationnelle, estime-t-il. Or les conditions en question ne sont actuellement pas réunies.

 

Ainsi, lorsque les entreprises déploient des IA, les CSE ne sont pas souvent consultés, alors qu’il s’agit bien d’une nouvelle technologie, constate Claire Abate, avocate spécialiste en droit du travail, également invitée à la table ronde de l’Ajis. Le Code du travail prévoit en effet (L2312-8) que le CSE est consulté sur l’introduction de nouvelles technologies et peut recourir à un expert. Comme le rappelle Éric Pérès, le CSE n’a même plus besoin de démontrer l’impact de la nouvelle technologie sur les conditions de travail pour demander une expertise, son introduction justifiant à elle seule une expertise (tribunal judiciaire de Pontoise, jugement du 15 avril 2022).

 

Il n’en reste pas moins que les CSE sont rarement consultés lors du déploiement d’une IA. Les directions arguent qu’elles ne déploient pas une nouvelle technologie mais simplement une évolution ou une nouvelle solution de bureautique, relate Éric Pérès. Leur attitude peut souligner aussi qu’elles craignent des contentieux autour du respect de la vie privée. Sur cette thématique, note le militant, les syndicats ne sont pas toujours suffisamment formés.

 

Déploiement conditionné à une étude d’impact

 

Plus largement, les interlocuteurs sociaux sont convaincus que l’IA doit être cadrée. Éric Peres rappelle que cela avait été inscrit à l’agenda social autonome en 2021. Si on veut que l’IA ne suscite pas la défiance, il faut qu’elle fasse l’objet d’un dialogue social, estime-t-il. En outre, notre rôle de syndicaliste est de réduire l’asymétrie d’information entre les directions et les salariés. Peu surprenant, l’approche de FO et celle du patronat diffèrent. Le Medef renvoie au niveau de l’entreprise, explique Éric Pérès. Pour le secrétaire général de FO Cadres, le cadrage de l’IA doit au contraire être réalisé au niveau interprofessionnel ou à celui de la branche. Il faut une négociation interprofessionnelle ou un référentiel de branche garantissant la conformité des outils, afin de ne pas laisser entrer n’importe quoi dans les entreprises, explique-t-il.

 

Pour vérifier cette conformité, l’idée avancée par Éric Pérès et inspirée de son expérience de vice-président de la Cnil, est de réaliser une étude d’impact de l’IA. Et cette étude pourrait prendre modèle sur l’analyse d’impact relative à la protection des données (AIPD). L’AIPD garantit qu’un outil de traitement des données personnelles respecte la vie privée. Une AIPD doit ainsi obligatoirement être menée lorsque l’outil remplit certains critères : profilage, traitement massif de données, surveillance systématique...

 

L’IA fait rentrer un peu plus d’impôts et réduit beaucoup les emplois de contrôle

 

La direction générale des finances publiques (DGFiP) est la bonne élève du numérique. Cela se voit dans l’évolution de ses effectifs. Moins 30 000 emplois en quinze ans, soit 25 % des effectifs, rappelle Olivier Brunelle, secrétaire général du syndicat FO-DGFIP. Selon un rapport sénatorial publié en mai 2024 (« L’IA et l’avenir du service public »), la « révolution numérique » de la DGFiP a permis de réduire les effectifs dans les services en charge du calcul de l’impôt, du recouvrement, du contrôle, et dans les implantations territoriales.

 

La DGFiP recourt depuis 2016 à l’IA et au datamining – croisement de masses de données provenant de plusieurs sources – pour détecter les fraudes à la déclaration fiscale. 50 % des contrôles des professionnels et 36% des contrôles des particuliers sont aujourd’hui issus du datamining. Comme le remarquent les auteurs du rapport sénatorial, les gains de productivité sont évidents : une équipe d’une dizaine de data scientists suffit désormais à programmer près de la moitié des contrôles fiscaux. En revanche, la plus-value du datamining apparaît assez limitée pour détecter les fraudes, admettent-ils. Pour les agents chargés du contrôle, et contrairement à ce qui était annoncé, c’est un travail abrutissant, au point qu’il ne doit plus être exercé à temps plein, relève Olivier Brunelle.

 

La DGFiP utilise également l’IA depuis 2022 pour repérer les piscines non déclarées, à partir des images aériennes publiques de l’Institut géographique national (IGN) et grâce à un logiciel de Google. Succès incontestable en termes de recettes fiscales, selon le rapport. Beaucoup de déchets, relève de son côté Olivier Brunelle. Surtout, l’investissement [dans des outils informatiques] a pour contrepartie des baisses d’effectifs, explique-t-il, estimant que ce repérage automatisé des piscines non déclarées aux services des impôts supprimera 3 000 emplois. Surtout, Olivier Brunelle regrette que les gains de productivité générés par l’automatisation ne soient pas utilisés pour élargir le champ des contrôles en vue d’une plus grande égalité devant l’impôt.