IA générative: Un usage en forte progression en France
L'Ipsos a publié une étude en partenariat avec CESI sur l’usage de l’intelligence artificielle générative en France. Cette enquête, menée auprès de 1 000 personnes représentatives de la population française âgée de 18 à 75 ans, met en lumière la notoriété grandissante de ces technologies et leurs impacts sur les pratiques professionnelles et personnelles.
Une notoriété élevée, un usage encore modéré
L’étude révèle que 88 % des Français connaissent l’intelligence artificielle générative, mais seuls 39 % l’utilisent. Parmi eux, 15 % s’en servent dans un cadre professionnel ou scolaire, tandis que 33 % y ont recours pour un usage personnel.
L’adoption varie fortement selon l’âge. Les 18-24 ans sont les plus nombreux à l’utiliser (74 %), suivis des 25-34 ans (55 %). En revanche, seuls 17 % des 60-75 ans déclarent s’en servir. Le taux d’usage est également plus élevé parmi les cadres supérieurs (64 %).
Un outil intégré au quotidien des utilisateurs
Parmi ceux qui utilisent l’IA générative, 30 % y ont recours quotidiennement et 78 % au moins une fois par semaine. Cet usage régulier concerne aussi bien le domaine professionnel que personnel.
En revanche, 12 % des Français n’ont jamais entendu parler de ces technologies, traduisant une fracture numérique persistante.
Des usages variés selon les besoins
Les principales fonctions de l’IA générative sont la recherche d’informations (48 %), la rédaction de textes (38 %), la traduction (36 %) et la correction orthographique et grammaticale (32 %). La créativité est également un domaine clé, avec la génération d’images (29 %) et d’idées (35 %).
L’IA est aussi utilisée pour l’analyse de textes et de données (27 %), la synthèse d’informations (31 %) ou encore l’assistance à la prise de décision. Chez les 18-24 ans, 3 % déclarent s’en servir pour leurs devoirs scolaires.
ChatGPT en tête des outils les plus utilisés
Parmi les solutions disponibles, ChatGPT d’OpenAI domine largement le marché : 66 % des utilisateurs de l’IA générative y ont recours dans sa version gratuite et 14 % dans sa version payante.
Derrière, Gemini de Google est adopté par 30 % des répondants, suivi par Copilot de Microsoft, qui est utilisé dans Office par 17 % des utilisateurs et en version chat en ligne par 15 %. Le modèle français Mistral AI est encore peu répandu (6 %).
Des inquiétudes face aux risques de l’IA
Si l’IA générative séduit de plus en plus, elle suscite également des préoccupations. Pour 49 % des Français, la désinformation est le principal risque, suivie par la dépendance à ces outils (44 %) et la baisse des capacités de réflexion (44 %).
D’autres craintes émergent, telles que la disparition de certains métiers (41 %), le non-respect des données personnelles (35 %) et l’impact environnemental (19 %). Les non-utilisateurs, notamment les plus âgés, identifient davantage de risques que les usagers réguliers.
L’étude met ainsi en lumière un phénomène en plein essor, qui transforme les pratiques numériques et professionnelles tout en soulevant des interrogations sur ses implications à long terme.
Lien vers l’étude : urlr.me/F9Ge4D
Afficher les commentaires
l’Observatoire de l’IA responsable 2025
L’intelligence artificielle se diffuse rapidement dans les entreprises, intégrée dans les logiciels qu’elles achètent ou par un déploiement spécifique...
Comment les salariés perçoivent le déploiement de l’IA dans leur entreprise?
Impact AI, le think & do tank de l’IA responsable a publié en partenariat avec KPMG en France et BNP Paribas, la nouvelle édition de son Observatoire de l’IA Responsable, réalisé par Viavoice et le centre de prospective GCF sur un échantillon représentatif des salariés du secteur privé en France.
L’objectif de cet Observatoire est d’analyser la façon dont ces salariés perçoivent le déploiement de l’IA dans leur entreprise, les opportunités et limites de cette technologie, leurs réactions face à l’enjeu de l’IA responsable et ce qu’impliquerait sa mise en oeuvre dans leurs tâches quotidiennes.
Les principaux éléments à retenir:
Un premier constat s’impose : le rôle de l’IA dans le développement et le rayonnement d’un pays est considéré comme important ou très important pour plus d’un salarié sur deux (52 %), mais valorisé encore davantage par ceux qui utilisent l’IA (74 %).
À ce jeu, et sans surprise, ce sont les États-Unis qui sont considérés aujourd’hui comme le principal gagnant du développement de l’IA (pour 53 % des salariés qui utilisent l’IA) devant la Chine (42 %), la Corée du Sud (33 %), la France (30 %) et l’Union européenne (29 %), Israël (29 %).
Près de trois quarts des salariés jugent nécessaire de réguler le développement de l’IA, dont 37 % « tout à fait nécessaire », avec une proportion plus importante chez les utilisateurs de l’IA (85 % se prononcent en faveur d’une régulation).
Pour autant, 36 % des salariés interrogés, quelle que soit la taille de l’entreprise et le secteur d’activité, estiment qu’il faut trouver un équilibre entre innovation, sécurité et responsabilité dans les projets IA des entreprises, 21 % estiment qu’il faut privilégier le respect des principes éthiques, alors que seuls 10 % font de l’innovation une priorité.
Quant à identifier quelle structure ou institution serait la plus à même d’exercer les fonctions de contrôle et de régulation, 30 % des salariés penchent plutôt pour une agence internationale que pour une régulation par l’État (25 %) ou par l’Europe (19 %).
Pour autant, l’AI Act européen est jugé plutôt comme une « très bonne ou une bonne chose » par 57 % des salariés interrogés, cette proportion atteignant même 75 % chez les utilisateurs d’IA dans le cadre professionnel.
Les salariés identifient assez clairement les risques liés au déploiement de l’IA dans les entreprises. Ils placent au premier rang l’impact sur les emplois (41 %), devant les risques liés à la confidentialité des données (33 %), une dépendance excessive à l’IA (31 %), la non-conformité aux réglementations (24 %), le manque de transparence quant aux tâches réalisées par l’IA (23 %), l’amplification de stéréotypes liés à la présence de biais dans les algorithmes (17 %), les risques d’uniformisation du travail (17 %) et l’impact environnemental (11 %).
Autres éléments:
L’IA responsable, une nécessité éthique et un gage d’efficacité…
Une mise en oeuvre encore inégale dans les entreprises, une acculturation à intensifier
Pour en savoir plus:
https://www.impact-ai.fr/fr/2025/01/14/observatoire-ia-responsable-2025/