Organisations
L’IA sera ce que nous en ferons
Luc Julia est un chercheur auteur du livre « l’intelligence artificielle n’existe pas », il est aussi vice président de l’innovation monde chez Samsung et a notamment participé à la création de Siri dans les années 90. Il est aujourd’hui en charge d’une unité spécialisée dans l’imagerie et la reconnaissance vocale. Ses arguments sont presque évidents et correspondent à ce qu’ont ressenti beaucoup de personnes qui ont travaillé à un moment ou à un autre dans le domaine et qui ont été confrontés aux fantasmes journalistiques. En fait, l’IA sera ce que nous en ferons et ne peut être artificielle, c’est que cet article essaie de démontrer. Ne l’appelez donc plus Intelligence Artificielle !
L’intelligence artificielle passe pour une nouveauté radicale qui va détruire l’emploi. Mais l’appellation est trompeuse. Il s’agit tout simplement d’une étape logique dans la révolution des technologies de l’information.
- Cette conférence de Luc Julia est un must !
Le terme « IA » a été pour la première fois utilisé dans les années 50
Au départ, c’était un coup de pub : en 1955, quatre universitaires américains ont lancé une invitation pour un séminaire de recherche qui s’est tenu l’année suivante au Dartmouth College, pour réaliser « une étude de l’intelligence artificielle ». Elle supposait que « tout aspect de l’apprentissage ou n’importe quelle autre caractéristique de l’intelligence peut en principe être décrit de manière tellement précise qu’il est possible de fabriquer une machine pour le simuler ». Le but était d’attirer des chercheurs et de l’argent. L’expression est restée. On estimait à l’époque qu’en modélisant un neurone on pourrait créer de l’intelligence en les multipliant, comme dans notre cerveau. En fait, l’intelligence artificielle relève pour l’instant du mythe : le programme du séminaire de Dartmouth a échoué ou il est encore très loin (!) d’avoir abouti.
L’IA a connu ensuite plusieurs périodes "glaciaires"
Après la 1e mise en sommeil des années 50, on a vu apparaître dans les années 70-90 les systèmes experts et ses bases de règles qui ont rapidement montré leurs limites : on pensait alors pouvoir mettre Paris en bouteilles … L’apogée de ces techniques surviendra à la fin des années 90 avec l’avènement de Deep Blue, la machine d’IBM qui battra Kasparov, une machine capable d’envisager les 10 puissance 43 coups possibles aux échecs…
Mais elle reste « complètement con »… comme dit Luc Julia
Cette période a également vu l’émergence des réseaux de neurones préalable aux systèmes de Deep Learning qui arriveront quelques années plus tard. La performance la plus connue des méthodes associées a été réalisée avec la machine Alphago de Google qui a battu en 2017 le champion du monde de GO. Les mathématiciens ont d’ailleurs estimé que le jeu jeu de GO représentait 10 puissance 172 possibilités différentes, l’infini pratiquement, gérées cette fois-ci avec des techniques statistiques pointues… énorme sachant qu’il y aurait 10 puissance 200 atomes dans l’univers !
Enfin, cette machine, rappelle notre expert, consomme jusqu’à 440Kwh pour jouer au GO alors que notre cerveau, capable de plein d’autres choses, ne consomme que … 20wh.
Problèmes et limites de l’IA
Plusieurs de ces points ont été rappelés très clairement dans la vidéo de Luc Julia placée au début de cet article :
- Mise en place du système de recrutement automatique « Alabama 1950 » qui écartait in fine les personnes …un peu plus bronzées
- Développement en 2016 d’ un chatbot qui est devenu le plus raciste et le plus sexiste de l’histoire de l’humanité : Microsoft l’a debranché au bout de 16 heures de présence sur les réseaux sociaux. Pourquoi ? parce que sur twitter, on s’insulte au bout de 2 ou 3 tweets
- La boîte noire : on en parle ci-dessous dans la présentation de GPT3 qui est devenu, pour sa 3e version notable, un système qui n’est pas capable d’expliquer les décisions qu’il prend
- La non-reproductibilité stricte: un des écueils mis en avant par certains chercheurs est l’impossibilité de s’assurer qu’un système reproduise les mêmes décisions et travaux après l’avoir implanté ailleurs…
- La capacité des voitures autonomes s’établit sur une échelle de 5 niveaux, l’homme étant sensé avoir le niveau supérieur. D’après les organismes de contrôle de ces véhicules, le niveau atteint par les voitures d’Elon Musk atteint aujourd’hui le niveau 2 et d’après luc Julia, il ne dépassera jamais le niveau 4 contrairement aux affirmations d’Elon Musk de … 2017 (la 1e vidéo de cet article mentionne une anecdote hilarante contenues dans une séquence vidéo montrant l’anecdote du panneau stop sur le sac à dos d’un piéton…)
- Enfin, la puissance de l’IA ne devrait pas non plus être démultipliée par l’ordinateur quantique car on est encore très loin d’une quelconque utilisation opérationnelle
Pourquoi l'IA n'est finalement pas intelligente
Les machines « savent » bien sûr battre les hommes les plus forts du monde à Star Craft II , au jeu de go ou à « Jeopardy! ». Mais il s’agit de compétences extrêmement étroites, dévorant des quantités d’énergie infiniment supérieures à celle d’un cerveau humain. Les machines les plus puissantes au monde font penser à ces génies des mathématiques incapables d’aborder quelqu’un dans la rue pour demander leur chemin.
Et la bêtise humaine se cache souvent derrière l’intelligence artificielle… comme l’a montré Microsoft en 2016 avec son logiciel de conversation Tay , déconnecté de Twitter pour cause d’horreurs sexistes et racistes moins d’une journée après avoir été mis en service. Ou Amazon en 2018, avec son système de recrutement tellement automatisé qu’il écartait automatiquement les femmes. Qu’y a-t-il donc derrière ce qui est commodément baptisé « Intelligence Artificielle » ? La réalité est prosaïque : c’est tout simplement… l’association de l’ordinateur et d’Internet ! L’ordinateur, avec une capacité de traitement de l’information qui a augmenté depuis un demi-siècle au rythme extravagant de la loi de Moore (la densité de transistors sur une puce double tous les deux ans). L’Internet, avec une capacité colossale de collecte et de transmission de données. « Intelligence artificielle = statistique + informatique », résume Michel Volle , coprésident de l’Institut de l’économie et statisticien de formation. Juste et lapidaire, cette équation mérite tout de même d’être complétée d’un point. La puissance de calcul et les montagnes de données permettent des formes d’apprentissage automatique (« machine learning » puis « deep learning »). C’est ainsi que les chercheurs ont pu faire des pas de géant depuis une bonne décennie en matière de reconnaissance visuelle et vocale. Ils vont sûrement réaliser d’autres progrès spectaculaires dans les années à venir.
D’après Jean-Marc Vittori, ce qu’on appelle « l’intelligence artificielle » ne reste cependant qu’un outil. Un outil fantastiquement puissant, qui peut chambouler l’organisation des entreprises, mais seulement un outil. Une « plate-forme technologique », expliquent les économistes Daron Acemoglu et Pascual Restrepo , qui « peut être déployée pour ne pas faire seulement de l’automatisation, mais aussi pour réorganiser la production de manière à créer de nouvelles tâches humaines hautement productives ». Là aussi, l’intelligence artificielle fera ce que décide l’intelligence humaine. Enfin, un autre chercheur Michael I. Jordan, un pionnier de l’apprentissage automatique, rappelle enfin simplement : « Les ordinateurs ne sont pas devenus intelligents en soi, mais ils ont fourni des capacités qui augmentent l’intelligence humaine.
On aurait dû l’appeler autrement
Récemment, des experts ont avancé d’autres idées pour mieux qualifier l’IA. Le prospectiviste Joël de Rosnay a proposé « Intelligence Auxiliaire »,
Luc Julia préfère « Intelligence Augmentée », le consultant Pierre Blanc ose « Informatique Algorithmique ». Je préfère la notion d’ « Informatique Avancée » qui correspond mieux à l’activité des sociétés informatiques qui vendent ce type de prestation, expression qui a l’avantage de ne plus mentionner le mot « intelligence »… Car en fait, l’IA, telle qu’on la connait, n’a rien d’intelligent, c’est souvent de la reconnaissance de patterns chargés/inculqués en mémoire à partir desquels la machine cherche à matcher le cas le plus proche quand on lui présente un cas réel. L’article suivant apporte dans ce cadre une définition assez neutre de la notion d’IA.
Elon Musk, une autre vision de l'IA, peu crédible à ce jour
Elon musk pense, lui, que l’humanité sera terrassé prochainement par l’IA et reste persuadé que l’IA est dangereuse à court terme comme il l’a indiqué récemment ICI. Ce chef d’entreprise hors-norme créateur de Space X, de Paypal, d’Ebay et de Tesla (excusez du peu !) n’a pas obligatoirement des idées réjouissantes sur le Bitcoin et sa voiture autonome cherche encore à l’être… Et même la CIA s’y met avec son étude sur l’IA : amélioration des transports et de la santé par des logiciels du quotidien, augmentation du rendement agricole, bénéfices et avantages disproportionnés pour ceux qui développeront avec des possibilités nouvelles pour les organisations terroristes. Même si de nombreuses sociétés investies dans le domaine n’ont pas eu la destinée attendue…
Et pourtant…
La mise en place de l’IA dans certaines activités aujourd’hui totalement humaine est parfois très impressionnante comme le montre les exemples ci-dessous :
- génération de formules mathématiques
- modélisation de la structure des protéines
Récemment, les chercheurs sud-coréens ont essayé de démontrer qu’on pourrait intégrer un cerveau humain dans une puce… il ne va pas sans dire que votre serviteur y croit peu …
« It’s not cgi » a tweeté Elon Musk… après avoir vu certaines des vidéos de la société « Boston Dynamics » ! Ce n’est pas la première fois que les robots de cette société impressionnent Internet. En 2018, elle a montré les compétences de parkour d’Atlas. La société a aussi fréquemment travaillé avec le Massachusetts Institute of Technology (MIT), l’armée américaine, et a utilisé Spot, le robot quadrupède, pour les efforts de réponse au COVID-19, y compris la surveillance des signes vitaux des patients afin de réduire le contact avec les travailleurs de la santé.
Et récemment, elle a fait une démonstration impressionnante de plusieurs robots aux fonctionnalités différentes dansant … comme des pros !
- https://youtu.be/LikxFZZO2sk
- https://youtu.be/fn3KWM1kuAw
Par contre, la rencontre entre un robot et un des meilleurs joueurs de tennis de table du monde reste à apprécier avec toute votre sagacité :
- https://youtu.be/tIIJME8-au8
Le service public n’est pas à la traîne sur le sujet de l’IA car des besoins importants sont vite apparus dans ce domaine : santé, administration publique, sécurité pour l’analyse prédictive, la détection d’anomalies.
Aujourd’hui, GPT3 est le modele de langage naturel le plus puissant du monde
GPT-3 est une intelligence artificielle développée par OpenAI : l’entreprise de recherche en IA co-fondée par Elon Musk. Elle est capable de créer du contenu écrit avec une structure de langage digne d’un texte rédigé par un humain. Quelques exemples d’utilisation :
- GPT-3 peut répondre en langue naturelle à la question « pourquoi le pain est gonflé » en se basant sur l’article Wikipédia « pain »
- Il est possible d’avoir des discussions rapides, complexes et cohérentes en langue naturelle dans le but de générer des idées, recommander des livres et des films, raconter des histoires interactives ou à participer à une réunion
- GPT-3 peut fournir une assistance aux clients automatique en ligne sur les sites internet par exemple
- GPT-3 permet d’analyser et synthétiser du texte sous forme de tableaux, de résumer des discussions, d’élargir des contenus à partir d’idées de base
- GPT-3 peut être utilisé pour traduire des textes d’une langue à l’autre. Il peut également transformer un texte en langue courante en un texte juridique
- GPT-3 peut être utilisé pour générer des codes informatiques à partir d’instructions en langue naturelle par exemple des boutons, des tableaux de données, ou même la recréation de la page d’accueil de Google
Par contre, à l’instar d’autres modèles concurrents, GPT-3 n’est pas capable de raisonnement, même un simple raisonnement par analogie, car il n’a pas de représentation du monde. Contrairement à ses concurrents, du fait de sa taille, GPT-3 ne peut pas être exécuté sur un ordinateur personnel. Le stockage des paramètres à lui seul requiert au moins 175 Go de mémoire vive… sans parler de la puissance électrique pour le faire fonctionner !
Et surtout, son utilisation doit rester limitée au langage naturel, dixit ses concepteurs. Malgré cet avertissement, en 2020, la start-up française Nabla a conçu un chatbot médical basé sur GPT-3 qui, lors des phases de test, a fini par conseiller à un patient simulé de se suicider (voir le lien initial de ce paragraphe) .
Deep learning : la technologie qui reste prometteuse
La technologie qui reste donc la plus utilisée dans le domaine de l’IA reste le machine learning ou le deep learning qui permet l’apprentissage par un ordinateur d’un comportement qu’on pourrait qualifier d’humain. La première mise en place de cette technologie a permis par exemple de faire reconnaitre par un ordinateur un chat par la présentation de plusieurs centaines de milliers de photos de chats… mais encore une fois, comme le dit Luc Julia, un enfant de 2 ans sait reconnaître un chat après qu’on lui ait présenté 2 photos …seulement …
Des codes éthiques pour l’IA
Quand on parle d’utilisation raisonnée de l’IA, on met en avant son « éthique » pas celle des machines bien sûr mais de ceux qui les conçoivent et/ou les utilisent… Des organises ont établi une liste de ces codes éthiques possibles :
- L’IA doit avoir avoir avec un impact soigneusement délimité et doit être conçue pour le bénéfice humain, avec un objectif clairement défini définissant ce que la solution fournira, à qui.
- L’IA est durable – développée en tenant compte de chaque partie prenante, au profit de l’environnement et de tous les membres présents et futurs de notre écosystème, humains et non humains, et pour relever les défis urgents tels que le changement climatique, la réduction du CO₂, l’amélioration de la santé et le développement durable production alimentaire
- L’IA est équitable – produite par diverses équipes utilisant des données fiables pour des résultats impartiaux et l’inclusion de tous les individus et groupes de population
- L’IA est transparente et explicable – avec des résultats qui peuvent être compris, retracés et audités, le cas échéant
- L’IA est contrôlable avec une responsabilité claire – permettant aux humains de faire des choix plus éclairés et de garder le dernier mot
- L’IA est robuste et sûre – y compris des plans de secours si nécessaire
- Enfin, l’IA est respectueuse de la vie privée et de la protection des données – en tenant compte de la confidentialité et de la sécurité des données dès la phase de conception, pour une utilisation des données sécurisée et conforme à la réglementation en matière de confidentialité
La réglementation sur l'IA suit la même logique que le RGPD
Comme l’indique ces codes éthiques et le rappelle Luc Julia, l’IA ne peut pas et en tout cas ne doit pas décider, le seul responsable restant l’être humain.
Un moyen éprouvé pour réglementer l’IA entre autres dans la réduction des biais sur les données rejoint la logique des travaux engagés dans la construction du RGPD.
Les articles suivants abordent ce sujet dans le cadre de la règlementation européenne : cohabitation IA et RGPD et la face noire des algorithmes.
Le projet de règlement sur l’intelligence artificielle présenté en 2020 par la Commission européenne fixe un cadre contraignant à l’utilisation des algorithmes. La reconnaissance faciale, l’évaluation ciblée des comportements ou la manipulation des personnes seront contrôlées. Une démarche inédite saluée par la presse internationale.
Vous avez Peur de l’IA, la solution : la formation !
Pour beaucoup, il est évident qu’il va y avoir une sorte de nouvelle révolution industrielle qui va laisser beaucoup de monde sur le carreau. Cette automatisation d’un certain nombre d’emplois ne sera refusée par aucun pays si l’intérêt de l’utiliser est évident…
Par exemple, si un jour nous devons choisir entre passer à une caisse avec son lot d’attente et de manipulations et un passage de quelques secondes devant un portique, le choix sera vite fait ! Selon un sondage Ipsos pour BCG Gamma , 50 % des Français et des Allemands redoutent les effets de l’intelligence artificielle sur leur emploi, tout comme 47 % des Américains, 45 % des Britanniques et 38 % des Espagnols.
Contrairement à ce qu’indiquait cet article typique des années 2017-2018 qui voyait Terminator arriver dans les entreprises, l’IA ne sera pas dangereuse avant pas mal de temps pour nos emplois de façon aussi conséquente que l’a été l’arrivée d’Excel dans les services comptables ou celle des tracteurs dans les champs !
L’intelligence artificielle pourrait même nous aider à mieux nous former en étant capable de s’adapter automatiquement à nos capacités de formation personnelle comme l’envisagent les tenants de l’apprentissage adaptatif ou « adaptive learning » fondé sur le machine learning, technique qui permet aux ordinateurs à apprendre sans avoir été programmés. Une solution pour être sûr de ne pas risquer, qu’un jour, une partie de son activité professionnelle soit remplacée par un module d’IA : se former en permanence et dès que possible !