Category Archives: Intelligence artificielle

Conférences sur l’intelligence artificielles

L’intelligence artificielle est au cœur des algorithmes qui manipulent collégiens et lycéens sur les réseaux sociaux. Il est urgent de faire comprendre à nos enfants le fonctionnement et les limites de l’IA.

Après avoir animé une conférence sur l’intelligence artificielle devant les 300 membres de la Communauté éducative du Centre Saint-Marc à Lyon le 1er septembre dernier (photo ci-dessus*), j’interviendrai, toujours sur ChatGPT et les autres logiciels d’IA : 

  • au Centre Culturel Franklin (lycée Saint-Louis de Gonzague), à Paris, le mardi 3 octobre au soir – inscription sur https://www.franklinparis.fr/acf/  ;
  • devant des seniors, toujours à Paris, pour Espace Idées Bien Chez Moi (AG2R La Mondiale) le mardi 3 novembre au matin  – inscription par mail : accueil@espace-idees.fr ;
  • devant tous les adhérents de l’UTL (Université du Temps Libre) de Loudéac – https://www.utlloudeac.fr/contact – le 13 novembre après-midi ;
  • devant les lycéens, en journée, puis le soir devant leurs parents, les  23 et 24 novembre, à Angoulême, à l’invitation de l’association des parents d’élèves (APEL) et de la direction du Collège & Lycée Saint-Paul – https://www.saint-paul-angouleme.fr

Comme pour mes conférences sur le thème des enfants et des écrans**, je ne viens pas pour diaboliser les nouvelles technologies mais pour faire comprendre leur fonctionnement, leur modèle économique et leurs limites : 

  • l’IA fonctionne de façon à la fois probabiliste et aléatoire, ce qui fait de ces algorithmes de véritables boîtes noires ;
  • l’IA nous “revend” nos propres données – celles que nous avons publiées sur Internet et sur les réseaux sociaux – après les avoir analysées et exploitées ;
  • l’IA est souvent victime d’hallucinations et peut donc se tromper.

Les possibilités d’utiliser l’intelligence artificielle à des fins pédagogiques sont cependant nombreuses. 

Mais la première leçon à retenir est que l’IA n’est pas fiable à 100%. Il faut donc aider les élèves à acquérir suffisamment de recul et d’esprit critique par rapport à une technologie qui a pourtant su se revêtir d’atours très séduisants : l’apparence humaine d’un robot conversationnel comme ChatGPT est très troublante…

Cet effort d’éducation est d’autant plus urgent auprès des troisièmes et des lycéens que l’intelligence artificielle est au cœur des algorithmes qui les manipulent à longueur de journées sur les réseaux sociaux.

 ** je poursuis bien évidement mon cycle de conférences sur les thèmes « Les enfants et les écrans » / « Les enfants et les réseaux sociaux » / « Harcèlement », entamé il y a bientôt quinze ans (plus de 500 conférences données !) : les 14 et 15 septembre, j’étais à Chazelles-sur-Lyon (42), pour intervenir devant tous les collégiens et les parents d’élèves du collège Raoul-Follereau ; j’interviendrai le jeudi 5 octobre devant les parents de l’ensemble scolaire Charles-Péguy (75011 Paris).

Et je viens de publier, aux éditions Télémaque, un nouvel ouvrage sur ces sujets : « Pourquoi vos enfants devraient vite quitter les réseaux sociaux ».

* les visages ont été floutés

ChatGPT : le grand bluff de l’intelligence artificielle

Très utilisée par les collégiens et les lycéens qui lui accordent une confiance aveugle, cette intelligence artificielle aligne des mots qu’elle ne comprend pas. Surtout, elle n’hésite pas, pour sembler crédible, à inventer des sources.

Nous connaissons tous autour de nous, un préadolescent ou un adolescent qui utilise l’algorithme d’intelligence artificielle ChatGPT pour rechercher de l’information ou pour lui demander de rédiger ses devoirs à sa place…

Que faut-il penser de cet agent conversationnel (“chatbot” en anglais) avec qui discuter est aussi fluide qu’avec un être humain, ce qui le rend très séduisant ?

Au premier abord, les capacités intellectuelles de ChatGPT sont étonnantes : ses réponses semblent constituer d’excellentes synthèses, rédigées sans faute d’orthographe, ni de grammaire.

Mais à y regarder de plus près, ce n’est que du bluff. La machine aligne les mots sans comprendre ce qu’elle dit: 

  • elle se répète souvent au sein d’un même texte
  • elle adopte un ton soi-disant objectif car ne prenant pas partie, mais dont l’inhumanité permet assez rapidement de repérer ses créations 
  • elle ne cite pas ses sources, ce qui laisse la porte ouverte à tous les abus possibles.
  • pire, elle invente des sources qui n’existent pas !
  • elle n’apprend pas de ses erreurs.
  • elle est même très instable dans ses réponses. 

Exemple ! 

J’ai interrogé plusieurs fois ChatGPT sur un sujet que, par définition, je connais bien, :  « Qui est Jacques Henno ? ». Tantôt il me répond qu’il ne me connaît pas, tantôt il affirme que je suis déjà mort mais que j’étais un bon journaliste, plutôt spécialisé dans la défense de la langue bretonne, tantôt que j’ai été journaliste mais aussi fonctionnaire au ministère de la Justice… Après quatre ou cinq tentatives et que j’ai rectifié toutes ses erreurs, l’algorithme parvient enfin à rédiger ma biographie et à en souligner les points importants. 

Mais si je lui pose la même question quelques jours plus tard, patatras, tout est à refaire…

Paradoxalement, cette incapacité à se remettre en cause est à la fois rassurante et inquiétante : 

  • rassurante, car cela signifie qu’il est impossible de manipuler ChatGPT pour lui inculquer des fausses informations ;
  • inquiétante, car il semble difficile de rectifier une erreur, une fois qu’elle a été introduite dans la mémoire – en réalité les données d’apprentissage – de la bestiole. Il y a là une impasse que les développeurs d’OpenAI, l’entreprise californienne à l’origine de ce programme, vont devoir résoudre.

Surtout, surtout, cet algorithme n’a aucun scrupule à inventer des sources qui n’existent pas (voir ci-dessous les saisies d’écran de mes échanges avec l’algorithme), ce qui est très facilement vérifiable : il suffit de cliquer sur les liens proposés pour se rendre compte qu’ils ne débouchent sur aucun site. Je vous invite à en faire vous même l’expérience :

Pas sûr qu’un enfant de 10 ans se comporte aussi bêtement.

Bref, ChatGPT ne constitue pas une source d’information fiable.

Les élèves peuvent toutefois l’utiliser de façon intelligente pour : 

  • s’autocorriger : il est en effet possible de demander à ChatGPT de mettre en avant les fautes commises dans un programme informatique ou dans un texte, que celui-ci soit en français, en anglais ou en allemand. Cette faculté de ChatGPT, associée à la reconnaissance de texte que proposent les appareils photos des smartphones les plus récents, permet même d’auto corriger des devoirs manuscrits.

Surtout, les enseignants pourraient profiter de l’engouement suscité par ChatGPT pour inviter leurs élèves à engager une réflexion sur l’intelligence artificielle, à partir de quelques questions simples  : 

  • quelles sont les sources utilisées par ChatGPT ?
  • comment écrit-il ses textes ?
  • quelles sont les meilleures utilisations possibles de cet agent conversationnel ?
  • qu’espèrent les entreprises américaines qui investissent des milliards de dollars dans le développement d’algorithmes d’intelligence artificielle, comme Microsoft et Google, mais aussi Meta, la maison-mère de WhatsApp et Instagram, deux des réseaux préférés de nos jeunes…
Réponse de ChatGPT à la question : « Qui est Jacques Henno ? ». La biographie semble cohérente, mais tout est faux : date de naissance, employeurs, publications, engagements politique ou associatif…
Les sources mentionnées semblent véridiques : les sites existent mais pas les pages indiquées !
ChatGPT ne se laisse pas démonter et invite ses utilisateurs à vérifier les informations qu’il fournit. Cette avertissement aurait dû être mis en avant dès le début.