Intelligence artificielle
Bon à savoir
Avec ChatGPT, l’IA s’est invitée dans nos maisons et dans les salles de classe. Mais cela fait bien plus longtemps que l’IA imprègne notre quotidien : les programmes d’assistance vocale Alexa et Siri sont basés sur l’IA, tout comme les recommandations de Netflix ou TikTok. Même les smartphones avec leur déverrouillage par reconnaissance faciale, Google-Maps avec ses propositions d'itinéraires et les messageries avec leurs filtres anti-spams fonctionnent grâce à l’IA.
Mais une chose à la fois : commençons par ce qu’il faut savoir sur le thème de l’IA.
Pour simplifier, on pourrait dire qu’un algorithme, c’est comme un guide : il décrit les étapes à suivre pour arriver à un certain résultat. Comme il ne suffit généralement pas d’un seul algorithme, un programme ou un logiciel en contient plusieurs. Mais cela n’en fait pas encore une véritable intelligence artificielle.
Les programmes qui comportent des algorithmes classiques sont statiques, ils font donc toujours la même chose. En revanche, les systèmes d’IA reposent sur des algorithmes dynamiques, qui acquièrent en permanence de nouvelles connaissances. Dans ce processus d’apprentissage, ils ont besoin d’énormes quantités de données pour trouver des modèles, établir des liens et tirer des conclusions.
On distingue principalement deux types d’apprentissage :
1. L’apprentissage automatique (machine learning)
Contrairement au développement normal des logiciels, un système basé sur l’apprentissage automatique apprend principalement par lui-même. Des algorithmes analysent les données pour faire des prévisions, calculer des probabilités et prendre des décisions qui doivent par exemple optimiser des processus. Cependant, l’humain joue encore un rôle important dans ce type d’apprentissage, car les progrès du système d’IA doivent être vérifiés et évalués.
2. L’apprentissage profond (deep learning)
Sous-domaine de l’apprentissage automatique, l’apprentissage profond va encore un pas plus loin. Il utilise un réseau neuronal artificiel, créé sur le modèle d’un cerveau humain. Un système qui fonctionne de cette manière n’a guère besoin de l’intervention humaine. Il peut traiter des quantités beaucoup plus importantes d’informations, d’images, etc., se développe en permanence et détermine lui-même si ses décisions sont correctes. L’apprentissage profond ouvre nombre de nouvelles possibilités, comme en médecine pour la détection de maladies, ou dans la cybersécurité. Mais c’est aussi en quelque sorte une « boîte noire », car il est difficile, voire impossible de comprendre les processus d’apprentissage.
Premier agent conversationnel ou chatbot sur le marché, ChatGPT (produit d’OpenAI) a permis de sensibiliser le grand public au thème de l’IA. Dans l’intervalle, d’autres outils sont apparus, comme Bard de Google ou Perplexity AI de l’entreprise éponyme. Ces logiciels d’IA remplissent tous les mêmes fonctions : communiquer avec nous, répondre à nos questions, résoudre des problèmes de calcul, rédiger des textes ou traduire dans une autre langue. Les possibilités d’application sont donc multiples : à l’école, dans les études, mais aussi dans de nombreuses professions.
Si l’on en croit les scénarios hollywoodiens, l’humanité sera contrôlée tôt ou tard par l’IA. Qu’en est-il vraiment ? Pour répondre à cette question, il faut d’abord distinguer deux formes d’IA :
L’IA faible
Lorsque l’on évoque Alexa, ChatGPT, un jeu d’échecs numérique ou des véhicules autoguidés, pour ces produits, on parle d’IA faibles. Même si ces systèmes sont d’une grande complexité et réalisent des performances étonnantes, ils sont conçus pour une tâche spécifique et ne sont pas dotés d’une « intelligence » globale.
L’IA forte
Si de tels systèmes étaient réalisables, comme l’imaginent certains scénarios hollywoodiens, il faudrait parler d’une « super-intelligence », capable même de dépasser le cerveau humain. Un tel système, par exemple un robot, pourrait être utilisé dans les domaines les plus divers. À l’heure actuelle, il n’existe aucune IA forte et le monde de la recherche n’est pas unanime sur sa faisabilité.
Les systèmes d’IA sont présents dans de nombreux domaines du quotidien. Ils touchent donc inévitablement aussi les jeunes, qui sont exposés à certains risques :
-
Les outils d’IA ne comportent souvent aucun système de vérification de l’âge. Même de très jeunes enfants peuvent accéder facilement à des systèmes qu’ils ne comprennent pas et qui ne sont pas conçus pour eux, par exemple parce qu’aucun filtre de protection des mineurs n’est intégré au niveau du contenu.
-
ChatGPT et autres imitent la communication humaine. Pour un enfant, il n’est pas toujours évident de savoir s’il converse réellement avec une personne.
-
Les outils d’IA permettent par exemple de manipuler des photos de manière à ce que des images normales deviennent du matériel (pédo-)pornographique. Il suffit de découper une tête de la photo originale et de l’incruster sur une photo d’un corps nu. Avec ce genre de photos ou d’autres photos manipulées, les enfants et les jeunes peuvent être victimes de chantage ou de harcèlement (→ Cyberharcèlement). De telles manipulations sont bien entendu interdites et pénalement répréhensibles. Vous trouverez plus d’informations sur les images/vidéos manipulées dans notre rubrique → Désinformation & compétences en matière d’actualités (Deepfakes et deepnudes), et sur le chantage avec ce type de matériel à notre rubrique → Sexualité & Pornographie (Sextortion).
-
Lorsque des images ou des textes sont générés par des outils d’IA, il n’est pas toujours évident de savoir d’où ils proviennent. Il pourrait y avoir violation du droit d’auteur, un acte punissable.
Dans le domaine de l’IA, les développements sont extrêmement rapides. Outre les aspects technologiques, cette évolution soulève de nombreuses autres questions, d’ordre juridique ou éthique. Même les pionniers de l’IA soulignent régulièrement les risques potentiels :
- Protection des données : les systèmes d’IA ont besoin de grandes quantités de données. L’utilisation de données sensibles (personnelles) dans les processus d’apprentissage autonomes peut poser problème si l’on ne sait pas clairement ce qu’il en advient. Les questions de protection des données doivent également être abordées lorsque l’IA est utilisée pour la reconnaissance faciale, le profilage ou la géolocalisation, ou par les jouets intelligents.
- Désinformation et manipulation : si une IA ne détecte et ne filtre pas les fake news, elle reprend et propage des fausses informations ou les utilise dans son processus d’apprentissage autonome. De plus, les outils d’IA proposent des technologies de plus en plus sophistiquées pour diffuser de fausses informations. Aujourd’hui déjà, on trouve de plus en plus d’hypertrucages (deepfakes) sur Internet ( → Désinformation & compétences en matière d’actualités), c’est-à-dire des images ou des vidéos modifiées par l’IA.
- Discrimination : si une IA se base sur des données discriminatoires, elle en reprendra le caractère discriminatoire dans ses décisions. Ce sera le cas par exemple d’un outil visant à filtrer les dossiers de candidature.
- Dommages causés par une IA : qui est responsable d’un accident causé par une voiture autonome ? Ce genre de questions doit encore être réglé.
- Sécurité de l’emploi : l’IA transforme le monde professionnel. Mais de quelle manière exactement ? Quelles professions seront touchées et dans quelle mesure ? Et qu’impliquent ces changements pour les personnes qui les exercent ?
- Guerre assistée par l’IA : comme dans de nombreux autres domaines, l’IA est également utilisée dans les guerres. Les systèmes d’armes autonomes (robots tueurs) sont très controversés et leur interdiction est régulièrement demandée.
- Consommation d’énergie : dotée d’une énorme puissance de calcul, l’IA entraîne une importante consommation d’électricité. Les scientifiques craignent que la consommation ne continue d’augmenter à mesure que l’IA s’étend dans tous les domaines (dpa, 2023). Pour la protection du climat, il est d’autant plus important de rendre l’IA plus efficiente sur le plan énergétique, et ce de la phase de développement et d’entraînement jusqu’à la phase productive. Google et d’autres entreprises indiquent déjà œuvrer dans ce sens. De plus, le secteur de l’énergie espère trouver, grâce à l’IA, de nouvelles solutions pour la protection du climat.
À quoi faut-il faire attention?
Il faut lui faire comprendre ce qu’est l’IA et en quoi un outil d’IA se distingue d’une application numérique normale. Votre enfant doit être conscient du fait que de nombreux services et applis sont déjà basés sur l’IA. C’est le cas de TikTok et Netflix, des montres connectées et autres accessoires portables (wearables), ou encore du chatbot « My AI » sur Snapchat, qui s’affiche tout à fait normalement dans sa liste d’amis.
Comme de façon générale sur Internet, la règle suivante s’applique pour l’IA : ne crois pas tout ce que tu lis ni tout ce que tu vois. L’IA rend par exemple la modification de photos ou de vidéos encore plus facile. Une → vérification des faits s’impose surtout avec des outils comme ChatGPT, qui n’indiquent pas toujours la source des informations.
Les photos et les vidéos sont très faciles à manipuler. Quelqu’un de malveillant pourrait en profiter, par exemple, pour faire un montage en incrustant ma tête dans une scène pornographique et diffuser ensuite l’image sur le chat de la classe. Les jeunes doivent être informés de ces risques, mais ils ont avant tout besoin d’un interlocuteur lorsqu’ils font une expérience désagréable.
→ Cyberharcèlement
→ Cybergrooming
C’est très simple de faire ses devoirs avec ChatGPT ou Bard. Mais les agents conversationnels (chatbots) ne fournissent souvent pas d’indications claires sur leurs sources. La publication de textes protégés par le droit d’auteur est pénalement répréhensible. Pour en savoir plus sur l’utilisation judicieuse de ChatGPT et autres systèmes d’IA à l’école, consultez notre → article de blog sur le sujet.
Que peuvent faire les parents ?
Informez-vous sur l’IA et parlez-en avec votre enfant d’une façon adaptée à son âge. Il existe des vidéos explicatives à regarder ensemble. Vous pouvez également demander à Alexa ou Siri de décrire leur fonctionnement avec des mots simples. Avec les plus grands qui utilisent Snapchat (âge minimum : 13 ans), vous pouvez essayer le chatbot « My AI ». Cela peut être une base de discussion. Autre possibilité, cherchez ensemble d’autres exemples d’IA dans la vie quotidienne. Votre enfant peut-il discerner où l’IA est appliquée ?
Expliquez à votre enfant que les outils d’IA peuvent aussi être utilisés à mauvais escient, par exemple par la diffusion de fausses informations, la manipulation de photos ou de vidéos, ou par le vol de données sensibles. Encouragez-le à toujours garder un esprit critique et à ne pas croire tout ce qu’il lit ou ce qu’il voit. Montrez-lui des outils qui aident à repérer les fausses informations et les manipulations (→ Désinformation & compétences en matière d’actualités). Faites-lui comprendre à quel point il est important de protéger les données sensibles. Et soyez un interlocuteur attentif si votre enfant a des questions ou qu’il est confronté à un événement désagréable.
Les jouets dits intelligents recourent souvent à une forme d’IA. Nous avons déjà résumé dans un → billet de blog ce à quoi il faut veiller.
Autres informations utiles
- L’intelligence artificielle expliquée aux enfants (Le Temps)
- Intelligences artificielles - Sciences : Playlist avec des vidéos sur différents thèmes (ARTE)
- Intelligence artificielle, de quoi parle-t-on ? Dossier de la Commission Nationale de l’Informatique et des Libertés de la France sur l'Intelligence artificielle
- Les ordinateurs ont-ils des préjugés ? Un court documentaire pour les jeunes à partir de 12 ans (éducation 21)
- Dossier de RTS Découverte :