Thèmes
L’intelligence artificielle (IA) fait partie de notre quotidien. Parfois, nous l’utilisons consciemment, par exemple ChatGPT, mais souvent aussi à notre insu. Les programmes d’assistance vocale Alexa et Siri sont basés sur l’IA, tout comme les recommandations de Netflix ou TikTok. Même les smartphones avec leur déverrouillage par reconnaissance faciale, Google-Maps avec ses propositions d'itinéraires et les messageries avec leurs filtres anti-spams fonctionnent grâce à l’IA.
Il est donc très important que les enfants et les jeunes comprennent ce qu'est l'IA, comment elle fonctionne, comment elle peut être utilisée et quand la prudence est de mise. Cela signifie par exemple :
L’IA est souvent utilisée sans que l’on ne s’en rende compte.
Les textes rédigés par l’IA semblent de bonne qualité, mais peuvent contenir des informations erronées.
Les photos et les vidéos peuvent être manipulées ou entièrement générées par l’IA.
L’IA peut également orienter notre navigation sur Internet, ce qui restreint notre vision du monde.
Une meilleure compréhension et un regard critique aident à utiliser l’IA de manière ciblée, judicieuse et créative.
Contenu
Pour simplifier, on pourrait dire qu’un algorithme, c’est comme un guide : il décrit les étapes à suivre pour arriver à un certain résultat. Comme il ne suffit généralement pas d’un seul algorithme, un programme ou un logiciel en contient plusieurs. Mais cela n’en fait pas encore une véritable intelligence artificielle.
Les programmes qui comportent des algorithmes classiques sont statiques, ils font donc toujours la même chose. En revanche, les systèmes d’IA reposent sur des algorithmes dynamiques, qui acquièrent en permanence de nouvelles connaissances. Dans ce processus d’apprentissage, ils ont besoin d’énormes quantités de données pour trouver des modèles, établir des liens et tirer des conclusions.
Lorsque TikTok me propose une vidéo qui pourrait me plaire, c’est l’effet d’algorithmes. Il en est de même sur Netflix ou Spotify. Les algorithmes analysent en permanence notre comportement : ce que nous regardons, ce que nous likons ou ce que nous ne visionnons pas jusqu’au bout. Ils nous présentent ainsi une offre personnalisée, avec des contenus que nous sommes susceptibles d’aimer.
Ce peut être pratique, car nous accédons plus rapidement à des contenus qui nous intéressent. Mais d’un autre côté, cela peut nous amener à voir toujours les mêmes choses, par exemple des contenus qui reflètent une certaine opinion ou toujours le même type de vidéos. C’est ce que l’on appelle une bulle de filtres ou une chambre d’écho.
Une IA générative est un outil capable de créer lui-même des textes, des images, des vidéos ou de la musique.
ChatGPT, Google Gemini, Bing Chat, Microsoft Copilot, par exemple, sont des chatbots basés sur du texte qui écrivent des textes ou répondent à des questions à la manière d’un être humain.
Siri, Alexa, Cortana sont des assistants vocaux ou chatbots, qui sont basés sur le lan-gage parlé. Ces logiciels utilisent l’IA pour comprendre les instructions orales.
DALL-E, Flux et Midjourney sont des programmes capables de créer des images ou de modifier des images existantes à partir de descriptions textuelles.
VEO3, RunwayML, Lumen5 sont des générateurs de vidéos qui fonctionnent sur le même principe que les générateurs d’images. Ainsi, il est possible de créer une vidéo ou de modifier une vidéo existante à partir d’une simple description.
Suno, Udio, MusicGPT sont des outils qui génèrent des compositions musicales.
Certaines plateformes en ligne exigent que les contenus générés par l’IA soient signalés, mais rien ne garantit que ce soit toujours le cas. Même les médias travaillent désormais aussi avec l’IA, par exemple pour résumer des articles.
Cependant, les outils d’IA peuvent également commettre des erreurs, créer des informations de toutes pièces ou propager des discriminations. En outre, ChatGPT et Cie ont besoin d’énormes quantités de données pour se développer en permanence. Tout ce que les utilisateurs saisissent dans l’outil peut être utilisé à cette fin.
Si l’on en croit les scénarios hollywoodiens, l’humanité sera contrôlée tôt ou tard par l’IA. Qu’en est-il vraiment ? Pour répondre à cette question, il faut d’abord distinguer deux formes d’IA :
L’IA faible : Lorsque l’on évoque Alexa, ChatGPT, un jeu d’échecs numérique ou des véhicules autoguidés, pour ces produits, on parle d’IA faibles. Même si ces systèmes sont d’une grande complexité et réalisent des performances étonnantes, ils sont conçus pour une tâche spécifique et ne sont pas dotés d’une « intelligence » globale.
L’IA forte : Si de tels systèmes étaient réalisables, comme l’imaginent certains scénarios hollywoodiens, il faudrait parler d’une « super-intelligence », capable même de dépasser le cerveau humain. Un tel système, par exemple un robot, pourrait être utilisé dans les domaines les plus divers. À l’heure actuelle, il n’existe aucune IA forte et le monde de la recherche n’est pas unanime sur sa faisabilité.
Outre les aspects technologiques, cette évolution soulève de nombreuses autres ques-tions, d’ordre juridique, éthique ou relevant de la sécurité.
L’IA peut halluciner, c’est-à-dire inventer des informations. Elle présentera comme vraies des informations fausses, par exemple des faits ou des citations inventés. Si une IA ne détecte et ne filtre pas les fake news, elle reprend et propage des fausses informations ou les utilise dans son processus d’apprentissage autonome.
Les social bots sont des programmes informatiques qui agissent de manière autonome et peuvent être utilisés pour manipuler et déconcerter les utilisateurs. Ils simulent une identité humaine et communiquent comme de vraies personnes sur les réseaux sociaux ou sur d’autres forums interactifs.
Les algorithmes employés pour créer les social bots recourent en grande partie à l’intelligence artificielle. Par exemple, sur Facebook, Instagram ou X, ils peuvent aimer, commenter, partager ou publier automatiquement des contenus. Ils contribuent ainsi à fausser des tendances et des opinions.
Pour les enfants et les adolescents, il est important de savoir que les profils sur les réseaux sociaux et les forums ne proviennent pas forcément d’une personne en chair et en os, même s’ils ont l’air très réels. De plus, les commentaires et les activités en ligne ne proviennent pas nécessairement d’une personne réelle.
Désinformation
Haine et radicalisation
Réseaux sociaux
Les deepfakes sont des images, des vidéos et des enregistrements sonores modifiés ou complètement contrefaits par l’IA et qui semblent trompeusement réels. Ils sont également utilisés dans des tentatives de chantage. L’IA peut également colporter des modèles de pensée stéréotypés, par exemple sur le sexe, la couleur de peau ou l’origine.
Abus sexuels
Si une IA se base sur des données discriminatoires, elle en reprendra le caractère discriminatoire dans ses décisions. Ce sera le cas par exemple d’un outil visant à filtrer les dossiers de candidature.
Les systèmes d’IA ont besoin de grandes quantités de données. L’utilisation de données sensibles (personnelles) dans les processus d’apprentissage autonomes peut poser problème si l’on ne sait pas clairement ce qu’il en advient. Les questions de protection des données doivent également être abordées lorsque l’IA est utilisée pour la reconnaissance faciale, le profilage ou la géolocalisation, ou par les jouets intelligents.
Protection des données
Les systèmes d’IA sont présents dans de nombreux domaines du quotidien. Ils touchent donc inévitablement aussi les jeunes, qui sont exposés à certains risques :
Les outils d’IA ne comportent souvent aucun système de vérification de l’âge. Même de très jeunes enfants peuvent accéder facilement à des systèmes qu’ils ne comprennent pas et qui ne sont pas conçus pour eux, par exemple parce qu’aucun filtre de protection des mineurs n’est intégré au niveau du contenu.
ChatGPT et autres imitent la communication humaine. Pour un enfant, il n’est pas toujours évident de savoir s’il converse réellement avec une personne.
Les outils d’IA permettent par exemple de manipuler des photos de manière à ce que des images normales deviennent du matériel (pédo-)pornographique. Il suffit de découper une tête de la photo originale et de l’incruster sur une photo d’un corps nu. Avec ce genre de photos ou d’autres photos manipulées, les enfants et les jeunes peuvent être victimes de chantage ou de harcèlement. De telles manipulations sont bien entendu interdites et pénalement répréhensibles.
Lorsque des images ou des textes sont générés par des outils d’IA, il n’est pas toujours évident de savoir d’où ils proviennent. Il pourrait y avoir violation du droit d’auteur, un acte punissable.
En Suisse, il n’existe actuellement aucune législation spécifique sur l’IA (constat juin 2025). La Confédération souhaite toutefois élaborer, d’ici fin 2026, un projet de consultation pour établir de nouvelles règles, concernant des aspects comme la protection des données, la transparence, la non-discrimination et la surveillance. L’objectif est de permettre la ratification de la convention du Conseil de l’Europe sur l’intelligence artificielle, qui existe déjà.
Cela ne signifie pas pour autant que le domaine de l’IA est une zone de non-droit ou que les utilisations abusives ne peuvent pas avoir de conséquences juridiques. Les bases légales existantes, comme le droit pénal (code pénal, CP), le droit civil (code civil, CC) ou les droits applicables en matière de propriété intellectuelle (par ex. le droit d’auteur), s’appliquent en principe déjà aujourd’hui. Concrètement, les dispositions suivantes peuvent par exemple être appliquées :
Art. 258 ss du code pénal (CP) : Crimes ou délits contre la paix publique
Art. 261bis CP : Discrimination et incitation à la haine
Art. 173 ss CP : Délits contre l’honneur
Art. 179decies CP : Usurpation d’identité
Art. 28 ss du code civil (CC) : Contre des atteintes
Dernière mise à jour du texte le 12.11.25