Intelligence artificielle Point chaud / en émergence Technologique Tendances sociétales

Rapport international sur la sécurité de l’IA 2026 : des constats intéressants

Modèle de cerveau illuminé au néon

En février 2026, sous la direction du professeur Yoshua Bengio, de l’Université de Montréal et de Mila, le deuxième Rapport international sur la sécurité de l’IA est publié. Ce rapport propose « une analyse scientifique des capacités, des risques et des stratégies d’atténuation associés à l’intelligence artificielle généraliste ».

L’« IA généraliste » désigne les modèles et systèmes d’IA capables d’effectuer une variété de tâches, plutôt que d’être spécialisés dans une fonction ou un domaine spécifique. Ces tâches comprennent, par exemple, la production de textes, d’images, de vidéos et de sons, ainsi que l’exécution d’actions sur un ordinateur (Rapport, p. 19)

Ce document est le fruit de la collaboration de plus de 100 personnes expertes. Il mérite une lecture attentive non seulement pour ce qu’il dit de l’IA, mais aussi pour la manière dont il pourrait appuyer les réflexions entourant les systèmes d’IA en enseignement supérieur.

Un constat : des capacités en progression rapide, mais inégale

Le document met en évidence une amélioration constante des capacités de l’intelligence artificielle généraliste depuis janvier 2025. Les systèmes les plus performants remportent maintenant des médailles d’or aux compétitions internationales de mathématiques, réussissent les examens professionnels en droit et en médecine, et sont en mesure de concevoir indépendamment des tâches qui prendraient à un humain une demi-heure (p. 10 et 15).

Selon le rapport, ces progrès découlent notamment de la « mise à l’échelle du temps d’inférence », une technique permettant aux modèles d’utiliser davantage de puissance de calcul pour parcourir des étapes intermédiaires avant de produire une réponse (p. 12).

Il met toutefois en lumière les limites persistantes de ces systèmes. En effet, les IA généralistes ont encore du mal à accomplir des tâches apparemment simples, comme compter des objets dans une image, raisonner dans l’espace physique ou maintenir la cohérence sur des flux de travail prolongés (p. 12 et 13). Bien que les hallucinations soient en diminution, elles restent fréquentes. Même les modèles les plus avancés continuent de donner des réponses incorrectes avec une assurance trompeuse (p. 30, p. 81 à 83).

Quelques risques susceptibles d’interpeler l’enseignement supérieur

Parmi la cartographie de risques dressée dans le rapport (ex., utilisations malveillantes, dysfonctionnements, risques systémiques), certaines catégories sont particulièrement pertinentes pour l’enseignement et l’apprentissage.

Autonomie humaine et érosion de la pensée critique

Le rapport consacre une analyse approfondie aux « risques pour l’autonomie humaine » (p. 103 à 108). En effet, il souligne que la délégation répétée de tâches cognitives à l’intelligence artificielle (IA) (telles que la rédaction, la recherche d’informations, la résolution de problèmes, etc.) peut affaiblir les facultés de réflexion critique et la mémoire, un phénomène qu’ils désignent par le terme de « délégation cognitive » (p. 104 et 105).

Le rapport mentionne aussi des résultats de recherche illustrant cette préoccupation. Par exemple, une étude clinique démontre que, après seulement trois mois d’utilisation d’un outil de diagnostic assisté par IA, la capacité des médecins à détecter des tumeurs a diminué d’environ 6 % (p. 102). Une recherche impliquant 666 individus a mis en évidence un lien significatif entre une utilisation excessive d’outils d’IA et des résultats inférieurs à une échelle d’auto-évaluation de la pensée critique (p. 104).

Le biais d’automatisation

Le document met de l’avant une tendance observée fréquemment chez les personnes utilisatrices à accorder une confiance excessive aux résultats produits par l’IA, un phénomène qu’ils nomment « biais d’automatisation » (p. 104 et 105). Dans une étude portant sur 2 784 participants ayant réalisé une tâche d’annotation aidée par l’intelligence artificielle (IA), il a été constaté que les personnes participantes étaient moins enclines à corriger les suggestions erronées de l’IA lorsque cela demandait un effort supplémentaire ou lorsqu’ils avaient une attitude plus favorable envers l’IA (p. 105).

Transposé en salle de classe, ce mécanisme soulève une question pédagogique importante : comment s’assurer qu’une personne étudiante utilisant de l’IA conserve un regard critique sur ses productions ? Le rapport souligne à ce propos que les premières expériences avec un système influencent considérablement le comportement ultérieur. Il met de l’avant l’importance d’encourager les personnes utilisatrices à réfléchir de manière délibérée pour éviter les raccourcis cognitifs (p. 105).

Un marché du travail qui se recompose

L’un des constats les plus saillants du rapport concerne les effets variés de l’IA sur l’emploi. Les auteurs citent des études nationales menées au Danemark et aux États-Unis. Ces dernières n’ont pas encore mis en évidence d’effet global significatif sur l’emploi. Cependant, elles révèlent une baisse de la demande pour les travailleurs et travailleuses en début de carrière dans les professions les plus exposées à l’IA (p. 99 à 101).

En guise de conclusion

Le Rapport international sur la sécurité de l’IA 2026 nomme un défi qu’il appelle le « dilemme de la preuve » : les capacités de l’IA évoluent plus vite que notre compréhension de leurs effets, et attendre des données concluantes pourrait rendre nos institutions vulnérables à des transformations déjà en cours (p. 15).

Sans formuler de recommandation, cette synthèse scientifique permet néanmoins d’identifier plusieurs axes de réflexion :

  • repenser la formation aux compétences cognitives fondamentales,
  • intégrer la littératie en IA et
  • accompagner l’entrée des diplômées et diplômés sur un marché du travail en recomposition.

Source: Bengio, Y. et al. (2026). Rapport international sur la sécurité de l’IA 2026 (247 pages). https://internationalaisafetyreport.org/publication/international-ai-safety-report-2026 (disponible en anglais et en français)

 

Jan.ai : une alternative libre et gratuite
IA et enseignement supérieur, un cadre d’action pour les universités
+ posts

À propos de l'auteur

Alexandra Lez

Laisser un commentaire