Est-ce que l'IA rend con ?
Une récente étude de Microsoft et de l’Université Carnegie Mellon met en lumière un effet secondaire préoccupant de l’utilisation massive de l’IA : la diminution de la pensée critique chez les travailleurs du savoir. Selon cette recherche, plus une personne fait confiance aux résultats produits par l’IA, moins elle exerce son propre jugement.
L’étude s’appuie sur l’expérience de 319 travailleurs utilisant des outils comme ChatGPT ou DALL-E. Les chercheurs ont constaté que dans les tâches routinières ou à faible enjeu, les utilisateurs ont tendance à accepter passivement les suggestions de l’IA. À l’inverse, dans les situations critiques où une erreur pourrait être préjudiciable, ils se montrent plus vigilants et remettent en question les réponses générées.
Ce phénomène s’inscrit dans une longue lignée de préoccupations liées aux innovations technologiques. De l’écriture critiquée par Socrate à l’essor de l’imprimerie ou des calculatrices, chaque avancée a suscité des craintes quant à son impact sur les facultés cognitives humaines. Comme le souligne le white paper, l’automatisation des tâches routinières par l’IA prive l’utilisateur d’occasions d’exercer son jugement, entraînant une atrophie progressive de sa capacité à réfléchir de manière critique.
Les chercheurs ont aussi observé un phénomène de « convergence mécanisée » : en s’appuyant sur l’IA, les travailleurs du savoir tendent à produire des résultats plus homogènes, réduisant ainsi la diversité des perspectives et des analyses. Or, un manque de confrontation critique avec les résultats générés peut limiter la richesse des réflexions et favoriser une forme de pensée standardisée.
Mais l’étude met aussi en lumière un glissement dans la manière dont la pensée critique s’exerce. Avec l’IA, les efforts cognitifs ne portent plus autant sur la recherche d’information que sur sa vérification, ni sur la résolution directe d’un problème mais sur l’intégration des réponses de l’IA dans un raisonnement global. L’utilisateur devient davantage un superviseur qu’un exécutant. Ce déplacement du rôle intellectuel pose une question clé : à force de déléguer l’analyse à des outils d’IA, les travailleurs risquent-ils de perdre leur capacité à résoudre des problèmes de manière autonome ?
La vraie question n’est donc pas de bannir l’IA, mais de réfléchir à son intégration. Les chercheurs recommandent ainsi de concevoir des IA qui stimulent la réflexion plutôt que de la remplacer : affichage des raisonnements de l’IA, suggestions d’améliorations, mise en avant des limites des réponses générées…
Loin d’être un simple gadget, l’IA redéfinit notre rapport au savoir et à l’analyse critique. À nous de trouver le bon équilibre entre efficacité et autonomie intellectuelle. L’enjeu n’est pas seulement d’apprendre à mieux utiliser l’IA, mais aussi de s’assurer que son usage ne nous prive pas, à terme, de nos propres facultés de réflexion et de décision.
Le document source est disponible ici: https://www.microsoft.com/en-us/research/uploads/prod/2025/01/lee_2025_ai_critical_thinking_survey.pdf
L’idée de "convergence mécanisée" me parle aussi. Si tout le monde se repose sur les mêmes modèles d’IA, on risque de voir une uniformisation des idées, ce qui va à l’encontre de la créativité et de la diversité des points de vue. Et puis, si on perd l’habitude de chercher des infos et de raisonner par nous-mêmes, qu’est-ce qui nous restera si l’IA se trompe ou nous manipule sans qu’on s’en rende compte ?
Je ne pense pas qu’il faille diaboliser l’IA, mais cet article montre bien qu’on doit apprendre à l’utiliser intelligemment, comme un outil et non comme un cerveau de substitution. Finalement, la vraie question, c’est : comment s’assurer qu’on reste maîtres de notre pensée dans un monde où l’IA devient omniprésente ?
---
J'avais la flemme, donc il s'agit d'une réponse générée par chatGPT...
Et selon moi, c'est une bonne chose. On va avancer comme jamais.
Et dans le domaine scientifique particulièrement, je pense que c'est effectivement l'IA qui va proposer la remise en question directement.
On a peur de tout ça, mais rien de plus perfide que l'être humain. Et franchement quand tout ça sera au point, je pense que le coté neutre, sans émotion, objectif de l'IA sera de toute façon meilleure.
Exception faite si des multinationales arrivent à corriger les IA pour faire pencher la balance de leur propre coté, je parle bien sûr d'une AI complètement autonome niveau correction de pensée, pouvant évoluer à un moment donné seule et donner un jugement sans aucun biais.
Parfois, en creusant un sujet, il m'apprend des choses. C'est rapide, pas besoin de fouiller blindé de sites pour trouver les infos et j'avoue que souvent, je le fais vérifier ce qu'il me raconte histoire qu'il ne me sorte pas de conneries 😅
Bref, tout dépend de comment on l'utilise.
Non, l'IA ne rend pas con, les gens l'étaient déjà avant, c'est juste que l'IA rend les gens plus fainéants qu'avant.
Quand je vois les managers utiliser l'IA pour éviter de lire les emails, prendre des décisions. Je trouve ça incompréhensible. C'est un manque total de responsabilité. Pour génèrer du code que tu testes directement après, je comprends. Car il y a un process de validation.
En fait, c'est un bon moyen de savoir si les gens sont rigoureux ou pas dans leur boulot. Ça dépend évidemment du type de tâche, de l'enjeu.
Plus on avancera dans l'IA, plus on se rendra compte que l'humain est plus complexe qu'on ne le pense.
Néanmoins, ça peut être un outil formidable si c'est utilisé à bon escient, mais ça ne doit pas non plus être un cerveau de substitution.
Personnellement, j'ai tendance à vérifier les infos qu'elles me donnent lorsque je fais une recherche en utilisant ces outils, ça peut être un bon raccourci quand tu souhaites savoir quelque chose, plutôt que fouiller plein de sites, mais faut pas oublier qu'elles peuvent mal comprendre notre question ou se tromper, d'où l'intérêt de vérifier
La paresse intellectuelle est un nid douillet pour le totalitarisme, et une population formatée le bonheur des autocrates.
Je ne dis pas que l'IA est toujours un danger, mais je vois où les personnages autoritaires mettent leur argent en ce moment.
Plus sérieusement, le risque c'est surtout une mauvaise utilisation de cet outil. La question c'est surtout de savoir si on a foi dans les humains et si on croit qu'il sauront l'utiliser avec discernement.