Trois points essentiels
- Mythe : l’anxiété liée à l’IA signifie forcément une résistance au changement.
- Fait : d’après des travaux cliniques et empiriques, l’anxiété vis‑à‑vis de l’IA est souvent alimentée par l’incertitude et l’anticipation plutôt que par un refus catégorique.
- Conseil pratique : pour mieux comprendre l’IA, focalisez‑vous sur un cas d’usage concret ou une question précise au lieu d’essayer de tout maîtriser d’un coup.
Un phénomène ancien, remis au goût du jour
Depuis toujours, l’arrivée de nouvelles technologies suscite des appréhensions. On pensait aux métiers menacés à l’époque de la mécanisation ; puis on s’est inquiété des « ondes » télévisuelles et de leur influence sur les esprits. Et aujourd’hui, c’est l’IA qui prend cette place d’objet inquiétant.
Ces réactions ne sont pas exotiques ; elles traduisent une logique humaine — face à du changement rapide et complexe, on est souvent déstabilisé. Dans ma pratique, j’ai vu des cadres supérieurs très compétents, soudain paralysés par l’idée qu’une nouvelle fonctionnalité pourrait changer la donne professionnelle du jour au lendemain.
Imaginons que l’on annonce un outil capable de rédiger des rapports en quelques minutes : on se demande d’abord « Où est ma place ? », puis on gratte, on cherche des informations, parfois on rumine. Cela dit, cette inquiétude n’est pas immuable ; elle peut se transformer en curiosité ou en adaptation, selon le contexte.
Qu’est‑ce que l’anxiété liée à l’IA ?
Lorsqu’elle ne prend pas la forme d’une attaque de panique, l’anxiété liée à l’IA apparaît souvent comme une inquiétude diffuse. Elle se manifeste de façons variées :
- peur de perdre son emploi ou d’être rendu redondant ;
- hésitation devant de nouveaux outils ;
- sentiment de ne pas suivre l’évolution des attentes ;
- préoccupation tenace face à la vitesse du changement.
Selon Frenkenberg et Hochman (2025), ces réponses sont majoritairement anticipatoires : on redoute un futur flou plutôt qu’on n’affronte un dommage immédiat. En consultation, j’ai accompagné un pharmacien de 52 ans qui, tout en appréciant les gains de productivité, restait tétanisé à l’idée d’un jour devoir réorienter toute sa pratique professionnelle.
Pourquoi l’incertitude alimente‑t‑elle l’anxiété ?
Quand le futur est imprévisible, le cerveau passe en mode vigilance ; il scrute, imagine, énumère les pires scénarios — parfois à outrance. Selon Grupe et Nitschke (2013), cette anticipation est en partie adaptative : elle prépare à d’éventuels dangers. Mais, elle peut aussi s’enliser.
Par ailleurs, l’introduction d’une technologie se déroule souvent plus vite que la capacité des personnes à en tirer des sens et des règles. Les attentes, elles, mettent du temps à se stabiliser ; et tant qu’elles ne sont pas bien formées, l’incertitude persiste et la tension s’installe.
Prenons un exemple : une enseignante que j’ai rencontrée, 29 ans, hésitait à utiliser un assistant pédagogique. Elle craignait d’être jugée incompétente par ses pairs si elle n’adoptait pas l’outil — et pourtant, elle était curieuse. On peut rester coincé entre ces deux pôles.
Comment les récits sociaux façonnent‑ils cette anxiété ?
Les récits médiatiques et professionnels jouent un rôle majeur. Brauner et al. (2023) montrent que l’exposition répétée à des narrations alarmistes augmente le sentiment de menace, même sans expérience directe négative. En clair : on peut s’inquiéter pour quelque chose qu’on ne connaît pas vraiment.
À cela s’ajoute un mécanisme cognitif simple ; quand on ne comprend pas bien, on se fie davantage aux émotions pour juger. Cave et al. (2018) soulignent combien les représentations de l’IA — fantasmées ou dramatisées — orientent le ressenti collectif.
Et si l’on ne parle pas de ses doutes ? Les inquiétudes restent intériorisées. Par exemple, un responsable RH m’a dit, en confidence, qu’il n’osait pas aborder les peurs de ses équipes de peur d’« affoler » le reste de l’entreprise. Résultat : le fossé entre discours officiel et vécu individuel se creuse.
Quand l’anxiété devient contre‑productive — et que faire
L’anxiété informe ; mais elle devient problématique lorsqu’elle conduit à l’évitement ou au rejet systématique. Grupe et Nitschke (2013) expliquent que, sous incertitude prolongée, la pensée se rigidifie et la nuance s’effiloche.
Cela peut mener à des comportements polarisés : on adopte tout aveuglément, ou l’on refuse tout d’emblée. Or, l’équilibre revient souvent par l’orientation — autrement dit, en choisissant où porter son attention et en construisant des attentes pas à pas.
Frenkenberg et Hochman (2025) notent que lorsque l’engagement est perçu comme un choix, non comme une contrainte, l’anxiété diminue ; curiosité et prudence peuvent alors coexister. Ainsi, commencez par une expérimentation modeste : un test, une formation courte, un échange avec un collègue curieux.
Message à retenir
L’inquiétude face à l’IA n’est ni un symptôme de faiblesse, ni un marqueur d’obsolescence. Elle traduit des réactions humaines attendues face à l’incertitude et à la complexité.
Plutôt que d’exiger une certitude immédiate, il est souvent plus utile de cultiver l’orientation, la clarté et le pouvoir de choisir. Posez‑vous quelques questions simples :
- Qu’est‑ce que je ne comprends pas encore ?
- Où puis‑je m’informer auprès de sources fiables ?
- Quelle petite action, concrète et réversible, puis‑je tester dès maintenant ?
En bref, l’engagement avec l’IA peut s’étaler et se nuancer ; il n’a pas à être total ou immédiat. À ce propos, souhaitez‑vous qu’on ouvre la discussion sur l’anxiété existentielle liée à l’IA dans un prochain article ?
Références
- Grupe, D. W., & Nitschke, J. B. (2013). Uncertainty and anticipation in anxiety: An integrated neurobiological and psychological perspective. Nature Reviews Neuroscience, 14(7), 488–501.
- Frenkenberg, A., & Hochman, G. (2025). It’s scary to use it, it’s scary to refuse it: The psychological dimensions of AI adoption—anxiety, motives, and dependency. Systems, 13(2), 82.
- Cave, S., Craig, C., Dihal, K., Dillon, S., Montgomery, J., Singler, B., & Taylor, L. (2018). Portrayals and perceptions of AI and why they matter. The Royal Society.
- Brauner, P., Hick, A., Philipsen, R., & Ziefle, M. (2023). What does the public think about artificial intelligence? A criticality map to understand bias in the public perception of AI. Frontiers in Computer Science, 5, Article 1113903.
- Gerlich, M. (2024). Public anxieties about AI: Implications for corporate strategy and societal impact. Administrative Sciences, 14(11), 288.
