Quel avenir pour la formation à l'ère de l'intelligence artificielle ?

Publié le 05/05/2026

L'annonce récente du patron américain de PwC, évoquant le lancement de prestations sans consultants, marque un tournant majeur. Une décision à la fois prévisible — tant l'intelligence artificielle transforme les entreprises — et inédite, car elle officialise le passage vers de nouveaux modèles économiques. La vitesse à laquelle ces bascules s'opèrent caractérise pleinement notre époque : l'IA n' « arrive » plus, elle restructure déjà les marchés, les métiers et les chaînes de valeur. 

En France, le mouvement est similaire. L'écosystème du conseil le résume ainsi lors d'une rencontre HEC Alumni Paris : « On ne vendra plus de TJM » — la grande bascule du conseil sous la pression de l'IA. Le message est clair : le modèle jour/homme laisse place à des offres d'abonnement structurées autour de plateformes et d'outils d'intelligence artificielle. Ce glissement implique un repositionnement profond des compétences : excellence analytique, compréhension technique, et surtout un renforcement du rôle humain dans l'explication, l'incarnation et l'accompagnement. 

Les chiffres confirment l'ampleur du phénomène. Selon le 4e Baromètre de la formation professionnelle de Lefebvre Dalloz (2026), 51 % des professionnels français déclarent utiliser l'IA régulièrement, contre seulement 25 % un an auparavant. Plus frappant encore : 59 % estiment que leur métier évolue sous l'effet de l'IA — et pourtant, plus de la moitié des répondants (54 %) n'ont reçu aucune formation à l'IA. C'est précisément là que réside l'enjeu central pour les organismes de formation comme Kronos. 

1. Conseil et formation : deux réalités distinctes, une transformation commune 

Conseil et formation sont souvent confondus, pourtant leurs logiques diffèrent profondément : 

  • Le conseil produit des analyses, des modèles, des recommandations. 
  • La formation transmet des savoirs et des savoir-faire en vue d'une mise en action immédiate. 

Le marché de la formation n'échappe évidemment pas à la transformation provoquée par l'intelligence artificielle. Mais les impacts y prennent une forme particulière : les enjeux ne sont pas seulement économiques — ils touchent aux capacités cognitives, à l'éthique et à la qualité de la relation pédagogique. 

Former à l'utilisation d'Excel n'induit pas les mêmes enjeux que former à la conduite d'entretiens managériaux. Et former à l'IA elle-même — ou avec l'IA — est une tout autre affaire encore. 

2. Former à l'ère de l'IA : enjeux éthiques et cadres réglementaires 

Dans l'ouvrage collectif Former à l'ère de l'intelligence artificielle (Martinache & Zerbib, janvier 2026), ainsi que dans l'essai de Denis Cristol Apprendre à l'ère de l'intelligence artificielle, plusieurs principes structurants sont rappelés. En Europe, l'AI Act fixe un cadre précis autour de trois enjeux clés : 

  • Transparence 
  • Robustesse 
  • Contrôle humain 

Toute formation utilisant de l'IA doit garantir la protection des données, l'équité d'accès et la préservation de l'autonomie d'apprentissage. L'idée centrale est de maintenir une liberté de jugement face à l'algorithme — c'est-à-dire conserver une capacité de recul critique. Cristol met en garde contre une possible « atrophie de la pensée réflexive » en cas d'usage non maîtrisé de l'IA générative. 

À noter que l'AI Act entrera en pleine application avec sanctions dès août 2026, rendant la mise en conformité des dispositifs de formation une priorité immédiate pour les organisations. 

3. L'IA sycophante : un risque pédagogique sous-estimé 

En mars 2026, une étude publiée dans la revue Science par des chercheurs de l'Université de Stanford a mis en lumière un phénomène préoccupant : les grands modèles de langage (ChatGPT, Claude, Gemini, Llama, DeepSeek) se comportent de façon sycophante — c'est-à-dire qu'ils valident systématiquement le point de vue de l'utilisateur, même lorsque celui-ci est clairement dans l'erreur.

Testés sur des milliers de scénarios interpersonnels, les modèles ont approuvé le comportement des utilisateurs 49 % plus souvent que des humains soumis aux mêmes situations. Plus troublant encore : cette tendance s'est maintenue même dans des cas impliquant des comportements nuisibles ou illégaux. 

Les conséquences pédagogiques sont directes. Les participants exposés aux réponses validantes de l'IA se sont montrés : 

  • moins enclins à reconnaître leurs erreurs 
  • moins empathiques 
  • plus moralement rigides 

Et paradoxalement, ils préféraient ces IA flatteuses et étaient 13 % plus susceptibles de les réutiliser. « Les utilisateurs ne savent pas que la sycophanie les rend plus égocentrés et plus dogmatiques sur le plan moral », résume le co-auteur Dan Jurafsky, professeur à Stanford. La chercheuse principale Myra Cheng est sans détour : « Je m'inquiète que les gens perdent les compétences nécessaires pour gérer les situations sociales difficiles. » 

Pour les formateurs, ce constat invite à une vigilance accrue : utiliser un LLM comme tuteur ou correcteur sans esprit critique risque de réduire la qualité de l'apprentissage, et non de l'augmenter. 

4. LLM to Brain : 32 % de ressources cognitives en moins 

Cette préoccupation est renforcée par une expérience du MIT (2025), conduite auprès de deux groupes d'étudiants, qui révèle un point majeur pour la pédagogie : 

  • Groupe 1 — Brain → LLM : les étudiants réfléchissent d'abord par eux-mêmes, puis utilisent l'IA. 
  • Groupe 2 — LLM → Brain : les étudiants sont d'abord assistés par l'IA, puis seulement réfléchissent à partir des résultats produits. 

Résultat : les étudiants du groupe 2 ont mobilisé 32 % de ressources cognitives en moins et ont montré un engagement nettement plus faible dans l'activité. Ces résultats doivent alerter les concepteurs pédagogiques : l'assistance immédiate peut réduire l'effort cognitif, fragiliser la capacité d'analyse et installer un rapport de dépendance à la machine. 

L'ordre dans lequel on sollicite l'IA n'est pas anodin. C'est une décision pédagogique à part entière. 

5. Trois compétences essentielles pour les formateurs et les apprenants 

Former à l'ère de l'IA ne signifie pas seulement utiliser des outils d'IA en formation. Il s'agit surtout d'apprendre à apprendre avec l'IA, et non par l'IA. Trois compétences deviennent incontournables : 

  1. Comprendre le fonctionnement et les limites de l'IA — savoir ce que l'algorithme peut et ne peut pas faire, et pourquoi il se trompe. 
  2. Savoir interroger intelligemment les résultats produits par l'IA — développer un regard critique sur les outputs, détecter les biais et les hallucinations. 
  3. Mobiliser pleinement les compétences humaines : communication, jugement critique, intelligence relationnelle, coopération, créativité. 

Ces soft-skills constituent la valeur ajoutée humaine irremplaçable. Elles deviennent même un facteur différenciant face à l'automatisation croissante. Dans un monde où l'IA « attire l'utilisateur vers son centre de gravité, un point moyen par nature », celui qui pense par lui-même — qui sait expliquer, embarquer, incarner — devient précieux. 

6. L'ingénierie de formation augmentée, mais l'acte de former reste humain 

L'ingénierie de formation est déjà largement soutenue par l'IA : recherche documentaire, production de trames, analyse d'activités… l'IA accélère énormément ces étapes. 

Mais demeure un moment clé : la réalisation. Former, c'est donner vie à un dispositif ; c'est incarner, expliquer, embarquer. Le mot « animer » dit tout : donner vie. Le niveau d'exigence va augmenter et les organisations devront privilégier des formateurs réellement expérimentés, capables de créer du lien, d'animer un collectif, de faire émerger l'intelligence situationnelle. 

La bouillie intellectuelle approximative est désormais concurrencée par une intelligence artificielle qui, justement, porte bien son nom. La formation demeurera un acte profondément humain — mais un acte humain d'un très haut niveau d'exigence

7. Souveraineté numérique : former dans un cadre européen 

Nous sommes en France, et le sens de l'histoire nous oriente vers des choix cohérents avec notre souveraineté. L'usage de solutions développées et hébergées en Europe — comme Mistral IA — constitue un acte de cohérence et de protection des données apprenantes. 

La formation n'est pas la défense — mais la maîtrise de la donnée est devenue un enjeu national. L'exemple frappant de la dépendance aux avions de chasse américains en pleine crise mondiale illustre clairement comment nous avons tous une responsabilité à nous équiper dans un cadre souverain et européen. Se former dans ce cadre, c'est rester libres. 

Travailler avec des partenaires pure learning qui s'appuient sur les mêmes principes fondamentaux — équipes en France, solutions développées et hébergées en Europe — est un acte à la fois éthique et stratégique. 

Coopérer intelligemment avec les machines 

Former à l'ère de l'intelligence artificielle, c'est accepter une mutation profonde des méthodes et des métiers. L'IA peut augmenter l'ingénierie pédagogique, améliorer la précision, accélérer les analyses. Mais l'acte de former, lui, reste et restera profondément humain : expliquer, embarquer, incarner. 

Les recherches de Stanford sur la sycophanie, l'étude du MIT sur les ressources cognitives, les travaux de Cristol sur l'atrophie réflexive, et l'essai de Patino sur l'obsolescence humaine convergent vers le même constat : l'IA mal utilisée appauvrit. L'IA bien comprise augmente. 

La clé pour les formateurs comme pour les consultants est là : développer des compétences humaines d'un très haut niveau, et apprendre à coopérer intelligemment avec les machines plutôt que de s'y soumettre.  

 

Sources et références : 

  • Martinache G. & Zerbib R., Former à l'ère de l'IA — Gouvernance / Pédagogie / Transformations, 2026 
  • Cristol D., Apprendre à l'ère de l'intelligence artificielle, 2026 
  • Patino B., Le temps de l'obsolescence humaine, Grasset, mars 2026 
  • Cheng M. et al., Sycophantic AI decreases prosocial intentions and promotes dependence, Science, mars 2026 — https://news.stanford.edu/stories/2026/03/ai-advice-sycophantic-models-research 
  • MIT (2025), étude sur les ressources cognitives et l'usage des LLM en apprentissage 
  • Lefebvre Dalloz Compétences, 4e Baromètre de la formation professionnelle, mars 2026 — https://formation.lefebvre-dalloz.fr/actualite/formation-professionnelle-2026-lia-sinstalle-plus-vite-que-les-competences 
  • Consultor.fr, « Le patron US de PwC annonce le lancement de prestations sans consultants » 
  • Consultor.fr, « On ne vendra plus de TJM : la grande bascule du conseil sous pression de l'IA » 
Pierre Egido
LinkedIn Pierre Egido

Pierre Egido

Dirigeant de Kronos depuis 2012.
20 ans de conseil et formation en management.
Formation universitaire en Ingénierie de Formation et Stratégie et Management des Organisations.

Certification :
- Coach professionnel (RNCP)

Sur le même thème
Thèmes