top of page
Rechercher

Intelligence Émotionnelle & prompt engineering, un lien organique.

  • Photo du rédacteur: Jérôme Neu-Lacombe
    Jérôme Neu-Lacombe
  • 21 févr.
  • 4 min de lecture

L’illusion techniciste : croire que la performance dépend de l’outil


L’essor de l’intelligence artificielle générative a rapidement déplacé la question de la performance vers le terrain technique : qualité des prompts, structuration des requêtes, paramétrage des outils, automatisations avancées. Cette approche est nécessaire, mais elle reste partielle.

Elle repose sur une hypothèse implicite : la qualité du résultat dépend principalement de la sophistication de la machine et de la formulation syntaxique de la demande.

Or les recherches en psychologie cognitive montrent depuis longtemps que la qualité d’une décision dépend moins des informations disponibles que de la capacité du décideur à clarifier son intention et à réguler ses biais internes. Herbert Simon, dès les années 1950, décrivait la rationalité humaine comme limitée et située. Toute demande, même adressée à une machine, est filtrée par un système de croyances, d’attentes et d’états internes.

Autrement dit, l’IA n’élimine pas la subjectivité. Elle l’amplifie.


Les émotions comme instruments de réglage, et non comme perturbations

Les travaux d’Antonio Damasio ont montré que les émotions participent à l’orientation des décisions. Loin d’être des interférences, elles constituent des marqueurs somatiques qui signalent la pertinence ou l’écart par rapport à un objectif.

Plus récemment, James Gross a approfondi les modèles de régulation émotionnelle, montrant que la capacité à identifier, différencier et ajuster ses états internes influence directement la qualité des choix et des performances cognitives.

Appliqué à l’usage de l’IA générative, cela signifie que la lecture émotionnelle de la réponse produite est un indicateur stratégique.

Un agacement face à un texte “correct mais banal” signale souvent une exigence non explicitée. Une confusion renvoie fréquemment à une intention mal structurée. Une insatisfaction diffuse révèle un décalage de posture ou de niveau d’expertise.

L’émotion devient alors un outil de calibration.

Elle permet d’affiner la demande non pas au niveau de la syntaxe, mais au niveau de l’intention.


Une lecture cybernétique : l’IA comme boucle de rétroaction

La cybernétique de Norbert Wiener reposait sur un principe fondamental : tout système performant fonctionne par boucle de rétroaction. Le signal de sortie informe l’ajustement de l’entrée.

L’interaction avec une IA générative relève précisément de ce modèle.

Le prompt constitue l’entrée.La réponse constitue la sortie.L’émotion ressentie constitue le signal de feedback.

Sans lecture consciente de ce signal, l’utilisateur reste dans une répétition approximative. Avec une régulation émotionnelle maîtrisée, il affine progressivement le système.

Ross Ashby, dans sa loi de la variété requise, montrait qu’un système ne peut réguler un autre système que s’il possède un niveau de complexité au moins équivalent.

Transposé à l’IA : plus l’outil est puissant, plus l’utilisateur doit développer une complexité interne suffisante pour le piloter finement. Cette complexité est cognitive, mais aussi émotionnelle.


Métacognition et performance augmentée

Les recherches en métacognition (Flavell) montrent que la performance experte repose sur la capacité à observer ses propres processus mentaux.

Utiliser efficacement une IA générative suppose précisément cette posture réflexive :

Clarifier l’objectif réel avant de formuler la demande.Identifier le niveau d’exigence attendu.Nommer la posture recherchée.Différencier ce qui relève du fond, de la forme, de la tonalité.

Cette capacité d’observation interne est étroitement corrélée à l’intelligence émotionnelle, telle que conceptualisée par Mayer, Salovey et Caruso : percevoir, comprendre et réguler les émotions pour orienter l’action.

L’IA devient alors un prolongement cognitif — ce que Clark et Chalmers ont décrit comme une “extended mind”. Mais une cognition étendue ne remplace pas la qualité du centre décisionnel. Elle la prolonge.


Enjeux RH : une compétence stratégique émergente

Pour les organisations, l’enjeu dépasse largement la maîtrise technique des outils.

Former les collaborateurs à l’IA sans développer leur capacité à clarifier leur intention, à réguler leurs biais et à formuler une exigence structurée revient à équiper sans piloter.

La véritable montée en compétence ne consiste pas seulement à apprendre à “bien prompter”. Elle consiste à développer :

– la lucidité sur ses attentes– la capacité à transformer un ressenti en critère explicite– la posture de responsabilité face à la production générée

Dans ce cadre, l’intelligence émotionnelle cesse d’être une compétence relationnelle périphérique. Elle devient un levier de performance technologique.

L’IA générative n’augmente pas automatiquement la qualité du travail. Elle augmente la qualité des intentions déjà présentes.

La question stratégique pour les DRH n’est donc pas uniquement : “Comment intégrer l’IA ?”

Elle devient :“Le niveau de maturité émotionnelle de nos équipes est-il suffisant pour piloter un outil aussi puissant ?”


Conclusion

La performance dans l’usage de l’IA générative ne repose pas uniquement sur des compétences techniques. Elle repose sur la capacité à clarifier son intention, à lire les signaux internes qui indiquent un écart, et à transformer ces signaux en ajustements explicites.

Bien utiliser l’IA n’est pas un acte purement technologique.C’est un exercice de lucidité.

Et cette lucidité est émotionnelle autant que cognitive.


Bibliographie indicative

Ashby, W. R. (1956). An Introduction to Cybernetics.

Barrett, L. F. (2017). How Emotions Are Made.

Clark, A., & Chalmers, D. (1998). The Extended Mind. Analysis.

Damasio, A. (1994). Descartes’ Error.

Gross, J. J. (2015). Emotion Regulation: Current Status and Future Prospects.

Lazarus, R. & Folkman, S. (1984). Stress, Appraisal, and Coping.

Mayer, J. D., Salovey, P., & Caruso, D. (2004). Emotional Intelligence: Theory, Findings, and Implications.

Simon, H. A. (1957). Models of Man.Wiener, N. (1948). Cybernetics.

 
 
 

Commentaires


bottom of page