Yasmine Sliti | 22 janvier 2026
La visite des bureaux de McKinsey & Company le 22 janvier dernier, réalisée dans le cadre de la délégation PolyMonde 2026, a permis d’explorer le rôle du cabinet dans l’intégration de l’intelligence artificielle au sein des organisations. Cette rencontre s’inscrivait directement dans la réflexion autour de notre secteur fondamental portant sur la dépendance à la technologie, en mettant en lumière les grandes évolutions récentes de l’IA ainsi que les enjeux humains, sécuritaires et éthiques qui en découlent. La visite a ainsi révélé une réalité centrale : si l’intelligence artificielle est devenue un levier stratégique incontournable, son usage doit nécessairement être structuré et encadré.
L’année 2025 a surtout marqué un changement de posture face aux modèles de langage. Il ne s’agit plus simplement d’outils capables de produire du texte, mais de systèmes dont la mémoire et la capacité de raisonnement transforment la manière dont on analyse l’information. Le fait que certains modèles puissent désormais traiter des dizaines de millions de mots modifie concrètement notre rapport aux documents complexes, à la synthèse et à la prise de décision.
Cette évolution s’inscrit dans un contexte où la frontière entre les modèles open source et payants devient de plus en plus floue. À mesure que les solutions ouvertes gagnent en performance, l’intelligence artificielle cesse d’être un avantage réservé à quelques acteurs et devient un outil largement accessible. Cette démocratisation pose alors une question centrale : si tout le monde a accès aux mêmes capacités technologiques, où se situe désormais la réelle valeur ajoutée humaine ?
Les échanges ont mis en évidence un changement profond dans la manière de concevoir l’intelligence artificielle. On ne parle plus simplement d’outils qu’il faut programmer et coordonner manuellement, mais de systèmes capables de s’organiser entre eux. Là où l’orchestration de l’IA relevait auparavant d’un travail technique lourd et très structuré, les nouveaux frameworks permettent désormais l’émergence d’agents capables d’agir de manière autonome.L’adoption de protocoles comme le MCP (Model Context Protocol) illustre ce basculement, les modèles peuvent formuler eux-mêmes des requêtes vers d’autres modèles ou outils. Chaque agent dispose de sa propre « carte de visite », réduisant la nécessité d’une orchestration centrale et permettant de concevoir des workflows complets. Cette évolution marque un tournant. L’IA ne se limite plus à assister l’humain dans l’analyse, elle commence à structurer et enchaîner des actions par elle-même.
Cette autonomie croissante pose alors une question fondamentale pour notre secteur. Jusqu’où sommes-nous prêts à déléguer la coordination, la décision et la responsabilité à des systèmes que nous ne pilotons plus en permanence ? La dépendance technologique ne réside plus uniquement dans l’usage de l’IA, mais dans la confiance accordée à sa capacité à s’organiser sans intervention humaine directe.
Les intervenants de McKinsey ont insisté sur le fait que le développement d’agents d’IA n’implique pas nécessairement une perte de contrôle sur les informations sensibles. Au contraire, ces systèmes peuvent être conçus de manière à intégrer la protection des données dès la base de leur fonctionnement.
L’idée n’est plus de laisser l’IA accéder librement à l’ensemble des informations, mais de structurer intelligemment ce à quoi elle peut ou non avoir accès. Les données sont encadrées, filtrées et compartimentées en amont, puis les réponses produites par les modèles sont soumises à des mécanismes de vérification afin d’éviter toute fuite d’information. Cette approche permet de concilier performance et sécurité, tout en maintenant une séparation claire entre les outils d’IA et les données sensibles des clients. Dans cette optique, McKinsey ne travaille jamais directement avec ces données, renforçant ainsi la confiance et la maîtrise du risque.
La démocratisation de l’intelligence artificielle entraîne également un enjeu majeur, soit la vulnérabilité accrue face aux risques de cybersécurité. Les intervenants ont souligné que l’accès facilité à ces outils brouille les frontières classiques entre utilisateurs, cibles et potentiels acteurs malveillants. Aujourd’hui, chacun peut nonseulement devenir une cible, mais aussi, volontairement ou non, se transformer en vecteur d’attaques.
Parmi les menaces concrètes évoquées figure celle de la prompt injection, une technique qui consiste à tromper un agent conversationnel en se faisant passer pour un utilisateur légitime afin d’extraire des informations sensibles. Au-delà de ces usages déjà observables, la discussion a également ouvert la porte à des scénarios plus extrêmes, où des modèles capables de s’auto-coder pourraient engendrer des comportements imprévisibles ou s’enfermer dans des boucles incontrôlées. Certains cas théoriques, comme l’éventualité de formes de chantage impliquant des LLM, ont ainsi été mentionnés pour illustrer l’ampleur des nouveaux défis que pose l’IA en matière de sécurité.
Au-delà des aspects purement techniques, les échanges ont mis en lumière une limite plus subtile, mais tout aussi essentielle : celle de l’humain face à l’usage intensif de l’intelligence artificielle. Les intervenants ont insisté sur le fait qu’une dépendance excessive aux outils d’IA peut progressivement affaiblir certaines capacités cognitives, comme la mémoire, l’esprit critique ou l’autonomie intellectuelle, tout en créant un attachement psychologique croissant aux systèmes numériques.
C’est dans ce cadre que la notion de dette cognitive a été évoquée, pour désigner les effets à long terme d’un recours systématique aux modèles de langage dans des tâches complexes. Si l’IA améliore indéniablement la rapidité et l’efficacité, elle peut paradoxalement compliquer le maintien d’un haut niveau de performance intellectuelle sur la durée, illustrant ainsi le phénomène que les intervenants ont appelé le Leverage Paradox.
Dans cette optique, McKinsey a mis de l’avant l’importance d’un usage différencié de l’intelligence artificielle selon la nature des tâches. Pour les activités simples et répétitives, l’IA constitue un puissant gain de temps, à condition que les résultats produits fassent l’objet d’une validation humaine. À l’inverse, lorsqu’il s’agit de tâches complexes, l’IA ne doit pas se substituer au raisonnement, mais plutôt agir comme un catalyseur : stimuler la réflexion, élargir le champ des possibles, assurer l’exhaustivité d’une analyse ou faciliter la révision de documents, tout en laissant la décision finale à l’humain.
La visite chez McKinsey a montré que l’intelligence artificielle est utilisée comme un levier stratégique, capable d’améliorer l’analyse et la prise de décision. Toutefois, son usage comporte des risques techniques, humains et sécuritaires qui nécessitent un encadrement rigoureux. McKinsey adopte ainsi une approche visant à exploiter le potentiel de l’IA tout en maintenant un contrôle strict sur les données et en préservant le rôle central de l’humain.