Gardiens du long terme, de la réputation et de la stratégie, les Conseil d’administration (CA) ont deux missions vis-à-vis de l’intelligence artificielle (IA). Ils doivent tout d’abord challenger, superviser et contrôler la prise en main et le déploiement de l’IA par l’entreprise. Ils doivent ensuite s’approprier eux-mêmes ces technologies pour améliorer le fonctionnement du CA et la valeur qu’il apporte à l’entreprise. Mon expérience personnelle et les travaux de recherche que j’ai mobilisés convergent : mis à part quelques brillantes exceptions, ils sont défaillants sur la première mission et lacunaires sur la seconde. Et les CA des entreprises françaises sont encore plus en retard que leurs homologues. Dans cet article, je livre un diagnostic sans complaisance et je propose un cadre d’action pour y remédier.
Les Conseils d’administration forment un univers à part, qui cultive le secret et où les administrateurs, un groupe social très homogène, issus de quelques grandes écoles et partageant une culture similaire, sont parfois un peu repliés sur eux-mêmes. C’est un monde où les échanges s’effectuent et les décisions se prennent avec une certaine discrétion, avec des usages très formalisés, ce qui le rend parfois perçu comme un cercle fermé. Il en va de même pour la littérature sur la gouvernance : elle est souvent compassée, conformiste et anesthésiante car dans les CA, tout va (presque) toujours très bien, madame la marquise.
« Il faut toujours dire ce que l’on voit ; surtout, il faut toujours, ce qui est plus difficile, voir ce que l’on voit », disait Charles Péguy. Dans ce blog, dans cet article, on voit ce que l’on voit[1].
1 – Les Conseils sont frileux vis-à-vis de l’IA
Les Conseils d’administration ne sont pas réputés comme très enthousiastes dans l’appréhension et l’intégration des technologies et des apports de la science. Fin 2024, la Harvard Business Review (HBR) publiait un article intitulé « Les CA doivent refonder leur approche de la technologie », qui posait clairement la problématique : « En se préoccupant principalement de la sécurité et de l’informatique, les conseils passent à côté de grandes opportunités dans les domaines scientifiques. Les conseils d’administration de trop nombreuses entreprises cotées en bourse sont carrément timides lorsqu’ils traitent des questions liées à la science et à la technologie. Le plus souvent, ils se concentrent sur la sécurité et la numérisation — une posture défensive qui ne prend pas en compte les grandes opportunités émergentes des nouveaux matériaux, de la science spatiale et d’une meilleure compréhension du génome, pour ne citer que quelques domaines d’opportunité ».
Les trois auteurs mettaient clairement en cause la complaisance et la paresse intellectuelle des boards : « Il est facile de se laisser bercer par l’idée que la science n’a pas d’importance pour une entreprise non technologique. Mais cette distinction n’est pas aussi significative lorsqu’il s’agit de tirer parti des opportunités issues du changement technologique, désormais omniprésent, rapide, turbulent et de plus en plus improbables »[2].
Dans le monde de la gouvernance, une organisation apporte un souffle d’air frais, c’est ChangeNOW, une initiative indépendante créée en 2017 à la suite de la COP21, dont la mission est d’accélérer le changement nécessaire pour résoudre les plus grands défis environnementaux et sociaux de notre époque. Chaque année, ChangeNOW organise la plus grande exposition mondiale de solutions pour la planète et dans ce cadre, anime l’événement « Boards for Change », auquel j’ai eu la chance de participer. Il s’appuie sur les apports de 300 membres de CA et experts de la gouvernance ainsi qu’un partenariat avec Chapter Zero France et l’IFA (Institut Français des Administrateurs). Ce n’est pas un hasard si ce souffle de régénération de la gouvernance provient d’une organisation totalement dévouée au développement durable.
En 2025, ChangeNOW a publié un document, que je qualifie de « manifeste pour une gouvernance responsable ». Intitulé “Getting Your Board on Board – A Call to Action for Boards to Lead with Purpose and Stewardship”, il établit un diagnostic à la serpe (il voit ce que l’on voit) et formule des propositions concrètes pour emmener les CA dans le monde d’aujourd’hui. Pour mes activités de conseil, de formation et d’enseignement, j’avale des volumes considérables de littérature sur le management et la gouvernance des entreprises. Ce document est une perle que je recommande vivement[3].
Voici le diagnostic de Changenow sur la question : « En 2025, la rapidité des transformations disruptives a dépassé la capacité de nombreux conseils d’administration à anticiper et à réagir. Bien que l’IA, l’analytique avancée et la modélisation de scénarios aient mûri de façon spectaculaire, trop de conseils d’administration les considèrent encore comme des outils—plutôt que comme des instruments essentiels d’anticipation stratégique et de gouvernance ESG ». Car bien entendu, comme je l’ai entendu dans un Conseil du SBF120, « l’IA, c’est l’affaire de l’informatique » ! Eh bien non : l’IA c’est de la reconception du modèle d’affaires, c’est de la remise en cause des situations compétitives, c’est de la différenciation stratégique. C’est donc de la responsabilité du CA.
La lenteur de réaction des CA est d’autant plus un problème que les choses s’accélèrent vis-à-vis de l’IA du côté de l’exécutif. Et là, un changement majeur intervient en 2025/2026, mis en évidence par une nouvelle étude du Boston Consulting Group (BCG), qui révèle que les CEO’s (directeurs généraux) se positionnent en tête de proue des prises de décisions liées à l’IA[4]. Et comme le fait remarquer le quotidien Les Echos, « ils vont devoir assumer ». « Par le passé, les grandes évolutions technologiques ont été en grande partie pilotées par les équipes techs. Aujourd’hui, en revanche, c’est le patron qui devient le patron de l’IA », explique Christoph Schweizer, lui-même PDG du BCG[5]. D’ailleurs, 50% des DG confessent que leur job dépend de leur capacité à mener à bien la stratégie IA de leur entreprise.
Près de trois quarts (72%) des DG interrogés par le BCG disent en effet être les décisionnaires principaux en matière d’IA dans leur entreprise. C’est deux fois plus que l’année précédente. Leur implication indique que le constat est clair et partagé : l’IA est devenue incontournable et son intégration dans les processus de l’entreprise également. Suivant cette tendance, les investissements moyens en matière d’IA devraient doubler en 2026, en passant à 1,7 % du chiffre d’affaires contre 0,8 % en 2025 et 0,6% en 2024[6].
Malgré cela, les CA, de leur côté, poursuivent leur procrastination. Déjà, en considérant globalement l’enjeu de la digitalisation dans son ensemble sans entrer dans les complexités de l’IA, « seulement 41 % des dirigeants estiment que leur Conseil d’administration possède le niveau de compétence nécessaire pour prendre des décisions liées à la technologie qui affectent l’avenir de leur entreprise »[7].
Ensuite, bien que l’intérêt pour l’IA semble avoir explosé après l’introduction de ChatGPT, en 2024, « seulement 39 % des entreprises du Fortune 100 ont révélé une quelconque forme de supervision de l’IA par les conseils d’administration — que ce soit par un comité, un administrateur expert en IA ou un comité d’éthique »[8]. Pire : « seulement 20 % de tous les dirigeants s’accordent à dire que leur organisation dispose de l’expertise adéquate au sein du Conseil pour conseiller sur la mise en œuvre de l’IA générative »[9]. Selon le rapport State of Generative AI in the Enterprise de Deloitte (mars 2025), près de la moitié (45 %) des administrateurs affirment que l’IA n’est pas encore entrée à l’ordre du jour de leur Conseil, et plus des trois quarts (79 %) ont une connaissance limitée ou nulle des technologies d’IA. Plus révélateur encore, une enquête mondiale auprès des administrateurs a révélé que 66 % déclarent que leurs Conseils d’administration ont « peu ou pas de connaissances ou d’expérience » en IA, et près d’un sur trois affirme que l’IA n’apparaît même pas dans leurs agendas[10].
Dans l’édition de l’été 2025 de la Harvard Business Review, deux professeurs de gestion, Stanislav Shekshnia et Valery Yakubovich, qui enseignent respectivement à l’Insead et à la Wharton Business School publient un article intitulé « Comment les conseils d’administration les plus novateurs utilisent l’intelligence artificielle », dans lequel ils donnent un large écho à ce retard[11]. En menant au cours du second semestre 2024 des groupes de discussion réunissant plus de 50 présidents, vice-présidents et présidents de comités de Conseils d’administration d’entreprises cotées ou non, en Europe, en Asie et en Amérique du Nord, incluant des grandes multinationales comme ASM, Lazard, Nestlé, Novo Nordisk, Randstad, Sandoz, ou Shell, ils montrent que peu d’administrateurs perçoivent le potentiel de l’intelligence artificielle pour les aider à se préparer et à participer à des échanges approfondis, éclairés et stratégiquement orientés avec la direction et leurs collègues du conseil. « Si la plupart reconnaissent volontiers la valeur de l’intelligence artificielle comme outil de productivité individuelle et son rôle clé dans les opérations de l’entreprise, ils hésitent à l’exploiter pour améliorer la performance de leur conseil — à tort ».
2 – Cette frilosité des Conseils vis-à-vis de l’IA est une grave erreur
L’article montre pourtant concrètement comment l’intelligence artificielle peut contribuer au travail des Conseils bien sûr en assistant individuellement les administrateurs, mais aussi en fournissant à l’ensemble du Conseil une information enrichie, voire en participant activement aux délibérations entre administrateurs et avec le management. En particulier, les auteurs nous rappellent que les administrateurs sont des « travailleurs à temps partiel » — à l’IFA, nous utilisons cette formule : « les administrateurs sont des intermittents de la gouvernance ». Quatre professeurs de l’Insead l’écrivent de façon très crue : « Les conseils se réunissent généralement seulement quelques fois par an et les membres n’ont souvent pas le temps de traiter les informations qui leur sont fournies : ils finissent par se concentrer sur le court terme, comme la validation des résultats financiers, et prennent rarement le temps d’envisager des stratégies à long terme »[12].
Ces administrateurs connaissent mal l’entreprise (à l’exception des administrateurs issus du management et des administrateurs représentant les salariés), ou plutôt, ils ne la connaissent pas de l’intérieur, si bien que l’IA est un précieux levier pour traiter l’énorme masse de documents à leur disposition et ainsi réduire l’asymétrie d’information avec le management.
Les études de McKinsey montrent en effet que l’efficacité d’un CA dépend d’abord de sa capacité à acquérir une information complète de façon indépendante. Ainsi, les administrateurs qui considèrent que leur Conseil a un fort impact se distinguent par 5 critères : 20 points de plus sur la recherche d’informations au-delà de ce que fournit la direction (83% vs 63%) ; 19 points de plus sur le suivi d’une formation d’intégration. Le chercheur canadien Martin Petrin, spécialiste en « Corporate Governance & AI » et professeur à la York University met en avant le potentiel de l’IA pour augmenter l’ »intelligence » des CA et les aider à jouer le rôle d’administrateur à part entière[13].
L’article de la HBR conclut cette partie consacrée au manque d’appropriation de l’IA par les administrateurs sur un lapidaire : « That’s a big mistake »[14].
Les auteurs abordent aussi les risques liés à l’usage de l’intelligence artificielle, comme les fuites d’informations ou les échantillons biaisés, mais ils ne les considèrent pas comme insurmontables et proposent des solutions opérationnelles pour les atténuer.
Les CA viennent à l’IA pour de mauvaises raisons. Et comme d’habitude, c’est la conformité qui l’emporte sur la différenciation stratégique ou la recherche de performance globale. Riccardo Rao, doctorant en droit des affaires aux universités d’Udine et de Trieste (Italie), pose la question qui forme le titre de son article publié par le European Corporate Governance Institute (ECGI) : “Are boards ready for AI?”[15]. Et sa réponse est clairement négative. « Il n’est pas étonnant que les régulateurs prêtent attention à l’avenir des Boards et de l’IA. Prenons la nouvelle directive européenne sur l’IA. Elle n’attribue pas directement de devoirs aux Conseils — aucune obligation explicite concernant les administrateurs ou leurs responsabilités fiduciaires. Pourtant, en imposant des cadres de conformité autour de l’évaluation des risques, elle impose de fait, un engagement au niveau du conseil d’administration ».
Il ajoute que les investisseurs sont aussi vigilants. Certains des plus grands fonds de pension américains ont récemment annoncé qu’ils s’opposeraient à la réélection des administrateurs dans des Conseils qui ne surveilleraient pas les risques liés à l’IA de façon suffisamment stricte. Encore la conformité !
Peu de CA, surtout en Europe, ont adopté l’IA pour leur propre usage, considérant que le niveau de management stratégique auquel les administrateurs interviennent les rend insensibles aux apports de l’IA. Mais attention : tout change. Dès 2015, une étude du Forum économique mondial (WEF) menée auprès de 800 cadres exécutifs indiquait que 45% d’entre eux pensaient que, dans le futur, l’IA ferait partie intégrante des CA[16].
Vous pensez que l’IA va impacter essentiellement les emplois à faible qualification pendant que les dirigeants resteront tranquillement indemnes ? Erreur ! En 2023, les professeurs et universitaires allemands Niels Van Quaquebeke et Fabiola H.Gerpott expliquaient que l’IA ne menace pas seulement les postes de cols blancs à faible qualification ou expérience mais allait aussi affecter le sommet des pyramides managériales : « Nous évoluons vers un avenir, où l’intelligence artificielle occupera des postes de direction, » affirmaient-ils[17]. Dès l’introduction de leur étude, ils situent clairement leur ambition : « Notre essai vise à servir d’électrochoc pour de larges pans du monde académique et des pratiques qui idéalisent le leadership humain et pensent que ce bastion ne pourra jamais être dépassé par l’IA ».
L’IA a déjà largement commencé à dévorer des tâches de gestion standardisées, telles que le recrutement, l’évaluation des performances et les décisions de promotion ou de rétention, qui peuvent être prises en charge par des systèmes d’IA, offrant une efficacité et une prévisibilité accrues. L’étape suivante, qui est déjà à l’œuvre, consiste à soutenir les managers dans la motivation et le suivi des employés pour atteindre les objectifs individuels et collectifs. Pour les deux auteurs, les algorithmes pourraient répondre mieux aux besoins psychologiques des employés (autonomie, compétence, relation) que les leaders humains, grâce à leur capacité à fournir des informations transparentes, des retours personnalisés en temps réel, et à faciliter les connexions sociales.
Ils considèrent l’évolution du leadership selon trois étapes :
- NOW : L’IA est utilisée comme outil pour faciliter la communication numérique et gérer les équipes à distance ou hybrides ;
- NEW : L’IA devient un partenaire ou un co-leader, augmentant les capacités des leaders humains en fournissant des recommandations basées sur des données ;
- NEXT : L’IA pourrait remplacer complètement les leaders humains en assumant les fonctions de leadership liées aux tâches, aux relations et aux changements.
Leur approche reste réaliste : « Certes, les fonctions de direction ne devraient pas disparaître. Mais elles connaîtront une transformation radicale. La question à poser n’est donc pas ‘L’IA remplacera-t-elle les dirigeants ?’, mais plutôt ‘Quels types de postes de direction auront encore leur place dans un monde dominé par l’IA ?’ »[18] La réponse de Van Quaquebeke et Gerpott donne à réfléchir. Selon eux, les dirigeants de demain ne superviseront pas les personnes, mais les systèmes qui supervisent les personnes. Leur point de vue convergeait assez bien avec une étude de l’OCDE publiée la même année (2023), indiquant que les tâches des dirigeants d’entreprise sont exposées à l’IA à plus de 80 %.
En 2025, la société de « executive search » Robert Half, qui recrute bon nombre de dirigeants et d’administrateurs des grandes entreprises internationales publiait un tableau récapitulatif sur la redéfinition des fonctions de direction dans son étude prospective intitulée « Boardroom Navigator : Les objectifs du Comité de Direction pour 2035 »[19]. L’impact de l’IA sur les fonctions de direction est vu comme majeur par les dirigeants européens (incluant le Royaume-Uni) interrogés. L’étude va jusqu’à placer la prise de décision stratégique dans les fonctions dont « l’IA prendra le contrôle d’ici 2035 dans les grandes entreprises » ! Martial Simonard m’a judicieusement fait remarquer (LinkedIn, janvier 2026) qu’« on peut y voir ce que les dirigeants projettent, non pas une perte de pouvoir formelle, mais plutôt une perte de monopole cognitif sur la décision et la crainte d’un déclassement progressif du jugement humain dans la fabrique de la stratégie ».

Une étude du BCG publiée en janvier 2026 va dans le même sens. Elle montre qu’aujourd’hui, seuls 10% des 2.360 dirigeants interrogés à travers le monde disent que les systèmes IA dans leur entreprise disposent d’une autorité en prise de décision, mais estiment à 35% que cela sera le cas dans trois ans[20].
Il serait aussi naïf que dangereux de considérer que cette évolution évitera soigneusement d’affecter les Conseils d’administration. Comme l’écrit Riccardo Rao, « certainement, si elle est bien déployée, la technologie d’IA peut accroître la transparence des décisions du conseil, accélérer les processus et en améliorer la précision »[21]. Il s’agit là d’un profond changement puisque les leaders charismatiques laisseront la place à des garants de l’éthique, de l’alignement et de l’intention stratégique. On sera rapidement au cœur de l’activité des CA. On peut aussi anticiper que la gouvernance intégrera la gouvernance des algorithmes.
En avril 2025, quatre chercheurs de Stanford – David Larcker, Amit Seru, Brian Tayan et Laurie Yoler – publiaient un article remarqué sur le Harvard Law School Forum on Corporate Governance, intitulé « The Artificially Intelligent Boardroom ». Il s’intéresse aux impacts de l’IA sur le fonctionnement des CA, notamment le changement dans la façon dont les Conseils traitent l’information, l’évolution des relations avec la direction, le brouillage des lignes entre responsabilités stratégiques et opérationnelles. Il relevait la stratégie comme l’un des terrains d’action des CA potentiellement les plus affectés par l’IA dans un futur proche. « L’IA permettra un accès plus riche aux conseils d’administration et à la direction dans les domaines de la planification de scénarios, des tests d’hypothèses, de l’identification des risques et de la hiérarchie des investissements. Une partie du travail précédemment confié à des consultants en stratégie sera disponible en interne, à un coût et des délais de traitement moindres. Les conseils pourront comparer les recommandations de l’IA à celles des consultants en stratégie externes »[22].
Quelques mois plus tard, les deux auteurs de l’article de la HBR consacré à « Comment les conseils d’administration les plus novateurs utilisent l’intelligence artificielle » montrent que l’IA apporte une réponse pertinente à la volonté de déployer l’analyse stratégique basée sur des scénarios : « La plupart des administrateurs que nous connaissons sont fans de planification par scénarios. Comme l’ont souligné de nombreux experts, ancrer les discussions stratégiques dans des scénarios possibles et des résultats futurs est souvent bien plus productif que de les ancrer dans le statu quo. Pourtant, nous avons observé que peu de conseils pratiquent la planification et l’analyse de scénarios réels. La plupart des présidents de CA justifient cette omission en affirmant que l’exercice serait trop complexe compte tenu des ressources limitées du Conseil. L’IA peut corriger cela, car elle nécessite beaucoup moins de temps qu’une équipe d’experts humains pour identifier et évaluer les changements potentiels des variables sous-jacentes et estimer leur effet probable sur la valeur de l’entreprise. Une étude récente montre que c’est exactement ainsi que les LLM améliorent la performance humaine lors des tâches de prévision »[23].
Deux chercheurs de l’IMD, Didier Cossin et Yukie Saito, vont dans le même sens : « Plutôt que de s’appuyer sur des présentations annuelles, les administrateurs peuvent demander aux systèmes d’IA de créer des scénarios à la demande et d’obtenir des résultats immédiats. Cette capacité à explorer rapidement plusieurs scénarios futurs offre une meilleure prévoyance, et les conseils d’administration explorent de plus en plus l’IA générative pour simuler les défis potentiels de gouvernance et anticiper les résultats avec une clarté sans précédent »[24].
Je pense pour ma part que l’élaboration stratégique, qui nécessite le recensement, l’analyse et le croisement de grandes masses de données internes et externes, se prête particulièrement bien à un traitement par l’IA générative, également bien adaptée à l’analyse prédictive, à la conception de scénarios et à la détermination des moyens (financiers, humains…) nécessaires à leur réalisation. Un chercheur allemand, R. Herse note l’utilisation croissante de l’IA pour l’élaboration stratégique car elle permet « de révéler parmi une masse de données, ce que l’entreprise sait déjà sans savoir en tirer les enseignements »[25].
Les deux auteurs de la HBR signalent un cas fort intéressant, à « imiter » avec les précautions d’usage afin de ne pas limiter la créativité du Conseil : « Certains Conseils utilisent l’IA pour obtenir un retour sur la pertinence de leurs décisions. Un participant au groupe de discussion, Juho, président du conseil d’administration d’une entreprise non cotée en Finlande, a expliqué comment les administrateurs l’ont pratiqué lors d’un séminaire stratégique en 2024. Pendant deux jours, les membres du conseil d’administration et les cadres supérieurs ont débattu de l’orientation stratégique de l’entreprise lors d’une discussion semi-structurée qui a analysé divers scénarios. Une fois terminé, ils ont transmis leurs documents de préparation à ChatGPT et lui ont demandé de sélectionner la meilleure option. Le LLM a produit des réponses similaires à celles générées par le conseil d’administration et la direction. Selon Juho, l’exercice a eu un double effet positif : la confirmation que le CA avait bien travaillé et la crédibilité de l’IA. Il prévoit d’utiliser plus largement les outils d’IA à l’avenir »[26]. On observe au passage que cette expérience montre que l’IA ne supprime pas les biais de confirmation !
Niels Van Quaquebeke et Fabiola H.Gerpott pensent pour leur part à une évidente utilisation de l’IA pour élaborer des plans de communication de la stratégie auprès des différentes audiences intéressées[27]. ChangeNOW va plus loin : « La technologie a également un rôle crucial à jouer [au service des Conseils]. L’IA et l’analyse avancée peuvent soutenir une meilleure prise de décision en aidant les conseils à identifier des signaux faibles, à générer des aperçus prédictifs et à visualiser des scénarios futurs – en particulier lorsqu’ils sont associés à des indicateurs ESG clairs et des tableaux de bord d’impact »[28].
Bien sûr, il faut raison garder et rester conscient des limites de l’IA dans ce domaine car les modèles actuels ne peuvent pas penser de manière créative et générer de nouvelles perspectives, estime Ahsan Shah, vice-président IA et analytique chez Billtrust, un fournisseur de logiciels de facturation : « L’IA est excellente pour analyser les données et repérer les tendances, mais la véritable planification stratégique nécessite une compréhension de la culture d’entreprise, des relations en interne, du comportement du marché et de la concurrence que l’IA ne possède pas encore, dit-il. L’IA ne connaît pas le problème exact de votre entreprise »[29]. Giovanni Costa, Professeur émérite à l’Université de Padova (Italie) met l’accent sur le sens dans un article de la revue Question(s) de Management : « L’intelligence artificielle promet d’étendre les limites [humaines] en capturant, mémorisant et traitant une quantité de données colossale. Elle augmente l’efficience des processus mais n’améliore pas nécessairement la qualité des décisions stratégiques. Pourquoi ? Parce que le management stratégique exige plus qu’un traitement algorithmique : il nécessite du sens, une qualité que seule l’intervention humaine peut générer pour orienter l’action collective »[30].
Mais il faut aussi reconnaître qu’au-delà de la question de la stratégie, l’IA reconfigure des domaines entiers sur lesquels le Conseil est investi : maîtrise des risques, évaluation, contrôle des process, détection des anomalies, prévention des fraudes et des conflits d’intérêts, audit, conformité, éthique, évolution des compétences, empreinte écologique,…
Des auteurs universitaires envisagent des cas d’usage prometteurs de l’IA dans les CA : la synthèse problématisée des documents remis au Conseil, l’établissement de l’allocation optimale du capital pour les activités de R&D, l’analyse du marché pour de nouveaux compétiteurs, l’analyse des communications internes afin d’évaluer le moral organisationnel et de diminuer la rotation du personnel, l’estimation de la réputation à l’aide de l’écoute sociale, l’évaluation de l’impact sur le développement des produits selon le changement des préférences des consommateurs, l’identification des cibles potentielles pour les acquisitions qui seraient alignées sur la stratégie d’affaires de l’entreprise, l’audit en continu des données sensibles, etc[31].
Dans le domaine de la RSE, un auteur met en avant les avantages de l’IA pour « faire parler » l’avalanche des données ESG présentées au CA, optimiser l’efficience énergétique, utiliser les ressources de façon plus efficace et améliorer l’efficacité de la gestion des déchets[32].
Selon le chercheur canadien Martin Petrin, l’IA pourrait jouer trois rôles en matière de gouvernance, au côté des administrateurs (voir le schéma ci-dessous) : assistante, conseillère et actrice autonome.
- L’IA assistante n’a pas ou a très peu d’autonomie. Elle sait exécuter des tâches très spécifiques, telles la prise de notes et la préparation de rapports, et ne prend aucune décision par elle-même.
- L’IA conseillère possède plus d’autonomie et peut offrir un support dans la prise des décisions plus complexes, en posant des questions, en offrant des réponses et en construisant des scénarios et des simulations.
- L’IA actrice autonome est une actrice en soi, capable d’évaluer les options et de prendre des décisions sans intervention de la part des humains.
L’apparition éventuelle de ce troisième rôle est controversée, même si pour certains auteurs, dont Martin Petrin, il n’est pas impossible que l’IA, qui aujourd’hui génère et suggère des décisions expertes aux humains hautement qualifiés, puisse dans un avenir rapproché prendre ces décisions de façon autonome[33]. Mais dans ce cas, on peut supposer qu’une telle situation remettrait totalement en cause la configuration de la gouvernance telle que nous la connaissons aujourd’hui, y compris l’existence et les rôles respectifs des CA et des Comex ou Codir.

Je laisse la conclusion de cette section à ChangeNOW : « L’incapacité à exploiter les outils numériques au niveau du Conseil est devenue un handicap stratégique. Et les conseils qui négligent le rôle stratégique des outils numériques risquent de prendre du retard — non seulement en termes de performance, mais aussi en transparence, confiance et légitimité »[34].
3 – Les Conseils en France sont particulièrement en retard dans leur prise en main de l’IA
De façon générale, les CA en France sont étrangement inertes face à la montée des enjeux posés par l’IA. L’IFA et Ethics & Boards ont pris l’excellente initiative d’intégrer l’IA à la 9ème édition de leur baromètre annuel de la gouvernance responsable, publié en septembre 2025[35]. Trois indicateurs sont retenus permettant de comparer la France (entreprises de l’indice SBF120), la Grande Bretagne (FTSE100) et l’Allemagne (HDAX). Ce sont plutôt les entreprises britanniques qui mènent la danse : 44% des CA ont explicitement l’un de leurs comités en charge de l’IA contre seulement 28% des CA en France et 29% en Allemagne. Seuls 14% des CA britanniques ont déclaré explicitement une formation collective du Conseil sur l’IA, ce qui n’est pas beaucoup… mais quand même mieux que leurs homologues français et allemands (10% chacun). En revanche, pour ce qui est des compétences explicitement déclarées des Conseils, les CA britanniques n’atteignent que 5% pour les compétences en IA contre 9% pour les CA allemands et 11% pour les français.

Fin 2024, le quotidien Les Echos publiait un article intitulé « Les conseils d’administration peinent à se saisir des sujets liés à l’intelligence artificielle », dans lequel il relevait, s’appuyant sur les données d’une étude de Heidrick & Struggles, que « moins de la moitié des administrateurs se sent capable d’appréhender les implications de la montée en puissance de l’intelligence artificielle »[36]. Voilà qui pose problème s’agissant de l’instance en charge de la stratégie et du long terme.
Les deux auteurs de l’article de la HBR intitulé « Comment les conseils d’administration les plus novateurs utilisent l’intelligence artificielle » relèvent l’émergence de pratiques nouvelles : « alors que la plupart des participants à nos groupes de discussion étaient sceptiques quant à l’utilisation de l’IA dans leurs travaux de conseil, un nombre significatif a partagé des expériences positives liées à l’utilisation de l’IA ». Ils donnent de nombreux exemples mais on peut relever que la nationalité des entreprises concernées, lorsqu’elle est mentionnée, est la suivante (dans l’ordre d’apparition) : Danemark, Suisse (à deux reprises), Autriche, Finlande, Emirats Arabes Unis, Pays-Bas, Etats-Unis, Belgique. Aucune entreprise française n’est mentionnée[37].
Une autre façon d’estimer le degré de maturité des CA des entreprises françaises est de regarder où en sont les plus grandes, les plus charpentées en gouvernance : les 40 valeurs du fameux indice CAC40. Pour la 6ème année consécutive le FIR (Forum pour l’Investissement Responsable) a publié son rapport d’engagement sur les entreprises du CAC 40 en janvier 2026 et a eu la bonne idée d’intégrer à son questionnaire des demandes sur la gouvernance de l’intelligence artificielle[38]. Même dans ces très grandes entreprises, les analyses d’impact sont très lacunaires : « Les impacts sociaux de l’IA sont abordés de manière substantielle par 19 entreprises, révélant une sensibilité croissante aux transformations du travail, mais avec une focalisation sur les enjeux de formation au détriment d’une réflexion prospective sur l’évolution des métiers ». Les analyses d’impact, lorsqu’elles existent, sont généralement menées en silo, même si « Kering se distingue par sa capacité à identifier clairement les enjeux environnementaux, sociaux et éthiques liés à l’IA dans une approche intégrée ».
Les questions éthiques sont traitées en détail par 5 entreprises seulement et « les approches varient de la simple conformité réglementaire à la mise en place de comités d’éthique dédiés ». Finalement, en conclusion, on se cherche : « L’analyse des dispositifs de gouvernance révèle une diversité d’approches organisationnelles, témoignant de la recherche en cours du modèle optimal ». Et pourtant, « la structuration de la gouvernance de l’IA responsable au niveau des instances dirigeantes apparaît comme un facteur déterminant de succès ».
Les Conseils en France restent extrêmement frileux dans leur adoption de l’IA pour leur propre fonctionnement. Selon l’enquête publiée en avril 2025 par le fournisseur de plateformes d’IA Dataiku, une proportion significative des directeurs généraux (DG) interrogés s’exprime sur leur volonté de développer la maîtrise de l’IA au sein de « leur » CA : 31% des DG dans le monde (et 36% des DG d’entreprises françaises, la proportion la plus élevée parmi les 4 pays couverts par l’étude) considèrent que l’expérience dans le management ou le déploiement réussi d’une stratégie IA sera une compétence essentielle pour les Conseils d’administration d’ici 3 à 4 ans pour leur permettre de choisir judicieusement un nouveau DG[39].
Ils considèrent être déjà fortement engagés eux-mêmes : 83% des DG (CEOs) dans le monde (et 89% des DG d’entreprises françaises, là encore la proportion la plus élevée parmi les 4 pays couverts par l’étude) considèrent que leur implication directe dans les décisions de leur entreprise relatives à l’IA s’est accrue dans les 12 derniers mois. A tel point que 68% des DG dans le monde (et 69% des DG d’entreprises françaises) disent participer à plus de la moitié des décisions de leur entreprise relatives à l’IA.
L’IFA a publié un rapport intéressant en septembre 2025 pour faire le point sur l’utilisation de l’IA par les secrétaires de Conseil en France[40]. Cette analyse est judicieuse car les secrétaires de Conseil sont les clients naturels de l’IA comme le relève le rapport : « si on conçoit l’IA comme un outil devant conduire à une meilleure prise de décision, alors l’IA peut se révéler être un puissant allié du secrétaire de conseil qui a pour fonction principale de contribuer à une prise de décision éclairée du conseil notamment dans la définition et la mise en œuvre de la stratégie de la société ». Qu’en est-il alors de l’appropriation de l’IA par les secrétaires de Conseil ? Avec pudeur, le rapport souligne « le stade encore très précoce de réflexion sur l’usage de l’intelligence artificielle par les secrétaires de conseil ». Avec délicatesse, il constate que « les résultats de la consultation menée auprès des secrétaires de conseil ont tendance à montrer que le sujet n’est pas encore pleinement structuré au sein des instances de gouvernance ».
Les opportunités offertes par l’IA sont essentiellement vues comme l’automatisation des tâches administratives et répétitives (préparation des réunions, convocations, ordres du jour, rédaction et diffusion des procès-verbaux, suivi des actions, gestion des agendas, organisation des dossiers préparatoires, recueil des documents nécessaires, y compris la veille, relance des participants) et l’appui à la communication. La contribution à l’élaboration stratégique, pourtant déjà pratiquée par de nombreux Conseils en Europe et dans le monde anglo-saxon, n’est vue qu’avec une grande distance.
L’année précédente, l’IFA avait procédé à une analyse beaucoup plus large avec un guide préparé par un groupe de travail dédié et sa Commission prospective et recherche intitulé « Les systèmes d’intelligence artificielle et les conseils d’administration »[41]. Ce guide « vise à accompagner la montée en compétences des administrateurs dans l’exercice de leurs responsabilités sur l’ensemble des registres de la gouvernance ». Il met clairement l’accent sur la nécessité d’un rattrapage : « la conviction principale du groupe de travail est qu’il est urgent que la plupart des conseils prennent pleinement conscience de leurs responsabilités face aux enjeux numériques, singulièrement des SIA [systèmes d’intelligence artificielle] ».
Ce guide est un outil indispensable pour les Conseils qui souhaitent prendre en main les enjeux de l’IA. Il s’appuie sur des auditions et une importante revue de littérature, utile et souvent savoureuse, mais aussi sur les résultats d’un sondage en ligne auprès des adhérents de l’IFA réalisé à l’automne 2023 (246 réponses exploitables). Il propose aux Conseils d’adopter une démarche en trois temps, très holistique, que je trouve fort pertinente : d’abord se former individuellement et collégialement et organiser une veille adaptée aux enjeux ; ensuite contribuer à enrichir la gouvernance en étant proactifs sur les enjeux multiformes des systèmes d’intelligence artificielle ; et enfin « veiller à ce que les conseils consacrent du temps aux questions prospectives et à leur propre transformation à moyen terme, sans focalisation exclusive sur les SIA ».
C’est dans ce troisième temps qu’apparaît ma divergence puisque le guide qualifie le sujet de la numérisation du fonctionnement même des Conseils de « marginale ». De fait, la partie consacrée à « la transformation des conseils eux-mêmes » représente 3 pages (sur les 108 pages du document). Le guide justifie cette brièveté par le caractère émergent de ces pratiques : « peu d’éléments concrets – hormis quelques cas de SIA médiatisés – ont été identifiés à ce jour s’agissant de l’utilisation concrète de SIA par les conseils ». Il me semble au contraire – et j’espère que les auteurs ne m’en voudront pas – que ce caractère émergent justifierait qu’on se penche sur les exemples qui existent à l’étranger ou sur les bons exemples qui existent déjà en France.
Par ailleurs, les usages recommandés par le guide sont très basiques : veille réglementaire et technologique, documentation, synthèse de documents, préparation des procès-verbaux. Heureusement, l’IA peut apporter beaucoup aux Conseils sur des domaines autrement plus stratégiques. Il faut d’ailleurs aller consulter l’annexe du guide consacrée au sondage pour se rendre compte que 11% des adhérents IFA qui ont répondu au questionnaire ont mentionné l’existence dans leur Conseil de pratiques d’utilisation de l’IA pour la formulation d’alternatives ou d’options stratégiques.
Il me semble légitime de relever une contradiction fondamentale. Le guide de l’IFA constate avec raison que les entreprises défrichent les opportunités apportées par l’IA par une approche terrain, celle des cas d’usage. Il développe d’ailleurs un exemple concret très intéressant (cas du groupe d’ingénierie Egis). Il recommande aux administrateurs de se pencher sur ces cas d’usage, d’évaluer leur ambition de transformation, leur balance coûts/bénéfices, de se prononcer sur leur degré de priorité. Mais en revanche, il ne s’intéresse pas aux cas d’usage qui pourraient participer à la transformation du CA lui-même.
Or l’un ne va pas sans l’autre. Comme le disent malicieusement nos collègues australiens en introduction de l’excellent guide qu’ils ont publié en décembre 2025, « alors que les organisations du monde entier intègrent l’IA dans leurs opérations et stratégies commerciales, les discussions dans les CA évoluent de ‘comment gouverner l’IA’ à ‘comment l’IA peut-elle nous aider à gouverner’ ? »[42]. Les deux auteurs de l’article de la HBR consacré à « Comment les conseils d’administration les plus novateurs utilisent l’intelligence artificielle » l’écrivent d’une formule lapidaire : « Lorsque les dirigeants promeuvent l’IA pour un usage au sein de l’entreprise mais sont réticents à l’adopter eux-mêmes, les équipes y réfléchiront à deux fois avant de s’y engager »[43].
Le sondage réalisé à l’occasion de ce Guide de l’IFA confirme le retard des Conseils en France, sachant que les adhérents de l’IFA qui en constituent l’échantillon, sont plutôt plus formés, plus avancés sur les pratiques de gouvernance que la « moyenne » des administrateurs en France. Le Guide évoque « une perception de retards considérables au premier chef dans la digitalisation, y compris dans des entreprises du CAC 40, retards selon toute vraisemblance plus aigus sur les SIA ». Parmi les résultats chiffrés, j’en retiens trois qui me semblent particulièrement significatifs :
- Seuls 9 % des répondants estiment que leur entreprise/ organisation est en avance par rapport aux autres entreprises concurrentes ou organisations comparables quant à la prise en compte de l’impact des systèmes d’IA sur sa stratégie.
- Seuls 24 % estiment « qu’un ou plusieurs des administrateurs de (leur) Conseil sont particulièrement bien formés/informés sur les SIA et apportent au Conseil toute l’expertise nécessaire en complément à celle du management ».
- Même pour les Conseils qui ont abordé les enjeux de l’IA en séance plénière ou au sein du comité concerné, des sujets majeurs n’ont été traités que par une minorité d’entre eux : les compétences nécessaires hors technologie et marketing pour affronter les défis des SIA (compétences juridiques, humaines, sociologiques, éthiques…) par 27 %, l’analyse des risques éthiques par 26 %, le plan de transformation avec un volet d’investissement le rendant crédible par 22 % ou l’analyse des risques réputationnels pour 14 %.
Bien sûr, il y a des initiatives en France, mais elles sont exploratoires. Dès 2022, la Heart Leadership University (HLU), a décidé d’investir le sujet de l’impact de l’IA sur la fonction de dirigeant et d’administrateur, en collaboration avec le Centre des Jeunes dirigeants (CJD) en lançant une démarche de recherche-exploration dédiée pour interroger la façon dont le développement de l’IA pourrait influer sur la prise de décision à l’avenir et les marges de manœuvre des dirigeants[44]. Elle s’est associée pour ce faire à Futuribles, qui est à mon sens ce qui se fait de mieux en France en matière de prospective. Longue vie à cette initiative !
Mais ailleurs, certaines entreprises sont déjà passées à l’acte, et depuis longtemps. En 2014, bien avant que l’on commence à parler de l’IA générative, la société de capital-risque Deep Knowledge Ventures, basée à Hong Kong, a nommé une IA à son Conseil d’administration. « Baptisé Vital, ce membre à part entière dispose d’une voix au même titre que les autres. Incorruptible, impartial, rapide, disponible à toute heure, il a pour mission de collecter, de trier et d’analyser en temps réel une quantité gigantesque de données afin d’identifier les investissements les plus prometteurs »[45]. Mais est-on vraiment dans la stratégie ? « Plus opérationnelles que stratèges, les machines savantes sont capables de processer une information bien plus importante que les humains. Un certain nombre de décisions, basées sur l’intégration de paramètres variés, peuvent donc être prises par elles. Mais le rôle d’un dirigeant ne se limite pas à cela », insiste Bruno Bonnell, président des sociétés de robotique Robopolis et Awabot, et auteur du livre Viva la Robolution ![46].
Au-delà de l’anecdote, le cas de Deep Knowledge Ventures est intéressant car il montre l’impact réel de l’IA, derrière les messages marketing souvent elliptiques. La société avait « fait le buzz » en annonçant « nommer une IA à son Conseil ». Mais en fait, derrière cette proclamation, la réalité est moins sensationnelle : cette IA ne « remplaçait » pas un administrateur. L’algorithme analysait de grandes quantités de données sur les opportunités d’investissement, sur la base de critères établis par les humains et en déduisait une liste de recommandations, qui faisait ensuite l’objet d’analyses et de décisions par les membres du CA. On gagne du temps sur la constitution d’une liste préférentielle, mais la délibération et la décision humaines conservent leur place !
En 2016, l’entreprise Tieto (Finlande) a nommé une IA, nommée Alicia T., en tant que membre de l’équipe de direction avec le droit de vote dans la prise des décisions[47]. En 2018, Mark Benioff, le Chairman et CEO de Salesforce, a rapporté qu’une IA nommée Einstein participe aux réunions hebdomadaires avec les cadres supérieurs et se prononce sur leurs rapports. En 2022, l’entreprise chinoise NetDragon a nommé Mme Tang Yu, un robot humanoïde basé sur l’IA, au poste de PDG. Le PDG robot est capable d’approuver les décisions, de signer des documents, de gérer des projets, d’évaluer la performance du personnel et de décider des sanctions. Dans toutes ces expériences, il est difficile de faire la part des choses entre la gouvernance et la propagande elliptique.
Un autre cas plus récent et tout aussi médiatisé est celui d’International Holding Company, la plus importante des entreprises des Émirats Arabes Unis cotées en Bourse. En février 2024, elle a annoncé qu’elle nommait un « observateur IA » au sein de son Conseil d’administration. Connue sous le nom d’Aiden Insight, cette entité virtuelle assiste aux réunions mais n’a pas de droit de vote, précise l’entreprise. Aiden Insight est en fait la « personnification » de l’outil informatique BoardNavigator, développé par G42, une entreprise émiratie qui a noué un partenariat avec Microsoft. G42 promet qu’Aiden Insight va fournir « des informations en temps réel pour alimenter les discussions et aider à la prise de décision lors des réunions, une assistance rendue possible grâce à une analyse continue des données ainsi qu’à une veille des réglementations et du cadre éthique »[48]. En septembre 2024, la firme canadienne Realbotix a annoncé la nomination d’Aria, un robot doté d’intelligence artificielle (IA), comme conseillère stratégique. Il faut dire que Realbotix fabrique des robots et conçoit des systèmes d’IA…
Tous ces exemples, très marketing, ont pour inconvénient de propager la crainte ridicule selon laquelle des robots pourraient remplacer les membres du Conseil. En dehors des impossibilités juridiques – dans la plupart des juridictions du monde (dont la France et les Etats-Unis), un administrateur doit légalement être une personne physique – personne ne l’envisage sérieusement dans un futur à portée de cerveau ! Mais cette crainte masque l’objectif réel qui est de mieux équiper les administrateurs pour les aider à remplir leur mission plus efficacement.
Le monde anglo-saxon est largement en avance. Chez Salesforce, Einstein évoqué ci-dessus a été promu et s’appelle désormais Einstein GPT. Il permet d’analyser les données ESG de l’entreprise et de prioriser les sujets à aborder lors des réunions du Conseil. La banque américaine JPMorgan, avec son système COiN, automatise la lecture des contrats juridiques, économisant plus de 360.000 heures de travail chaque année. Chez Unilever, une IA interne modélise l’impact des décisions à long terme sur les ODD (Objectifs de Développement Durable). Et chez Bridgewater, les scénarios géopolitiques extrêmes sont simulés par des systèmes d’intelligence artificielle afin d’anticiper les vulnérabilités de gouvernance. Une nouvelle génération d’outils spécialisés est en train de se diffuser dans les salles de Conseil : plateformes comme Diligent Boards, BoardNavigator ou Nasdaq Boardvantage, sans compter les efforts de Microsoft avec Copilot for Boards.
4 – Les Conseils doivent faire preuve de proactivité maîtrisée vis-à-vis de l’IA : les 7 principes essentiels
Il me semble qu’ici, le mot clé est celui de discernement. Et le discernement est quelque chose de plus que la simple intuition, perspicacité ou clairvoyance (voir : « Le discernement, une compétence clé pour la RSE »).
Le discernement conduit à constater que même Niels Van Quaquebeke et Fabiola H.Gerpott, dont nous avons apprécié plus haut l’enthousiasme vis-à-vis de l’IA dans le leadership et la gouvernance, alertent sur les risques éthiques liés à l’utilisation de l’IA, notamment la reproduction de biais existants et la dilution des responsabilités. Ils appellent à une réflexion approfondie sur la gouvernance éthique des décisions prises par l’IA.

A mon sens, il y a 7 principes essentiels à mettre en musique pour bien conduire la démarche au sein du Conseil.
a) Débusquer les biais et instiller de l’éthique
La responsabilité de la gouvernance est évidente. Pour Eric Salobir, président du comité exécutif de Human Technology Foundation, « le niveau de la responsabilité éthique des entreprises est en train de changer avec une utilisation plus massive des IA génératives ». Estimant que « chaque collaborateur étant capable du meilleur comme du pire, c’est à la gouvernance que revient la responsabilité de l’encadrement »[49].
Mais qui peut encore se fier à la promesse d’objectivité algorithmique ? Elle n’est pas plus tangible que celle de l’objectivité humaine, car les biais ne sont pas l’apanage de la seule IA ! En réalité, l’IA tend à reproduire des biais humains et les préjugés inscrits dans ses données historiques. En 2018, Amazon a ainsi dû interrompre un système IA de recrutement qui favorisait les candidatures masculines, illustrant comment l’automatisation peut renforcer, plutôt que corriger, des déséquilibres existants. Une étude de 2023 conduite par la MIT Sloan School of Management confirmait d’ailleurs que 40 % des IA utilisées pour sélectionner des candidats aux Conseils reproduisaient ces mêmes biais, au lieu de les neutraliser[50].
Un Conseil d’administration se place au milieu d’une chaîne de relation en recherchant un double alignement : d’un côté avec les parties prenantes (dont les actionnaires, mais pas seulement), de l’autre côté avec le management exécutif de l’entreprise. Le Conseil doit réguler les échanges entre ces trois entités et rechercher les équilibres. Mais selon la façon dont elle est entraînée, une IA peut provoquer de graves déséquilibres. Par ailleurs, comme l’affirme Riccardo Rao que nous avons évoqué plus haut, « comme les administrateurs humains, les machines peuvent poursuivre leurs propres objectifs — ou plus probablement, refléter les biais de ceux qui les ont conçues ».
C’est pourquoi le CA doit exiger la transparence des modèles algorithmiques déployés – là encore avec discernement bien sûr : il existe déjà dans votre entreprise des systèmes que les humains ne comprennent pas ou dont ils ne savent pas complètement retracer la logique – voir par exemple cette macro complexe dans votre système de contrôle de gestion appelée « la boite noire » ou cette obscure règle de calcul du risque de « churn » de vos clients dans votre CRM[51]. La « gouvernance augmentée » permise par l’IA exige en retour des garde-fous rigoureux. Orange a montré la voie en faisant remonter la question d’un usage éthique de l’IA des comités jusqu’au board, donnant lieu à l’adoption d’une charte dédiée.
Le CA doit créer des moments et/ou des lieux pour traiter les problèmes d’éthique soulevés par l’IA, à l’abri des tensions du quotidien. J’extrais cette phrase impeccable du Guide de l’IFA : « Approfondir et enrichir les approches sur l’éthique est indispensable vu la complexité et l’ampleur des sujets, qui peuvent toucher jusqu’à la dignité humaine, et les risques induits de dégradation de l’indispensable et fragile capital confiance »[52]. Là encore, des bonnes pratiques existent mais surtout dans le monde anglo-saxon. Le guide de l’IFA développe le cas de l’entreprise de logiciels américaine Salesforce. Autre exemple américain, Adobe a intégré des experts externes dans son AI Ethics Advisory Council, pour éviter « la régulation entre soi ».
Une belle exception en France : le Groupe La Poste. Lors du Giverny du Numérique, Mariam Warsama, directrice RSE de Docaposte, a expliqué que « c’est la mise en place d’un comité éthique composé de sociologues, d’experts de l’éducation, de la data et de l’IA qui a permis de renforcer [leur] gouvernance ». Elle conclut, « 1 français sur 2 dit ne pas avoir confiance dans les outils numériques du quotidien : nous avons la mission de promouvoir les bonnes pratiques auprès du grand public »[53].
Les enjeux de protection des données personnelles sont également souvent sous-estimés dans les projets de diffusion de l’IA.
b) Ne pas laisser la surcharge mentale annihiler la créativité et l’exploration
Les quatre chercheurs de Stanford auteurs de « The Artificially Intelligent Boardroom » montrent que l’IA réduit les asymétries d’information entre la direction et le Conseil, mais aussi qu’elle accroît en parallèle la pression cognitive, juridique et stratégique qui pèse sur les administrateurs. Cette pression se caractérise par une surcharge d’informations, de données prospectives, de scénarios stratégiques, de signaux d’alerte, d’outils d’analyse, qui peuvent tétaniser ou submerger le Conseil, produire un risque de paralysie cognitive et obérer sa nécessaire prise de recul. Par ailleurs, les modèles d’analyse utilisés restent entraînés sur des données passées, et reproduisent donc souvent des logiques d’optimisation historique susceptibles d’inhiber la créativité stratégique.
Comme les administrateurs sont souvent appelés à prendre des décisions d’une complexité supérieure et sans précédent pour l’entreprise, Steven Boivie et ses co-auteurs (2016) indiquent que plusieurs facteurs, tant au niveau des administrateurs individuels qu’au niveau des groupes et de l’entreprise, peuvent empêcher les CA d’être efficaces dans leur rôle. Il s’agit, entre autres, des limites de la capacité des administrateurs, individuelle et combinée, à traiter l’information complexe ou en gros volume. Une telle surcharge cognitive est encore plus importante quand les administrateurs occupent des emplois à temps plein, parfois en tant que PDG, dans d’autres organisations, qu’ils ont des réseaux élargis et des mandats au sein d’autres Conseils[54]. Ce problème de surcharge cognitive a également été soulevé dans l’étude de Merendino et ses co-auteurs (2018) sur les impacts du Big Data sur le processus de la prise de décision au sein des CA[55].
Mais à l’inverse, les deux auteurs de l’article de la HBR intitulé « Comment les conseils d’administration les plus novateurs utilisent l’intelligence artificielle » montrent que l’IA peut permettre au Conseil d’améliorer sa créativité collective en utilisant cette technologie pour susciter et suggérer des améliorations dans le fonctionnement du Conseil :
« L’IA peut analyser les processus du conseil d’administration. Le conseil d’administration d’une entreprise industrielle suisse utilise l’IA pour analyser la dynamique de groupe au sein du Conseil, le temps de parole pris par chacun des membres et même le ton de la conversation lors des réunions. L’outil fournit ensuite des recommandations d’amélioration. Par exemple, après une réunion, il a conseillé au conseil d’administration de « commencer la réunion en donnant à chaque administrateur deux minutes pour exprimer ses attentes et ses préoccupations », « réduire de 20 % le temps consacré aux présentations de gestion », « donner plus de temps de parole aux administrateurs X et Y, réduire celui de l’administrateur Z » et « éviter d’utiliser des expressions telles que ‘allez’ et ‘comme chacun sait’ »[56].
Utilisé avant les réunions du CA (en individuel) ou pendant (en collectif), l’IA peut jouer le rôle d’un « sparring partner cognitif », qui prend sa place dans les débats, à la manière d’un partenaire de codéveloppement. Elle ne remplace ni le facilitateur ni le collectif, mais agit comme un miroir impartial, capable de détecter les biais et de tenir un rôle d’importance majeure dans le CA : être celle qui s’autorise à poser les questions que personne n’ose formuler.
c) Ne pas abdiquer la responsabilité sur les décisions et ne pas céder à l’illusion du nirvana technologique
Pour assumer son rôle de contrôle et de supervision, le CA doit comprendre le caractère systémique de l’IA. Ainsi, la qualité des productions de l’IA est étroitement dépendante de celle des données qu’elle exploite : « garbage in garbage out » — ou GIGO en abrégé –, disait-on dans les années 2000. « L’IA ne vaut que par les données qui le sous-tendent, » disait justement Amy Lockey, Chief expérience officer chez Service Now fin 2024[57]. Le CA doit donc examiner comment le management de l’entreprise s’assure de la qualité des algorithmes mais aussi de celle des données, ce qu’on appelle « la gouvernance des data ». Et ce n’est pas simple…
Dans son papier de l’ECGI, Riccardo Rao pointe un autre risque : « la tentation de penser que l’IA corrigera l’erreur humaine ; que les problèmes classiques de gouvernance d’entreprise — biais, problèmes d’agence, conflits d’intérêts, asymétries d’information —s’effacent sous la logique froide des machines »[58]. Il fait écho aux recherches des professeurs Luca Enriques (université Bocconi) et Dirk Zetzsche (université du Luxembourg), qui mettent en garde contre cet optimisme, qu’ils appellent la « Tech Nirvana Fallacy » ou « l’illusion du nirvana technologique » : le faux espoir que la technologie va résoudre tous les problèmes de gouvernance d’entreprise[59].
Le CA doit aussi être très attentif à la façon dont l’introduction de l’IA dans ses travaux, que j’appelle de mes vœux, est conduite. En effet, le danger de l’IA est de niveler les prises de décision en imposant une vue d’autorité. Or, la force d’un CA ne réside pas dans sa capacité à confirmer, mais dans sa capacité à contester, à challenger, à réorienter. Comme l’écrit justement Frédéric Gaven dans Atlantico, « ce rôle critique, cette fonction agonistique, est précisément ce que l’IA ne reproduit pas. L’IA éclaire, reformule, suggère – mais elle ne contredit jamais. Elle n’exerce pas cette friction vitale qu’est le désaccord. Et sans cet espace de contradiction vivante, la gouvernance risque de perdre sa nature même : celle d’un lieu où l’on débat, où l’on tranche, où l’on décide ensemble – et non où l’on applique simplement des logiques optimisées »[60].
Un autre défi immédiat réside dans la responsabilité. Si l’IA aide les administrateurs à prendre des décisions — ou à les prendre de manière indépendante — à qui appartiennent ces décisions ? Dans un entretien pour l’ECGI, la professeure Katja Langenbucher, chercheuse à la Goethe University/House of Finance (Frankfurt) insiste justement sur la « propriété » des décisions du Conseil : les administrateurs sont censés « assumer » leurs décisions, ce qui signifie qu’ils ne peuvent pas abdiquer leur autorité, se défausser sur un corps étranger qu’est l’IA.
Votre Conseil a-t-il entamé une réflexion sur ce sujet ? Quelles seraient les réactions de vos actionnaires en cas de problème ? Pour Katja Langenbucher, « les actionnaires pourraient être tout aussi critiques envers des Conseils qui se révèleraient trop dépendants de l’IA qu’envers ceux qui ne l’utilisent pas ». Ce qui compte, c’est l’utilisation qu’on fait de l’IA et la façon dont le CA exerce – ou non – sa responsabilité de contrôle, de supervision, mais aussi d’entraînement.
d) Veiller à la formation des administrateurs, en tant que collectif
Il faut aussi, bien sûr, que les administrateurs soient suffisamment formés. Tout commence par là… et il semblerait, au vu du sondage conduit par l’IFA auprès de ses adhérents, que beaucoup reste à faire : seuls 10% ont bénéficié de formations organisées par la direction sur les enjeux des systèmes d’IA et 86% estiment avoir besoin de formations sur les systèmes d’IA[61].
Un premier niveau de sensibilisation et de formation est indispensable pour comprendre les apports et les limites de l’IA. Katja Langenbucher résume parfaitement ces dernières : « Le Conseil doit comprendre les différences entre la cognition humaine et le fonctionnement interne d’une IA. Les IA sont des ‘machines d’induction’, qui reconnaissent des schémas récurrents dans les données historiques. Les humains sont des penseurs conceptuels. Ils construisent des hypothèses et cherchent à établir la causalité. De bonnes décisions stratégiques de conseil sont une combinaison des deux approches. L’IA apporte des avis, sert de caisse de résonance ou défie la pensée de groupe entre les membres du conseil ».
Un premier point sur lequel j’insiste beaucoup (et le Guide de l’IFA le fait aussi) : les formations individuelles sont utiles mais le CA doit aussi se former en tant que collectif, agissant collégialement. C’est ainsi que la formation peut jouer son rôle de création d’un socle de compétences partagées et d’une grammaire commune permettant des échanges fructueux.
Second point majeur : trop de CA qui font l’effort de se former adoptent une démarche trop technique. L’enjeu pour les administrateurs n’est pas de maîtriser la technique des systèmes d’IA mais de comprendre comment l’IA peut faire levier pour les transformations, puis le passage à l’échelle, comment elle est susceptible d’influencer l’entreprise, ses process, sa culture, sa dynamique concurrentielle et les risques et opportunités qui en découlent.
e) Prévenir le risque de vulnérabilité technologique
Le risque de vulnérabilité doit être pris en compte, comme le souligne Riccardo Rao : « Une utilisation excessive de l’IA peut accroître les menaces en matière de cybersécurité, rendant les entreprises — et les conseils d’administration — plus vulnérables aux attaques des hackers et au risque réputationnel qui en découle. Plusieurs études montrent que les marchés punissent les entreprises qui ne gèrent pas correctement la cybersécurité »[62].
Il souligne que plusieurs entreprises – dont Boeing, eBay, Dell Technologies – ont tenté de circonvenir ce risque en annonçant la nomination d’un Chief AI Officer (ou CAIO), doté de pouvoirs étendus et pose la question : ce rôle devrait-il être étendu au Conseil ? Certains Conseils peuvent penser que faire appel à un « expert en IA » résout le problème de gouvernance et cela semble certainement positif en termes d’effet d’annonce dans le rapport annuel et pourrait rassurer les investisseurs à court terme. Cependant l’impact de ce type d’organisation est à relativiser selon lui.
Une autre question de vulnérabilité technologique est celle de la souveraineté de l’infrastructure IA. Compte tenu de la montée impressionnante des tensions entre Europe et Etats-Unis, cette question prend une acuité nouvelle. Comme l’écrit l’expert Singapourien Damien Kopp, « la quête d’autonomie se construit aujourd’hui sur des technologies d’emprunt. Nous sommes entrés dans l’ère du ‘paradoxe de la souveraineté’. Plus les États et les entreprises investissent pour bâtir leur propre IA, plus ils renforcent leur dépendance structurelle envers une poignée de fournisseurs étrangers pour les puces (GPU), le cloud et les modèles de fondation »[63].
Il rappelle que « l’IA n’est plus une simple technologie, c’est une ‘chaîne d’approvisionnement géopolitique’ comparable à l’énergie, structurée autour de quelques goulets d’étranglement critiques » et que « dès lors, la question stratégique n’est plus celle de la possession, mais celle de la maîtrise des dépendances critiques et de la capacité à continuer d’opérer en cas de rupture ». Son analyse comparative de 25 pays révèle que seuls les États-Unis et la Chine s’approchent d’une souveraineté « full-stack » (matériel, cloud, modèles, données).
Deux chiffres montrent la gravité de la situation de la souveraineté numérique en Europe. L’Union européenne ne produit que 9 % des puces mondiales. Et 72 % des données de nos entreprises sont stockées sur des serveurs américains[64]. Que se passerait-il dans votre entreprise si, sur un nouveau caprice de Donald Trump et une injonction du gouvernement américain, Amazon, Microsoft ou Google, qui contrôlent ensemble près de 80 % du marché européen du cloud, coupaient les services et l’accès aux données de votre entreprise ? Combien de CA ont réalisé une analyse de dépendance, sans parler de crash-tests ou encore de plan de résilience ?
f) Maîtriser le risque écologique
Un autre risque majeur est le risque écologique, encore mal évalué, comme le remarque Fabrice Bonnifet, président du C3D dans la revue Décideurs du 5 mars 2025 : « Les conséquences de l’IA sur la consommation d’énergies, de ressources minérales et d’eau vont rapidement se heurter aux limites planétaires et à des conflits d’usage. Si nous étions raisonnables, l’IA devrait être en priorité utilisée pour des usages véritablement utiles au bien commun. C’est cela, le “techno-discernement”. Tôt ou tard il faudra réguler cette technologie »[65]. Dans une note du 9 janvier 2026, le Conference Board, un think-tank patronal américain, indique : « À mesure que les investissements en IA s’accélèrent, son empreinte environnementale deviendra plus difficile à ignorer. L’expansion rapide des centres de données, la demande en électricité en forte hausse et la consommation croissante d’eau élèvent l’infrastructure IA d’un problème opérationnel à un risque stratégique lié au coût, à la fiabilité et à l’exposition aux émissions »[66].
g) Organiser le travail du Conseil
Toute cette démarche doit être organisée avec une attention particulière aux sujets prioritaires à discuter avec le management et à la répartition des tâches entre ce qui doit être traité en séance plénière du CA ou en comité d’audit, en comité stratégique, en comité des risques, en comité d’éthique ou RSE/ESG… La question de l’intégration de l’IA dans la stratégie de l’entreprise est LE point de départ de ces échanges. Cela paraît évident, et pourtant voici ce que je relève dans un rapport de McKinsey de décembre 2025 : « La plupart des organisations manquent encore d’une vision claire de la manière dont l’IA s’intègre dans leur stratégie ou leur agenda de transformation. Sans alignement entre le conseil d’administration et la direction, la supervision devient soit superficielle, soit paralysante »[67].
Les CA doivent éviter de tomber dans une posture de « contrôleur de gestion des risques » mais adopter plutôt l’approche de la CSRD autour de la matérialité et des « IRO » : comprendre les impacts de l’IA pour l’entreprise, ses risques mais aussi ses opportunités. L’expérience montre que ce changement de posture a pour effet de « redistribuer » les tâches entre les comités du CA.
Mais combien de CA aujourd’hui ont pu travailler sur un rapport fourni par le management exécutif détaillant de façon substantielle les IRO de l’IA, avec une approche prospective et un chiffrage ? Un ordre de grandeur nous est donné par la NACD, l’association américaine des administrateurs : seulement 15 % des Conseils d’administration aux Etats-Unis bénéficient actuellement de métriques liées à l’IA[68].
Les échanges avec le management exécutif doivent prendre une large place et hausser le niveau d’exigence. Comme toujours, le CA doit se concentrer sur ses zones de forte valeur ajoutée : il ne s’agit pas de se substituer au management exécutif mais de le challenger et de le soutenir. Par exemple, le management exécutif a souvent tendance à mettre en œuvre l’IA « à iso-business model », dans une logique d’optimisation de l’existant, sans chercher à faire bouger les lignes du secteur d’activité. C’est au CA de le challenger afin d’examiner aussi les usages disruptifs et transgressifs de l’IA, qui peuvent dans certains cas changer la logique concurrentielle en hybridant ou en bouleversant les modèles d’affaires (nouveaux produits, expériences et sources de revenus). Pour cela, l’appétit pour le risque du CA et du Comex doivent évidemment être pris en compte.
Exemple : une entreprise de dispositifs médicaux évolue de la vente d’équipements à la fourniture de systèmes d’IA interprétant les scans et suggérant des traitements appropriés. Elle se transforme ainsi d’un fabricant en un prestataire de solutions de santé.
Les échanges avec le management exécutif doivent non seulement viser le plus haut dans l’échelle des responsabilités mais aussi s’élargir pour intégrer des cadres dirigeants qui sont habituellement peu sollicités par le Conseil. Parce que la diffusion de l’IA opère par cas d’usage, le CA doit s’exposer auprès des pilotes de ces expérimentations.
C’est ainsi que je pratique la recommandation de McKinsey : « Engagez-vous plus largement (et fréquemment) avec ceux qui effectuent le travail. Il ne suffit pas de ne s’engager qu’avec les PDG ou les CFO sur les développements de l’IA dans l’entreprise. Les administrateurs du conseil doivent être régulièrement exposés et interagir directement avec les dirigeants qui intègrent l’IA dans les opérations (comme les directeurs des données et de l’analytique, ainsi que les responsables métier et divisions) afin d’acquérir une compréhension plus approfondie des progrès par rapport aux objectifs et de l’impact sur la dynamique concurrentielle »[69].
Ces échanges CA-Comex doivent être aussi étayés que possible par des faits & chiffres, sans toutefois en faire une obsession. Ce n’est pas spontané car la politique de gouvernance de l’IA est souvent un impensé, comme le montre un rapport de l’association américaine des administrateurs : « La plupart des entreprises rédigent des principes ou des déclarations d’éthique, mais moins de 25 % disposent de politiques d’IA structurées approuvées par leur conseil d’administration »[70].
Enfin, la question de l’usage de l’IA au sein du CA lui-même doit être posée sans tabous : usages individuels versus collectifs, jusqu’où veut-on aller, quels usages s’interdit-on, comment réserver des temps de réflexion commune « AI-free » (sans utilisation de l’IA) ?
5 – Pour une utilisation raisonnée de l’IA par les Conseils
Une prise en main raisonnée des outils et des méthodologies par le CA lui permettrait de jouer un rôle plus actif qu’aujourd’hui vis-à-vis du management exécutif. Ce qu’il faut absolument éviter, c’est la précipitation, qui amène des CA et des Comex à s’engouffrer dans des stratégies d’adoption trop hâtives, fondées sur la communication (l’adoption de l’IA est favorablement appréciée par les marchés financiers), les effets de mode et l’adhérence aux propositions des fournisseurs de technologie.
Dans ce domaine, la défaillance de gouvernance stratégique est patente : selon l’enquête de Dataiku, les DG dans le monde admettent qu’environ 35% de leurs initiatives fondées sur l’IA (et 38% selon les DG d’entreprises françaises) sont davantage motivées par la communication que par l’impact – ce que l’on appelle « IA-washing », c’est-à-dire la recherche d’image innovante plutôt que la création de valeur business tangible.
Derrière, cette tentation de la précipitation, il y a la peur : presque les trois quarts (74%) des DG dans le monde (et 72% des DG d’entreprises françaises) pensent qu’ils risquent de perdre leur job s’ils ne sont pas capables de livrer des avantages compétitifs mesurables fondés sur l’IA dans les deux années à venir. La crainte de la concurrence joue aussi : 54% des DG dans le monde reconnaissent qu’au moins un de leurs concurrents a développé une stratégie IA supérieure à la leur.

Dans bon nombre de CA, on a renoncé à remédier à la défaillance majeure de gouvernance et de contrôle que représente le développement dans l’entreprise de la pratique connue sous le nom de « shadow IA », parfaitement connue de l’exécutif : d’après l’étude de Dataiku, 96% des DG d’entreprises françaises (94% dans le monde) admettent soupçonner leurs salariés d’utiliser des outils d’IA générative avec des logins personnels pour se connecter à ChatGPT, Le Chat ou autres applications d’IA et faire leur travail sans autorisation et sans avoir prévenu leur entreprise. Cette situation induit des risques élevés, notamment parce que des données confidentielles sont souvent utilisées pour entraîner des modèles publics non sécurisés, ce qui revient à confier des secrets commerciaux à des fournisseurs tiers. C’est au CA de vérifier que ce genre de situation porteuse de risques majeurs est mise sous contrôle. Mais il est tellement plus facile de laisser la poussière là où elle est : sous le tapis.
Derrière la prolifération de ces utilisations semi-clandestines, il y a aussi l’absence fréquente de stratégie construite de prise en main et déploiement de l’IA, qui elle-même entraîne une autre conséquence : la gabegie d’investissements. Ainsi, d’après l’enquête de Dataiku, 59% des DG d’entreprises françaises affirment qu’un projet d’IA n’a pas tenu ses délais et a été repoussé – c’est 22 points (!) de plus que la moyenne des 4 pays couverts par l’étude – et 42% admettent qu’un projet d’IA a été purement et simplement abandonné, soit 10 points de plus que la moyenne[71]. On retrouve dans l’IA les faiblesses traditionnelles du management à la française dans la gestion de projet.
Le CA doit acclimater l’IA pour ses propres usages mais il doit aussi être très proactif pour se saisir de la stratégie de déploiement mise en œuvre par le management dans l’entreprise. Car cette stratégie n’est pas spontanément partagée avec le Conseil, comme l’a montré le rapport de la Cour des comptes de janvier 2026 consacré à l’utilisation de l’IA par France Travail. Alors que l’organisme utilise l’IA depuis plus de 10 ans (2015), « la Cour pointe de graves lacunes sur la conformité RGPD et la gouvernance. Si la Cour note des avancées technologiques indéniables depuis 2017, elle pointe du doigt une gouvernance qui patine sérieusement »[72]. Le vrai tournant est arrivé en 2018-2019, avec le programme « Intelligence emploi » et aujourd’hui, France Travail utilise 27 applications différentes d’IA, principalement pour aider ses conseillers dans leur travail quotidien.
En mars 2025, plus d’un agent sur deux y avait recours, dont 9% tous les jours, ce qui témoigne d’une utilisation de l’IA extensive. Pourtant, « le conseil d’administration, qui doit superviser l’opérateur, n’a été informé du programme ‘Intelligence emploi’ qu’un an et demi après son lancement. Jusqu’en mai 2025, les élus et représentants qui siègent au conseil recevaient des comptes-rendus partiels, sans véritable vue d’ensemble. Le directeur général de France Travail, Thibault Guilluy, qui a répondu à la Cour des comptes, liste aujourd’hui les réunions de 2025, et avoue à demi-mot le retard pris »[73].
L’approche de conformité est également lacunaire, par exemple sur le respect du RGPD. Sept ans après l’entrée en vigueur du texte européen de référence sur la protection des données (2018), France Travail présente des « lacunes importantes » dans l’analyse de conformité de ses outils. Car France Travail n’a, selon la Cour, quasiment jamais vérifié si ses outils d’IA respectaient ces règles. Quant à l’intégration de l’éthique, indispensable compte tenu du métier de France Travail, on est loin des bonnes pratiques : le comité consultatif éthique, censé superviser les avancées, n’a été informé que d’un cas d’usage sur six développés et sur plusieurs dizaines d’outils, seuls 18 ont fait l’objet d’une analyse éthique formalisée. La Cour note même que les critères de saisine du comité n’ont été définis qu’en octobre 2025, soit après plusieurs années d’activité intense.
Il ne s’agit pas ici d’accabler France Travail, qui a beaucoup avancé sur le sujet et a joué un rôle de précurseur, mais plutôt de constater que même un service public structuré, très surveillé et qui dispose d’une antériorité sur le sujet de l’IA est loin d’avoir mis en place une gouvernance de l’IA adéquate[74].
L’IA ne remplacera pas les chefs d’entreprise dans un avenir envisageable. Comme l’écrit Riccardo Rao dans son article déjà cité, « L’intelligence artificielle ne fournira pas d’aide à la décision au chef d’entreprise confronté au désordre du monde, aux fake news, à la désinformation. (…) Le dirigeant devra savoir prendre ses propres décisions guidées par ce qu’il est et ce qu’il ressent, par son expérience en dehors du champ même de l’entreprise, pour la conduire, ainsi que ses équipes, à bon port ». Ce qui vaut pour un dirigeant exécutif vaut pour un dirigeant faisant partie de la gouvernance. La rareté et la valeur se déplacent vers ce qui reste profondément humain, ce que l’IA ne sait pas faire, notamment en prise de décision : l’adaptabilité, le sens de l’intuition, l’attention, la confiance, la faculté à gérer des situations de crise, la pensée critique, les capacités à arbitrer, l’éthique, la créativité, l’intelligence relationnelle, le sens du collectif, la capacité à inspirer et à entraîner.
Mais en revanche, l’IA bien comprise et bien utilisée peut soutenir, stimuler et améliorer le travail des administrateurs, individuellement et collectivement. C’est pourquoi depuis l’apparition de l’IA générative « grand public » (ChatGPT, fin novembre 2022), je dis aux dirigeants que je conseille comme à mes étudiants : « Vous ne serez pas remplacés par l’IA. Mais si vous ne vous préparez pas, vous serez peut-être remplacés par quelqu’un qui maîtrise l’IA mieux que vous ».
L’IA ne remplace pas le jugement humain ; au contraire, elle l’améliore en multipliant ses capacités d’analyses. L’IA peut remettre en question les hypothèses, briser les consensus mous, générer des alternatives créatives, débusquer les attitudes conformistes, aider à élargir le champ des possibles, attirer l’attention sur des faits que les décideurs humains pourraient négliger ou minimiser consciemment ou non… autant de coups de pouce indispensables dans un CA !
L’IA devient alors le « poil à gratter » du CA, un amplificateur de compétences humaines clés : discernement, capacité à tisser des compromis, pensée critique, créativité. Des administrateurs ont commencé à se frotter à l’IA en l’utilisant comme « avocat du diable » dans la prise de décision, en la confrontant à des contre-arguments ou en lui demandant de détecter des biais individuels ou des signes de pensée de groupe.
Les deux auteurs de l’article de la HBR intitulé « Comment les conseils d’administration les plus novateurs utilisent l’intelligence artificielle » proposent une approche à trois temps, qui me semble pragmatique et que je résume ici à grands traits en invitant le lecteur à se référer à l’article[75] :
- conduire des entretiens individuels avec chaque administrateur afin de déterminer les connaissances acquises, l’expérience et l’appétence de chacun vis-à-vis de l’IA et en déduire les besoins de formation (individuelle et collective), de codéveloppement ou de coaching;
- procéder à des expérimentations d’utilisation de l’IA à des moments bien déterminés des réunions et en faire un debriefing collectif ;
- faire de l’introduction de l’IA dans le fonctionnement du CA un processus continu et réflexif et introduire les contributions de chaque administrateur dans leur évaluation individuelle.
J’ajoute à cette méthodologie, entre les phases 1 et 2 une réflexion indispensable visant à déterminer les meilleurs moyens d’instiller puis de pérenniser des compétences IA au sein du Conseil : aller chercher et faire entrer un administrateur compétent dans ce domaine, nommer un administrateur référent, s’appuyer sur l’expertise IA de l’entreprise et sur des experts externes, créer un comité innovation au sein du CA,… plusieurs modalités (combinables) sont possibles, dont la pertinence dépend de chaque situation de gouvernance. Une action « obligatoire » : intégrer l’utilisation stratégique de l’IA – et plus généralement des technologies – à la matrice des compétences du CA.
J’espère me tromper mais malheureusement, en l’état actuel de leur composition très tournée vers la conformité et la prudence, je doute qu’un grand nombre de CA en France disposent de la maturité et du courage nécessaires pour conduire cette démarche…
Là encore, je laisse la conclusion de cette section à Changenow :
« Il est temps que les conseils d’administration adoptent l’IA et les technologies numériques comme des éléments clés d’une gouvernance efficace, mais aussi comme outils puissants pour l’analyse stratégique, la mesure de l’impact et la prise de décision éclairée. Lorsqu’elle est utilisée de manière réfléchie, l’IA peut aider à simplifier la complexité, révéler des connexions contextuelles et faire apparaître des anomalies. Plus important encore, cela peut renforcer la curiosité des membres du Conseil et la qualité des questions posées par les administrateurs — des capacités essentielles pour naviguer dans l’incertitude et atteindre des objectifs de durabilité.
Lorsqu’ils sont déployés avec soin, les outils numériques peuvent aider les conseils d’administration :
-
- Détecter en temps réel les risques émergents et les signaux faibles ;
- Exécuter des scénarios orientés vers l’avenir et tester la résilience stratégique ;
- Mesurer la performance ESG avec une plus grande profondeur et granularité ;
- Visualiser les arbitrages et la création de valeur à long terme entre les parties prenantes ;
- Soutenir des divulgations transparentes et adaptées à la décision, ancrées dans la science »[76].
Conclusion (provisoire) : pour une gouvernance responsable de l’IA
Aux Etats-Unis, des experts juridiques ont estimé qu’un Conseil qui ne s’intéresse pas à l’utilisation des technologies émergentes, telles que l’IA, pour gouverner efficacement la société ne remplit pas ses devoirs fiduciaires[77]. On aimerait ne pas avoir à en arriver là ! Malgré la controverse entourant l’utilisation de l’IA dans la prise de décision, qui soulève des préoccupations importantes liées à l’imputabilité, au désengagement des administrateurs et à la remise en question du jugement humain, certains chercheurs estiment que la loi devrait tout de même imposer aux CA une obligation d’utiliser l’IA pour leur suggérer les meilleures options et que les CA devraient divulguer aux parties prenantes leurs réponses à ces suggestions[78]. Là encore, mieux vaudrait ne pas donner de bonnes raisons d’en passer par là…
Si cette tentation de « forcer la main aux CA » existe, c’est parce que leur retard devient de plus en plus difficile à occulter, mais aussi parce qu’il est clairement établi que la compétence IA d’un Conseil est un facteur compétitif pour l’entreprise. Selon une étude du MIT de 2025, les organisations disposant de Conseils d’administration compétents en numérique et en IA surpassent leurs pairs de 10,9 points de pourcentage en rendement sur les capitaux propres (Return On Equity), tandis que celles qui ne l’ont pas ressortent inférieures de 3,8 % à la moyenne de leur secteur[79].
La responsabilité essentielle du CA est de construire une gouvernance responsable de l’IA. Nous en sommes loin aujourd’hui. Dans un article de Metis, j’ai montré qu’il existe aujourd’hui deux approches d’adoption et de déploiement de l’IA (voir : « Quand l’intelligence du travail l’emporte sur l’intelligence artificielle »). Le choix entre ces deux approches est déterminant à la fois pour le succès des projets à base d’IA mais aussi pour la performance de l’entreprise et le bien-être de ses collaborateurs. Or, peu d’entreprises ont organisé un débat construit sur ce choix et ses incidences pour leur entreprise. Et j’ai quelques exemples où ce débat a eu lieu… mais sans implication aucune du CA !
Ce manque d’allant vis-à-vis de l’intégration de l’IA dans un modèle de gouvernance responsable coûte cher aux entreprises, particulièrement aux entreprises françaises. Comme l’a montré une étude comparative du BCG menée dans 7 pays, les salariés français sont les plus inquiets quant aux conséquences de l’intelligence artificielle sur leur travail[80]. Au contraire, les Américains, les Canadiens et surtout les Chinois perçoivent pleinement les effets positifs de cette technologie dans les cinq ans qui viennent, un atout essentiel pour sa diffusion. Une démarche construite de dialogue et d’association des salariés sur les cas d’usage doit être entreprise, d’autant que d’après la même enquête, les actifs français sont les moins bien informés par leurs managers sur ce thème.
C’est pourquoi il est urgent d’ouvrir le débat dans les entreprises avec les salariés sur l’impact de l’IA sur le travail et les métiers, notamment pour montrer que la question n’est pas de travailler « contre » l’IA mais « avec » (voir mon article dans Question(s) de management, « Conduite du changement : IA = OUT ! ). C’est au CA d’initier voire de piloter cette gouvernance inclusive. Dans ce domaine, la Maif a montré la voie en organisant la première « convention salariée » dédiée à l’IA, sur le modèle des Conventions citoyennes pour le climat ou sur la fin de vie[81].
Le manque d’allant des CA et l’absence de gouvernance responsable de l’IA créent une désynchronisation fondamentale. Par construction, la relation entre la gouvernance (le CA) et l’exécutif (le Comex) est affectée d’une première désynchronisation en matière d’intensité : la première est intermittente alors que le second est permanent. Mais ce manque d’allant crée une seconde désynchronisation, en matière de rythme : alors que l’IA se diffuse à une vitesse accélérée dans les équipes opérationnelles, le rythme opérationnel au sein de la gouvernance reste caractérisé par sa lenteur et son cadencement mensuel ou trimestriel.
Les Comités font leur travail routinier et le rapportent au CA, les décisions suivent des cycles complexes et s’encombrent dans le goulot d’étranglement du dialogue avec le management, les stratégies s’élaborent durant des mois alors que le contexte concurrentiel se transforme selon un rythme hebdomadaire. Pour paraphraser le milliardaire et investisseur américain Warren Buffet, on pourrait dire que c’est à marée basse, quand la mer de l’IA se retire, que l’on repère ceux qui nagent sans maillot de bain.
Alors que chacun parle d’agilité, le gouffre se creuse entre un exécutif alerte et une gouvernance empesée, qui risque d’apparaître comme bureaucratique. Tony Bader, docteur en stratégie et directeur de la stratégie chez Innovative Solutions, le résume très bien dans un article de décembre 2025 : « la vitesse de l’IA se mesure en temps réel, tandis que celle de la gouvernance d’entreprise se mesure en trimestres fiscaux. Ce décalage croissant entre les capacités de l’IA et celles des institutions est peut-être le risque le plus sous-estimé de l’ère de l’IA. (…) La véritable crise de gouvernance n’est pas d’ordre technique. C’est une crise de paralysie du leadership »[82].
Le CA doit donc s’engager beaucoup plus fortement. Julien Le Maux (HEC Montréal) et Nadia Smaili (Université du Québec à Montréal) concluent ainsi leur article sur « L’IA bouscule la gouvernance d’entreprise » : « L’IA dans les conseils d’administration n’est plus une idée futuriste. Elle est déjà là, sous différentes formes, et continuera à s’imposer. La question n’est pas de savoir si elle doit être utilisée, mais comment, par qui, et dans quelles limites »[83].
Mais le CA doit s’engager en refusant d’abdiquer ses prérogatives de gardien du temps long, de la réflexion et du courage. Cela signifie en particulier un refus de se transformer en superviseur d’outils automatisés d’aide à la décision. Là encore, on se trouve face à un besoin d’équilibre, ce qui a toujours fait le sel de la fonction d’administrateur.
Dans son excellent article « Productivité contre responsabilité », Frédéric Gaven pose les bonnes questions : « Ce qui relevait hier de la complexité technique est en voie de devenir aujourd’hui un simple problème d’orchestration algorithmique. Mais cette fluidité technique pose, en soi, un problème fondamental de gouvernance : à mesure que les indicateurs s’imposent sans filtre, le conseil d’administration risque de glisser d’un lieu de décision vers une chambre d’enregistrement. Le conseil ne supervise plus : il opère, valide, ajuste. (…) Le dilemme posé ici n’est pas d’abord technologique, il est politique – au sens fort : qu’incarne un conseil d’administration ? Est-il destiné à devenir une chambre d’optimisation stratégique, ou doit-il rester un lieu de décision humaine, imparfaite, mais souveraine ? »[84].
Citons la conclusion de Riccardo Rao, qui cherchait à répondre à la question “Are boards ready for AI ?” : « Plus on y regarde, plus cela devient clair : la plupart des conseils ne sont probablement pas prêts, du moins pas complètement. L’IA a sa place, et une connaissance approfondie de ses capacités devient de plus en plus nécessaire. Les Conseils doivent évoluer pour s’adapter à un monde où les machines ne s’exécutent plus discrètement en arrière-plan mais jouent un rôle visible dans les choix stratégiques. Les administrateurs doivent rester vigilants, capables de détecter les risques liés à l’IA et de limiter les erreurs. En fin de compte, ils doivent conserver la responsabilité et la propriété des décisions, peu importe l’intelligence des systèmes »[85].
Ainsi, le travail des CA restera humain mais les administrateurs seront de plus en plus appuyés par l’IA. C’est une question de RSE, car il s’agit de la capacité à articuler la puissance des algorithmes avec l’éthique qui fonde notre humanité.
Martin RICHER, consultant en Responsabilité sociale des entreprises, fondateur de
Management & RSE
Déclaration d’intérêts : Dans son activité de conseil, Martin Richer a travaillé avec de nombreux Conseils d’administration (de la PME au CAC40) dans des activités de sensibilisation, de formation et de délibération interne ou avec le management. De son passé de 10 ans en tant que directeur du marketing d’Oracle (France puis Europe), il a gardé une appétence pour les enjeux d’impacts économiques et sociaux des technologies. Il est membre de l’IFA et de Chapter Zero mais le point de vue exposé ici n’engage que lui. Il ne travaille pas et ne possède pas de parts d’une organisation citée dans cet article.
Pour aller plus loin :
Lisez le remarquable rapport publié par ChangeNOW et Goodness&Co, “Getting Your Board on Board – A Call to Action for Boards to Lead with Purpose and Stewardship”, July 2025 disponible sur le site de ChangeNOW
Consultez l’excellent guide réalisé par nos collègues australiens : “AI use by directors and boards; Early insights”, Australian Institute of Company Directors (AICD) report, December 2025
Consultez les autres articles de ce blog sur la gouvernance
Crédit image : Entre le 20 et le 28 janvier 1910 la Seine a connu une crue centennale qui a provoqué la plus importante inondation de Paris depuis 1658.
Ce que vous venez de lire vous a plu, interpellé, irrité, inspiré ? N’oubliez pas de vous inscrire (gratuitement) à la newsletter de Management & RSE pour recevoir automatiquement les prochains articles de ce blog dès leur publication. Pour cela, il vous suffit d’indiquer votre adresse E-mail dans le bloc « Abonnez-vous à la newsletter » sur la droite de cet écran et de valider. Vous recevrez un courriel de confirmation. A bientôt !
#Gouvernance #ConseildAdministration #CA #administrateur #IA #IntelligenceArtificielle #Management #dirigeants #technologie #BusinessModels #CEO #Innovationmanagériale #smartleaders #businessleaders #DirigerAutrement #leadership
#leaderinspirant #GouvernanceResponsable #digital
#numérique #TransfoNum
[1] La plupart des articles, études et recherches cités sont en anglais et ont été traduits par nos soins et avec l’aide des outils de traduction de Microsoft.
[2] Tarun Khanna, Mary C. Beckerle and Nabil Y. Sakkab, “Boards Need a New Approach to Technology”, Harvard Business Review Magazine, September–October 2024
[3] Voir le lien de téléchargement ci-dessous dans la rubrique « Pour aller plus loin ». Je m’appuierai aussi sur ce document pour un prochain article à venir.
[4] « As AI Investments Surge, CEOs Take the Lead », BCG, January 2026. 2.360 DG et membres de Comité de direction (« C-suite executives ») interrogés dont 506 aux Etats-Unis et 215 en France (16 pays couverts).
[5] Cité dans « Ces patrons qui expliquent au BCG que l’IA aura dans les trois ans un ‘pouvoir décisionnaire’, Les Echos, 18 janvier 2026
[6] « As AI Investments Surge, CEOs Take the Lead », op. cit.
[7] “Pulse of Change Research Report”, Accenture, July 22, 2024
[8] Aakash Kalyani et al., St. Louis Fed On the Economy, “AI hype or reality? Shifts in corporate investment after ChatGPT,” blog entry, October 3, 2024 ; McKinsey assessment of the Fortune 100 (as of August 2025)
[9] “Six Ways to Address the AI Leadership Deficit”, Russell Reynolds report, June 20th, 2024
[10] Anna Marks, Lara Abrash, and Arno Probst, “Governance of AI : A critical imperative for today’s boards,” Harvard Law School Forum on Corporate Governance, May 27, 2025 ; McKinsey Global Board Survey 2024
[11] Stanislav Shekshnia and Valery Yakubovich, “How Pioneering Boards Are Using AI ; They’re harnessing it to help directors prepare, debate, and decide”, Harvard Business Review Magazine, July–August 2025
[12] Theodoros Evgeniou , Peter Nathanial , Ville Satopää and Ludo Van der Heyden , “A Revolution in Governance: How AI Will Make Boards More Effective”, INSEAD Paper, 21 January 2026
[13] Martin Petrin, “Corporate Management in the Age of AI”, UCL Working Paper Series, SSRN Electronic
Journal, 2019
[14] “C’est une grave erreur”. Stanislav Shekshnia and Valery Yakubovich, “How Pioneering Boards Are Using AI”, op. cit.
[15] Riccardo Rao, “Are boards ready for AI?”, European Corporate Governance Institute (ECGI), Issue № 2, April 2025 https://www.ecgi.global/publications/newsletters/the-future-of-corporate-governance/are-boards-ready-for-ai
[16] D’après Torre, F., Teigland, R. et Engstam, L., « AI leadership and the future of corporate governance » in A. Larsson et R. Teigland (dir.), « The digital transformation of labor », pp. 116‑146, Routledge, 2020
[17] Niels Van Quaquebeke and Fabiola H.Gerpott “The Now, New, and Next of Digital Leadership : How Artificial Intelligence (AI) Will Take Over and Change Leadership as We Know It », Journal of Leadership & Organizational Studies, June 2023
[18] Zuzanna Staniszewska, post-doctorante à l’Institut du Leadership et du Management Inclusif, rattachée au département Work & Human Relations de l’ESCP Business School, et Géraldine Galindo, professeure au sein du département Work & Human Relations sur le campus de Paris et directrice de l’Institut du Leadership et du Management Inclusif à ESCP Business School, « L’IA et le leadership : une révolution en marche », Les Echos, 25 août 2025
[19] « Boardroom Navigator : Les objectifs du Comité de Direction pour 2035 » Rapport de Robert Half, juillet 2025. Robert Half a mandaté Rigour Research Ltd pour mener une enquête en ligne au premier trimestre 2025, couvrant l’Union européenne et le Royaume-Uni. L’étude a recueilli les réponses de 400 cadres dirigeants et membres des Comités de Direction, issus d’un large éventail de secteurs d’activité. Les répondants étaient répartis à parts égales entre PME et grandes entreprises, ainsi qu’entre sociétés cotées en bourse et entreprises privées. En complément, 100 investisseurs en capital-investissement basés en Europe et aux États-Unis ont également été interrogés. La grande majorité (88 %) concentre ses activités sur des investissements en phase de croissance et de scale-up, tandis que 34 % investissent également des actifs en difficulté.
[20] « As AI Investments Surge, CEOs Take the Lead », op. cit.
[21] Riccardo Rao, “Are boards ready for AI?”, op. cit.
[22] Voir la publication préliminaire : David Larcker, Amit Seru, Brian Tayan and Laurie Yoler, “The Artificially Intelligent Boardroom”, Rock Center for Corporate Governance at Stanford University Working Paper No. CL110, March 17, 2025
[23] Stanislav Shekshnia and Valery Yakubovich, “How Pioneering Boards Are Using AI”, op. cit. Un grand modèle de langage (Large Language Model, LLM) est un type de programme d’IA capable, entre autres tâches, de reconnaître et de générer du texte.
[24] Didier Cossin et Yukie Saito, “Three ways artificial intelligence is transforming boards”, IMD Paper, October 13, 2025
[25] R. Herse, “The hidden strategy treasure—If the company knew what the company all knows”, 2021
[26] Stanislav Shekshnia and Valery Yakubovich, “How Pioneering Boards Are Using AI”, op. cit.
[27] Niels Van Quaquebeke and Fabiola H.Gerpott “The Now, New, and Next of Digital Leadership : How Artificial Intelligence (AI) Will Take Over and Change Leadership as We Know It », Journal of Leadership & Organizational Studies, June 2023
[28] “Getting Your Board on Board – A Call to Action for Boards to Lead with Purpose and Stewardship”, ChangeNOW, July 2025
[29] Cité dans « Pour les PDG, l’IA produit de meilleurs business plans que le conseil d’administration », CIO Online, 15 Avril 2025
[30] Giovanni Costa, « Le discernement managérial, le chaînon manquant de l’intelligence artificielle », Question(s) de Management ?, N°52, Décembre 2024
[31] Voir Martin Petrin, “Corporate Management in the Age of AI”, op. cit. et Ivashkovskaya, I. et Ivaninskiy, I., « What impact does artificial intelligence have on corporate governance ? », Journal of Corporate Finance Research, 14(4), 90‑101, 2020
[32] Sætra, H. S., “A framework for evaluating and disclosing the ESG related impacts of AI with the SDGs”, Sustainability, 13(15), 2‑16, 2021
[33] Martin Petrin, “Corporate Management in the Age of AI”, op. cit.
[34] “Getting Your Board on Board”, op. cit.
[35] « Baromètre IFA – Ethics & Boards de la gouvernance responsable – post-AG 2025 », Septembre 2025
[36] « Les conseils d’administration peinent à se saisir des sujets liés à l’intelligence artificielle », Les Echos, 24 décembre 2024. L’étude de Heidrick & Struggles s’appuie sur les retours de 444 administrateurs et dirigeants d’entreprises cotées et non cotées en Amérique du Nord (22 %), en Europe (46 %) en Asie Pacifique (21 %) en Afrique et en Amérique du Sud.
[37] Stanislav Shekshnia and Valery Yakubovich, “How Pioneering Boards Are Using AI”, op. cit.
[38] « Comment le CAC 40 répond-il aux investisseurs ? – Saison 2025 », Rapport du Forum pour l’Investissement Responsable, 8 janvier 2026
[39] Enquête Dataiku/Harris : “Global AI Confessions Report: CEO Edition”, April 2025 auprès de 500 directeurs généraux (CEOs) d’entreprises américaines, britanniques, allemandes et françaises.
[40] « L’intelligence artificielle et le secrétaire de conseil : Risques et opportunités », Document IFA, septembre 2025
[41] « Les systèmes d’intelligence artificielle et les conseils d’administration », Guide de l’IFA, Novembre 2024
[42] “AI use by directors and boards; Early insights”, Australian Institute of Company Directors (AICD) report, December 2025. Un excellent travail dont vous trouverez le lien dans la section « Pour aller plus loin »
[43] Stanislav Shekshnia and Valery Yakubovich, “How Pioneering Boards Are Using AI”, op. cit.
[44] « Diriger dans un monde d’IA en 2035 ; Quels enjeux sur les décisions et la posture des dirigeants de demain ? », rapport de HLU et Futuribles, novembre 2025. La Heart Leadership University (HLU) est une association d’intérêt général à caractère éducatif et scientifique qui œuvre pour développer le « heart leadership » chez les dirigeants, un leadership guidé par l’intelligence du cœur.
[45] Maëlle Becuwe, « Les robots seront-ils les patrons de demain ? », Chef d’entreprise, 25 mai 2016
[46] Maëlle Becuwe, « Les robots seront-ils les patrons de demain ? », op. cit.
[47] Rapporté par Martin Petrin, “Corporate Management in the Age of AI”, op. cit.
[48] « L’intelligence artificielle débarque dans les conseils d’administration », Courrier international, 4 mai 2024
[49] « Giverny du Numérique : ce qu’il s’est dit », Synthèse des débats, 16 mai 2025
[50] La MIT Sloan School of Management est la business school du MIT, le célèbre Massachusetts Institute of Technology, près de Boston
[51] Exemples vécus !
[52] « Les systèmes d’intelligence artificielle et les conseils d’administration », Guide de l’IFA, op. cit.
[53] « Giverny du Numérique : ce qu’il s’est dit », Synthèse des débats, 16 mai 2025
[54] Boivie, S., Bednar, M. K., Aguilera, R. V. et Andrus, J. L., « Are boards designed to fail? The implausibility of effective board monitoring”, Academy Of Management Annals, 10(1), 319-407, 2016
[55] Merendino, A., Dibb, S., Meadows, M., Quinn, L., Wilson, D., Simkin, L. et Canhoto, A., « Big data, big decisions : the impact of big data on board level decision-making », Journal of Business Research, 93(12), 67‑78, 2018
[56] Stanislav Shekshnia and Valery Yakubovich, “How Pioneering Boards Are Using AI”, op. cit.
[57] Cité dans dans Le Figaro, 30 novembre 2024
[58] Riccardo Rao, “Are boards ready for AI?”, op. cit.
[59] Luca Enriques and Dirk Zetzsche, « Corporate Technologies and the Tech Nirvana Fallacy », European Corporate Governance Institute (ECGI) – Law Working Paper No. 457/2019, Hastings Law Journal, 31 May 2019
[60] Frédéric Gaven, « Productivité contre responsabilité : l’IA va-t-elle dépolitiser la gouvernance d’entreprise ? Quand l’algorithme remplace le débat stratégique », Atlantico, 15 avril 2025
[61] « Les systèmes d’intelligence artificielle et les conseils d’administration », Guide de l’IFA, op. cit.
[62] Riccardo Rao, “Are boards ready for AI?”, op. cit.
[63] « L’économie de dépendance de l’IA », The Digital New Deal, 15 janvier 2026. Damien Kopp est l’auteur du rapport « The Dependency Economy of AI »
[64] L’Express, 17 avril 2025
[65] Fabrice Bonnifet dans la revue Décideurs, 5 mars 2025. Le C3D est le Club des directeurs du développement durable.
[66] “AI’s accelerating environmental footprint—and the sustainability disconnect”, The Conference Board, 9 janvier 2026
[67] Aamer Baig, Ashka Dave, Celia Huber and Hrishika Vuppala, “The AI reckoning: How boards can evolve”, McKinsey, December 4, 2025
[68] “2025 private company board practices oversight survey: Data pack – Artificial intelligence,” National Association of Corporate Directors, August 26, 2025.
[69] “The AI reckoning: How boards can evolve”, McKinsey, op. cit.
[70] “2025 private company board practices oversight survey: Data pack: Artificial intelligence,” op. cit.
[71] Enquête Dataiku/Harris : “Global AI Confessions Report: CEO Edition”, April 2025 auprès de 500 directeurs généraux (CEOs) d’entreprises américaines, britanniques, allemandes et françaises.
[72] Alexandre Boero, « Derrière les algorithmes et l’IA de France Travail, des zones d’ombre qui inquiètent la Cour des comptes », clubic.com, 9 janvier 2026
[73] [73] Alexandre Boero, « Derrière les algorithmes et l’IA de France Travail », op. cit.
[74] Sur les utilisations innovantes de l’IA par France Travail, voir la note de Terra Nova : Marie Degrand-Guillaud (coord.), « Ce que l’IA générative fait au travail et à l’emploi », 3 février 2025 https://tnova.fr/economie-social/entreprises-travail-emploi/ce-que-lia-generative-fait-au-travail-et-a-lemploi/
[75] Stanislav Shekshnia and Valery Yakubovich, “How Pioneering Boards Are Using AI”, op. cit.
[76] “Getting Your Board on Board”, op. cit.
[77] Shani R Else and Francis G X Pileggi, “Corporate directors must consider impact of Artificial Intelligence for effective corporate governance”, Business Law Today, 12 February 2019
[78] Zhao, J., “Artificial intelligence and corporate decisions: fantasy, reality or destiny”, Catholic
University Law Review, 71(4), 663‑698, 2022
[79] “Digitally savvy boards : AI update,” MIT Center for Information Systems Research, March 20, 2025
[80] « Artificial Intelligence: Have No Fear The revolution of AI at work », Etude Ipsos pour BCG Gamma, Juin 2018
Une étude menée auprès de 7 000 actifs dans 7 pays (Allemagne, Canada, Chine, Espagne, Etats-Unis, France, Royaume Uni).
[81] « Pascal Demurger, Mettre en place l’IA en entreprise : comment s’éviter un fiasco », L’Express, 6 février 2025, p. 70
[82] Tony Bader, « L’IA évolue vite, la gouvernance est lente : le vrai risque est la paralysie décisionnelle », unite.ai, 8 décembre 2025
[83] Julien Le Maux et Nadia Smaili, « L’IA bouscule la gouvernance d’entreprise », The Conversation, 7 aout 2025
[84] Frédéric Gaven, « Productivité contre responsabilité », op. cit.
[85] Riccardo Rao, “Are boards ready for AI?”, op. cit.


