Par Erika Fille T. Legara DANS UN PRÉCÉDENT article de BusinessWorld, j'ai soutenu que la gouvernance de l'IA va au-delà de la supervision d'une poignée de projets technologiques et englobe désormaisPar Erika Fille T. Legara DANS UN PRÉCÉDENT article de BusinessWorld, j'ai soutenu que la gouvernance de l'IA va au-delà de la supervision d'une poignée de projets technologiques et englobe désormais

Ce que les conseils d'administration devraient exiger de l'IA : évaluation, audit et assurance

2026/03/24 00:03
Temps de lecture : 9 min
Pour tout commentaire ou toute question concernant ce contenu, veuillez nous contacter à l'adresse suivante : [email protected]

Par Erika Fille T. Legara

DANS UN PRÉCÉDENT article de BusinessWorld, j'ai soutenu que la gouvernance de l'IA va au-delà de la supervision d'une poignée de projets technologiques et englobe désormais la garantie que les décisions pilotées par l'IA dans l'ensemble de l'organisation restent alignées sur la stratégie, l'appétit pour le risque et les normes éthiques. Une question naturelle qui se pose aux conseils d'administration est la suivante : au-delà de la définition des attentes, comment une organisation vérifie-t-elle que ses systèmes d'IA fonctionnent réellement comme prévu, de manière responsable et dans des limites définies ?

La réponse réside dans trois disciplines liées mais distinctes : l'évaluation des risques de l'IA, l'audit de l'IA et l'assurance de l'IA. Les conseils d'administration familiers avec la supervision financière trouveront la logique intuitive. Le défi, et l'opportunité, consiste à appliquer cette même discipline à l'IA.

3 CONCEPTS DISTINCTS MAIS LIÉS
Il est utile d'être précis sur ce que signifie chaque terme, car ils sont souvent utilisés de manière interchangeable alors qu'ils ne devraient pas l'être.

L'évaluation des risques de l'IA est le processus interne par lequel une organisation identifie, évalue et hiérarchise les risques associés à ses systèmes d'IA. Elle se demande ce qui pourrait mal tourner, quelle est la probabilité que cela se produise et quel serait l'impact. C'est le fondement sur lequel repose tout le reste. Sans une évaluation des risques crédible, ni l'audit ni l'assurance n'ont de référence significative sur laquelle travailler. Des systèmes d'IA importants existent dans tous les secteurs : un modèle de notation de crédit dans une banque, un outil de triage des patients dans un hôpital, un prédicteur de performance des étudiants dans une université, un système de priorisation des cas dans une agence gouvernementale. Ce qu'ils partagent, c'est la conséquence, qui inclut des résultats affectant des personnes réelles de manière significative.

Pour un tel système, l'évaluation des risques doit être systématique, documentée et réexaminée régulièrement à mesure que le modèle évolue et que l'environnement opérationnel change.

L'audit de l'IA est l'examen indépendant visant à déterminer si un système d'IA, ou le cadre de gouvernance qui l'entoure, est conforme aux normes, politiques ou exigences définies. Il s'agit d'un processus fondé sur des preuves, mené par une partie suffisamment indépendante de celles responsables du système examiné. Un audit de l'IA peut évaluer si les pratiques de gestion de l'IA d'une organisation sont conformes à une norme reconnue internationalement, telle que l'ISO/IEC 42001, la première norme mondiale de système de gestion de l'IA publiée en 2023, ou si un modèle spécifique fonctionne dans les paramètres approuvés et sans biais involontaire. Il est important de noter que la norme régissant les auditeurs eux-mêmes, l'ISO/IEC 42006, publiée en juillet 2025, définit désormais les compétences et la rigueur requises des organismes qui auditent et certifient les systèmes de gestion de l'IA. La profession d'audit, en d'autres termes, commence à formaliser sa propre responsabilité pour les missions liées à l'IA.

L'assurance de l'IA est la conclusion formelle, destinée aux parties prenantes, qui émerge de ce processus d'audit. C'est l'opinion professionnelle, émise par une partie qualifiée et indépendante, qui donne aux conseils d'administration, aux régulateurs, aux investisseurs et au public la confiance qu'un système d'IA ou un cadre de gestion de l'IA répond à une norme définie. L'assurance est ce qui transforme un examen interne en un signal externe crédible.

FONDER L'ASSURANCE DE L'IA
Le concept d'assurance indépendante n'est pas nouveau pour les conseils d'administration. Chaque année, les auditeurs externes examinent les états financiers d'une organisation et émettent une opinion ; une conclusion fondée sur des preuves, menée selon des normes reconnues internationalement et soutenue par l'indépendance professionnelle de l'auditeur. Cette opinion a du poids précisément parce que le cadre qui la régit est rigoureux et bien établi. Cette logique s'applique quel que soit le secteur ; que l'organisation soit une banque, un hôpital, un conglomérat ou une institution publique, l'audit financier est un mécanisme familier et de confiance.

La même logique s'applique maintenant à l'IA. Lorsqu'une organisation fait une déclaration publique ou réglementaire concernant ses systèmes d'IA, affirmant qu'ils sont équitables, transparents, conformes à une norme définie ou exempts de biais matériel, la question est : qui valide indépendamment cette affirmation, et dans quel cadre professionnel ?

La réponse, pour la profession comptable et d'audit, est l'ISAE 3000, la Norme internationale sur les missions d'assurance émise par l'International Auditing and Assurance Standards Board (IAASB). L'ISAE 3000 régit les missions d'assurance sur des questions autres que les informations financières historiques, ce qui en fait le cadre naturel pour l'assurance de l'IA. Selon cette norme, un professionnel peut mener soit une mission d'assurance raisonnable, la norme la plus élevée analogue à un audit financier, soit une mission d'assurance limitée, qui se rapproche davantage d'un examen. Le choix du niveau importe et doit être délibéré, calibré en fonction de l'importance et du risque du système d'IA en question.

Un parallèle contemporain proche est l'assurance en matière de durabilité ou ESG. De nombreuses entreprises cotées aux Philippines commandent déjà une assurance indépendante sur leurs divulgations en matière de durabilité, souvent dans le cadre de l'ISAE 3000. Les mécanismes sont exactement les mêmes : un praticien indépendant examine un ensemble d'affirmations par rapport à des critères définis et émet une conclusion formelle. Le sujet diffère ; la discipline professionnelle ne diffère pas.

CE QUE CELA SIGNIFIE POUR LES CONSEILS D'ADMINISTRATION
Trois implications pratiques découlent de ce cadre.

Premièrement, les conseils d'administration devraient se demander si leurs organisations ont effectué des évaluations des risques de l'IA rigoureuses sur les systèmes importants. Non pas un exercice ponctuel, mais un processus évolutif qui est mis à jour à mesure que les modèles sont réentraînés, que les cas d'utilisation s'étendent et que l'environnement réglementaire évolue. La qualité du travail d'audit et d'assurance en aval n'est aussi bonne que l'évaluation des risques qui le précède.

Deuxièmement, les conseils d'administration devraient faire la distinction entre l'audit interne et externe de l'IA. Les fonctions d'audit interne jouent un rôle essentiel en fournissant l'assurance que les contrôles de l'IA fonctionnent comme prévu. Cependant, les conseils d'administration devraient également se demander si un audit indépendant par une partie tierce des systèmes d'IA importants est justifié, en particulier pour les systèmes qui affectent les clients, les employés ou le public de manière conséquente. Comme pour l'audit financier, l'indépendance renforce la crédibilité.

Troisièmement, alors que les organisations prennent de plus en plus d'engagements publics concernant leurs pratiques en matière d'IA auprès des régulateurs, des investisseurs et des communautés qu'elles servent, les conseils d'administration devraient se demander si ces engagements sont soutenus par une assurance crédible. Les affirmations sans validation indépendante constituent, au mieux, un risque de réputation qui attend de se matérialiser.

UNE PROFESSION QUI DÉVELOPPE ENCORE SES CAPACITÉS
Il serait incomplet de présenter ce paysage sans reconnaître ses limites actuelles. L'infrastructure pour l'assurance de l'IA est encore en cours de construction. Les normes professionnelles émergent. Les compétences des auditeurs en IA, couvrant l'apprentissage automatique, les biais algorithmiques, la gouvernance des données et la transparence des modèles, ne sont pas encore uniformément développées dans l'ensemble de la profession. L'ISAE 3000 fournit le cadre d'assurance, mais les méthodologies spécifiques à l'IA qui s'y trouvent sont encore en cours de maturation.

Pour les organisations qui ne sont pas encore prêtes à poursuivre une assurance formelle, ce n'est pas une raison de rester immobile. Une évaluation structurée et régulière des systèmes d'IA importants est une première étape significative et pratique. Elle développe la discipline interne, la documentation et les habitudes de gouvernance que la préparation à l'assurance nécessite éventuellement. Les conseils d'administration qui commandent de telles évaluations aujourd'hui, même de manière informelle, développent une capacité institutionnelle qui importera lorsque les attentes réglementaires se durciront et que l'examen des parties prenantes s'intensifiera.

Ce point de vue est celui que j'ai exploré plus en profondeur dans des recherches que j'ai développées avec des collègues examinant la gouvernance de l'IA générative dans des économies où la réglementation doit encore rattraper la technologie. L'argument central est que les entreprises sont déjà des agents moraux ayant des obligations éthiques existantes envers leurs parties prenantes ; attendre une législation spécifique à l'IA n'est ni nécessaire ni suffisant pour une gouvernance responsable. L'obligation d'agir est déjà là. Ce qui est nécessaire, c'est la volonté organisationnelle de l'opérationnaliser.

Ce n'est pas une raison pour les conseils d'administration d'attendre sur l'agenda plus large. C'est une raison de poser des questions éclairées maintenant, à leurs auditeurs externes, à leurs fonctions d'audit interne et à leurs équipes de direction, afin que lorsque les capacités de la profession rattraperont la demande, leurs organisations soient prêtes à s'engager de manière significative.

L'audit financier n'est pas apparu complètement formé. Il a fallu des décennies d'établissement de normes, de développement professionnel et de leçons difficiles tirées des échecs d'entreprises pour que l'audit indépendant devienne l'institution crédible qu'il est aujourd'hui. L'assurance de l'IA se trouve à un point d'inflexion précoce comparable. Les conseils d'administration qui s'y engagent maintenant, posent des questions plus pointues à leurs auditeurs, exigent plus que des affirmations de la direction et développent des capacités internes avant que les régulateurs ne l'exigent, non seulement réduiront leur propre exposition. Ils contribueront à façonner ce à quoi ressemble la responsabilité responsable de l'IA pour les organisations philippines et la région au sens large.

Erika Fille T. Legara est physicienne, éducatrice et praticienne en science des données et en IA, travaillant dans les secteurs gouvernemental, académique et industriel. Elle est la directrice générale inaugurale et directrice de l'IA et des données du Centre d'éducation pour la recherche en IA, et professeure associée et titulaire de la chaire Aboitiz en science des données à l'Asian Institute of Management, où elle a fondé et dirigé le premier programme de MSc en science des données du pays de 2017 à 2024. Elle siège à des conseils d'administration d'entreprises, est membre de l'Institute of Corporate Directors, professionnelle certifiée en gouvernance de l'IA par l'IAPP et cofondatrice de CorteX Innovations.

Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter [email protected] pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.

Vous aimerez peut-être aussi

Le marché se tourne à nouveau vers Bitcoin après une perte majeure de 1,7 milliard de dollars

Le marché se tourne à nouveau vers Bitcoin après une perte majeure de 1,7 milliard de dollars

L'article "Le marché revient vers le Bitcoin après une liquidation majeure de 1,7 milliard de dollars" est apparu sur BitcoinEthereumNews.com. Les marchés Crypto se sont stabilisés après 1,7 milliard de dollars de liquidations qui ont secoué les traders, avec le Bitcoin se maintenant au-dessus de 112 000 $ et l'Ethereum proche de 4 200 $. Alors que les altcoins ont perdu leur momentum, les afflux institutionnels et les tendances saisonnières pourraient positionner le BTC pour une percée en octobre. Le Crypto se rétablit après le choc de la liquidation et vise des vents favorables en octobre. Les marchés Crypto retrouvent leur équilibre après l'une des plus importantes [...] Source: https://news.bitcoin.com/market-rotates-back-to-bitcoin-after-major-1-7-billion-wipeout/
Partager
BitcoinEthereumNews2025/09/24 01:16
Takaichi annonce une action immédiate jeudi pour stabiliser les marchés

Takaichi annonce une action immédiate jeudi pour stabiliser les marchés

L'article Takaichi annonce une action immédiate jeudi pour stabiliser les marchés est paru sur BitcoinEthereumNews.com. La libération de la réserve stratégique de pétrole du Japon : Takaichi
Partager
BitcoinEthereumNews2026/03/24 10:40
ZachXBT Expose les Faux Comptes Alimentant les Arnaques Crypto sur X

ZachXBT Expose les Faux Comptes Alimentant les Arnaques Crypto sur X

L'article ZachXBT expose les faux comptes alimentant les arnaques crypto sur X est apparu sur BitcoinEthereumNews.com. L'enquêteur blockchain ZachXBT a déclaré lundi avoir découvert une opération coordonnée
Partager
BitcoinEthereumNews2026/03/24 10:36