Récemment, la Business Roundtable (groupe influent de PDG de grandes entreprises des États-Unis) a publié leur Business Roundtable Roadmap for Responsible Artificial Intelligence (en anglais). Alors que beaucoup d’entreprises pensent déjà à une IA responsable en raison des tendances du marché, telles que l’imminent Artificial Intelligence Act en Europe et les demandes des consommateurs axées sur les valeurs, cette annonce lancera les débats au niveau de la direction des entreprises.

Certains des principes sont très normatifs, comme « Innover avec et pour la diversité ». D’autres, par exemple « Atténuer le risque d’éventuels partis-pris » sont trop vagues et imprécis pour être utiles. Pour les responsables technologiques et commerciaux qui souhaitent adopter ces principes en partie ou dans leur intégralité, le défi sera de les mettre en œuvre. Vous trouverez une synthèse de chaque principe, avec des références aux recherches que nous avons publiées (accessibles pour les clients Forrester), où nous examinons de plus près comment mettre ces principes en pratique de manière cohérente.

Innover avec et pour la diversité.

Lorsque les gens qui conçoivent et développent les systèmes d’IA se ressemblent tous, il y a forcément des angles morts importants. Recruter des équipes diverses pour développer, déployer, contrôler et utiliser l’IA permet de supprimer ces angles morts et c’est quelque chose que nous avions recommandé chez Forrester depuis notre premier rapport sur l’éthique de l’IA in 2018.

Atténuer le risque d’éventuels partis-pris.

Il y a plus de 20 représentations mathématiques différentes de l’équité et sélectionner la bonne dépend de votre stratégie, du cas d’usage et des valeurs de l’entreprise. En d’autres termes, l’équité fait partie de l’IA de l’observateur. Nous avons récemment publié un rapport Forrester incluant les meilleures pratiques en matière d’évaluation de l’équité dans l’IA et l’atténuation des partis-pris tout au long du cycle de vie de l’IA.

Concevoir dans un souci de transparence, d’explications et d’interprétation et mettre en place ces notions.

Il y a de multiples façons de décrire l’IA explicable (XIA) : la transparence fait référence aux algorithmes « boîte de verre » entièrement transparents, alors que l’interprétation repose sur des techniques qui expliquent comment fonctionne un système opaque tel qu’un réseau neuronal profond.

Investir dans une main-d’œuvre IA préparée.

Très probablement l’IA transformera les métiers pour bon nombre de personnes, sans pour autant les supprimer. Cependant, la plupart des employés ne sont pas encore préparés. Ils n’ont pas les compétences ni les dispositions mais espèrent tout de même pouvoir adopter l’IA. Investir dans le quotient robotiqueRQ (pour Robotics Quotient) mesure la capacité des individus et des organisations à apprendre, à s’adapter et à collaborer avec des “entités” automatisées –  peut aider les employés à adopter l’IA.

Évaluer et surveiller la structure et l’impact du modèle.

La pandémie a été une leçon pour les entreprises risquant une dérive des données. Les entreprises doivent adopter les opérations d’apprentissage machine (MLOps) pour surveiller l’IA afin de continuer à avoir des résultats, et elles doivent savoir identifier les décalages et en tirer profit.

Gérer la collecte des données et l’utilisation des données de manière responsable.

Alors que le cadre de la Business Roundtable souligne la qualité et la précision des données, il en néglige la confidentialité. Comprendre la relation entre l’IA et les données à caractère personnel est essentiel à une gestion responsable de l’IA. Nous explorons la relation entre la confidentialié et l’IA dans notre rapport, Establish An Effective Privacy And Data Protection Program.

Concevoir et déployer des systèmes IA sécurisés.

Il n’y a pas d’IA sécurisée sans des pratiques solides de cybersécurité et protection de la vie privée. Utilisez Cybersecurity And Privacy Maturity Assessment pour identifier les améliorations possibles.

Favoriser une culture d’IA responsable à l’échelle de l’entreprise.

Certaines entreprises commencent à adopter une approche descendante pour favoriser une culture de l’IA responsable, en nommant un chief trust officer ou un chief ethics officer. Nous espérons voir ces initiatives se développer dans les prochaines années.

Adapter les structures administratives existantes pour tenir compte de l’IA.

La gouvernance ambiante des données est parfaitement adaptée à l’IA. Cette approche vise à intégrer la gouvernance des données au quotidien, lors de toute interaction avec les données, et à adapter les données à l’intention de celui qui les manipule. Cartographiez vos efforts en matière de gouvernance des données dans le contexte de la gouvernance IA.

Concrétiser la gouvernance IA dans l’ensemble de l’entreprise.

Dans beaucoup d’entreprises, la gouvernance est devenue un gros mot. Ceci est à la fois regrettable et très dangereux. Découvrez comment surmonter cette usure en termes de gouvernance.

Quelles sont les lacunes ?

Même si la roadmap de la Business Roundtable est solide et bien pensée, il manque deux éléments essentiels que les entreprises doivent intégrer pour adopter l’IA de manière responsable :

Réduire les risques inhérents aux tiers par un processus de diligence rigoureux.

La plupart des entreprises adoptent l’IA en partenariat avec des tiers, en achetant des solutions IA externes ou en développant leurs propres solutions à l’aide de blocs élémentaires d’IA de tiers. Dans les deux cas, le risque d’utilisation de solutions d’IA externe est réel et doit être réduit. Notre rapport AI Aspirants : Caveat Emptor, représente les meilleures pratiques pour réduire ce risque tiers.

Tester l’IA pour réduire les risques et augmenter la valeur commerciale.

Le logiciel infusé d’IA introduit un élément d’incertitude qui souligne la nécessité de réaliser des tests supplémentaires sur les interactions entre les différents modèles et le logiciel automatique. Forrester a développé un Test Strategy framework pour ses clients, basé sur les risques d’entreprise et suggérant le niveau et le type de test requis.

L’importance d’une IA responsable reste d’actualité. Les entreprises qui investissent dans leurs collaborateurs, leurs processus et les technologies utilisées pour garantir l’adoption de l’IA de manière déontologique et responsable protégeront leurs activités contre les risques en matière de réglementation ou de réputation.

Note : cet article a été traduit. Langue originale : anglais.