L’essor récent de l’intelligence artificielle (IA) générative, notamment des grands modèles linguistiques (LLM), a incité les organisations de tous les secteurs à réfléchir à la manière dont l’IA peut stimuler l’innovation. Les dirigeants reconnaissent de plus en plus la puissance de l’IA, ainsi que ses limites et risques potentiels. Il est essentiel que les dirigeants réfléchissent attentivement à la manière dont l’IA est créée et appliquée et adoptent une approche fondée sur des principes et centrée sur l’humain pour chaque cas d’utilisation.
La Fondation de la Chambre de Commerce des États-Unis évalue les opportunités et les risques potentiels des solutions tirant parti de l’intelligence artificielle, notamment en ce qui concerne le recrutement basé sur les compétences. L’organisation, par l’intermédiaire du T3 Innovation Network, a cherché à explorer un cas test pour les demandeurs d’emploi, examinant si les modèles d’IA pourraient aider les étudiants et les travailleurs à identifier et à reconnaître leurs compétences et à les transmettre sous la forme de diplômes numériques. Si cela s’avère possible, de futurs cas d’utilisation des modèles d’IA pourraient être explorés, tels que la mise en relation des utilisateurs avec des opportunités potentielles d’emploi et de formation en fonction de leurs profils de compétences. Ils ont découvert que les modèles d’IA pouvaient effectivement prendre les expériences passées d’une personne, dans différents formats de données, et les convertir en informations d’identification numériques qui pourraient ensuite être validées par les demandeurs d’emploi et partagées avec des employeurs potentiels.
La US Chamber Foundation a demandé à la communauté d’innovation ouverte d’IBM de lancer une initiative collaborative pour aider à mieux évaluer les risques potentiels liés à l’utilisation de modèles d’IA comme celui-ci, en tirant parti de l’expertise approfondie d’IBM Consulting en matière d’IA.
Les utilisateurs de cette solution représenteraient une grande variété de communautés. Il était donc essentiel de rassembler des personnes internationales, diverses et multidisciplinaires ayant un large éventail d’expériences vécues à travers le monde pour diriger les exercices et explorer le potentiel d’impact involontaire.
S’appuyant sur des cas d’utilisation développés par la US Chamber Foundation et son partenaire principal, Education Design Lab, l’équipe a identifié quatre personnages : un soignant, un chauffeur de covoiturage, un soldat et une personne incarcérée.
Les quatre personnages sont devenus le centre de sessions de réflexion sur la conception personnalisées par IBM Design pour aligner les équipes sur les résultats inattendus qui pourraient survenir lorsque les utilisateurs interagissent avec un modèle d’IA comme celui-ci, tels que les biais, les problèmes de confidentialité des données ou les problèmes d’accessibilité liés au langage ou aux connaissances informatiques. La US Chamber Foundation a établi quatre principes pour gagner la confiance, notamment la sécurité, la responsabilité, l’équité et l’efficacité, et l’équipe a utilisé ces principes pour aider à déterminer les droits de ces personnes.
À la suite de ces séances, les huit équipes ont travaillé avec la US Chamber Foundation pour démontrer qu’elles avaient soigneusement réfléchi à la manière de contribuer à atténuer les risques potentiels associés à l’utilisation de l’intelligence artificielle. Les équipes ont présenté leurs résultats le 18 juillet au Vivez l’événement de démonstration. Les résultats de ces travaux constituent une excellente base pour contribuer à réduire et à atténuer les résultats indésirables potentiels à mesure que les solutions d’IA sont déployées à grande échelle.
La US Chamber Foundation et l’Education Design Lab s’engagent à poursuivre sur cette lancée et travaillent actuellement à explorer les phases futures du projet.
Développer et mettre en œuvre une IA fiable n’est pas un problème technique avec une solution technique. Il s’agit d’un défi socio-technique qui, pour être résolu, nécessite une approche holistique incluant les personnes, les processus et les outils. Une IA digne de confiance commence par les personnes et la culture, et non par la technologie. Il est important d’utiliser des cadres centrés sur l’humain et ancrés dans les pratiques de design thinking pour rester concentré sur les besoins des utilisateurs.
Vous souhaitez poursuivre la conversation ? Rejoignez Phaedra le 4 octobre à Talent Forward de la Fondation de Chambre des États-Unis événement où il discutera des risques potentiels, des tendances et des avantages de l’intelligence artificielle pour les étudiants, les travailleurs, les communautés et les employeurs. Vous pouvez également en savoir plus sur la manière dont l’approche multidisciplinaire et multidimensionnelle d’IBM contribue à faire progresser l’IA responsable et sur les capacités d’IA d’IBM Consulting.
En savoir plus sur l’éthique de l’IA d’IBM En savoir plus sur les capacités d’IA d’IBM Consulting