Avec l’IA générative, la donne technologique a changé : tout le monde est désormais un programmeur potentiel. Mais à mesure que nous accomplissons ces avancées technologiques, il reste une capacité essentielle et de longue date dont chaque organisation aura besoin pour réaliser le véritable potentiel de l’IA : le jugement. Cette idée de jugement à l’ère de l’intelligence artificielle était un principe central du travail du regretté collègue des auteurs, ami visionnaire et contributeur de longue date de HBR, Alessandro Di Fiore. Alessandro croyait qu’il fallait placer l’humain au centre et considérait la technologie comme un moyen d’aider les gens à accroître leur créativité, leur autonomie et leur esprit critique. Il a fait valoir que le jugement constituera le véritable avantage concurrentiel des organisations à mesure que les systèmes d’IA atteindront une nouvelle norme de fonctionnement commune.
Il n’y a pas si longtemps, l’intelligence artificielle était considérée comme le domaine réservé des experts d’élite ou des data scientists. Les entreprises parlaient avec enthousiasme de son potentiel de transformation, mais seule une fraction des employés y avait accès. Avec l’IA générative, la donne a changé : du coup, tout le monde est un programmeur potentiel grâce à des outils comme ChatGPT d’OpenAI, Bard de Google ou Claude 2 d’Anthropic. Mais à mesure que nous accomplissons ces avancées technologiques, il reste une capacité essentielle et de longue date dont chaque organisation aura besoin pour réaliser le véritable potentiel de l’IA : le jugement.
Cette idée de Le jugement à l’ère de l’IA était un principe central du travail de notre regretté collègue et ami visionnaire Alessandro Di Fiore. Alessandro croyait qu’il fallait placer l’humain au centre et considérait la technologie comme un moyen d’aider les gens à accroître leur créativité, leur autonomie et leur esprit critique. En tant que collaborateur fréquent de HBR (et ancien président de Harvard Business ReviewItalie) a souvent réfléchi à la façon dont l’innovation, le leadership et l’intelligence artificielle allaient de pair. Et dans cet article de 2018, il affirmait qu’à mesure que l’IA deviendrait plus accessible à tous les employés, le jugement deviendrait aussi crucial que n’importe quelle compétence technique.
Alessandro a fait valoir que le jugement constituera le véritable avantage concurrentiel des organisations à mesure que les systèmes d’IA atteindront de nouvelles normes de fonctionnement communes. Mais le renforcement des compétences ne permettra pas à lui seul de développer un meilleur jugement. Les entreprises devront repenser radicalement leur façon de percevoir et d’utiliser leur jugement pour s’adapter au rythme du changement. De manière significative, Alessandro considère que trois aspects critiques du jugement sont cruciaux à ce stade :
Accéder
Cela renvoie à l’idée de savoir qui a le pouvoir ou la permission d’exercer son jugement. En tant que l’un des premiers défenseurs de la démocratisation du jugement, Alessandro savait que la prise de bonnes décisions n’était pas réservée à la haute direction. À mesure que les connaissances, les données et les technologies sont plus largement diffusées, le jugement doit également l’être plus largement.
Les entreprises doivent trouver comment procéder levier et échelle l’IA générative et tenter d’interdire cet accès s’avérera en fin de compte un effort futile. Veiller à ce que vos employés aient accès à toutes les façons dont ils peuvent exploiter la valeur de ces outils fait partie de la transformation, bien entendu, de manière sécurisée et contrôlée. Cela nécessite de la confiance et de la communication. Mais les dirigeants devraient considérer qu’un nombre croissant de nouveaux cas d’utilisation et de nouvelles pratiques sont susceptibles d’émerger de manière ascendante plutôt que descendante.
Exercice du jugement
Cela parle de l’acte ou du processus de décision ou de formation d’une opinion. Alexander considérait le jugement comme un processus continu plutôt que comme un moment unique :
Le jugement n’est pas seulement exercé lors de la prise de décision en évaluant des données et des informations. Le jugement est plus large et commence par poser les bonnes questions, définir le bon problème, évaluer le contexte plus large. Juger est co-créatif, c’est un voyage.
Cette conception du jugement est encore plus vraie aujourd’hui. L’essor de l’IA générative étend le jugement au-delà des décisions discrètes : il s’agit désormais d’un processus collaboratif homme-machine.
Avec les chatbots basés sur l’IA, l’importance des interactions contextuelles est évidente. Le jugement émerge grâce au dialogue intégré homme-IA, et non à travers des sphères distinctes. Notre récente expérience ChatGPT sur Comment l’IA générative peut améliorer 10 pratiques de gestion populaires c’est un cas emblématique. Dans une conversation significative avec ChatGPT, nous avons dû exercer notre jugement avant, pendant et après les suggestions, en insérant le bon contexte, en créant la meilleure chaîne de suggestions et en interprétant soigneusement les recommandations.
L’expérience a confirmé l’intuition d’Alessandro : les résultats idéaux naissent à l’intersection de l’intelligence humaine et artificielle. L’avenir du bon jugement réside dans ce processus de co-création symbiotique. Un tel changement nécessite une transformation globale et une requalification des personnes, dotant les travailleurs du jugement essentiel à l’ère de l’intelligence artificielle.
Control
Cela concerne les systèmes ou processus en place pour superviser ou vérifier les décisions. Les méthodes de contrôle traditionnelles deviennent rapidement obsolètes. Une surveillance rigoureuse descendante peut étouffer l’agilité dans ce nouveau paradigme. Cependant, une autonomie totalement illimitée comporte ses propres risques si les principes éthiques du développement et de la mise en œuvre de l’IA ne sont pas ancrés dans toutes les organisations.
La solution comporte deux parties : Premièrement, instaurer la confiance et la responsabilisation dans le système avec un Code d’éthique pour une utilisation équitable, sûre et durable et pour empêcher les modèles d’intelligence artificielle de produire des informations inexactes ou de générer des réponses contraires aux valeurs de votre entreprise ; Deuxièmement, fournir une formation aux utilisateurs sur la manière de définir le bon contexte pour la prise de décision en matière d’IA humaine. La deuxième partie consiste à expliquer les limites appropriées des suggestions et à formuler les demandes de manière responsable. Plutôt que de micro-approuver des choix, les dirigeants devraient s’efforcer de doter les travailleurs de ces compétences à tous les niveaux.
Dans cette vision, transformations de contrôle du contrôle bureaucratique à la promotion de la responsabilité collective. Comme l’écrit Alessandro : « Les dirigeants ont le devoir personnel de créer le contexte et les conditions appropriés pour permettre aux employés de prendre des décisions plus autonomes à l’aide des données et des technologies. Donner la liberté, c’est bien. Mais les aider à exercer leur liberté est encore plus crucial. »
La vision d’Alessandro met en évidence la nécessité de faire preuve de bon jugement alors que l’intelligence artificielle remodèle la société. Son héritage reste une source constante d’inspiration alors que nous travaillons vers un avenir où les humains et les technologies travailleront en parfaite synergie, favorisant l’innovation et le progrès.
Et l’avenir reste le nôtre et nous devons le façonner grâce à une vision, une éthique et une innovation responsable.