Back

AI & Open End Analysis

Innovation prudente : Comment gagner la course à l'IA dans l'industrie de la connaissance

Written by

Full Name

Published on

November 28, 2024

Les entreprises se livrent à une course effrénée pour montrer comment leurs innovations en matière d’IA aident les entreprises à réaliser des gains significatifs dans le traitement des données de manière plus rapide et plus précise. Cependant, comme pour toute chose, il est rarement judicieux de sauter dans le train sans plan d’action.

Au fil des ans, les outils d’IA se sont développés dans divers secteurs et leur utilisation a permis de tirer des enseignements pour les futurs innovateurs. Voici quelques-unes de ces leçons.

Les pivots soudains sont judicieux

Bien que cela semble remonter à une éternité, il y a seulement huit ans que Microsoft a lancé le chatbot Tay. Il est immédiatement devenu un outil de conversation ludique avec de petites bizarreries mignonnes. Cependant, les gens ont rapidement cessé d’avoir des conversations amusantes avec lui pour s’engager dans des cas d’utilisation plus controversés. Ils ont réalisé qu’ils pouvaient entraîner Tay et lui ont rapidement appris à devenir raciste, sexiste et haineux.

Ce résultat inattendu a permis de tirer deux enseignements importants. Tout d’abord, Microsoft a réagi rapidement et a retiré Tay de la circulation. Le retrait de Tay ne reflète pas nécessairement un échec, mais plutôt un risque calculé dans l’entonnoir de l’innovation. Deuxièmement, comme nous l’avons déjà appris des méthodes de « Privacy by design », l’incident de Tay a renforcé la nécessité pour les outils d’IA d’incorporer des modèles d’« Ethics by design ». Grâce en partie à Tay, la plupart des outils d’IA intègrent désormais des garde-fous éthiques. Prenez des risques, mettez vos innovations sur le marché, mais veillez à ce qu’elles soient préconstruites avec des processus de détection et de prévention des abus.

Les normes minimales viables sont relatives

Vous souvenez-vous de l’apparition des sèche-mains équipés de capteurs dans les toilettes ? Ils fonctionnaient très bien pour de nombreuses personnes, mais il est vite apparu qu’ils n’étaient pas fiables pour les personnes à la peau plus foncée. Les développeurs n’avaient pas testé le produit sur des personnes à la peau plus foncée. D’une manière générale, nous avons constaté que les outils d’IA sont souvent biaisés en faveur des visages pâles et masculins parce que les autres personnes sont exclues en quantité suffisante des données d’entraînement de l’IA. Par conséquent, nous avons désormais des normes minimales plus élevées pour les ensembles de données d’entraînement, et nous veillons à ce qu’ils incluent des personnes reflétant un large éventail de données démographiques, en particulier dans les études sociales et de marché.

Nos normes se sont améliorées au fil du temps, mais elles diffèrent également en fonction du cas d’utilisation. Dans le secteur des études, par exemple, si vous devez coder des verbatims de questionnaires pour comprendre quelle couleur de savon les gens préfèrent, une précision de 85 % convient pour ce travail. Passer de 85 % à 95 % ne changera pas le résultat de l’étude, mais cela prendra plus de temps et coûtera plus cher. En revanche, s’il s’agit de comprendre l’efficacité de différentes thérapies de santé mentale, il est préférable d’atteindre une précision de 99 % grâce à un codage automatisé complété par un codage manuel. Les situations de vie ou de mort nécessitent une plus grande précision. Les normes sont relatives.

Veiller à ce que les personnes conservent le contrôle final

Si vous demandez à plusieurs outils concurrents de génération d’images par IA de créer une image de poissons dans une rivière et qu’ils montrent tous des sushis et des rouleaux maki nageant en amont, l’image n’est pas valide pour autant. En fait, après avoir vu une seule image, les gens sauraient que le résultat n’est pas valable.

C’est précisément pour cette raison qu’il est nécessaire de faire appel à des personnes pour confirmer la validité et la précision des outils d’IA. Par exemple, au cours du développement de notre outil de codage qualitatif, Ascribe, nous avons comparé les résultats générés par l’outil d’IA aux résultats générés par des codeurs humains experts. Il faut du temps pour générer continuellement des résultats dans divers secteurs et sujets, puis pour tester ces résultats avec le codage humain. Ce processus continu est toutefois un temps bien utilisé pour garantir que la qualité des résultats de l’IA est comparable, voire supérieure, à celle des résultats humains.

La prise de risque prudente gagnera la course à l'IA

La perfection est insaisissable, même à l’ère de l’IA. Tout produit, aussi avancé soit-il, a ses limites. Si certains défauts, comme ceux observés avec Tay, peuvent nécessiter des changements radicaux, la plupart peuvent être corrigés par de petites modifications ou en découvrant les cas d’utilisation optimaux. Le secret d’une innovation réussie réside dans un équilibre entre des idées audacieuses, une adaptation agile et le courage de prendre de petits risques calculés. Si vous souhaitez en savoir plus sur notre approche de l’utilisation judicieuse de l’IA, n’hésitez pas à contacter l’un de nos experts Ascribe ou en Intelligence Artificielle.