Au cours de l'année 2023, les grands modèles de langage (LLM) comme GPT-4 ont été au cœur des actualités. Cependant, le fait que les modèles peuvent halluciner, c'est-à-dire inventer des informations en répondant aux questions des utilisateurs, a soulevé des inquiétudes.
« L'IA hallucine, comment peut-on donc s'assurer que le modèle ne commettra pas d'erreurs ? »
« Que penser du fait que ChatGPT peut se tromper ? »
Ce sont des questions pertinentes. Toutefois, elles partent du principe que les modèles sur lesquels se basent des expériences comme ChatGPT sont censées être infaillibles, ce qui est faux. Le problème ne réside pas dans les modèles eux-mêmes.
Ces « hallucinations » de l'IA conversationnelle et générative ne sont pas un bug, mais une fonctionnalité. En effet, les LLM ne sont pas des bases de données statiques qui contiennent des réponses à toutes les questions possibles. Ils agissent davantage comme des niveaux de traduction, ou des interprètes, qui peuvent nous aider à trier les informations, à prendre de meilleures décisions et à obtenir plus de résultats.
Le PDG d'OpenAI, Sam Altman, l'a expliqué lui-même sur un récent podcast : « une trop grande partie de la puissance de traitement est consacrée à l'utilisation du modèle comme une base de données, plus que comme moteur de raisonnement ».
Très bien. Mais comment pouvez-vous y remédier, en tant que chef d'entreprise ? Et comment pouvez-vous utiliser les outils d'IA dans vos workflows tout en réduisant les risques ?