L’expression « hallucination de l’IA » suggère qu’une machine pourrait perdre contact avec la réalité, comme un être humain. Or, comme le rappelle le professeur Tshilidzi Marwala, recteur de l’Université des Nations Unies, l’IA ne perçoit pas le monde. Elle ne fait que traiter des données et générer des prédictions statistiques. Parler d’hallucination revient donc à humaniser artificiellement un défaut technique, ce qui brouille la perception publique. Les modèles de langage, par exemple, ne « pensent » pas : ils prédisent simplement le mot le plus probable pour continuer une phrase, en fonction de leur entraînement. Quand une information est rare ou ambiguë, ils peuvent inventer une réponse qui semble plausible mais est factuellement fausse. Ce n’est pas une vision délirante, mais une erreur de prédiction.
Employer le mot « hallucination » a deux effets néfastes. D’abord, il entretient le mythe d’une IA presque consciente, nourrissant à la fois fascination et peur. Ensuite, il décharge les concepteurs de leur responsabilité, comme si ces erreurs étaient inévitables. Les qualifier plutôt de « fabrications » ou « incohérences factuelles » recentre le débat sur ce qu’elles sont réellement : des défaillances techniques. Pour l’Afrique, où l’IA s’invite dans la santé, l’éducation ou l’administration, comprendre cette distinction est crucial. Ce n’est qu’en dépassant les métaphores trompeuses que nous pourrons exiger des systèmes plus fiables, mieux adaptés à nos besoins et porteurs d’un véritable progrès.