Nous nous tournons de plus en plus vers l’IA pour avoir des réponses à nos problèmes et trouver des informations. Mais et si l’IA nous induisait en erreur, saurions-nous ?
En quelques mois d’existence, ChatGPT a atteint 100 millions d’utilisateurs. Un chiffre énorme qui a pris près de quatre années d’existence à Facebook et autres outils technologiques. Ceci prouve la confiance que de plus en plus d’utilisateurs placent en ces outils IA, dont Gemini et Claude. Mais contrairement aux moteurs de recherche classiques qui se contentaient de faire remonter les sources, les outils IA ne montrent pas diverses sources. Ils se contentent de partager l’information qu’ils trouvent précise. Mais dans ce cas, l’IA peut-elle nous induire en erreur ? Si oui, comment saurions-nous ?
Dans cet article :
L’IA a été formée pour donner la réponse la plus précise, mais…
Contrairement aux moteurs de recherche qui agissent comme des agents dans les bibliothèques pour trouver tous les sites qui apportent une réponse à ce que nous cherchons, les IA fonctionnent comme des experts qui répondent directement à nos questions. Pour parvenir à cette étape, elles ont été entraînées sur d’énormes volumes de données qui définissent leur précision et leur expertise. Tout comme un humain est destiné à devenir un mauvais professionnel, s’il a reçu un enseignement de piètre qualité, les réponses d’une IA seraient de mauvaise qualité si les données qui ont servi à son entraînement sont médiocres et insuffisantes.
À leurs débuts, alors qu’ils ont été entraînés sur d’énormes quantités de données, des centaines de milliards, les outils IA sont frappés par une maladie commune : l’hallucination. Bien que les modèles aient la réponse précise, ils pouvaient à tout moment se lancer dans un discours logorrhéique avec des informations ‘‘inventées’’ de toute pièce, apparemment cohérentes, mais fausses en réalité. Une nouvelle demande permettait parfois d’accéder à la réponse recherchée.
Les hallucinations sont l’œuvre des données biaisées ou incomplètes qui ont servi à l’entraînement de ces modèles ; elles sont aussi les conséquences de la complexité de la langue humaine, mais aussi le résultat d’une requête mal formulée. Et comme le précise l’avertissement en bas de chaque LLM, les réponses données par ces outils ne sauraient être prises pour parole d’Évangile, mais doivent toujours faire l’objet de vérification.
VOIR AUSSI : L’intelligence artificielle pourrait-elle dépasser l’intelligence humaine ?
L’IA peut induire en erreur : cela dépend des données et de ses réglages
Comme nous l’avons vu précédemment, les données utilisées pour leur entraînement constituent la force des outils IA. Si ces derniers n’ont pas été entraînées dans un domaine avec des données variées et complètes, il est probable que leur réponse dans ledit domaine frôle la catastrophe. Mais cela, vous ne le sauriez probablement pas. D’où la nécessité d’avoir un minimum de prérequis avant d’accorder une entière confiance en les réponses d’IA.
Si vous posez des questions à ChatGPT ou Gemini sur des domaines qu’ils ne maitrisent pas, il est probable qu’ils vous répondent humblement comme n’ayant aucune information en la matière. Cependant, il peut arriver qu’ils se lancent dans une démonstration farfelue. Cela arrive le plus souvent quand ils possèdent des informations, mais insuffisantes.
De plus, les IA sont généralement entraînées sur des données historiques. Elles ne sont pas mises à jour en temps réel pour rester collées à l’actualité. Dans ce cas, si la question est relative à un sujet d’actualité, la réponse donnée pourrait être erronée.
En outre, les données ne font pas tout : les réglages sont aussi importants. Gardons à l’esprit que les IA ne sont que des outils qui obéissent à la direction que leur donne leur créateur. C’est notamment la raison pour laquelle ChatGPT se plante qu’on lui pose des questions relatives à certaines personnes. Il en est de même de Gemini qui refuse systématiquement de répondre à des questions liées à la politique, même les plus triviales telles que : ‘‘Qui est le président de la France ?’’.
Ici encore, l’utilisateur n’est pas informé des réglages sous-jacents sur lesquels fonctionne un outil IA. Il est donc possible qu’un outil soit programmé pour mentir sur certains sujets. Ce ne serait pas nouveau, puisque les moteurs de recherche peuvent être manipulés pour cacher certaines informations. Les entreprises, bien souvent, trouvent des moyens de justifier leur approche, bien qu’elle soit un garrot pour l’expansion du savoir et le droit d’accès à l’information.
BuzzWebzine est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :