Tu fais confiance à Google, n’est-ce pas ? Chaque fois qu’une question se pose, tu te saisis de ton smartphone et cherches la réponse. Mais as-tu déjà réfléchi au fait que ce que tu trouves sur Google ne correspond peut-être pas à la vérité ? Les gens se fient en partie aveuglément aux systèmes informatiques et abandonnent leur propre jugement au nom de la commodité. C’est ce que nous pouvons observer actuellement avec ChatGPT et d’autres chatbots.
Dans le monde moderne où nous sommes entourés d’informations et de données, il est légitime de se demander comment une intelligence artificielle peut déterminer la vérité et si elle peut même la reconnaître.
Les moteurs de recherche comme Google ou Bing utilisent des algorithmes spéciaux pour évaluer la pertinence des sites web par rapport à une requête de recherche. Ils prennent en compte divers facteurs, notamment la réputation et l’autorité d’une source ainsi que l’actualité des informations, afin de trouver le meilleur résultat et donc, espérons-le, la bonne information pour l’utilisateur.
En revanche, dans un grand modèle linguistique, aucune distinction n’est faite quant aux sources des données d’entraînement.
Ainsi, ChatGPT, GPT-3, GPT-4 et autres considèrent comme vrai les énoncés les plus fréquemment présents dans les données d’entraînement. Bien que ces données d’entraînement soient en partie nettoyées, de manière similaire à la détection de spam dans un moteur de recherche, elles ne peuvent pas être pondérées différemment en fonction de l’autorité ou de la confiance de la source, contrairement aux moteurs de recherche modernes.
En pratique, cela signifie qu’une déclaration dans un livre de référence d’un auteur renommé a autant de poids qu’une déclaration de n’importe quel troll sur un forum Internet, pour autant que le livre de référence et le message du forum soient inclus dans les données d’entraînement et n’aient pas été écartés en raison de certains mots-clés de blocage.
Il est donc important de reconnaître que les moteurs de recherche et les systèmes d’IA ne peuvent pas reconnaître la vérité au sens absolu. Ils dépendent de l’analyse et de l’évaluation des informations et des données à leur disposition. Dans de nombreux cas, cela peut aboutir à la fourniture d’informations fiables et précises. Mais il y a aussi des cas où ils fournissent des informations erronées ou trompeuses, sans que cela soit facilement reconnaissable pour toi.
Source :
Rédaction de texte efficace avec l’IA – ChatGPT, GPT-4, GPT-3, Kai Spriestersbach.