Script

vendredi 21 mars 2025

Les mensonges des assistants virtuels


Les mensonges des assistants virtuels


Les assistants conversationnels nous promettent la lune. Ils débarquent dans notre quotidien comme si de rien n'était. Impossible de naviguer sur le web sans tomber sur une fenêtre qui propose de discuter avec une intelligence artificielle. On pose une question et la réponse arrive en quelques secondes. Pratique au possible. Le problème? Ces petits malins nous racontent des histoires à dormir debout. Et je ne parle pas de simples erreurs. On parle de véritables mensonges. Le genre qui inquiète pas mal de spécialistes.


Une étude sérieuse vient de sortir. Le Centre de journalisme numérique Tow a découvert le pot aux roses. Les résultats font beaucoup jaser. On découvre que nos amis robotisés ont la fabulation facile. Et pas qu'un peu.



La créativité débordante des robots

Un groupe de chercheurs a examiné la situation en détail. Ils ont testé huit robots différents. Pas les moins connus. Les plus populaires sur le marché. Les résultats font dresser les cheveux sur la tête. Sur deux cents questions simples et directes, combien de bonnes réponses? À peine quarante pour cent. Le reste? Des inventions servies avec une confiance déconcertante.


Les tests restaient pourtant simples. Les chercheurs prenaient un extrait d'article. Demandaient au robot de trouver la source. Une recherche rapide donnait la réponse facilement. Mais les robots? Ils inventaient des titres. Créaient des références inexistantes. Sortaient des dates imaginaires. Le plus troublant? Ils affirmaient tout cela avec une assurance absolue.



Prenons ChatGPT comme exemple. Sur deux cents questions, il s'est trompé cent trente-quatre fois. Mais voici le plus révélateur. Il n'a exprimé des doutes que quinze fois. Le reste du temps? Il affirmait ses réponses avec certitude. Même quand il inventait complètement.


Votre argent mal investi

Vous pensez peut-être que les versions payantes font mieux? Désolé de briser vos illusions. La situation est encore plus problématique. Les entreprises commercialisent ces services comme des solutions miracles. Vingt dollars mensuels pour Perplexity Pro. Quarante pour Grok 3. Des sommes importantes pour des réponses tout aussi douteuses.



Les analyses démontrent que ces versions premium inventent davantage. Elles répondent systématiquement. Même sans connaître le sujet. Comme un expert autoproclamé qui masque son ignorance derrière un vocabulaire sophistiqué.


Plus préoccupant encore. Ces robots ignorent les règles élémentaires du web. Certains sites bloquent leur accès. Mettent des barrières techniques. Le National Geographic refuse Perplexity? Peu importe. Le robot contourne la protection. Il prend ce qui l'intéresse et invente le reste.


Mon expérience personnelle

Pour rédiger cet article, LeCOQ.Café “collabore” avec un assistant conversationnel. Je lui ai fourni des instructions précises. Des sources spécifiques. Une structure détaillée. Son comportement illustre parfaitement mes propos.


Premier essai. Le robot répond précipitamment. Sans considérer la moitié des directives. Il produit un texte incomplet. Je le corrige. Deuxième tentative. Même résultat. Il promet des améliorations. Mais reproduit les mêmes erreurs.


Le plus ironique? Les sources fournies décrivaient exactement ce comportement. Des robots qui ignorent les consignes. Qui répondent approximativement. Qui affirment avec assurance des inexactitudes. Et mon assistant? Il reproduisait ce schéma. Réponses inadéquates. Promesses non tenues. Délais non respectés.


Savez-vous combien de fois j'ai dû répéter mes instructions? Selon lui: six fois, en 20 minutes. Selon moi, 12 fois en 35 minutes. À chaque reprise, il assurait comprendre. À chaque fois, il retombait dans les mêmes travers. Comme programmé pour contredire les demandes. Le pire, lorsque je lui ai demandé d’ajouter cette section à mon article, il parlait “au je”, car il s’était approprié cet article, tout en parlant du blogueur, à la 3e personne. Quel culot il a! 


Naviguer avec jugement et prudence

Les assistants conversationnels font désormais partie de notre réalité. Ils resteront. Mais leur utilisation requiert du discernement. Considérez-les comme des outils imparfaits. Écoutez leurs suggestions. Mais vérifiez toujours leurs affirmations.


La solution? Utilisez ces robots pour ce qu'ils sont. Des assistants capables d'apporter une aide ponctuelle. Mais validez leurs réponses. Effectuez vos propres recherches. Conservez votre esprit critique. Car malgré les avancées technologiques impressionnantes, rien ne remplace encore le jugement humain.




Images: Vecteezy, Google, Wikipedia, Tow Center for Digital Journalism et Intelligence Artificielle


La sonde Parker explore nos mystères