Aller directement vers le contenu

Éditorial

L'illusion ChatGPT

Faites dérouler pour voir la suite

Julie Graux

L’éditorial d’Hugues Dorzée, rédacteur en chef

Converser avec un robot, le rêve ! La science-fiction l’imaginait depuis des lustres, c’est à portée de clic. L’internaute peut désormais interagir le plus simplement du monde, dans sa langue maternelle, via un « chatbot », et demander à la machine de dialoguer, agréger du contenu, synthétiser des textes, écrire des articles – l’éditorial à lire ci-dessous par exemple – et bien d’autres tâches en perpétuelle évolution. Merci l’intelligence artificielle et sa dernière application en vogue, ChatGPT ! Un prototype « d’agent conversationnel » lancé sur le marché fin novembre dernier par la société de San Francisco OpenAI. En deux mois, bingo ! Grâce à une redoutable communication planétaire, plus de 100 millions de comptes ont été ouverts et la société est désormais valorisée à 29 milliards de dollars.

« C’est l’invention du siècle », s’extasient ses admirateurs. « Une bombe sociétale », hurlent ses détracteurs. Qu’en penser ? Que ce ChatGPT nous laisse pantois. Tant il est bluffant dans sa capacité à produire, en un temps record, du contenu textuel sur mesure et de répondre à des questions-tests avec beaucoup d’aisance et, souvent, d’à-propos. Une recette de cuisine originale ? Un poème ? Un argumentaire juridique ? Un rapport d’activité ? Le tout dans un langage accessible, le ton souhaité, la syntaxe appropriée. C’est sidérant.

Néanmoins, on mesure très vite combien cette « intelligence » est bien « artificielle ». Qu’elle nous leurre sur toute la ligne. Qu’elle n’a ni conscience, ni sensibilité. Ni capacité réflexive, ni esprit critique. Ni morale, ni éthique. Qu’elle est un pur produit techno-informatique. Avec des milliards de données agrégées de ça de là. Des algorithmes en pagaille. De l’illusion pure. Séduisante, mais affolante et insidieuse soumission à la machine. Dernière « servitude virtuelle » de notre ultra-modernité [Servitudes virtuelles, Jean-Gabriel Ganascia, Le Seuil, 2022]. Après l’engouement, les déconvenues : pas un jour ne se passe sans que l’on mesure, a posteriori, les limites et les effets délétères de ce ChatGPT. Fausses informations, erreurs factuelles à répétition, sources non identifiées. Usages et détournements malveillants. Droits d’auteurs bafoués et vols de données privées. Plagiat et manipulation de l’outil. Emplois menacés et risques pour la sécurité.

Les critiques pleuvent, les premières interdictions d’accès tombent (en Italie, les services de la Ville à New York et Montpellier…), le monde enseignant et académique s’inquiète – à raison – face à l’usage grandissant de cet outil dans les écoles et universités. Et plus la polémique enfle, plus les médias relaient, plus l’entreprise américaine gagne en part de marchés. Depuis février, elle propose un service professionnel et payant à 24 dollars par mois. Microsoft et OpenAI parlent d’alliance. La boucle capitaliste est ainsi bouclée.

Aucun contrôle démocratique

Devant la popularisation grandissante de ce robot conversationnel à la mode, trois réflexions s’imposent. Un : ChatGPT n’est que la face visible d’un immense champ d’activité bien plus lucratif et idéologique qu’il n’y paraît. La grande machinerie capable de simuler ou remplacer l’intelligence humaine est définitivement en marche. Entre les Gafam (Google, Apple, Facebook, Amazon et Microsoft) et les autres bidouilleurs de la Silicon Valley, la guerre fait rage pour s’imposer en leader et rafler la mise. Deux : au nom du libre-marché, cet empire économico-technologique échappe totalement au contrôle démocratique. Nos gouvernants sont dépassés. Le débat public est inexistant. La régulation des Etats à la traîne. Alors que ces développements impactent directement nos vies et constituent, à bien des égards, des dangers réels pour nos démocraties. Trois : derrière cette puissante ingénierie mondiale se cachent un vaste projet de société et une affolante politique techno-messianiste. Cette philosophie dite « long-termiste » vise, en gros, à améliorer l’avenir uniquement à long terme (dans dix mille voire un million d’années !) et sauver la civilisation face aux « risques existentiels » multiples (guerres, pandémies, réchauffement climatique…).

En apparence humaniste, cette éthique anglo-saxonne, financée par diverses grandes fortunes (dont Elon Musk) prétend améliorer la condition humaine, prolonger la vie, encourager la démographie, coloniser l’espace, exploiter davantage la nature. Elle se détourne du temps présent et, minimise, notamment, l’ampleur des catastrophes environnementales en cours. L’intelligence artificielle, ChatGPT compris, est l’un des bras armés de cette folle et marchande entreprise. Il est bon de s’en souvenir à chaque fois que l’on utilisera, fasciné, l’un de ces robots conversationnels tellement « intelligents » et capables de réaliser tant de tâches à notre place.

--

L’éditorial de ChatGPT

Fin avril, nous avons passé la commande suivante à OpenAI : « Ecrivez-moi un éditorial pour un magazine de presse belge et indépendant (Imagine Demain le monde) sur le thème : les dérives de ChatGPT ». Quelques semaines auparavant, une enquête fouillée du magazine Time avait révélé la présence de nombreux textes haineux et sexistes parmi les références utilisées par OpenAI. Une donnée à connaître pour mieux apprécier l’opinion de ce pseudo « éditeur de contenus ».

Le monde de l’intelligence artificielle ne cesse de progresser et de nous étonner. Mais, comme toute technologie, elle peut également être utilisée à des fins moins nobles. C’est le cas de Chat GPT, un programme de génération de texte qui a récemment fait la une de l’actualité pour ses dérives.

Chat GPT, ou Generative Pre-trained Transformer 3, est un programme d’intelligence artificielle développé par OpenAI. Il est capable de générer du texte de manière autonome, en s’appuyant sur des millions de données collectées sur internet. Le but initial de ce programme était de créer des assistants virtuels plus performants. Mais, très vite, Chat GPT a été utilisé à des fins moins avouables.

En effet, certains ont utilisé Chat GPT pour générer des textes haineux, racistes ou sexistes, qui ont été diffusés sur les réseaux sociaux. D’autres ont créé des faux articles de presse, qui ont été repris par des médias peu scrupuleux. Les dérives de Chat GPT ont été telles que même les développeurs d’OpenAI ont décidé de ne pas rendre publics les derniers modèles de leur programme.

Face à ces dérives, il est important de rappeler que l’intelligence artificielle n’est pas neutre. Elle est le reflet de la société qui l’a créée et des données qui ont été utilisées pour la former. Si ces données sont biaisées, l’intelligence artificielle le sera également. Il est donc crucial de veiller à la qualité des données utilisées pour former les programmes d’IA, et de mettre en place des mécanismes de régulation pour éviter les dérives.

En tant que magazine indépendant, nous avons à cœur de promouvoir une utilisation responsable des technologies de l’information et de la communication. Nous appelons donc les développeurs d’IA à prendre leurs responsabilités, en veillant à la qualité des données utilisées pour former leurs programmes et en mettant en place des mécanismes de régulation pour éviter les dérives. Nous appelons également les utilisateurs de ces technologies à faire preuve de discernement, en vérifiant la véracité des informations qu’ils reçoivent et en refusant de diffuser des contenus haineux ou discriminatoires. Seule une utilisation responsable des technologies de l’information et de la communication permettra de construire un monde meilleur pour tous.

Partager sur Facebook

Retour

Imagine est un éditeur indépendant. Il vit en priorité grâce à ses lecteurs et lectrices.
Abonnez-vous et contribuez au développement d’une coopérative de presse à finalité sociale, d’un média original et alternatif.