L’IA – ChatGPT et la question de l’intégrité

Par

LCF_L’IA - ChatGPT et la question de l’intégrité

Au cours des dernières années, l’intelligence artificielle a fait des bonds significatifs. ChatGPT et les programmes du même type permettent de rédiger des textes de plusieurs pages en quelques instants. Cependant, tous ces programmes n’en sont pas au stade de remplacer l’être humain.

Le Clavier Futé, l’agence de contenu à Montréal, vous présente plusieurs faiblesses et questionnements liés à l’utilisation de l’intelligence artificielle pour créer du contenu, autant en matière de marketing que pour le contenu académique.


Qu’est-ce que c’est, ChatGPT, et comment est-ce que ça fonctionne ?

ChatGPT, Bard AI et les autres programmes du même genre sont des intelligences artificielles conçues pour répondre à des demandes et requêtes du mieux qu’elles le peuvent. Ces IA accomplissent cette tâche grâce à des algorithmes de compréhension dernier cri et un accès à d’immenses bases de données.

Puisqu’il s’agit d’un ordinateur, leur temps de « réflexion » surpasse largement celui de l’homme. ChatGPT peut produire un texte de plusieurs pages en moins d’une minute.

De plus, on peut leur demander à peu près n’importe quoi. Ces IA sont capables de comprendre des requêtes complexes, comprenant plusieurs restrictions, telles que la longueur, la manière de diviser le texte et même l’opinion à énoncer.

Bien que cette technologie soit révolutionnaire sur plusieurs points, elle menace aussi l’intégrité des productions écrites en tous genres, des travaux académiques et journalistiques, alors que certains cherchent à l’utiliser pour produire du contenu et en prendre le crédit.

ChatGPT et autres IA : une intégrité compromise

Parmi les questions liées à l’utilisation de ChatGPT dans le cadre de la rédaction, on retrouve celles de l’intégrité et de l’éthique. En effet, le contenu créé par les intelligences artificielles entraine quelques interrogations liées aux droits d’auteurs et autres aspects de la propriété intellectuelle.

D’abord, il y a la question du plagiat. Pour produire un texte, l’IA analyse et copie les informations d’un grand nombre de documents dans sa base de données. Est-ce du plagiat ou est-ce plus semblable au processus de réflexion humain, qui veut que l’on absorbe l’information et qu’on la réécrive à notre façon ?

Ensuite, puisque le texte est écrit par un ordinateur, à qui reviennent les droits d’auteur ? Au programmeur ou à celui qui a demandé au programme de créer le texte ? Est-il honnête de dire qu’on est l’auteur d’un texte parce qu’on est la personne qui a demandé à ChatGPT de le rédiger ?

Ces questions et bien d’autres rendent tout simplement impossible l’idée d’annoncer qu’on est l’auteur d’un texte après l’avoir fait écrire par ChatGPT. D’un point de vue légal, on pourrait donc simplement copier un texte écrit par ChatGPT et le reproduire ailleurs, car la loi n’a pas encore rattrapé les progrès de l’intelligence artificielle.

C’est d’ailleurs ce que croit l’Organisation Mondiale de la Propriété Intellectuelle (OMPI) :

« … dans de nombreux pays, la législation ne [serait] pas disposée à protéger par le droit d’auteur des œuvres qui n’auraient pas été créées par un être humain. »[1]

On devra encore attendre quelques années avant que la rédaction par ChatGPT soit définie légalement et que la question des droits d’auteurs soit réglée. D’ici là, il est impossible de justifier l’utilisation de ChatGPT à des fins commerciales ou académiques.

Certaines institutions, comme l’Université de Montréal, sont sans équivoque sur ce point. En effet, l’université considère l’utilisation du robot conversationnel comme une forme de plagiat, que l’utilisation soit totale ou partielle, sauf indication contraire.

Quel que soit le domaine, le droit d’auteur est trop important pour que l’on puisse jouer dans une zone grise, autant en matière de moralité que de légalité.

Outre les considérations légales, posez-vous la question : si vous publiez à votre nom un texte produit par l’intelligence artificielle, êtes-vous honnête et intègre envers votre audience? Et si vous indiquez la véritable provenance de votre texte, serez-vous perçu comme un expert de votre domaine, digne de confiance?


[1] https://www.wipo.int/wipo_magazine/fr/2017/05/article_0003.html

Danger : du contenu véridique… la plupart du temps

Au cours des dernières années, on a vu de grandes avancées sur les technologies d’intelligence artificielle. Maintenant, les IA utilisent très efficacement leurs banques de données. En effet, ChatGPT et les autres IA du genre peuvent vous donner l’information que vous désirez en seulement quelques secondes. Il est impossible de nier que ce sont d’incroyables outils de recherche.

Cependant, OpenAI ne prétend pas que leur intelligence artificielle soit infaillible. D’ailleurs, l’amélioration de la capacité à admettre ses fautes de ChatGPT est une qualité que OpenAI vante ouvertement dans l’annonce de son dernier produit, ChatGPT4[2].

Lorsque vous utilisez du contenu généré par ChatGPT, il est possible que vous utilisiez des informations inexactes. Il est important de bien connaître le domaine sur lequel vous demandez à ChatGPT d’écrire et de faire une révision des données qu’il vous procure.

Ces erreurs rendent impossible l’utilisation de ChatGPT comme unique outil de rédaction. Il est important de faire appel à quelqu’un qui comprend le domaine ainsi que les principes de marketing pour repasser sur le contenu et en vérifier l’exactitude.

Si vous copiez directement du contenu de ChatGPT sans le vérifier, vous exposez votre auditoire à du contenu qui pourrait contenir données inexactes ou erronées. D’ailleurs, pour l’instant, les banques de ChatGPT ne contiennent aucune information plus récente que 2021 !

Ainsi, il serait tout simplement impossible de produire un article sur une voiture de 2024 en utilisant ChatGPT, puisqu’il ne pourrait pas utiliser de valeur exacte. C’est aussi vrai pour tout domaine où l’information doit être à jour.

Il faut donc éviter d’utiliser ChatGPT pour créer du contenu sur des sujets récents, car il est possible que l’IA vous propose une réponse, mais que celle-ci soit une vieille donnée, ou même une information inventée.


[2] https://openai.com/product/gpt-4

ChatGPT propage de la mésinformation

La base de données de ChatGPT contient une quantité inimaginable de documents et fichiers. Il est donc en mesure de vous procurer une panoplie d’informations, pour autant qu’elles datent d’avant 2021. Le problème, c’est que ChatGPT éprouve beaucoup de difficultés à référencer ses sources.

Du bon contenu propose des informations vérifiables. ChatGPT ne donne que rarement ses sources lorsqu’il propose des données et des statistiques. Encore pire, il va parfois jusqu’à inventer des sources fictives. L’hallucination IA, c’est un phénomène qui veut que les IA créent de la nouvelle information qui ne provient pas de leur base de données.

Dans un article du New York Times[3], les journalistes Karen Weise et Cade Metz donnent un exemple parfait de ce phénomène et de ses effets sur les références dans un article. Les journalistes y présentent une requête qu’ils ont faite à ChatGPT, dans laquelle ils demandaient quand leur journal avait mentionné l’intelligence artificielle pour la première fois.

Selon ChatGPT, c’était dans un article en 1956. Pourtant, cet article n’existe tout simplement pas : l’intelligence artificielle l’a inventé de toutes pièces.

Encore plus alarmant, les informations semblent très crédibles à première vue. Pour quiconque utilise l’outil sans pousser les vérifications, il est facile de tomber dans le piège et de propager de fausses informations.

Or, publier ce genre de falsification est inacceptable. S’appuyer sur l’intelligence artificielle pour produire du contenu, c’est prendre un énorme risque en matière d’exactitude et de justesse de l’information. C’est aussi commettre une faute importante en matière d’honnêteté.


[3] https://www.nytimes.com/2023/05/01/business/ai-chatbots-hallucinatation.html

Un exemple de contenu écrit par ChatGPT et ses problèmes

Une des meilleures façons de présenter les faiblesses de ChatGPT est d’utiliser un exemple concret. Voici la réponse de ChatGPT lorsque nous lui avons demandé d’écrire une introduction d’article sur la rédaction de contenu de marketing :

« La rédaction de contenu de marketing est devenue un élément clé de toute stratégie marketing réussie. Le contenu bien rédigé peut aider à attirer de nouveaux clients, à fidéliser les clients existants, à établir la crédibilité de la marque et à renforcer la présence en ligne. Mais la rédaction de contenu de marketing ne se résume pas simplement à écrire des phrases vides de sens remplies de mots-clés. Pour être efficace, le contenu de marketing doit être engageant, informatif et adapté à la cible. Dans cet article, nous allons explorer les éléments essentiels d’une bonne rédaction de contenu de marketing et fournir des conseils pratiques pour aider à créer des contenus qui attirent, captivent et convertissent les clients potentiels. »

Il serait impossible de dire que cette introduction ne présente rien de bon. Elle inclut bien les idées principales que l’on pourrait retrouver dans un article sur le marketing de contenu. Cependant, elle renferme plusieurs problèmes:

  • Elle est répétitive, refusant d’utiliser des pronoms pour les mots-clés
  • Elle n’est pas très originale ni vraiment captivante
  • Elle est très neutre et sans style particulier

Comme l’introduction le dit elle-même, le contenu de marketing doit être « engageant, informatif et adapté à la cible ». Pourtant, cette introduction ne semble réussir que sur le deuxième point.

Cette absence d’un style de rédaction propre et personnel est d’ailleurs ce facteur « humain » que plusieurs mentionnent souvent lorsqu’ils critiquent le contenu généré par IA. L’intelligence artificielle maîtrise peut-être les règles de la syntaxe et de la grammaire, mais certainement pas celles de la rédaction professionnelle!

L’IA et le marketing : la question du Search Engine Optimization

Dans le monde du marketing, le SEO est roi. Lorsque l’on juge le contenu généré par IA avec un regard provenant du domaine du marketing, on doit considérer ses capacités à créer un bon référencement.

L’IA est capable d’identifier les bons mots-clés. Puisqu’il cherche à travers une grande quantité de documents en quelques secondes, il peut discerner les mots qui reviennent le plus et les utiliser.

Cependant, ces mots-clés seront-ils adaptés aux recherches d’aujourd’hui? Puisque le contenu des bases de données de ChatGPT est daté de 2021, cela veut dire que certains mots-clés pourraient être démodés.

De plus, le référencement n’est plus seulement une question de mots-clés. Chaque mise à jour de Google donne à la plateforme de meilleures aptitudes à détecter le contenu que les internautes aiment. La qualité devient un critère principal dans les tendances SEO.

D’ailleurs, Google écrit noir sur blanc que ce type de génération de contenu est considéré comme du spam :

« Le contenu généré automatiquement qui inclut du spam désigne un contenu généré de manière programmatique sans produire quoi que ce soit d’original ni apporter de valeur ajoutée[4]. »

Alors que les moteurs de recherche se raffinent, essayer de tromper Google avec du contenu produit par l’intelligence représente une mission impossible! Le SEO, c’est maintenant bien plus que du bourrage de mots-clés.

Comme nous l’avons prouvé plus haut, l’IA est capable de créer du contenu informatif, certes, mais ce contenu est répétitif et peu captivant. L’apport de l’humain dans la rédaction SEO, c’est une originalité et une créativité que l’IA ne peut pas reproduire en régurgitant des informations provenant de sa base de données.

C’est le contenu intéressant, que les internautes lisent du début jusqu’à la fin, qui occupent les meilleures positions dans les résultats Google. Pour en apprendre plus sur cette nouvelle philosophie SEO, référez-vous à notre article sur le Search Experience Optimization (SXO).

Si vous voulez en apprendre plus sur les intelligences artificielles et leurs problèmes, n’hésitez pas à lire notre blogue sur le pour et le contre du contenu créé par intelligence artificielle.

En somme, l’offre de production de contenus générés par l’intelligence artificielle peut paraître alléchante, mais elle n’est pas sans faille. Non seulement elle pose des problèmes d’intégrité et d’honnêteté, mais elle ne vous est pas d’une grande aide en matière de référencement naturel.

Pour des contenus de qualité, faites plutôt confiance à une équipe d’experts en chair et en os : contactez-nous dès aujourd’hui ! Le Clavier Futé, c’est l’agence de contenu à Montréal.


[4] Créer des contenus utiles, fiables et axés sur l’humain | Google Search Central | Documentation. (s. d.). Google Developers. Consulté 8 mai 2023, à l’adresse https://developers.google.com/search/docs/fundamentals/creating-helpful-content?hl=fr

7 erreurs à éviter dans la rédaction de contenu

Vous savez que rédiger du contenu web présente plusieurs avantages pour votre entreprise. Vous avez donc entrepris de rédiger ce contenu, mais le faites-vous de ...
Lire la suite →

Accroître la visibilité de son site web de façon naturelle

De nos jours, il est presque nécessaire d’avoir un site web d’entreprise afin d’être pris au sérieux. Cependant, le site web n’a pas besoin d’être ...
Lire la suite →

5 types de contenu qui aideront votre site web

Vous ne savez pas quoi mettre sur votre site web pour attirer les internautes et clients potentiels? Il existe une grande variété de contenus qui ...
Lire la suite →

L’IA – ChatGPT et la question de l’intégrité

Au cours des dernières années, l’intelligence artificielle a fait des bonds significatifs. ChatGPT et les programmes du même type permettent de rédiger des textes de ...
Lire la suite →
Scroll to Top