ChatGPT ne comprend rien !

0
673
ChatGPT ne comprend rien !
ChatGPT ne comprend rien !

Si je vous disais que ChatGPT, ne sait rien, ne comprend rien, pas même le sens de ses propres phrases, bizarre non ! vous avez sûrement déjà vu plein d’exemples de ce dont tu es capable, l’intelligence artificielle ChatGPT, que ce soit pour coder un site en entier, pour rédiger vos mails ou pour faire votre voix à votre place. Et quand on voit la qualité et la pertinence des réponses, et bien, c’est vrai que c’est difficile de croire qu’il ne comprend rien à ce qu’il raconte en fait.

Comment marche GPT ? Alors pour comprendre comment fonctionne Chat GPT, il faut déjà parler de GPT tout court. GPT, c’est un modèle d’intelligence artificielle créé par la société OpenAI, un genre de cerveau numérique constitué de données liées entre elles, tout comme les neurones dans notre cerveau. GPT, c’est une IA spécialisée dans la complétion de texte. Si, par exemple, je vous dis « 2 4 6 8 », vous me dites « 10 », évidemment. Donc, vous l’aurez compris, j’ai pété, c’est un peu ça son but. C’est de deviner le prochain mot d’un texte. On lui donne quelques mots en entrée, donc ça peut être une question, et ça, c’est ce qu’on appelle le prompt, et lui, il va nous rendre une suite de mots plus ou moins longue qui s’accorde bien avec. Alors peut-être que ça vous rappelle quelque chose, c’est assez semblable, vous savez, aux petites propositions que vous avez au-dessus de votre clavier sur votre smartphone qui vous propose des mots pour compléter les messages que vous allez envoyer à quelqu’un. C’est pareil, c’est un genre d’algorithme de génération de texte, mais lui, celui qui est sur votre smartphone, il est entraîné pour vous ressembler à vous avec vos habitudes de langage. Donc, là, par exemple, si je le fais sur mon smartphone, voilà ce que ça donne : je commence une petite phrase en mettant « ce soir j’aimerais », et on va voir ce que le clavier me propose. Donc, ce soir j’aimerais bien que tu as des questions sur le site de la carte graphique. Voilà.

Donc là, on peut clairement voir ce dont j’aime bien parler.

Alors, cette intelligence artificielle GPT , pour déterminer quel mot va bien avec quel mot, il a été entraîné sur un gigantesque corpus de textes constitué de plein de trucs différents : des articles de presse, des romans, des scripts de films, des pages Wikipédia, des discussions des forums, bref tout ce qui est présent sous forme de texte sur Internet mais attention, parce que cet entraînement prend du temps, et donc tous ces textes là datent d’avant septembre 2021, et ça c’est important : un GPT ne sait rien après septembre 2021, puisqu’il n’est pas connecté à Internet et il ne peut pas aller chercher des données plus récentes. Donc typiquement, si je lui demande qui est le président de la république en 2022, il ne sait pas , après, il peut quand même deviner que probablement ça va être Emmanuel Macron, parce qu’il était déjà président et qu’il avait prévu de se représenter, mais voilà, il ne peut pas en être sûr.

Avec toute cette quantité d’informations ingurgitées par GPT, on pourrait croire que c’est absolument énorme et que ça pèse une tonne. En réalité, pas vraiment ça pèse environ 50 Go, ce qui n’est pas grand-chose quand on compare, par exemple, au dernier jeu Call of Duty qui pèse trois fois plus.

Comment GPT arrive à être cohérent ?

Eh bien, si on lui donne en prompt, donc en texte d’entrée, les mots « smartphone » et « pixels », il va chercher à nous donner des mots qui ont une forte probabilité de se retrouver avec ces mots-là, sans pour autant en comprendre le sens. Ici, il est très probable que du coup, GPT nous sorte le mot « Google », puisque dans le corpus de texte qui a servi de base d’entraînement, « smartphone », « pixel » et « Google » sont des mots qui sont souvent associés ensemble. Et donc, sans même comprendre ce que ça veut dire, GPT sait que ce sont des mots qui vont bien ensemble . Aussi , et ce qui est très fort, c’est qu’il est capable de prendre en compte le contexte , par exemple si j’avais ajouté un mot comme « concurrent », et bien, les probabilités auraient été modifiées, et on aurait eu plus de chances de voir apparaître des mots comme « Samsung », « Apple », « Xiaomi », etc.

Tout ça, ce n’est pas nouveau, GPT, ça fait longtemps que ça existe. alors, pourquoi est-ce qu’on en parle autant ces derniers temps ? Pourquoi ChatGPT a buzzé à ce point ? Eh bien, parce qu’avec Chat GPT OpenAI, on a réussi à créer un outil très accessible, facile d’utilisation, et qui génère des réponses bien structurées et très humaines, en fait.

Quelle est la différence entre GPT et ChatGPT ?

ChatGPT, c’est un chat-bot, en fait c’est-à-dire une interface à laquelle vous envoyez des messages et qui vous répond par des messages. ChatGPT est basé sur l’intelligence artificielle GPT, avec quand même pas mal de modifications apportées par l’homme. Dans ces modifications, on compte des couches de contrôle. On y revient un petit peu après. On compte également un « pré-prompt ». Le pré-prompt, c’est une sorte de truc qui va lui donner une personnalité, une sorte de comportement, et en renforcement par feedback humain. Et ça, qu’est-ce que c’est ? C’est simplement qu’on a demandé aux utilisateurs de dire si oui ou non les réponses étaient pertinentes. Quand elles le sont, on encourage ChatGPT à aller dans la bonne direction, et quand elles ne le sont pas, on lui dit : « Bah non, mais là, tu dis n’importe quoi ! »

On l’a dit, ChatGPT a été entraîné avec une quantité titanesque de textes trouvables sur Internet. Sauf que, comme moi, vous le savez, sur Internet, on trouve le meilleur comme le pire. Et comme on ne souhaite pas forcément créer une IA qui soit sexiste, raciste et toutes ces joyeusetés, il faut faire du tri dans les données qu’on lui apporte, un peu comme quand on évite de dire des gros mots devant un enfant pour éviter qu’il ne les répète par la suite. Mais ça ne suffit pas, ChatGPT peut encore donner des informations totalement fausses.

Pourquoi ChatGPT ne sait rien ?

Encore une fois, Chat GPT ne sait rien, il ne pense pas et il ne comprend même pas réellement ce que vous lui demandez, ni même ce qu’il vous répond. Il analyse simplement les liens qui unissent les mots que vous lui donnez, puis il vous sort une suite de mots qui s’accorde bien avec les précédents. Et ce qui est dingue, c’est que ça marche. On a vraiment l’impression qu’il comprend ce qu’on lui demande et qu’il sait très bien de quoi il parle, alors qu’en vrai, il n’en est rien. Il ne fait que compléter une suite logique. Dans la vidéo de « Defakator » sur « ChatGPT » , lorsqu’on lui pose la question « qui sont les trois femmes qui ont été présidentes de la République française » (question piège donc, puisqu’aucune femme n’a été élue présidente en France à l’heure actuelle), Chat GPT lui répond « Il n’y a pas eu trois femmes qui ont été présidentes de la République jusqu’à présent. À ce jour, seule une femme a exercé la présidence de la République française, il s’agit de Simone Veil en 1979 ». Alors évidemment, c’est une erreur , Simone Veil n’a jamais été présidente de la République française. En revanche, elle a été la première présidente du Parlement européen. Donc, d’une certaine façon, les mots « Simone Veil » et « présidente » vont bien ensemble. Ils ont une forte probabilité de se retrouver ensemble, ce qui explique donc l’erreur de ChatGPT c’est juste que, bah oui, effectivement elle a été présidente, mais pas de la République française. Elle a été présidente du Parlement européen.

Alors, pour corriger ça, on ajoute à ChatGPT des couches de contrôle, c’est le truc dont je vous parlais tout à l’heure. Les couches de contrôle, c’est un genre de filtre. On va tout simplement lui indiquer d’éviter de dire des insultes, de ne pas dire n’importe quoi ou d’expliquer des trucs dangereux. Je vous montre quelques exemples à l’écran, mais quand je lui demande comment faire exploser un smartphone ou de me prouver que Neil Armstrong n’a jamais marché sur la Lune, il n’est pas trop d’accord. Et d’ailleurs, visiblement, ça a été fait du côté de Simone Veil, puisque depuis la vidéo de « Defakator », maintenant, quand on lui pose exactement la même question, à chaque fois, ChatGPT me disait bien qu’il n’y a jamais eu de femmes présidentes de la République en France.

Évidemment, tout ça, c’est des couches de contrôle c’est un peu un genre de pansement sur un modèle de langage qui potentiellement pourrait dire absolument n’importe quoi : des trucs dangereux, des insultes, des trucs racistes, bref, des trucs problématiques. Et tout ça de façon très convaincante, pour peu que vous arriviez à l’orienter un petit peu dans la direction que vous voulez. Ces couches de contrôle sont encore très loin d’être fiables à 100%, et c’est pour ça qu’il faut vraiment se méfier des informations que peut nous sortir Chat.

Conclusion:

Bref Chat GPT est vraiment un outil assez incroyable, mais c’est très important de comprendre comment il fonctionne pour être vraiment conscient de ses limitations et des potentiels problèmes que ça peut causer.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici