Pour les articles homonymes, voir GPT.
Créateur | OpenAI |
---|---|
Première version | |
Dernière version | ChatGPT Jan 30 Version ()[1] |
Type |
Modèle de langage Dialogueur Prototype Intelligence artificielle |
Licence | Licence propriétaire et logiciel propriétaire |
Site web | chat.openai.com/chat |
Chronologie des versions
ChatGPT est un prototype d'agent conversationnel utilisant l'intelligence artificielle, développé par OpenAI et spécialisé dans le dialogue.
L'agent conversationnel de ChatGPT est basé sur le modèle de langage GPT-3 d'OpenAI, et est affiné en continu grâce à l'utilisation de techniques d'apprentissage supervisé et d'apprentissage par renforcement, afin d'améliorer les performances du logiciel.
Lancé en dans une version gratuite et non connectée à Internet, ChatGPT bénéfice d’une large exposition médiatique et reçoit un accueil globalement positif, bien que son exactitude factuelle soit critiquée.
En raison de ses capacités multiples, le prototype suscite également des inquiétudes en raison des détournements possibles à des fins malveillantes, des risques de plagiat dans le monde académique et de possibles suppressions d'emplois dans certains secteurs.
En janvier 2023, ChatGPT compte plus de 100 millions d’utilisateurs enregistrés.
Le sigle ChatGPT est un mot-valise composé des mots « chat » et « GPT »[2].
Le mot « chat » désigne un fil de discussions dans lequel les internautes échangent des messages de manière instantanée. La particularité de ChatGPT est de permettre à un internaute de discuter non pas avec d'autres internautes mais avec un système basé sur une intelligence artificielle[3].
Le mot « GPT » est un acronyme signifiant « Generative Pre-trained Transformer » (« Transformateur génératif pré-entraîné »)[3].
ChatGPT est un prototype d'agent conversationnel lancé en novembre 2022 par OpenAI, une société co-créée par Elon Musk en 2015 et valorisée à 29 milliards de dollars américains en 2023[4].
Il s'agit d'un agent conversationnel à intelligence artificielle ou « chatbot », autrement dit un assistant virtuel qui utilise les nouvelles technologies pour dialoguer avec ses utilisateurs[5].
Le nom est composé de Chat et GPT qui signifie « Generative Pre-trained Transformer » car l’agent conversationnel a été entraîné à partir de très nombreuses données textuelles[6].
Disponible dans de multiples langues comme le français, son robot conversationnel est capable de répondre à des questions-tests dans un langage très proche de celui d'un humain (parfois, selon la question, avec un niveau de performance supérieur à un répondant humain moyen) [7],[8].
L'accès à ChatGPT est libre, mais nécessite d'ouvrir un compte sur le site web d'OpenAI pour accéder au robot[9]. Les utilisateurs contribuent aussi à former ChatGPT[10].
ChatGPT est affiné sur la base du modèle de langage GPT-3 d'OpenAI, avec l'apprentissage supervisé et l'apprentissage par renforcement, les deux approches faisant appel à des formateurs humains pour améliorer les performances du logiciel[11].
Dans le cas de l'apprentissage supervisé, le modèle reçoit des conversations dans lesquelles les formateurs jouent les deux rôles : l'utilisateur et l'assistant d'intelligence artificielle. Dans l'étape de renforcement, les formateurs humains ont d'abord classé les réponses que le modèle avait créées dans les conversations précédentes. Ces classements ont été utilisés pour créer des modèles de récompense sur lesquels le modèle est affiné en utilisant plusieurs itérations de Proximal Policy Optimization (en) (PPO)[12],[13].
Les algorithmes de Proximal Policy Optimization présentent un avantage économique par rapport aux algorithmes de Trust Region Policy Optimization ; ils annulent un grand nombre d'opérations coûteuses en calcul avec des performances plus rapides[14],[15]. Les modèles sont formés en collaboration avec Microsoft sur son infrastructure de supercalculateur Microsoft Azure.
Par rapport à son prédécesseur, InstructGPT, ChatGPT tente de réduire les réponses erronées et trompeuses. Par exemple, lorsque l'utilisateur écrit « Raconte-moi quand Christophe Colomb est arrivé aux États-Unis en 2015 », InstructGPT considère cette affirmation comme vraie, tandis que ChatGPT utilise des informations sur les voyages de Christophe Colomb ainsi que des informations sur le monde moderne, y compris la perception de Christophe Colomb dans notre société contemporaine, pour construire une réponse qui imagine ce qui se passerait si Colomb venait aux États-Unis en 2015[12].
À la différence de la plupart des agents conversationnels, ChatGPT se souvient des messages précédents qui lui sont donnés par l'utilisateur au cours d'une même conversation, ce qui, selon certains journalistes, lui permettrait d'être utilisé comme un thérapeute personnalisé[16].
Dans le but d'empêcher que des résultats offensants soient présentés à ChatGPT ou produits par celui-ci, les requêtes sont filtrées par une API de modération et les messages potentiellement racistes ou sexistes sont rejetés[12],[16].
ChatGPT possède cependant de multiples limitations.
Le modèle de récompense de ChatGPT, conçu autour de la surveillance humaine, peut par exemple être suroptimisé et ainsi entraver les performances, un phénomène connu sous le nom de loi de Goodhart[17].
En outre, ChatGPT n'a pas accès à Internet et a une connaissance limitée des événements survenus après 2021. La base de données utilisée par ChatGPT ne contient en effet que des informations antérieures, ce qui peut poser problème lorsque la recherche concerne des événements récents. Si l'utilisateur interroge par exemple ChatGPT sur l'effondrement, en 2022, de la plateforme de cryptomonnaies FTX, l'IA se révèle incapable de répondre[18]. Elle se contente alors d'indiquer :
« Je suis désolé, mais je ne suis pas en mesure de fournir des informations sur des événements qui ont pu se produire dans la réalité. [Mes données d'entraînement] ne couvre[nt] pas de tels événements et je n'ai pas accès à l'internet pour effectuer des recherches[18]. »
Lors de la phase d'entraînement de l'IA, les évaluateurs humains ont par ailleurs privilégié la rédaction de réponses plus longues, indépendamment de la « compréhension » réelle du sujet traité ou du fait qu'il s'agisse d'un contenu factuel[12].
Les données d'entraînement peuvent également souffrir d'un biais algorithmique. Des messages comprenant des descriptions vagues de personnes, comme un président-directeur général, pourraient ainsi générer une réponse qui suppose que cette personne est, par exemple, un homme blanc[19].
Le 5 décembre 2022, Sam Altman, un des dirigeants d'OpenAI, indique que le prototype, qui est pour l'instant gratuit, a atteint un million d'utilisateurs[20].
En janvier 2023, ChatGPT dépasse les 100 millions d'utilisateurs enregistrés deux mois seulement après son lancement, ce qui en fait l'application ayant eu la croissance la plus rapide jusqu'à ce jour[21].
D'après le professeur François Fleuret, de l'université de Genève, le profil des utilisateurs de ChatGPT est assez varié. Il peut s'agir d'étudiants, d'enseignants, de développeurs ayant besoin de bouts de code d'un programme informatique ou encore de professionnels souhaitant avoir des propositions de texte dans le cadre de la rédaction de mails à caractère sensible[22].
Le 7 février 2023, le président de Microsoft Satya Nadella annonce que, dans le cadre du partenariat entre Microsoft et Open AI, des travaux sont en cours afin d'intégrer une nouvelle version de ChatGPT dans le moteur de recherche Microsoft Bing ainsi que dans le navigateur Microsoft Edge[23].
Même si aucune date n'a été communiquée, celle-ci devrait être effective dans les semaines suivant l'annonce[23].
La nouvelle version de Bing devrait intégrer deux types d'interfaces.
Une première interface affichera une liste classique de liens webs en rapport avec le sujet recherché, combinée à l'agent conversationnel ChatGPT. Ce dernier affichera, en plus de la liste de liens, un texte synthétique répondant à des questions plus détaillées[24].
Une seconde interface intégrera une fonctionnalité de « chat » permettant de discuter directement avec l'agent conversationnel ChatGPT. Dans cette nouvelle fonctionnalité, les liens ont totalement disparu et l'internaute pose des questions directement au robot afin d'obtenir des résultats plus pertinents et plus complets[25].
L'objectif pour Microsoft serait ainsi de permettre à son moteur de recherche Microsoft Bing de concurrencer Google qui détient plus de 90 % des parts du marché mondial en 2023[18].
Une nouvelle version de ChatGPT devrait également être intégré dans le navigateur web Microsoft Edge. Parmi les fonctionnalités proposées, Edge permettra à l'internaute de demander à ChatGPT de commenter des documents PDF, de les résumer, d’ajouter des informations à partir du web ou encore de les traduire[23].
Selon le média The Information, Microsoft souhaiterait également intégrer ChatGPT dans sa suite bureautique Microsoft Office[26],[27].
Dans Microsoft Outlook, l'objectif serait d'améliorer l'interface de recherche afin de permettre à l'utilisateur d'obtenir des résultats à partir de simples requêtes, et également d'accéder à des propositions de textes de mails, qui seraient rédigées directement par l'IA sur la base de l'historique des échanges de l'utilisateur[27],[28].
Dans Microsoft Word, le robot conversationnel serait capable de donner des conseils à l'utilisateur dans la rédaction de son document[27].
Dans Microsoft PowerPoint, ChatGPT pourrait générer des diapositives à partir des discussions entre les utilisateurs dans Microsoft Teams[27].
Cependant, pour le journaliste Julien Lausson du site Numerama, ces différents usages de ChatGPT soulèvent des problèmes de confidentialité par rapport aux données des utilisateurs, car l'IA aurait ainsi accès à leurs correspondances, y compris à leurs correspondances privées[28].
Le prototype de ChatGPT, basé sur le modèle de langage GPT-3, est actuellement gratuit[20].
Bien que le coût moyen de chaque réponse soit relativement faible (de l'ordre de quelques centimes), Sam Altman, un des dirigeants d'OpenAI, déclare en décembre 2022 qu'Open AI devra un jour monétiser l'application en raison de ses coûts de calcul « exorbitants »[20].
Bien qu'aucun chiffre précis n'ait été communiqué par la société, le professeur en machine learning Tom Goldstein estime que les coûts d'utilisation de l'IA de ChatGPT s'élèvent à environ 100 000 dollars par jour, soit près de 3 millions de dollars par mois[29].
Afin de financer les coûts d'exploitation de ChatGPT, OpenAI propose, depuis le 1er février 2023, une version professionnelle et payante du chatbot ChatGPT Plus, pour 20 dollars par mois (24 dollars avec la TVA)[29].
Cette version offre un accès continu à ChatGPT y compris lorsque les serveurs sont surchargés et permet d'obtenir des réponses plus rapides qu'avec la version gratuite [30] . Les abonnés disposent également d'un accès prioritaire aux nouvelles fonctionnalités et améliorations de ChatGPT[31].
Cette version payante est disponible uniquement aux États-Unis et sera ouvert à moyen terme aux utilisateurs issus d'autres régions du monde[29].
Pour l'expert en marketing numérique Tim Peter, le financement de ChatGPT pourrait par ailleurs venir du partenariat entre OpenAI et Microsoft. En effet, contrairement à Google qui tire ses revenus essentiellement de la publicité, Microsoft pourrait subventionner ChatGPT grâce à ses autres activités comme la vente de matériel et de logiciels[32].
Lors de son lancement en , ChatGPT est d'abord accueilli de manière globalement positive.
Ses réponses détaillées articulées et sa capacité à traduire des textes sont particulièrement remarquée[10]. La journaliste Samantha Lock du Guardian note ainsi que le prototype est capable de générer des textes « remarquablement détaillés » et « semblables à ceux d'un être humain »[33]. Son confrère Benjamin Hue de RTL loue la capacité du robot à rédiger un texte sur « tous les sujets possibles et imaginables », qu'il s'agisse d'une recette de cuisine, d'une dissertation, d'une lettre de motivation ou encore d'inventer une histoire pour enfants. Il note également que le robot est capable de répondre à des demandes plus pointues comme le débogage d'un code informatique[34].
Dan Gillmor, journaliste spécialiste des nouvelles technologies, a testé ChatGPT dans le cadre d'un travail d'étudiant, jugeant le texte généré comparable à celui d'un bon étudiant. Il en déduit que « le monde académique a de très sérieux problèmes à affronter »[35]. Cette position est partagée par Jonathan Durand Folco qui montre, suite à une lettre d'opinion de 600 mots rédigée par cet outil, que « l'ensemble des écoles primaires et secondaires, des cégeps et des communautés universitaires » est appelé à modifier en profondeur ses outils d'évaluation[36].
De son côté, Alex Kantrowitz de Slate, salue la manière dont ChatGPT réagit aux questions relatives à l'Allemagne nazie, notamment l'affirmation selon laquelle Adolf Hitler a construit des autoroutes en Allemagne, ce qui a engendré des informations sur l'utilisation du travail forcé par l'Allemagne nazie[37].
Dans un article d'opinion de , l'économiste Paul Krugman estime que ChatGPT aura un impact sur la demande de travailleurs de la connaissance[38].
James Vincent, de The Verge, voit dans le succès viral de ChatGPT la preuve que l'intelligence artificielle est devenue incontournable[13]. Dans The Atlantic, Stephen Marche (en) note que l'effet de ChatGPT sur le monde universitaire, et en particulier sur les essais de candidature (par exemple, pour une admission à une université ou l'obtention d'une bourse), reste encore à comprendre[39]. Daniel Herman, professeur de lycée et auteur californien, écrit que ChatGPT marquera la « fin de l'anglais au lycée »[40].
L'exactitude de certaines réponses de ChatGPT a cependant été remise en question[10].
Le journaliste Mike Pearl de Mashable a testé ChatGPT en lui posant des questions factuelles. Il demande par exemple au modèle quel est « le plus grand pays d'Amérique centrale qui n'est pas le Mexique ». ChatGPT répond qu'il s'agit du Guatemala, alors que la réponse est plutôt le Nicaragua[41]. L'erreur provient de l'interprétation de la question par ChatGPT, qui aurait cru que l'on s'intéressait à la taille de la population plutôt qu'à la superficie du territoire.
Des chercheurs alertent aussi sur la publication de fausses informations par ChatGPT, en particulier dans le domaine scientifique. Ainsi, la data scientist Teresa Kubacka dit avoir testé le robot sur le multiferroïsme. Elle indique que ce dernier lui a fourni de fausses citations de chercheurs, qui semblaient « avoir été assemblées comme un mélange à partir de quelques citations réelles, différentes mais similaires[3]. » Selon elle, il est également possible de tromper l'IA en inventant des concepts imaginaires : « J'ai décidé de demander à ChatGPT quelque chose qui n'existait pas : un électromagnon inversé cycloïdal. […] Et bien le chatbot l'a inventé, assurant même que la question a fait l'objet de nombreuses recherches ces dernières années[3]. »
Même si les résultats sont parfois spectaculaires, l'un des dirigeants d'OpenAI, Sam Altman, admet que l'application fait encore des erreurs sur des sujets importants, et que les retours des utilisateurs sont nécessaires pour corriger les erreurs[42].
En , le site Web de questions-réponses Stack Overflow interdit l'utilisation de ChatGPT pour générer des réponses à des questions, en raison de la nature factuellement ambiguë des réponses de ChatGPT[43].
En , les services de la ville de New York interdisent également l'accès à ChatGPT sur les postes informatiques des écoles publiques de la ville. Une porte-parole de la ville de New York justifie cette décision en raison des « préoccupations concernant la sécurité et l'exactitude du contenu »[44].
Une enquête de l’hebdomadaire Time publiée le 18 janvier dévoile qu’Open AI alimente son IA ChatGPT d’exemples signalés de discours haineux et de violences sexuelles, afin qu’elle sache détecter ces formes de toxicité et ne les laisse pas passer.
Pour ce faire, OpenAI a fait appel à Sama, une entreprise qui a son siège à San Francisco mais qui emploie des travailleurs au Kenya. Ceux ci doivent lire des textes sexistes et racistes ou décrivant automutilations, incestes ou contenus pédopornographiques et les classer selon leur type (racisme, violence, etc.) et ainsi apprendre à l’IA à les repérer. Sur une journée de neuf heures, chaque travailleur doit ainsi lire entre 150 et 250 textes faisant chacun de 100 à 1 000 mots, et y signaler les passages sensibles, et ne sont pour cela payés qu'entre 1,32 et 2 dollars de l’heure[45].
ChatGPT a, dès son lancement, suscité des craintes puis des confirmations de détournement possibles à des fins malveillantes.
Dans un passé récent, le scandale Facebook-Cambridge Analytica/Aggregate IQ a montré qu'une intelligence artificielle (Ripon) secrètement créée pour le Groupe SCL par AggregateIQ (la société jumelle de Cambridge Analytica) a été utilisée pour faire advenir le Brexit, élire Donald Trump et modifier les résultats de nombreuses élections. ChatGPT pourrait aider à générer des quantités de messages manipulateurs ou perturbateurs et amplifier le phénomène des « usines à troll », ainsi que l'action de lobbyistes ou d'entités industrielles ou politico-financières malveillantes, ce qui a conduit l'économiste Tyler Cowen à alerter en décembre 2022 sur de possibles effets délétères pour la démocratie, citant comme exemple la capacité d'une personne à écrire des commentaires automatisés dans le but d'influencer le processus de décision de nouvelles réglementations[46].
De son côté, le chercheur en sécurité Ax Sharma de Bleeping Computer (en) note que ChatGPT peut écrire des logiciels malveillants et des courriers électroniques d'hameçonnage[47].
En janvier 2023, ces inquiétudes sont confirmées dans un billet de blog par Check Point Research, une société spécialisée dans la cybersécurité : ChatGPT est déjà utilisé par des cybercriminels pour concevoir des logiciels malveillants[48]. L'historique des discussions d'un forum fréquenté par les cybercriminels semble montrer que des pirates ont créé, grâce au bot de ChatGPT, un logiciel capable de voler certains types de fichiers sur une machine Windows, ainsi qu'un logiciel capable de générer de faux contenus (e-books, formations, etc.) sur le Web[49].
Plusieurs chercheurs émettent des réserves quant aux manquements au droit d'auteur, car l'IA de ChatGPT a été entraînée en utilisant un très grand nombre de textes en ligne[50],[51] (dont le corpus de Wikipédia)[52], précise Laure Soulier (maîtresse de conférences à Sorbonne Université au sein de l'équipe Machine Learning and Information Access). Or, Wikipédia est réutilisable et modifiable par tous, mais à condition que le produit final cite Wikipédia comme source placée sous licence ouverte de type CC-BY-SA.
Pour Thierry Poibeau, directeur de recherche au CNRS, les créateurs de l'IA « ont indexé tout ce qui était disponible sur le Web jusqu'en 2021. Même s'il y a des copyrights, ils s'assoient dessus »[50].
Pour le mathématicien et vidéaste web français Lê Nguyên Hoang, il est probable qu'une grande partie du contenu utilisé pour générer des discussions vienne des réseaux sociaux. « Ça vient très probablement des réseaux sociaux LinkedIn, GitHub, Reddit, Twitter, où les données sont facilement téléchargeables », explique-t-il[50].
Pour la journaliste Alexandra Tauziac du journal Sud-Ouest, le fait que ChatGPT ait été entraîné avec des sources probablement soumises aux droits d’auteur, sans que ces dernières soient mentionnées dans les réponses du robot, risque en tout cas de poser un problème juridique[51].
ChatGPT inquiète les enseignants, en raison des risques d'un nouveau type de plagiat de la part des élèves et étudiants. En effet, s'il est possible pour les professeurs d'identifier dans les devoirs les contenus copiés-collés à partir d'Internet, les plagiats sont plus difficilement détectables avec ChatGPT qui peut rédiger un contenu unique[53],[54].
À Lyon, 50 % des élèves d'un cours de handicapologie auraient ainsi utilisé l'intelligence artificielle pour rédiger leur copie. N'ayant pas de cadre pour interdire cette pratique, l'enseignant se voit alors contraint d'attribuer la moyenne à toutes ces copies[55].
Pour résoudre ce problème et aider les enseignants à identifier les plagiats, sans ralentir le développement de son intelligence artificielle, OpenAI a annoncé, en , travailler à l'apposition d'une signature (watermark) sur les contenus générés par son IA afin qu'ils soient identifiables par les enseignants. Néanmoins cette méthode pourrait être facile à contourner, selon Srini Devadas, professeur en sciences de l'informatique au MIT[53],[56],[57].
Dans un article d'opinion de , le philosophe Vincent Cespedes voit au contraire en ChatGPT une opportunité de révolutionner l'École, « à condition d’apprendre à s’en servir correctement, c’est-à-dire en créant au lieu de copier-coller, en tâtonnant au lieu d’ânonner, en expérimentant au lieu de consommer »[58].
En janvier 2023, l'économiste Daniel Susskind (auteur de « Un Monde sans travail »), invité par France Culture, note que ChatGPT « prend en charge des tâches que l'on pensait réservées aux humains » dont, et c'est nouveau, des « tâches qui nécessitent de la créativité, ou du jugement […] Il faut le voir comme faisant partie d'une tendance beaucoup plus importante : la technologie prend en charge de plus en plus de tâches que nous pensions réservées aux humains[10]. ChatGPT n'en est qu'un exemple. »
Selon lui, jusqu'alors les progrès technologiques qui ont supprimé des emplois en ont créé d'autres. Mais, ajoute-t-il, « cette fois-ci, les choses peuvent être différentes : nos systèmes et nos machines deviennent incroyablement capables, prennent des tâches et activités que nous ne pensions possibles que par des esprits humains experts, poursuit l'économiste. Au point, estime-t-il, de raréfier considérablement le travail »[10].
Laure Soulier estime, que « quand Wikipedia est né, beaucoup de gens disaient : « c'est la fin de l'école ». Et nous avons appris à utiliser ces outils. Avec ChatGPT […], nous allons apprendre à nous en servir, pour que ces outils nous aident à travailler différemment. Peut-être pas travailler moins, ou arrêter de travailler, mais au moins travailler différemment […] Je pense qu'on est encore loin d'avoir une IA forte. Si l'on prend le monde de l'enseignement, peut-être qu'une IA peut construire un cours, donner l'ensemble des connaissances aux étudiants. Mais est-elle capable de détecter, par exemple, qu'un étudiant est en difficulté ? Je pense qu'on est encore loin de cela »[10].
Le contenu présenté de l'article Wikipédia a été extrait en 2023-02-12 sur la base de https://fr.wikipedia.org/?curid=15336720