
{"id":7033,"date":"2023-04-19T07:44:07","date_gmt":"2023-04-19T07:44:07","guid":{"rendered":"https:\/\/novelis.io\/?post_type=news&#038;p=7033"},"modified":"2023-04-20T13:58:29","modified_gmt":"2023-04-20T13:58:29","slug":"10-premiers-grands-modeles-de-langage-qui-ont-transforme-le-nlp-au-cours-des-5-dernieres-annees","status":"publish","type":"news","link":"https:\/\/novelis.io\/fr\/news\/10-premiers-grands-modeles-de-langage-qui-ont-transforme-le-nlp-au-cours-des-5-dernieres-annees\/","title":{"rendered":"10 premiers grands mod\u00e8les de langage qui ont transform\u00e9 le NLP au cours des 5 derni\u00e8res ann\u00e9es"},"content":{"rendered":"\n<p>GPT-4, publi\u00e9 par OpenAI en 2023, est le mod\u00e8le de langage qui d\u00e9tient l&rsquo;un des plus grands r\u00e9seaux neuronal jamais cr\u00e9\u00e9, bien au-del\u00e0 des mod\u00e8les de langage qui l&rsquo;ont pr\u00e9c\u00e9d\u00e9. Il est \u00e9galement le plus r\u00e9cent des grands mod\u00e8les multimodaux capables de traiter des images et des textes en entr\u00e9e et de produire des textes en sortie. Non seulement GPT-4 surpasse les mod\u00e8les existants par une marge consid\u00e9rable en anglais, mais il fait \u00e9galement preuve d&rsquo;une grande performance dans d&rsquo;autres langues. GPT-4 est un mod\u00e8le encore plus puissant et sophistiqu\u00e9 que GPT-3.5, montrant des performances in\u00e9gal\u00e9es dans de nombreuses t\u00e2ches de NLP (traitement du langage naturel), y compris la traduction et les questions-r\u00e9ponses.<\/p>\n\n\n\n<p>Dans cet article, nous pr\u00e9sentons dix grands mod\u00e8les de langage (LLM) ayant eu un impact significatif sur l\u2019\u00e9volution du NLP ces derni\u00e8res ann\u00e9es. Ces mod\u00e8les ont \u00e9t\u00e9 sp\u00e9cialement con\u00e7us pour s&rsquo;attaquer \u00e0 diverses t\u00e2ches dans le domaine du traitement du langage naturel (<a href=\"https:\/\/novelis.io\/fr\/expertises\/ocr-nlp\/\">NLP<\/a>), telles que la r\u00e9ponse aux questions, le r\u00e9sum\u00e9 automatique, la g\u00e9n\u00e9ration de texte \u00e0 partir de code, etc. Pour chaque mod\u00e8le, vous trouverez un aper\u00e7u de ses forces et faiblesses par rapport aux autres mod\u00e8les de sa cat\u00e9gorie.<\/p>\n\n\n\n<p>Un mod\u00e8le LLM (Large Language Model) est entra\u00een\u00e9 sur un grand corpus de donn\u00e9es textuelles et est con\u00e7u pour g\u00e9n\u00e9rer du texte comme le ferait un humain. L&rsquo;\u00e9mergence des LLM tels que GPT-1 (Radford et al., 2018) et BERT (Devlin et al., 2018) a repr\u00e9sent\u00e9 une perc\u00e9e dans le domaine de l&rsquo;intelligence artificielle.<\/p>\n\n\n\n<p><strong>Le premier LLM, d\u00e9velopp\u00e9 par OpenAI, est le GPT-1<\/strong> (Generative Pretrained Transformer) en 2018 (Radford et al., 2018). Il est bas\u00e9 sur le r\u00e9seau neuronal Transformer (Vaswani et al., 2017) et comporte 12 couches et 768 unit\u00e9s cach\u00e9es par couche. Le mod\u00e8le a \u00e9t\u00e9 entra\u00een\u00e9 \u00e0 pr\u00e9dire le l\u2019\u00e9l\u00e9ment suivant d&rsquo;une s\u00e9quence, compte tenu du contexte des \u00e9l\u00e9ments pr\u00e9c\u00e9dents. Le GPT-1 est capable d&rsquo;effectuer un large \u00e9ventail de t\u00e2ches linguistiques, notamment de r\u00e9pondre \u00e0 des questions, de traduire des textes et de produire des \u00e9crits cr\u00e9atifs. \u00c9tant donn\u00e9 qu&rsquo;il s&rsquo;agit du premier LLM, le GPT-1 pr\u00e9sente certaines limites, par exemple :<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li>Risque de biais&nbsp;: le GPT-1 est entra\u00een\u00e9 sur un vaste corpus de donn\u00e9es textuelles, ce qui peut introduire des biais dans le mod\u00e8le ;<\/li>\n\n\n\n<li>Manque de \u00ab&nbsp;bon sens&nbsp;\u00bb : en \u00e9tant form\u00e9 \u00e0 partir de textes il a des difficult\u00e9s \u00e0 lier les connaissances \u00e0 une forme de compr\u00e9hension ;<\/li>\n\n\n\n<li>Interpr\u00e9tabilit\u00e9 limit\u00e9e : \u00e9tant donn\u00e9 qu&rsquo;il a des millions de param\u00e8tres, il est difficile d&rsquo;interpr\u00e9ter la fa\u00e7on dont il prend des d\u00e9cisions et pourquoi il g\u00e9n\u00e8re certains r\u00e9sultats.<\/li>\n<\/ol>\n\n\n\n<p><strong>La m\u00eame ann\u00e9e que GPT-1, Google IA a introduit <a href=\"https:\/\/medium.com\/mlearning-ai\/the-need-for-bidirectional-encoder-representations-from-transformers-bert-7d8702aab5eb#:~:text=Bidirectional%20Encoder%20Representations%20from%20Transformers%20(BERT)%20is%20a%20free%20and,of%20ambiguous%20words%20in%20text.\" target=\"_blank\" rel=\"noopener\">BERT<\/a> (Bidirectional Encoder Representations from Transformers).<\/strong> Contrairement \u00e0 GPT-1, BERT (Devlin et al., 2018) s&rsquo;est concentr\u00e9 sur le pr\u00e9-entra\u00eenement du mod\u00e8le \u00e0 partir d\u2019une une t\u00e2che de mod\u00e9lisation du langage masqu\u00e9, o\u00f9 le mod\u00e8le a \u00e9t\u00e9 entra\u00een\u00e9 \u00e0 pr\u00e9dire les mots manquants dans une phrase compte tenu du contexte. Cette approche a permis \u00e0 BERT d&rsquo;apprendre des repr\u00e9sentations contextuelles riches des mots, ce qui a conduit \u00e0 une am\u00e9lioration des performances sur une gamme de t\u00e2ches NLP, telles que l&rsquo;analyse des sentiments et la reconnaissance des entit\u00e9s nomm\u00e9es. BERT partage avec GPT-1 certaines limitations, par exemple, l&rsquo;absence de connaissances de sens commun sur le monde, et la limitation de l&rsquo;interpr\u00e9tabilit\u00e9 pour savoir comment il prend des d\u00e9cisions et la raison le poussant \u00e0 g\u00e9n\u00e9rer certains r\u00e9sultats. En outre, BERT n&rsquo;utilise qu&rsquo;un contexte limit\u00e9 pour faire des pr\u00e9dictions, ce qui peut donner lieu \u00e0 des r\u00e9sultats inattendus ou absurdes lorsque le mod\u00e8le est confront\u00e9 \u00e0 des informations nouvelles ou non conventionnelles.<\/p>\n\n\n\n<p><strong>Au d\u00e9but de l&rsquo;ann\u00e9e 2019, &nbsp;le troisi\u00e8me LLM introduit par OpenAI, connu sous le nom de GPT-2 (Generative Pretrained Transformer 2) <\/strong>est apparu. GPT-2 (Radford et al., 2019) a \u00e9t\u00e9 con\u00e7u pour g\u00e9n\u00e9rer des textes coh\u00e9rents et de type humain en pr\u00e9disant le mot suivant dans une phrase en fonction des mots pr\u00e9c\u00e9dents. Son architecture est bas\u00e9e sur un r\u00e9seau neuronal transformateur, similaire \u00e0 son pr\u00e9d\u00e9cesseur GPT-1, qui utilise l&rsquo;auto-attention pour traiter les s\u00e9quences d&rsquo;entr\u00e9e. Cependant, GPT-2 est un mod\u00e8le beaucoup plus large que GPT-1, avec 1,5 milliard de param\u00e8tres par rapport aux 117 millions de param\u00e8tres de GPT-1. Cette taille accrue permet \u00e0 GPT-2 de g\u00e9n\u00e9rer des textes de meilleure qualit\u00e9 et d&rsquo;obtenir des r\u00e9sultats am\u00e9lior\u00e9s dans un large \u00e9ventail de t\u00e2ches de traitement du langage naturel. En outre, le GPT-2 peut effectuer un plus grand nombre de t\u00e2ches, telles que le r\u00e9sum\u00e9, la traduction et la compl\u00e9tion de texte, par rapport \u00e0 GPT-1. Cependant, l&rsquo;une des limites de GPT-2 r\u00e9side dans ses exigences en mati\u00e8re de ressources pour le calcul, ce qui peut rendre difficile sa formation et son d\u00e9ploiement sur certains mat\u00e9riels. En outre, certains chercheurs se sont inqui\u00e9t\u00e9s de l&rsquo;utilisation potentiellement abusive du GPT-2 pour g\u00e9n\u00e9rer des fausses nouvelles ou des informations trompeuses, ce qui a conduit l&rsquo;OpenAI \u00e0 limiter sa diffusion dans un premier temps.<\/p>\n\n\n\n<p><strong>GPT-2 a \u00e9t\u00e9 suivi par d&rsquo;autres mod\u00e8les tels que XLNet et RoBERTa.<\/strong> XLNet (Generalized Autoregressive Pretraining for Language Understanding) a \u00e9t\u00e9 introduit par Google IA. XLNet (Yang et al., 2019) est une variante de l&rsquo;architecture bas\u00e9e sur Transformer. XLNet est diff\u00e9rent des mod\u00e8les traditionnels.<\/p>\n\n\n\n<p>Transformer, tels que BERT et RoBERTa, utilise une m\u00e9thode d&rsquo;apprentissage bas\u00e9e sur la permutation qui permet au mod\u00e8le de prendre en compte tous les ordres de mots possibles dans une s\u00e9quence, plut\u00f4t qu&rsquo;un ordre fixe de gauche \u00e0 droite ou de droite \u00e0 gauche. Cette approche permet d&rsquo;am\u00e9liorer les performances dans les t\u00e2ches de NLP telles que la classification des textes, la r\u00e9ponse aux questions et l&rsquo;analyse des sentiments. Ce mod\u00e8le a obtenu des r\u00e9sultats de pointe sur des ensembles de donn\u00e9es de r\u00e9f\u00e9rence en mati\u00e8re de NLP, mais, comme tout autre mod\u00e8le, il pr\u00e9sente certaines limites. Par exemple, son algorithme d&rsquo;apprentissage est complexe (il utilise un algorithme d&rsquo;apprentissage bas\u00e9 sur la permutation) et il a besoin d&rsquo;une grande quantit\u00e9 de donn\u00e9es d&rsquo;apprentissage diversifi\u00e9es et de haute qualit\u00e9 pour obtenir de bons r\u00e9sultats.<\/p>\n\n\n\n<p><strong>Simultan\u00e9ment, RoBERTa (Robustly Optimized BERT Pretraining Approach) a \u00e9galement \u00e9t\u00e9 introduit en 2019<\/strong>, mais par Facebook AI. RoBERTa (Liu et al., 2019) am\u00e9liore BERT en s&rsquo;entra\u00eenant sur un plus grand corpus de donn\u00e9es, un masquage dynamique, et en s&rsquo;entra\u00eenant avec la phrase enti\u00e8re, plut\u00f4t qu&rsquo;avec les seuls tokens masqu\u00e9s. Ces modifications conduisent \u00e0 une am\u00e9lioration des performances sur un large \u00e9ventail de t\u00e2ches NLP, telles que la r\u00e9ponse aux questions, l&rsquo;analyse des sentiments et la classification des textes. RoBERTa est un LLM tr\u00e8s performant, mais il pr\u00e9sente \u00e9galement certaines limites. Par exemple, comme RoBERTa a un grand nombre de param\u00e8tres, l&rsquo;inf\u00e9rence peut \u00eatre lente ; le mod\u00e8le est plus performant en anglais, mais il n&rsquo;a pas les m\u00eames performances dans d&rsquo;autres langues.<\/p>\n\n\n\n<p><strong>Quelques mois plus tard, l&rsquo;\u00e9quipe de recherche de Salesforce a publi\u00e9 CTRL (Conditional Transformer Language Model).<\/strong> CTRL (Keskar et al., 2019) est con\u00e7u pour g\u00e9n\u00e9rer du texte conditionn\u00e9 par des sujets sp\u00e9cifiques, ce qui lui permet de g\u00e9n\u00e9rer un texte coh\u00e9rent et pertinent pour des t\u00e2ches ou des domaines sp\u00e9cifiques. CTRL est bas\u00e9 sur un r\u00e9seau neuronal transformateur, similaire \u00e0 d&rsquo;autres grands mod\u00e8les de langage tels que GPT-2 et BERT. Cependant, il comprend \u00e9galement un nouveau m\u00e9canisme de conditionnement, qui permet au mod\u00e8le d&rsquo;\u00eatre finement ajust\u00e9 pour des t\u00e2ches ou des domaines sp\u00e9cifiques. L&rsquo;un des avantages de CTRL est sa capacit\u00e9 \u00e0 g\u00e9n\u00e9rer des textes hautement pertinents et coh\u00e9rents pour des t\u00e2ches ou des domaines sp\u00e9cifiques, gr\u00e2ce \u00e0 son m\u00e9canisme de conditionnement. Cependant, l&rsquo;une de ses limites est qu&rsquo;il peut ne pas \u00eatre aussi performant que des mod\u00e8les linguistiques plus g\u00e9n\u00e9raux pour des t\u00e2ches plus diverses ou plus ouvertes. En outre, le m\u00e9canisme de conditionnement utilis\u00e9 par CTRL peut n\u00e9cessiter des \u00e9tapes de pr\u00e9traitement suppl\u00e9mentaires ou des connaissances sp\u00e9cialis\u00e9es pour \u00eatre mis en place efficacement.<\/p>\n\n\n\n<p><strong>Le m\u00eame mois que le mod\u00e8le CTRL, NVIDIA a pr\u00e9sent\u00e9 MEGATRON-LM<\/strong> (Shoeybi et al., 2019). MEGATRON-LM est con\u00e7u pour \u00eatre tr\u00e8s efficace et \u00e9volutif, permettant aux chercheurs et aux d\u00e9veloppeurs de former des mod\u00e8les de langage massifs avec des milliards de param\u00e8tres en utilisant des techniques de calcul distribu\u00e9. Son architecture est similaire \u00e0 celle d&rsquo;autres grands mod\u00e8les de langage tels que GPT-2 et BERT. Cependant, Megatron-LM utilise une combinaison de parall\u00e9lisme de mod\u00e8les et de parall\u00e9lisme de donn\u00e9es pour distribuer la charge de travail sur plusieurs GPU, ce qui lui permet d&rsquo;entra\u00eener des mod\u00e8les comportant jusqu&rsquo;\u00e0 8 milliards de param\u00e8tres. N\u00e9anmoins, l&rsquo;une des limites de Megatron-LM est sa complexit\u00e9 et ses exigences \u00e9lev\u00e9es en mati\u00e8re de calcul, qui peuvent compliquer sa mise en place et son utilisation efficace. En outre, les techniques de calcul distribu\u00e9 utilis\u00e9es par Megatron-LM peuvent entra\u00eener des frais g\u00e9n\u00e9raux et des co\u00fbts de communications suppl\u00e9mentaires, ce qui peut affecter le temps et l&rsquo;efficacit\u00e9 de la formation.<\/p>\n\n\n\n<p><strong>Quelques mois plus tard, Hugging Face a d\u00e9velopp\u00e9 un mod\u00e8le appel\u00e9 DistilBERT<\/strong> (Aur\u00e9lien et al., 2019). DistilBERT est une version all\u00e9g\u00e9e du mod\u00e8le BERT. Il a \u00e9t\u00e9 con\u00e7u pour fournir une alternative plus efficace et plus rapide \u00e0 BERT, tout en conservant un haut niveau de performance sur une vari\u00e9t\u00e9 de t\u00e2ches de TAL. Le mod\u00e8le est capable de r\u00e9duire la taille des mod\u00e8les de 40 % et d&rsquo;acc\u00e9l\u00e9rer les temps d&rsquo;inf\u00e9rence de 60 % par rapport \u00e0 BERT, sans sacrifier la pr\u00e9cision de ses performances. DistillBERT peut donner de bons r\u00e9sultats dans des t\u00e2ches telles que l&rsquo;analyse des sentiments, la r\u00e9ponse aux questions et la reconnaissance des entit\u00e9s nomm\u00e9es. Cependant, DistillBERT n&rsquo;est pas aussi performant que BERT dans certaines t\u00e2ches de NLP. En outre, il a \u00e9t\u00e9 pr\u00e9-entra\u00een\u00e9 sur un ensemble de donn\u00e9es plus petit que BERT, ce qui limite sa capacit\u00e9 \u00e0 transf\u00e9rer ses connaissances \u00e0 de nouvelles t\u00e2ches et \u00e0 de nouveaux domaines.<\/p>\n\n\n\n<p><strong>Simultan\u00e9ment, Facebook AI a lanc\u00e9 BART<\/strong> (Denoising Autoencoder for Regularizing Translation) en juin 2019. BART (Lewis et al., 2019) est un mod\u00e8le pr\u00e9-entra\u00een\u00e9 de s\u00e9quence \u00e0 s\u00e9quence (Seq2Seq) pour la g\u00e9n\u00e9ration, la traduction et la compr\u00e9hension du langage naturel. BART est un auto encodeur de d\u00e9bruitage qui utilise une combinaison d&rsquo;objectifs de d\u00e9bruitage dans le pr\u00e9-entra\u00eenement. Les objectifs de d\u00e9bruitage aident le mod\u00e8le \u00e0 apprendre des repr\u00e9sentations robustes. BART pr\u00e9sente des limites pour la traduction multilingue, ses performances peuvent \u00eatre sensibles au choix des hyperparam\u00e8tres, et trouver les hyperparam\u00e8tres optimaux peut s&rsquo;av\u00e9rer difficile. Par ailleurs, l&rsquo;autoencodeur de BART pr\u00e9sente des limites, telles que le manque de capacit\u00e9 \u00e0 mod\u00e9liser les d\u00e9pendances \u00e0 long terme entre les variables d&rsquo;entr\u00e9e et de sortie.<\/p>\n\n\n\n<p><strong>Enfin, nous avons analys\u00e9 le mod\u00e8le T5<\/strong> (Transfer Learning with a Unified Text-to-Text Transformer), introduit par Google AI. T5 (Raffel et al., 2020) est un mod\u00e8le bas\u00e9 sur un transformateur de s\u00e9quence \u00e0 s\u00e9quence. Il utilise l&rsquo;objectif MSP (Masked Span Prediction) dans le pr\u00e9-entra\u00eenement, qui consiste \u00e0 masquer al\u00e9atoirement des portions de texte de longueur arbitraire. Par la suite, le mod\u00e8le pr\u00e9dit les espaces masqu\u00e9s. Bien que le T5 ait obtenu des r\u00e9sultats conformes \u00e0 l&rsquo;\u00e9tat de l&rsquo;art, il est con\u00e7u pour \u00eatre un mod\u00e8le texte-\u00e0-texte polyvalent, ce qui peut parfois donner lieu \u00e0 des pr\u00e9dictions qui ne sont pas directement pertinentes pour une t\u00e2che sp\u00e9cifique ou qui ne se pr\u00e9sentent pas dans le format souhait\u00e9. En outre, le T5 est un mod\u00e8le de grande taille, qui n\u00e9cessite une utilisation importante de la m\u00e9moire et prend parfois beaucoup de temps pour l&rsquo;inf\u00e9rence.<\/p>\n\n\n\n<p>Dans cet article, nous avons abord\u00e9 les avantages et les inconv\u00e9nients des dix LLM r\u00e9volutionnaires qui ont \u00e9merg\u00e9 au cours des cinq derni\u00e8res ann\u00e9es. Nous avons \u00e9galement approfondi les architectures sur lesquelles ces mod\u00e8les ont \u00e9t\u00e9 construits, en mettant en \u00e9vidence les contributions significatives qu&rsquo;ils ont apport\u00e9es \u00e0 l&rsquo;avancement du domaine du NLP.<\/p>\n","protected":false},"featured_media":7040,"template":"","categories":[129],"tags":[136],"custom_tag":[378,87,165],"class_list":["post-7033","news","type-news","status-publish","has-post-thumbnail","hentry","category-article-de-blog","tag-nlp-fr","custom_tag-chatgpt-2","custom_tag-ia","custom_tag-nlp-fr"],"acf":{"externel_link":"","filter_opacity":"70","subtitle":"","reading_time":"","authors":[6700],"document_to_download":{"upload_a_file":false,"download_without_form":false,"file":false,"url":""}},"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v25.6 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>10 grands mod\u00e8les de langage qui ont transform\u00e9 le NLP - Novelis<\/title>\n<meta name=\"description\" content=\"Dans cet article, nous pr\u00e9sentons dix grands mod\u00e8les de langage (LLM) ayant eu un impact significatif sur l\u2019\u00e9volution du NLP.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/novelis.io\/fr\/news\/10-premiers-grands-modeles-de-langage-qui-ont-transforme-le-nlp-au-cours-des-5-dernieres-annees\/\" \/>\n<meta property=\"og:locale\" content=\"fr_FR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"10 grands mod\u00e8les de langage qui ont transform\u00e9 le NLP - Novelis\" \/>\n<meta property=\"og:description\" content=\"Dans cet article, nous pr\u00e9sentons dix grands mod\u00e8les de langage (LLM) ayant eu un impact significatif sur l\u2019\u00e9volution du NLP.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/novelis.io\/fr\/news\/10-premiers-grands-modeles-de-langage-qui-ont-transforme-le-nlp-au-cours-des-5-dernieres-annees\/\" \/>\n<meta property=\"og:site_name\" content=\"Novelis innovation\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/www.facebook.com\/novelis.io\" \/>\n<meta property=\"article:modified_time\" content=\"2023-04-20T13:58:29+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/novelis.io\/wp-content\/uploads\/2023\/04\/BLOG-1200-\u00d7-628-px-15.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1200\" \/>\n\t<meta property=\"og:image:height\" content=\"628\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:site\" content=\"@novelis_io\" \/>\n<meta name=\"twitter:label1\" content=\"Dur\u00e9e de lecture estim\u00e9e\" \/>\n\t<meta name=\"twitter:data1\" content=\"11 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/novelis.io\/fr\/news\/10-premiers-grands-modeles-de-langage-qui-ont-transforme-le-nlp-au-cours-des-5-dernieres-annees\/\",\"url\":\"https:\/\/novelis.io\/fr\/news\/10-premiers-grands-modeles-de-langage-qui-ont-transforme-le-nlp-au-cours-des-5-dernieres-annees\/\",\"name\":\"10 grands mod\u00e8les de langage qui ont transform\u00e9 le NLP - Novelis\",\"isPartOf\":{\"@id\":\"https:\/\/novelis.io\/fr\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/novelis.io\/fr\/news\/10-premiers-grands-modeles-de-langage-qui-ont-transforme-le-nlp-au-cours-des-5-dernieres-annees\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/novelis.io\/fr\/news\/10-premiers-grands-modeles-de-langage-qui-ont-transforme-le-nlp-au-cours-des-5-dernieres-annees\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/novelis.io\/wp-content\/uploads\/2023\/04\/BLOG-1200-\u00d7-628-px-15.jpg\",\"datePublished\":\"2023-04-19T07:44:07+00:00\",\"dateModified\":\"2023-04-20T13:58:29+00:00\",\"description\":\"Dans cet article, nous pr\u00e9sentons dix grands mod\u00e8les de langage (LLM) ayant eu un impact significatif sur l\u2019\u00e9volution du NLP.\",\"breadcrumb\":{\"@id\":\"https:\/\/novelis.io\/fr\/news\/10-premiers-grands-modeles-de-langage-qui-ont-transforme-le-nlp-au-cours-des-5-dernieres-annees\/#breadcrumb\"},\"inLanguage\":\"fr-FR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/novelis.io\/fr\/news\/10-premiers-grands-modeles-de-langage-qui-ont-transforme-le-nlp-au-cours-des-5-dernieres-annees\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/novelis.io\/fr\/news\/10-premiers-grands-modeles-de-langage-qui-ont-transforme-le-nlp-au-cours-des-5-dernieres-annees\/#primaryimage\",\"url\":\"https:\/\/novelis.io\/wp-content\/uploads\/2023\/04\/BLOG-1200-\u00d7-628-px-15.jpg\",\"contentUrl\":\"https:\/\/novelis.io\/wp-content\/uploads\/2023\/04\/BLOG-1200-\u00d7-628-px-15.jpg\",\"width\":1200,\"height\":628,\"caption\":\"mod\u00e8le de langage\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/novelis.io\/fr\/news\/10-premiers-grands-modeles-de-langage-qui-ont-transforme-le-nlp-au-cours-des-5-dernieres-annees\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Accueil\",\"item\":\"https:\/\/novelis.io\/fr\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"10 premiers grands mod\u00e8les de langage qui ont transform\u00e9 le NLP au cours des 5 derni\u00e8res ann\u00e9es\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/novelis.io\/fr\/#website\",\"url\":\"https:\/\/novelis.io\/fr\/\",\"name\":\"Novelis innovation\",\"description\":\"Novelis innovation\",\"publisher\":{\"@id\":\"https:\/\/novelis.io\/fr\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/novelis.io\/fr\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"fr-FR\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/novelis.io\/fr\/#organization\",\"name\":\"Novelis innovation\",\"url\":\"https:\/\/novelis.io\/fr\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/novelis.io\/fr\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/novelis.io\/wp-content\/uploads\/2021\/12\/logo-1.png\",\"contentUrl\":\"https:\/\/novelis.io\/wp-content\/uploads\/2021\/12\/logo-1.png\",\"width\":479,\"height\":98,\"caption\":\"Novelis innovation\"},\"image\":{\"@id\":\"https:\/\/novelis.io\/fr\/#\/schema\/logo\/image\/\"},\"sameAs\":[\"https:\/\/www.facebook.com\/novelis.io\",\"https:\/\/x.com\/novelis_io\",\"https:\/\/www.linkedin.com\/company\/novelis-consulting\/\",\"https:\/\/www.youtube.com\/channel\/UCJ5eJR22n2GtfKaTWueWRPQ\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"10 grands mod\u00e8les de langage qui ont transform\u00e9 le NLP - Novelis","description":"Dans cet article, nous pr\u00e9sentons dix grands mod\u00e8les de langage (LLM) ayant eu un impact significatif sur l\u2019\u00e9volution du NLP.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/novelis.io\/fr\/news\/10-premiers-grands-modeles-de-langage-qui-ont-transforme-le-nlp-au-cours-des-5-dernieres-annees\/","og_locale":"fr_FR","og_type":"article","og_title":"10 grands mod\u00e8les de langage qui ont transform\u00e9 le NLP - Novelis","og_description":"Dans cet article, nous pr\u00e9sentons dix grands mod\u00e8les de langage (LLM) ayant eu un impact significatif sur l\u2019\u00e9volution du NLP.","og_url":"https:\/\/novelis.io\/fr\/news\/10-premiers-grands-modeles-de-langage-qui-ont-transforme-le-nlp-au-cours-des-5-dernieres-annees\/","og_site_name":"Novelis innovation","article_publisher":"https:\/\/www.facebook.com\/novelis.io","article_modified_time":"2023-04-20T13:58:29+00:00","og_image":[{"width":1200,"height":628,"url":"https:\/\/novelis.io\/wp-content\/uploads\/2023\/04\/BLOG-1200-\u00d7-628-px-15.jpg","type":"image\/jpeg"}],"twitter_card":"summary_large_image","twitter_site":"@novelis_io","twitter_misc":{"Dur\u00e9e de lecture estim\u00e9e":"11 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/novelis.io\/fr\/news\/10-premiers-grands-modeles-de-langage-qui-ont-transforme-le-nlp-au-cours-des-5-dernieres-annees\/","url":"https:\/\/novelis.io\/fr\/news\/10-premiers-grands-modeles-de-langage-qui-ont-transforme-le-nlp-au-cours-des-5-dernieres-annees\/","name":"10 grands mod\u00e8les de langage qui ont transform\u00e9 le NLP - Novelis","isPartOf":{"@id":"https:\/\/novelis.io\/fr\/#website"},"primaryImageOfPage":{"@id":"https:\/\/novelis.io\/fr\/news\/10-premiers-grands-modeles-de-langage-qui-ont-transforme-le-nlp-au-cours-des-5-dernieres-annees\/#primaryimage"},"image":{"@id":"https:\/\/novelis.io\/fr\/news\/10-premiers-grands-modeles-de-langage-qui-ont-transforme-le-nlp-au-cours-des-5-dernieres-annees\/#primaryimage"},"thumbnailUrl":"https:\/\/novelis.io\/wp-content\/uploads\/2023\/04\/BLOG-1200-\u00d7-628-px-15.jpg","datePublished":"2023-04-19T07:44:07+00:00","dateModified":"2023-04-20T13:58:29+00:00","description":"Dans cet article, nous pr\u00e9sentons dix grands mod\u00e8les de langage (LLM) ayant eu un impact significatif sur l\u2019\u00e9volution du NLP.","breadcrumb":{"@id":"https:\/\/novelis.io\/fr\/news\/10-premiers-grands-modeles-de-langage-qui-ont-transforme-le-nlp-au-cours-des-5-dernieres-annees\/#breadcrumb"},"inLanguage":"fr-FR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/novelis.io\/fr\/news\/10-premiers-grands-modeles-de-langage-qui-ont-transforme-le-nlp-au-cours-des-5-dernieres-annees\/"]}]},{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/novelis.io\/fr\/news\/10-premiers-grands-modeles-de-langage-qui-ont-transforme-le-nlp-au-cours-des-5-dernieres-annees\/#primaryimage","url":"https:\/\/novelis.io\/wp-content\/uploads\/2023\/04\/BLOG-1200-\u00d7-628-px-15.jpg","contentUrl":"https:\/\/novelis.io\/wp-content\/uploads\/2023\/04\/BLOG-1200-\u00d7-628-px-15.jpg","width":1200,"height":628,"caption":"mod\u00e8le de langage"},{"@type":"BreadcrumbList","@id":"https:\/\/novelis.io\/fr\/news\/10-premiers-grands-modeles-de-langage-qui-ont-transforme-le-nlp-au-cours-des-5-dernieres-annees\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Accueil","item":"https:\/\/novelis.io\/fr\/"},{"@type":"ListItem","position":2,"name":"10 premiers grands mod\u00e8les de langage qui ont transform\u00e9 le NLP au cours des 5 derni\u00e8res ann\u00e9es"}]},{"@type":"WebSite","@id":"https:\/\/novelis.io\/fr\/#website","url":"https:\/\/novelis.io\/fr\/","name":"Novelis innovation","description":"Novelis innovation","publisher":{"@id":"https:\/\/novelis.io\/fr\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/novelis.io\/fr\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"fr-FR"},{"@type":"Organization","@id":"https:\/\/novelis.io\/fr\/#organization","name":"Novelis innovation","url":"https:\/\/novelis.io\/fr\/","logo":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/novelis.io\/fr\/#\/schema\/logo\/image\/","url":"https:\/\/novelis.io\/wp-content\/uploads\/2021\/12\/logo-1.png","contentUrl":"https:\/\/novelis.io\/wp-content\/uploads\/2021\/12\/logo-1.png","width":479,"height":98,"caption":"Novelis innovation"},"image":{"@id":"https:\/\/novelis.io\/fr\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.facebook.com\/novelis.io","https:\/\/x.com\/novelis_io","https:\/\/www.linkedin.com\/company\/novelis-consulting\/","https:\/\/www.youtube.com\/channel\/UCJ5eJR22n2GtfKaTWueWRPQ"]}]}},"_links":{"self":[{"href":"https:\/\/novelis.io\/fr\/wp-json\/wp\/v2\/news\/7033"}],"collection":[{"href":"https:\/\/novelis.io\/fr\/wp-json\/wp\/v2\/news"}],"about":[{"href":"https:\/\/novelis.io\/fr\/wp-json\/wp\/v2\/types\/news"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/novelis.io\/fr\/wp-json\/wp\/v2\/media\/7040"}],"wp:attachment":[{"href":"https:\/\/novelis.io\/fr\/wp-json\/wp\/v2\/media?parent=7033"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/novelis.io\/fr\/wp-json\/wp\/v2\/categories?post=7033"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/novelis.io\/fr\/wp-json\/wp\/v2\/tags?post=7033"},{"taxonomy":"custom_tag","embeddable":true,"href":"https:\/\/novelis.io\/fr\/wp-json\/wp\/v2\/custom_tag?post=7033"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}