
{"id":10809,"date":"2023-10-05T15:18:02","date_gmt":"2023-10-05T15:18:02","guid":{"rendered":"https:\/\/novelis.io\/?post_type=research-lab&#038;p=10809"},"modified":"2025-07-07T13:01:08","modified_gmt":"2025-07-07T13:01:08","slug":"computer-vision","status":"publish","type":"research-lab","link":"https:\/\/novelis.io\/fr\/research-lab\/computer-vision\/","title":{"rendered":"Computer Vision"},"content":{"rendered":"\n<p>D\u00e9couvrez 4 articles sur la vision par ordinateur r\u00e9alis\u00e9s par notre \u00e9quipe de recherche.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">YOLO : un algorithme de d\u00e9tection d&rsquo;objets en temps r\u00e9el pour plusieurs objets dans une image en un seul passage<\/h3>\n\n\n\n<p>YOLO : Simplifier la d\u00e9tection d&rsquo;objets<\/p>\n\n\n\n<div style=\"height:100px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<figure class=\"wp-block-image size-full is-resized\"><img fetchpriority=\"high\" decoding=\"async\" width=\"1200\" height=\"1200\" src=\"https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/YOLO-Algorithm.png\" alt=\"YOLO Algorithm\" class=\"wp-image-9365\" style=\"width:478px;height:478px\" srcset=\"https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/YOLO-Algorithm.png 1200w, https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/YOLO-Algorithm-600x600.png 600w, https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/YOLO-Algorithm-250x250.png 250w, https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/YOLO-Algorithm-768x768.png 768w, https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/YOLO-Algorithm-30x30.png 30w\" sizes=\"(max-width: 1200px) 100vw, 1200px\" \/><\/figure>\n\n\n\n<p>YOLO (You Only Look Once) est une technique de d\u00e9tection d&rsquo;objets en temps r\u00e9el de pointe dans la vision par ordinateur. Il utilise un r\u00e9seau de neurones pour une d\u00e9tection rapide d\u2019objets en divisant l\u2019image en zones pour identifier des objets de diff\u00e9rentes tailles. Il pr\u00e9dit la classe d\u2019objet pour chaque bo\u00eete (chien, chat, plante, etc.) en apprenant une carte de probabilit\u00e9 de classe pour d\u00e9terminer l&rsquo;objet associ\u00e9 aux bo\u00eetes d\u00e9tect\u00e9es.<\/p>\n\n\n\n<p>YOLO fonctionne en capturant les caract\u00e9ristiques essentielles de l\u2019image, en les affinant et en identifiant les emplacements possibles des objets. Il apprend \u00e0 reconna\u00eetre des objets dans les images d\u2019entr\u00e9e en s\u2019entra\u00eenant sur des exemples \u00e9tiquet\u00e9s. Lors de la pr\u00e9diction, il analyse l&rsquo;image en une seule fois, d\u00e9tecte rapidement les objets et \u00e9limine les doublons.<\/p>\n\n\n\n<p>La derni\u00e8re version de YOLO est la v8, d\u00e9velopp\u00e9e par Ultralytics, mais la v5 reste largement utilis\u00e9e.<\/p>\n\n\n\n<p><strong>Pourquoi est-ce essentiel ?<\/strong> C\u2019est comme apprendre \u00e0 un ordinateur \u00e0 rep\u00e9rer des objets instantan\u00e9ment ! YOLO se distingue par sa rapidit\u00e9 et sa pr\u00e9cision, id\u00e9al pour des t\u00e2ches comme la robotique ou les voitures autonomes.<\/p>\n\n\n\n<div style=\"height:100px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">OCR et IDP : une technologie qui convertit le texte imprim\u00e9 en texte lisible par machine<\/h3>\n\n\n\n<p>La magie de la reconnaissance optique de caract\u00e8res (OCR)<\/p>\n\n\n\n<div style=\"height:100px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<figure class=\"wp-block-image size-full is-resized\"><img decoding=\"async\" width=\"1200\" height=\"1200\" src=\"https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/OCR-Technologies-2.png\" alt=\"OCR technologies\" class=\"wp-image-9368\" style=\"width:476px;height:476px\" srcset=\"https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/OCR-Technologies-2.png 1200w, https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/OCR-Technologies-2-600x600.png 600w, https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/OCR-Technologies-2-250x250.png 250w, https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/OCR-Technologies-2-768x768.png 768w, https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/OCR-Technologies-2-30x30.png 30w\" sizes=\"(max-width: 1200px) 100vw, 1200px\" \/><\/figure>\n\n\n\n<p>Vous vous demandez comment fonctionne le traitement intelligent de documents (IDP) ? Parmi ses fonctionnalit\u00e9s, il y a la conversion de texte scann\u00e9 ou manuscrit en texte \u00e9ditable et consultable, rendue possible gr\u00e2ce aux technologies de reconnaissance optique de caract\u00e8res (OCR). Dans notre s\u00e9rie sur les t\u00e2ches de vision par ordinateur (voir notre article pr\u00e9c\u00e9dent sur YOLO), examinons de pr\u00e8s l&rsquo;OCR et son fonctionnement.<\/p>\n\n\n\n<p>Lors de la conversion d&rsquo;une image en texte, l&rsquo;OCR passe par plusieurs \u00e9tapes. La premi\u00e8re est le pr\u00e9traitement, o\u00f9 l&rsquo;image est nettoy\u00e9e pour rendre le texte plus lisible. Ensuite, on proc\u00e8de \u00e0 la reconnaissance des caract\u00e8res. Les anciennes m\u00e9thodes OCR identifiaient chaque caract\u00e8re ou mot en les comparant \u00e0 des mod\u00e8les connus. Les m\u00e9thodes modernes utilisent des r\u00e9seaux de neurones capables de reconna\u00eetre des lignes de texte compl\u00e8tes. La phase finale est le post-traitement pour corriger les erreurs. Des m\u00e9thodes de d\u00e9tection d\u2019objets comme YOLO peuvent aussi \u00eatre utilis\u00e9es pour identifier les champs et r\u00e9gions textuelles dans les documents.<\/p>\n\n\n\n<p>Tesseract est le logiciel OCR de r\u00e9f\u00e9rence pour son haut degr\u00e9 de personnalisation et sa prise en charge de nombreuses langues. D&rsquo;autres algorithmes, comme le DONUT \u00ab\u00a0sans OCR\u00a0\u00bb, gagnent \u00e9galement en popularit\u00e9.<\/p>\n\n\n\n<p><strong>Pourquoi est-ce essentiel ?<\/strong> Les technologies OCR permettent aux entreprises d\u2019acc\u00e9l\u00e9rer leurs flux de travail et aux individus d&rsquo;acc\u00e9der facilement \u00e0 l&rsquo;information. Elles favorisent l&rsquo;innovation et transforment des secteurs comme la sant\u00e9, la finance, l&rsquo;\u00e9ducation et le juridique.<\/p>\n\n\n\n<div style=\"height:100px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">DINOv2 : un mod\u00e8le Vision Transformer qui produit des caract\u00e9ristiques universelles adapt\u00e9es aux t\u00e2ches visuelles d&rsquo;image<\/h3>\n\n\n\n<p>DINOv2 : La prochaine r\u00e9volution en vision par ordinateur ?<\/p>\n\n\n\n<div style=\"height:100px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<figure class=\"wp-block-image size-full is-resized\"><img decoding=\"async\" width=\"1200\" height=\"1200\" src=\"https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/DINOv2-data-augmentation-1.png\" alt=\"\" class=\"wp-image-9384\" style=\"width:470px;height:470px\" srcset=\"https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/DINOv2-data-augmentation-1.png 1200w, https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/DINOv2-data-augmentation-1-600x600.png 600w, https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/DINOv2-data-augmentation-1-250x250.png 250w, https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/DINOv2-data-augmentation-1-768x768.png 768w, https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/DINOv2-data-augmentation-1-30x30.png 30w\" sizes=\"(max-width: 1200px) 100vw, 1200px\" \/><\/figure>\n\n\n\n<p>Le domaine de la vision par ordinateur \u00e9volue constamment. Dans nos pr\u00e9c\u00e9dents articles, nous avons abord\u00e9 plusieurs m\u00e9thodes de vision par ordinateur, qui n\u00e9cessitent souvent de grandes quantit\u00e9s d\u2019images \u00e9tiquet\u00e9es pour donner de bons r\u00e9sultats. DINOv2, un mod\u00e8le de Meta Research (abr\u00e9viation de \u201cself-DIstillation with NO labels\u201d), est un mod\u00e8le innovant en vision par ordinateur utilisant l&rsquo;apprentissage auto-supervis\u00e9, supprimant le besoin d&rsquo;\u00e9tiquetage manuel des images.<\/p>\n\n\n\n<p>DINOv2 fonctionne sans avoir \u00e0 \u00e9tiqueter manuellement chaque image, une t\u00e2che souvent longue. Son architecture suit la m\u00e9thode de masquage courante en NLP, mais c\u2019est le processus de s\u00e9lection de donn\u00e9es qui rend DINOv2 unique. Il utilise des embeddings pour comparer les images d\u2019un petit ensemble de donn\u00e9es avec celles d\u2019un ensemble plus large, puis il \u00e9carte les images similaires pour \u00e9viter les redondances et s\u00e9lectionne des images proches pour enrichir l&rsquo;ensemble de donn\u00e9es initial.<\/p>\n\n\n\n<p>La derni\u00e8re version de DINOv2, lanc\u00e9e en avril 2023 par Meta Research, peut \u00eatre utilis\u00e9e dans diverses applications visuelles, notamment pour l&rsquo;estimation de profondeur, la segmentation s\u00e9mantique et la r\u00e9cup\u00e9ration d&rsquo;instances.<\/p>\n\n\n\n<p><strong>Pourquoi est-ce essentiel ?<\/strong> Avec DINOv2, on \u00e9vite l&rsquo;\u00e9tiquetage manuel, ce qui permet de gagner du temps. Ce mod\u00e8le puissant simplifie la cr\u00e9ation de pipelines de vision par ordinateur pr\u00e9cis et adaptables, particuli\u00e8rement utile dans des secteurs sp\u00e9cialis\u00e9s comme le m\u00e9dical ou l&rsquo;industriel, o\u00f9 l&rsquo;\u00e9tiquetage de donn\u00e9es est co\u00fbteux et complexe.<\/p>\n\n\n\n<div style=\"height:100px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">Efficient ViT : un mod\u00e8le de vision rapide pour les t\u00e2ches de pr\u00e9diction dense haute r\u00e9solution<\/h3>\n\n\n\n<p>Attention acc\u00e9l\u00e9r\u00e9e pour la segmentation s\u00e9mantique haute r\u00e9solution<\/p>\n\n\n\n<div style=\"height:100px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<figure class=\"wp-block-image size-full is-resized\"><img loading=\"lazy\" decoding=\"async\" width=\"1200\" height=\"1200\" src=\"https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/EfficientViT-1.png\" alt=\"\" class=\"wp-image-9381\" style=\"width:467px;height:467px\" srcset=\"https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/EfficientViT-1.png 1200w, https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/EfficientViT-1-600x600.png 600w, https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/EfficientViT-1-250x250.png 250w, https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/EfficientViT-1-768x768.png 768w, https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/EfficientViT-1-30x30.png 30w\" sizes=\"(max-width: 1200px) 100vw, 1200px\" \/><\/figure>\n\n\n\n<p>En vision par ordinateur en temps r\u00e9el, comme pour les voitures autonomes, il est crucial de reconna\u00eetre rapidement et pr\u00e9cis\u00e9ment les objets. Cela est possible gr\u00e2ce \u00e0 la segmentation s\u00e9mantique, qui analyse des images haute r\u00e9solution de l&rsquo;environnement. Cependant, cette m\u00e9thode exige beaucoup de puissance de traitement. Pour l\u2019utiliser sur des appareils avec des capacit\u00e9s limit\u00e9es, des chercheurs du MIT ont d\u00e9velopp\u00e9 un mod\u00e8le qui r\u00e9duit consid\u00e9rablement la complexit\u00e9 computationnelle.<\/p>\n\n\n\n<p>EfficientViT est un nouveau transformer de vision qui simplifie la construction de la carte d&rsquo;attention. Pour cela, les chercheurs ont modifi\u00e9 deux aspects : ils ont remplac\u00e9 la fonction de similarit\u00e9 non lin\u00e9aire par une lin\u00e9aire, et r\u00e9organis\u00e9 les op\u00e9rations pour r\u00e9duire les calculs n\u00e9cessaires tout en maintenant la fonctionnalit\u00e9. Deux \u00e9l\u00e9ments permettent cette simplification : l&rsquo;un capture les interactions locales des caract\u00e9ristiques et l&rsquo;autre aide \u00e0 d\u00e9tecter les petits et grands objets. Le transformer de vision simplifi\u00e9 g\u00e9n\u00e8re une carte de segmentation o\u00f9 chaque pixel est associ\u00e9 \u00e0 une classe.<\/p>\n\n\n\n<p>Ce travail, principalement acad\u00e9mique, a \u00e9t\u00e9 rendu public par le MIT-IBM Watson AI Lab en 2022 sur GitHub, avec des mises \u00e0 jour continues.<\/p>\n\n\n\n<p><strong>Pourquoi est-ce important ?<\/strong> R\u00e9duire la complexit\u00e9 computationnelle est essentiel pour la segmentation d\u2019images en temps r\u00e9el sur des appareils tels que les smartphones ou les syst\u00e8mes embarqu\u00e9s avec une puissance de calcul limit\u00e9e.<\/p>\n","protected":false},"featured_media":10789,"template":"","categories":[510],"custom_tag":[],"class_list":["post-10809","research-lab","type-research-lab","status-publish","has-post-thumbnail","hentry","category-lab-news-2"],"acf":{"externel_link":"","summary":"","filter_opacity":"70","subtitle":"","reading_time":"","authors":"","document_to_download":{"upload_a_file":false,"download_without_form":false,"file":false,"url":""},"show_recent_block_on_the_bottom_of_the_page":false},"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v25.6 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Computer Vision<\/title>\n<meta name=\"description\" content=\"D\u00e9couvrez 4 articles sur la vision par ordinateur r\u00e9alis\u00e9s par notre \u00e9quipe de recherche.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/novelis.io\/fr\/research-lab\/computer-vision\/\" \/>\n<meta property=\"og:locale\" content=\"fr_FR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Computer Vision\" \/>\n<meta property=\"og:description\" content=\"D\u00e9couvrez 4 articles sur la vision par ordinateur r\u00e9alis\u00e9s par notre \u00e9quipe de recherche.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/novelis.io\/fr\/research-lab\/computer-vision\/\" \/>\n<meta property=\"og:site_name\" content=\"Novelis innovation\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/www.facebook.com\/novelis.io\" \/>\n<meta property=\"article:modified_time\" content=\"2025-07-07T13:01:08+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/Image-publications-scientifiques-site-Novelis-6.png\" \/>\n\t<meta property=\"og:image:width\" content=\"1067\" \/>\n\t<meta property=\"og:image:height\" content=\"600\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:site\" content=\"@novelis_io\" \/>\n<meta name=\"twitter:label1\" content=\"Dur\u00e9e de lecture estim\u00e9e\" \/>\n\t<meta name=\"twitter:data1\" content=\"5 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/novelis.io\/fr\/research-lab\/computer-vision\/\",\"url\":\"https:\/\/novelis.io\/fr\/research-lab\/computer-vision\/\",\"name\":\"Computer Vision\",\"isPartOf\":{\"@id\":\"https:\/\/novelis.io\/fr\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/novelis.io\/fr\/research-lab\/computer-vision\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/novelis.io\/fr\/research-lab\/computer-vision\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/Image-publications-scientifiques-site-Novelis-6.png\",\"datePublished\":\"2023-10-05T15:18:02+00:00\",\"dateModified\":\"2025-07-07T13:01:08+00:00\",\"description\":\"D\u00e9couvrez 4 articles sur la vision par ordinateur r\u00e9alis\u00e9s par notre \u00e9quipe de recherche.\",\"breadcrumb\":{\"@id\":\"https:\/\/novelis.io\/fr\/research-lab\/computer-vision\/#breadcrumb\"},\"inLanguage\":\"fr-FR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/novelis.io\/fr\/research-lab\/computer-vision\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/novelis.io\/fr\/research-lab\/computer-vision\/#primaryimage\",\"url\":\"https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/Image-publications-scientifiques-site-Novelis-6.png\",\"contentUrl\":\"https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/Image-publications-scientifiques-site-Novelis-6.png\",\"width\":1067,\"height\":600},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/novelis.io\/fr\/research-lab\/computer-vision\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Accueil\",\"item\":\"https:\/\/novelis.io\/fr\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Computer Vision\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/novelis.io\/fr\/#website\",\"url\":\"https:\/\/novelis.io\/fr\/\",\"name\":\"Novelis innovation\",\"description\":\"Novelis innovation\",\"publisher\":{\"@id\":\"https:\/\/novelis.io\/fr\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/novelis.io\/fr\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"fr-FR\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/novelis.io\/fr\/#organization\",\"name\":\"Novelis innovation\",\"url\":\"https:\/\/novelis.io\/fr\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/novelis.io\/fr\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/novelis.io\/wp-content\/uploads\/2021\/12\/logo-1.png\",\"contentUrl\":\"https:\/\/novelis.io\/wp-content\/uploads\/2021\/12\/logo-1.png\",\"width\":479,\"height\":98,\"caption\":\"Novelis innovation\"},\"image\":{\"@id\":\"https:\/\/novelis.io\/fr\/#\/schema\/logo\/image\/\"},\"sameAs\":[\"https:\/\/www.facebook.com\/novelis.io\",\"https:\/\/x.com\/novelis_io\",\"https:\/\/www.linkedin.com\/company\/novelis-consulting\/\",\"https:\/\/www.youtube.com\/channel\/UCJ5eJR22n2GtfKaTWueWRPQ\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Computer Vision","description":"D\u00e9couvrez 4 articles sur la vision par ordinateur r\u00e9alis\u00e9s par notre \u00e9quipe de recherche.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/novelis.io\/fr\/research-lab\/computer-vision\/","og_locale":"fr_FR","og_type":"article","og_title":"Computer Vision","og_description":"D\u00e9couvrez 4 articles sur la vision par ordinateur r\u00e9alis\u00e9s par notre \u00e9quipe de recherche.","og_url":"https:\/\/novelis.io\/fr\/research-lab\/computer-vision\/","og_site_name":"Novelis innovation","article_publisher":"https:\/\/www.facebook.com\/novelis.io","article_modified_time":"2025-07-07T13:01:08+00:00","og_image":[{"width":1067,"height":600,"url":"https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/Image-publications-scientifiques-site-Novelis-6.png","type":"image\/png"}],"twitter_card":"summary_large_image","twitter_site":"@novelis_io","twitter_misc":{"Dur\u00e9e de lecture estim\u00e9e":"5 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/novelis.io\/fr\/research-lab\/computer-vision\/","url":"https:\/\/novelis.io\/fr\/research-lab\/computer-vision\/","name":"Computer Vision","isPartOf":{"@id":"https:\/\/novelis.io\/fr\/#website"},"primaryImageOfPage":{"@id":"https:\/\/novelis.io\/fr\/research-lab\/computer-vision\/#primaryimage"},"image":{"@id":"https:\/\/novelis.io\/fr\/research-lab\/computer-vision\/#primaryimage"},"thumbnailUrl":"https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/Image-publications-scientifiques-site-Novelis-6.png","datePublished":"2023-10-05T15:18:02+00:00","dateModified":"2025-07-07T13:01:08+00:00","description":"D\u00e9couvrez 4 articles sur la vision par ordinateur r\u00e9alis\u00e9s par notre \u00e9quipe de recherche.","breadcrumb":{"@id":"https:\/\/novelis.io\/fr\/research-lab\/computer-vision\/#breadcrumb"},"inLanguage":"fr-FR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/novelis.io\/fr\/research-lab\/computer-vision\/"]}]},{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/novelis.io\/fr\/research-lab\/computer-vision\/#primaryimage","url":"https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/Image-publications-scientifiques-site-Novelis-6.png","contentUrl":"https:\/\/novelis.io\/wp-content\/uploads\/2023\/10\/Image-publications-scientifiques-site-Novelis-6.png","width":1067,"height":600},{"@type":"BreadcrumbList","@id":"https:\/\/novelis.io\/fr\/research-lab\/computer-vision\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Accueil","item":"https:\/\/novelis.io\/fr\/"},{"@type":"ListItem","position":2,"name":"Computer Vision"}]},{"@type":"WebSite","@id":"https:\/\/novelis.io\/fr\/#website","url":"https:\/\/novelis.io\/fr\/","name":"Novelis innovation","description":"Novelis innovation","publisher":{"@id":"https:\/\/novelis.io\/fr\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/novelis.io\/fr\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"fr-FR"},{"@type":"Organization","@id":"https:\/\/novelis.io\/fr\/#organization","name":"Novelis innovation","url":"https:\/\/novelis.io\/fr\/","logo":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/novelis.io\/fr\/#\/schema\/logo\/image\/","url":"https:\/\/novelis.io\/wp-content\/uploads\/2021\/12\/logo-1.png","contentUrl":"https:\/\/novelis.io\/wp-content\/uploads\/2021\/12\/logo-1.png","width":479,"height":98,"caption":"Novelis innovation"},"image":{"@id":"https:\/\/novelis.io\/fr\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.facebook.com\/novelis.io","https:\/\/x.com\/novelis_io","https:\/\/www.linkedin.com\/company\/novelis-consulting\/","https:\/\/www.youtube.com\/channel\/UCJ5eJR22n2GtfKaTWueWRPQ"]}]}},"_links":{"self":[{"href":"https:\/\/novelis.io\/fr\/wp-json\/wp\/v2\/research-lab\/10809"}],"collection":[{"href":"https:\/\/novelis.io\/fr\/wp-json\/wp\/v2\/research-lab"}],"about":[{"href":"https:\/\/novelis.io\/fr\/wp-json\/wp\/v2\/types\/research-lab"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/novelis.io\/fr\/wp-json\/wp\/v2\/media\/10789"}],"wp:attachment":[{"href":"https:\/\/novelis.io\/fr\/wp-json\/wp\/v2\/media?parent=10809"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/novelis.io\/fr\/wp-json\/wp\/v2\/categories?post=10809"},{"taxonomy":"custom_tag","embeddable":true,"href":"https:\/\/novelis.io\/fr\/wp-json\/wp\/v2\/custom_tag?post=10809"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}