Maison / Technologie / Un nouveau cadre améliore les performances des réseaux de neurones profonds

Un nouveau cadre améliore les performances des réseaux de neurones profonds

réseau neuronal

Crédit: CC0 Public Domain

Les chercheurs de la North Carolina State University ont mis au point un nouveau cadre pour la construction de réseaux de neurones profonds via des générateurs de réseaux guidés par la grammaire. Lors de tests expérimentaux, les nouveaux réseaux, appelés AOGNets, ont surpassé les infrastructures de pointe existantes, y compris les systèmes largement utilisés ResNet et DenseNet, dans les tâches de reconnaissance visuelle.

"Les réseaux AOG ont une meilleure précision de prédiction que tous les réseaux auxquels nous les avons comparés", a déclaré Tianfu Wu, professeur assistant en génie électrique et informatique à NC State et auteur correspondant d'un article sur le travail. "Les réseaux AOG sont également plus faciles à interpréter, ce qui signifie que les utilisateurs peuvent voir comment le système parvient à ses conclusions."

Le nouveau cadre utilise une approche de la grammaire compositionnelle à l’architecture système qui s’appuie sur les meilleures pratiques systèmes de réseau précédents pour extraire plus efficacement des informations utiles à partir de données brutes.

"Nous avons constaté que la grammaire hiérarchique et compositionnelle nous offrait un moyen simple et élégant d'unifier les approches adoptées par les architectures système précédentes. À notre connaissance, il s'agit du premier travail qui utilise la grammaire pour la génération de réseaux", explique Wu.

Pour tester leur nouveau cadre, les chercheurs ont développé AOGNets et les ont testés par rapport à trois critères de classification des images: CIFAR-10, CIFAR-100 et ImageNet-1K.

"AOGNets obtenu de manière significative meilleure performance "Tous les réseaux à la pointe de la technologie comparés, tels que ResNets, DenseNets, ResNeXts et DualPathNets", a déclaré Wu. "AOGNets a également obtenu le meilleur score d'interprétabilité du modèle en utilisant la métrique de dissection de réseau dans ImageNet. AOGNets plus loin montrer grand potentiel dans la défense accusatoire et le déploiement agnostique de plate-forme (mobile vs cloud). "

Les chercheurs ont également testé les performances d’AOGNets dans détection d'objet et la segmentation sémantique d’instance, sur le benchmark Microsoft COCO, à l’aide du système vanilla Mask R-CNN.

"AOGNets a obtenu de meilleurs résultats que les réseaux principaux de ResNet et ResNeXt avec des tailles de modèle plus petites et un temps d'inférence similaire ou légèrement supérieur", a déclaré Wu. "Les résultats montrent l'efficacité d'AOGNets dans l'apprentissage de meilleures fonctionnalités dans les tâches de détection et de segmentation d'objets.

Ces tests sont pertinents car la classification des images est l’une des tâches de base de la reconnaissance visuelle et ImageNet est le point de référence standard de la classification à grande échelle. De même, la détection et la segmentation des objets sont deux tâches essentielles de la vision de haut niveau, et MS-COCO est l’un des tests de performance les plus utilisés.

"Pour évaluer de nouveaux réseau architectures pour l'apprentissage en profondeur »selon Wu,« en matière de reconnaissance visuelle, ils sont les bancs d'essai d'or. «Les réseaux AOG sont développés dans un cadre grammatical basé sur des principes et permettent d'améliorer considérablement ImageNet et MS-COCO, montrant ainsi des impacts potentiellement larges et profonds pour l'apprentissage de la représentation dans de nombreuses applications pratiques.

"Nous sommes enthousiasmés par le réseau AOGNet basé sur la grammaire cadre, et étudient ses performances dans d’autres applications d’apprentissage en profondeur, telles que la compréhension profonde du langage naturel, l’apprentissage génératif profond et l’apprentissage par renforcement en profondeur ", a déclaré Wu.

Le document, "AOGNets: Architectures grammaticales de composition pour l'apprentissage en profondeur", sera présenté à la conférence de l'IEEE sur la vision par ordinateur et la reconnaissance des formes, qui se tiendra du 16 au 20 juin à Long Beach, en Californie. Son auteur est Xilai Li, Ph. .RÉ. étudiant à NC State. Le document a été co-écrit par Xi Song, un chercheur indépendant.


Le cadre améliore «l'apprentissage continu» pour l'intelligence artificielle


Plus d'information:
AOGNets: Architectures grammaticales de composition pour l'apprentissage en profondeur, arXiv: 1711.05847 (cs.CV) arxiv.org/abs/1711.05847

Fourni par
Université d'État de Caroline du Nord

Citation:
                                                 Un nouveau cadre améliore les performances des réseaux de neurones profonds (21 mai 2019)
                                                 récupéré le 21 mai 2019
                                                 sur https://techxplore.com/news/2019-05-framework-deep-neural-networks.html

Ce document est soumis au droit d'auteur. Mis à part toute utilisation équitable à des fins d’étude ou de recherche privée, aucun
                                            partie peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.

Source

A propos newstrotteur-fr

Découvrez également

Leslie Mann rejoint BLITHE SPIRIT – Newstrotteur

Leslie Mann (C’est 40, Bienvenue chez Marwen) a été ajouté au casting de la prochaine …

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *