Facebook ouvre son matériel dédié à l’IA
Publié le 12 Décembre 2015
Décidément, l’Open Source a le vent en poupe. Après Google qui a ouvert le code source du logiciel chargé du Deep Learning ou Microsoft qui se convertit également petit à petit, Facebook vient de dévoiler les secrets de Big Sur, les ordinateurs conçus par ses soins pour les travaux d’Intelligence Artificielle.
On le sait : Facebook est un chantre de l’Open Source. Après avoir partagé les logiciels qu’il utilise, le réseau social a, dès 2011, communiqué sur ses propres conceptions de matériels, serveurs et équipements réseaux dans le cadre de l’Open Compute Project. En effet, Facebook conçoit et fabrique ses propres équipements plutôt que s’appuyer sur les produits du commerce et les gains semblent patents tant en termes de performances que de coûts.
La bécane de l'IA
Aujourd’hui, Facebook va un peu plus loin en publiant les spécifications de Big Sur, l’ordinateur utilisé pour les travaux d’IA de l’entreprise et tout particulièrement le Deep Learning. Rappelons que les recherches en Intelligence Artificielle de Facebook sont dirigées par un Français, Yann LeCun, et qu’un labo a été installé à Paris en plus des centres de recherches californiens. M. LeCun navigue donc entre Paris, Palo Alto et New York où il continue à dispenser ses cours à l’Université. Il est considéré comme l’un des inventeurs du Deep Learning, l’une des techniques d’Intelligence Artificielle utilisée en reconnaissance faciale ou vocale, vision par ordinateur ou encore traitement automatisé du langage. Pour réaliser ces travaux, il est nécessaire de disposer de puissances de calcul considérables et c’est là ou Big Sur entre en scène.
Du GPU pour les réseaux de neurones
Cet ordinateur comprend 8 cartes GPU, chacune d’entre elles étant équipée de dizaines de puces. C’est là que réside l’originalité de la conception. En effet, les processeurs graphiques (GPU) sont traditionnellement utilisés pour les jeux vidéos ou les applications graphiques haut de gamme mais les équipes de Facebook se sont aperçues que ces GPU étaient particulièrement performants pour le Deep Learning et les réseaux de neurones. Après 18 mois de développement, il apparaît que Big Sur est deux fois plus rapide que les systèmes précédemment utilisés par Facebook. Les systèmes ont été conçus en partenariat avec le constructeur Taïwanais Quanta et nVidia.
Agrandir le nombre de contributeurs
Cité par nos confrères de Wired, M. LeCun explique que le choix de l’Open Source pour cette conception hardware est également motivé par des considérations financières car plus le nombre de clients sera important plus cela fera baisser les coûts. Et avec un plus grand nombre de personnes qui travailleront sur ces concepts d’Intelligence Artificielle, celle-ci progressera plus vite. Compte tenu de son activité de réseau social, l’intérêt de Facebook n’est assurément pas de garder ses inventions secrètes dans la mesure où cela n’a aucun impact sur son activité. Au contraire, en partageant ses travaux, elle accroît le nombre d’intervenants et profitera plus rapidement des progrès accomplis.
source : http://www.linformaticien.com/actualites/id/38836/facebook-ouvre-son-materiel-dedie-a-l-ia.aspx
Tout récemment, une nouvelle émerge de plus en plus en provenance des réseaux de discussion SEO: Google utilise désormais l'apprentissage automatique dans son algorithme de recherche, un systè...
Google, Hummingbird et l'apprentissage automatique dans son algorithme de recherche, un système d'intelligence artificielle appelée "RankBrain" - OOKAWA Corp.