Tensor/Tensorflow: le processeur de Google pour l’Intelligence Artificielle!

Google avait déjà com­mencé à con­stru­ire de nom­breux élé­ments pour ses cen­tres de don­nées.  Il conçoit main­tenant ses pro­pres processeursTen­sor ou plutôt Ten­sor Pro­cess­ing Unit (TPU)  est une puce con­stru­ite spé­ciale­ment pour l’apprentissage. Google n’a pas de besoin de haute pré­ci­sion pour l’intelligence arti­fi­cielle, le processeur Ten­sor est axé sur les opéra­tions brutes par sec­onde, c’est à dire des tach­es spé­ci­fiques. Il est plus rapi­de pour l’IA que les processeurs habituels à des niveaux d’énergie sim­i­laires. Il est conçu aus­si de petite taille pour pou­voir être inclus dans les baies de dis­ques durs dans les racks des cen­tres de don­nées. Cette puce ne rem­plac­era pas les processeurs habituels, mais par oppo­si­tions aux autres processeurs spé­cial­isés dans l’apprentissage machine, elle est plus économique en énergie.

TPU_main2
Ce processeur a été util­isé pour une com­péti­tion de Go l’an dernier qui a mon­tré la vic­toire de Alpha­Go sur le cham­pi­on humain de Go.

L’apprentissage machine se généralise de la recon­nais­sance vocale à la tra­duc­tion et l’analyse de don­nées, ces tâch­es néces­si­tent des accéléra­tions spé­ci­fiques. La TPU est déjà util­isée en pro­duc­tion sur le cloud de Google. Elle ali­mente aus­si le sys­tème de tri de résul­tats RankBrain, la Google Map et les ser­vices de recon­nais­sance vocale de Google.

Mal­heureuse­ment, Google ne compte pas ven­dre ses TPU, que vous soyez un pro­fes­sion­nel ou non. La firme compte les utilis­er pour amélior­er  tous ses ser­vices néces­si­tant de l’intelligence arti­fi­cielle.

google tpu-1

En fait, ils ne peu­vent pas les ven­dre — Vous savez pourquoi ? regardez la pho­to précé­dente ! Les lanières, c’est pour attach­er la tête de leurs salariés — en fait le TPU suce le cerveau des col­lab­o­ra­teurs de google — ceux avec le T-Shirt Google Brain — Comme des cit­rons, on presse, et des neu­rones tombent dans le TPU, pis après on évac­ue le reste du col­lab­o­ra­teur… Bon, je déconne, c’est pour sor­tir les blocs de cartes mères, les chang­er au besoin… 🙂 Mais si ce n’est pas lit­téral, c’est quand même en par­tie vrai sur un plan sym­bol­ique.

GoogleBrain-570-x-380

Vous pou­vez toute­fois utilis­er Ten­sor­Flow,  bib­lio­thèque de logi­ciels open source de cal­cul numérique qui utilise des graphiques de flux de don­nées. Les nœuds du graphique représen­tent des opéra­tions math­é­ma­tiques, les bor­ds du graphique représen­tent les tableaux de don­nées mul­ti­di­men­sion­nelles. Ten­sor­Flow a été ini­tiale­ment dévelop­pé pour l’apprentissage machine et la recherche sur les réseaux de neu­rones.

Y-a encore beau­coup à dire sur Ten­sor­Flow, mais il faut que je teste un peu de mon coté avant de vous en repar­ler. Si vous êtes pressés, allez voir sur le site offi­ciel.

Laisser un commentaire

Fièrement propulsé par WordPress | Thème : Baskerville 2 par Anders Noren.

Retour en haut ↑

%d blogueurs aiment cette page :