Google I/O: Tensorflow Lite & TPU de seconde génération

Au dernier Google I/O, a été présen­tée la sec­onde généra­tion de la puce TPU (Ten­sor Proces­sor Unit) dédiée au Machine Learn­ing et dis­tribuée via Com­pute Engine. Elle a été rebap­tisée Cloud TPU. On peut atteinde jusqu’à 180 Tflops en vir­gule flot­tante, en pack­ageant 4 TPU capa­bles de traiter 45 Tflops cha­cune. Les super­cal­cu­la­teurs basés sur des TPU sont appelés Pod TPU: 64 TPU de sec­onde généra­tion et peut traiter jusqu’à 11,53 Petaflops pour entraîn­er les mod­èles d’apprentissage automa­tique.

La pre­mière généra­tion de TPU embar­quait une puce 8 bits, pour des per­for­mances atteignant 92 Tflops. Le Cloud TPU devrait gér­er des opéra­tions 16 et 32 bits, esti­ment les jour­nal­istes de Top500, car ce processeur est conçu pour la for­ma­tion de l’IA et néces­site donc des cal­culs plus com­plex­es.

On nous dévoile égale­ment une nou­velle ver­sion de Ten­sor­Flow, appelé Ten­sor­Flow lite, une bib­lio­thèque de machine learn­ing qui est open source, et qui ver­ra le jour très bien­tôt. Elle sera opti­misée pour les mobiles afin de per­me­t­tre aux développeurs de con­cevoir des appli­ca­tions fonc­tion­nant sur des smart­phones Android.

Laisser un commentaire

Fièrement propulsé par WordPress | Thème : Baskerville 2 par Anders Noren.

Retour en haut ↑

%d blogueurs aiment cette page :