Tensor Processing Unit ou Cloud TPU

News:

  • Mai 2017: Au Google I/O, présen­ta­tion du TPU 2nd généra­tion. Voir arti­cle et car­ac­téris­tiques ci-après. Rebap­tisé Cloud TPU.
  • Avril 2017: Les TPU seraient jusqu’à 30x > rapi­de que des CPU et GPU dans le cadre de tâch­es de Machine Learn­ing. Le rap­port per­for­mance par watt des TPU se veut égale­ment de 25 à 80x > que celui des CPU et GPU.
  • Mai 2016: Mise au point d’un processeur dédié (ASIC),  le TPU (Ten­sor pro­cess­ing unit). Il ne seront pas com­mer­cial­isés directe­ment, mais acces­si­bles via le cloud.

Car­ac­téris­tiques (v2):

  • 180 Tflops SP: 4 TPU capa­bles de traiter 45 Tflops cha­cun.

  • Les super­cal­cu­la­teurs basés sur des TPU sont appelés Pod TPU: 64 TPU de sec­onde généra­tion et peut traiter jusqu’à 11,53 Petaflops pour entraîn­er les mod­èles d’apprentissage automa­tique.

  • opéra­tions 16 et 32 bits: info à à valid­er

Car­ac­téris­tiques (v1):

  • puce 8 bits, pour des per­for­mances atteignant 92 Tflops.

 

 

Fièrement propulsé par WordPress | Thème : Baskerville 2 par Anders Noren.

Retour en haut ↑

%d blogueurs aiment cette page :