TensorFlow de Google

–> Ten­sor Pro­cess­ing Unit (TPU)

News:

  • Mai 2017: Au dernier Google I/O, nou­velle ver­sion de Ten­sor­Flow, appelé Ten­sor­Flow lite. Voir arti­cle. Ver­sion opti­misée pour les mobiles afin de per­me­t­tre aux développeurs de con­cevoir des appli­ca­tions fonc­tion­nant sur des smart­phones Android.
  • Mars 2017: Cloud Video Intel­li­gence. Dans cet exem­ple, L’ IA analyse la scène vidéo, caté­gorise les objets vis­i­bles dans celle-ci et leur attribue des pour­cent­ages d’apparition. Video Intel­li­gence API, per­me­t­tra aux développeurs d’obtenir le détail des con­tenus d’une vidéo grâce à ses «puis­sants mod­èles d’apprentissage automa­tique» qui peu­vent y iden­ti­fi­er des élé­ments avec pré­ci­sion, et sera acces­si­ble via la GCP (Google Cloud Plat­form).
  • Sor­tie de la ver­sion 1.0: Plus rapi­de, com­pi­la­teur spé­cial expéri­men­tal pour les graphes bap­tisé XLA (Accel­er­at­ed Lin­ear Alge­bra) et capa­ble de cibler les processeurs prin­ci­paux (CPU) et les processeurs graphiques (GPU). Skflow, une inter­face sim­pli­fiée pour l’apprentissage automa­tique et Ten­sor­Flow Slim, une bib­lio­thèque légère pour la déf­i­ni­tion, la for­ma­tion et l’évaluation de mod­èles dans Ten­sor­Flow. Voici com­ment upgrad­er son code de 0.n à 1.0.
  • Févri­er 2017: Google Brain tra­vaille sur des réseaux neu­ronaux capa­bles d’implé­menter leurs pro­pres formes de chiffre­ment.
  • Décem­bre 2016: Dossier sur Ten­sor­flow dans GNU/Linux Mag­a­zine n°198.
  • Novem­bre 2016: En util­isant une sorte de tam­pon de replay mimant la fac­ulté de rêver, Google Deep­Mind a X10 sa vitesse d’ap­pren­tis­sage. Deep­Mind, s’é­tait déjà illus­trée par sa capac­ité à appren­dre seule à jouer à des jeux vidéo, à par­ler comme un humain ou encore à ter­rass­er le cham­pi­on de monde du jeu de Go, elle sait égale­ment désor­mais lire sur les lèvres: taux de réus­site de 46,8% quand, un pro­fes­sion­nel n’a obtenu qu’un score de 12,4%. Elle com­prend aus­si la physique!
  • Deep­Mind veut tester ses recherch­es en intel­li­gence arti­fi­cielle dans le  domaine du jeu vidéo. Lors du Bliz­zCon 2016: le jeu Star­Craft II sera ouvert aux chercheurs en IA. Pour cela, la fil­iale de Google a dévelop­pé une inter­face qui sim­pli­fie les graphismes de Star­Craft II en élé­ments visuels de base (des pix­els, comme vous pou­vez le voir dans la vidéo suiv­ante) qui sont mieux adap­tés pour ali­menter le sys­tème d’apprentissage automa­tique. Pour tra­vailler en temps réel: DNC (Dif­fer­en­tial Neur­al Com­put­er), une tech­nique qui per­met à l’IA d’utiliser sa pro­pre mémoire pour appren­dre et trou­ver la réponse aux questions.
  • Google qui util­i­sait jusqu’à présent la tra­duc­tion phrase par phrase (phrase-based machine trans­la­tion ou PBMT), va utilis­er main­tenant une méth­ode basée sur le Deep Learn­ing nom­mée long short-term mem­o­ry ou LSTM (voir arti­cle et ce doc­u­ment). Bap­tisé Google Neur­al Machine Trans­la­tion sys­tem (GNMT), cela réduit de 55 à 85% le taux d’er­reur par rap­port à la ver­sion actuelle de l’al­go­rithme de Google Tra­duc­tion (pour l’in­stant, octo­bre 2016, seule­ment act­if du chi­nois <–> Anglais) — cette vidéo mon­tre aus­si l’u­til­i­sa­tion en RA.
  • Novem­bre 2015: Ten­sor­Flow est un out­il open-source d’ap­pren­tis­sage automa­tique dévelop­pé par Google. Le code source a été ouvert le 9 novem­bre 2015 par Google. Des processeurs dédiés ont été dévelop­pés. Voir arti­cle sur ce site. Pos­si­bil­ité d’u­tilis­er la librairie Keras. Peut être appliqué à n’importe quels jeux de don­nées et peut être com­pilé en C++ ou Python. Voir exem­ple d’u­til­i­sa­tion sous Rasp­ber­ry Pi avec la ver­sion pre­built “incep­tion” qui per­met la recon­nais­sance d’objets.
  • Octo­bre 2015: Alpha­Go (voir Wikipé­dia), l’IA de Google Deep­Mind a bat­tu par 5 par­ties à 0 le cham­pi­on européen de Go Fan Hui, puis en mars 2016, a ter­rassé Lee Sedol, le cham­pi­on du monde, en 4 par­ties à 1.

Logi­ciels et API tiers:

  • Son­net, bib­lio­thèque de réseau neu­ronal ori­en­tée objet, est désor­mais open source. La bib­lio­thèque utilise une approche ori­en­tée objet, sim­i­laire à Torch / NN, per­me­t­tant de créer des mod­ules qui définis­sent le pas­sage en avant de cer­tains cal­culs. Son­net est conçu spé­ci­fique­ment pour fonc­tion­ner avec Ten­sor­Flow et, en tant que tel, ne vous empêche pas d’ac­céder aux détails sous-jacents tels que Ten­sors et les vari­ables sys­tème. Les mod­èles écrits dans Son­net peu­vent être mélangés libre­ment avec le code Ten­sor­Flow brut dans d’autres bib­lio­thèques de haut niveau. Voir source.
  • Inkling est un lan­gage pro­prié­taire de haut niveau qui com­pile la bib­lio­thèque open source Ten­sor­Flow.  Il s’é­carte des algo­rithmes d’IA dynamiques qui néces­sit­eraient autrement une exper­tise dans l’ap­pren­tis­sage par machine. Déclaratif et forte­ment typé, le lan­gage ressem­ble à un croise­ment entre Python et SQL d’un point de vue syn­tax­ique. La ver­sion 1.0 du lan­gage est atten­due vers la fin du mois de juin 2017.
  • Embed­ding Pro­jec­tor, com­posant Open Source de Ten­sor Flow per­me­t­tant la visu­al­i­sa­tion de don­nées. Voir présen­ta­tion (et résumé en Français).
  • Ten­sor­Board est l’in­ter­face per­me­t­tant de visu­alis­er la pro­gres­sion de l’apprentissage.
  • Sup­port du mul­ti GPU via Open­CL ou CUDA via CuD­NN
  • L’util­i­sa­tion de Keras sim­pli­fie l’u­til­i­sa­tion de TF (doc offi­cielle)

Pro­jets util­isant TF:

Sites et ressources:

Fièrement propulsé par WordPress | Thème : Baskerville 2 par Anders Noren.

Retour en haut ↑

%d blogueurs aiment cette page :