Dans cet article, je vais vous présenter brièvement 2 nouveaux outils pour Tensorflow, le framework de Deep Learning de Google. Ils ne sont pas véritablement “nouveaux”, mais arrivent au stade où on peut les utiliser dans nos projets. Il s’agit de Tensorflow Lattice qui affine les données d’entrainement et Tensorflow Serving qui permet les déploiement plus facile de nouveaux modèles d’entraînement.
Apparition d’un nouvel outil: TensorFlow Lattice. Ce dernier permet de diminuer le bruit dans les données d’entraînement. Il devient alors possible de guider le modèle en influençant la courbe de résultats à partir des spéculations des Data Scientists. Grâce à la vidéo ci-après, on comprend un peut le fonctionnement du système: les données sont lissées en quelque sortes, en utilisant une interpolation des valeurs proches. Mais c’est plus que cela, puisqu’on utilise le machine learning pour entraîner cet “algo de lissage” (qui passe par une lookup table). L’exemple des coffeeshop (texas ou japan) permet d’intégrer la spéculation suivante: au Texas, les gens circulent en voiture, donc vont chercher un coffeeshop là où on peut se garer et se rendre facilement. Alors qu’au japon, les gens sont à pieds et cherchent le plus proche. Grâce à Lattice, on peut intégrer ce genre de spéculation et se débarrasser du bruit qui ne répond pas à cela (y‑a bien des Texans à pieds non ?). Plus d’infos ici.
Vidéo de présentation:
La bibliothèque TensorFlow Serving, actuellement en version 1.0, permet de gérer le cycle de vie des modèles d’apprentissage. Celle-ci simplifie le déploiement des nouveaux modèles en conservant la même architecture et les mêmes API. En gros, on parle bien de la phase d’inférence, une fois que le modèle est entraîné. TensorFlow Serving se charge de les rendre utilisables dans des environnements de production.
Laisser un commentaire