L’Intelligence Artificielle chez Apple, un virage tardif mais prometteur

Quand on pense à Intel­li­gence Arti­fi­cielle, on ne pense pas à Apple. Alors que les autres “géants” de l’IT comme Google, Ama­zon, Microsoft, IBM, Ora­cle, etc. ont des solu­tions bien en place coté IA, Apple sem­ble être totale­ment à la traine… C’est dom­mage, car s’ils passent à coté de ça, ils risquent de rater le tour­nant du 21ième siè­cle et arriv­er dans une voie de garage avec de beaux objets, mais com­plète­ment idiots…

Non, ras­surez-vous, Apple a con­science de tout cela et vient d’ap­puy­er à fond fin 2016 sur l’ac­céléra­teur… Et quand on pèse 800 Mil­liards en bourse avec 200 Mil­liards de dis­pos (argent de poche), on peut vite rat­trap­er son manque de vision.

Dans cet arti­cle, nous allons donc voir le con­texte de ce tour­nant (nou­veau directeur et rachat de Lat­tice Data) et nous focalis­er sur Core ML et Neur­al Engine.  Et puis, coté voiture autonome, ça avance un peu aussi 🙂

Le nouveau directeur de l’intelligence artificielle

Depuis octo­bre 2016,  le directeur de l’intelligence arti­fi­cielle (IA) d’Apple est  Rus­lan Salakhut­di­nov . Il est pro­fesseur agrégé en machine learn­ing de Carnegie Mel­lon (mon uni­ver­sité préférée, avant le MIT) et petit clin d’oeil: il est aus­si Mem­bre de la Fac­ulté de Microsoft ! Bon passons.

Il pense que les réseaux de neu­rones pro­fonds (Deep Learn­ing) ont pro­duit des résul­tats spec­tac­u­laires ces dernières années mais qu’il reste du tra­vail! Par exem­ple sur les sys­tèmes de sous-titrage d’images, sur les  «mécan­ismes d’attention», un ajuste­ment de l’apprentissage pro­fond, dévelop­pé au cours des dernières années. Pour lui, l’approche devrait se con­cen­tr­er sur des par­ties spé­ci­fiques de l’im­age, de la phrase, .… un com­posant dédié per­me­t­trait aus­si d’ac­célér­er mes cal­culs, il s’ag­it du Neur­al Engin (voir plus bas).

Il pense aus­si partager avec le monde académique les résul­tats des recherch­es en IA d’Ap­ple, et per­me­t­tre à leurs salariés de pub­li­er leurs résultats.

Salakhut­di­nov étudie ain­si toutes les pos­si­bil­ités de s’align­er avec Google, Ama­zon et Microsoft. En effet, Apple qui était en avance il y a quelques années a pris du retard, quant aux smart­phones, smart­watch­es, Hauts-par­leurs intel­li­gents.

Rachat de Lattice data

Apple a racheté Lat­tice Data, spé­cial­iste de la car­ac­téri­sa­tion des don­nées non struc­turées, peut-être pour amélior­er Siri. Ses prin­ci­paux out­ils per­me­t­tent de don­ner du sens à des don­nées non struc­turées, textes comme images, par automa­tismes et machine learn­ing. Lat­tice Data a été créée par Chris Re et Michael Cafarel­la, pro­fesseurs en uni­ver­sité. Michael Cafarel­la a été un des créa­teurs d’Hadoop, la société spé­cial­isée du Big Data (voir notre dernier arti­cle sur Hadoop et Spark)

Core ML

La firme a présen­té dernière­ment Core ML, un frame­work pour inté­gr­er facile­ment des mod­èles de machine learn­ing dans nos appli­ca­tions (IOS, watchOS, macOS et tvOS).
 Sur la base de Core ML , vous avez 3 frame­works spé­ci­fiques :
  • Vision est un frame­work pour l’analyse d’image qui per­met de créer des fonc­tion­nal­ités machine learn­ing de vision par ordi­na­teur dans votre appli­ca­tion. Il pro­pose la ges­tion du suivi du vis­age, la détec­tion des vis­ages, les land­marks (points de repère), la détec­tion de texte, la détec­tion de rec­tan­gles, la détec­tion de codes-bar­res, le suivi des objets entre autres.
  • Foun­da­tion est un frame­work de traite­ment du lan­gage naturel, ses API utilisent le machine learn­ing pour com­pren­dre le texte à l’aide de fonc­tion­nal­ités telles que l’i­den­ti­fi­ca­tion de la langue, la tokeni­sa­tion (seg­men­ta­tion de texte), la lem­ma­ti­sa­tion (analyse lex­i­cale du con­tenu d’un texte en regroupant les mots d’une même famille), la recon­nais­sance d’en­tité nom­mée et de la parole.
  • Game­playK­it est un frame­work ori­en­té objet qui four­nit des out­ils et des tech­nolo­gies fon­da­men­tales pour le développe­ment de jeux. Il com­prend des out­ils pour con­cevoir des jeux avec une archi­tec­ture fonc­tion­nelle et réu­til­is­able ain­si que des tech­nolo­gies pour créer et amélior­er des fonc­tion­nal­ités de game­play comme le mou­ve­ment des personnages. 

Core ML est con­stru­it sur des tech­nolo­gies bas niveau :

  • Accel­er­ate, frame­work pour les math­é­ma­tiques vec­to­rielles et matricielles, le traite­ment du sig­nal numérique, la ges­tion des grands nom­bres et le traite­ment de l’image,

  • BNNS (Basic neur­al net­work sub­rou­tines), col­lec­tion de fonc­tions à implé­menter et exé­cuter des réseaux de neurones

  • Met­al Per­for­mance Shad­ers, frame­works qui apporte des opti­mi­sa­tions graphiques et des per­for­mances de calculs.

Core ML met en place un for­mat de fichi­er pub­lic (.mlmod­el) pour un des méth­odes de machine learn­ing et les mod­èles linéaires général­isés, entre autres. Vous pou­vez importer et déploy­er des mod­èles qui ont déjà appris et les utilis­er pour vos pré­dic­tions. Apple pro­pose aus­si quelques mod­èles de machine learn­ing prêts à l’emploi.

Les mod­èles au for­mat .mlmod­el peu­vent être directe­ment inté­grés dans les appli­ca­tions via XCode.

Apple pro­pose un out­il “Core ML Tools ”  pour con­ver­tir, éval­uer et tester les mod­èles de machine learn­ing en for­mat Core ML. Les fichiers peu­vent venir de Keras, Caffe, scik­it-learn, lib­svm et XGBoost. Il est open source (licence BSD) tant qu’il est en ver­sion bêta.

Les voitures électriques

Apple vient de décrocher son autori­sa­tion de tester ses véhicules autonomes sur les routes de Cal­i­fornie. La firme sem­blerait toute­fois ne pas s’ori­en­ter dans la con­cep­tion de voitures mais se posi­tion­ner en tant que sous-trai­tant spé­cial­isé IT, sans toute­fois se fer­mer la porte à la con­cep­tion intégrale.

 Le Neural Engine, composant dédié à l’IA

Son but est de délester le processeur des cal­culs spé­ci­fiques à l’in­tel­li­gence arti­fi­cielle, (recon­nais­sance faciale ou de voix, la pré­dic­tion de frappe, la réal­ité aug­men­tée. Ain­si, la puce Neur­al Engine tra­vaillerait en col­lab­o­ra­tion avec le processeur et la puce graphique ain­si que le coprocesseur de mou­ve­ment et autres cap­teurs. D’autres firmes avaient déjà mis en place des puces dédiées: Snap­drag­on de Qual­comm (qui équipe d’ailleurs des Iphone — peut-on par­ler de puce dédiée pour les Snap­drag­on? Il y a peut-être des processeurs spé­ci­fiques que je ne con­nais pas — à voir), le  Ten­sor Pro­cess­ing Unit (TPU) de Google, Nvidia, …

Il sera inté­gré aux ter­minaux mobiles, véhicules, et autres et devrait utilis­er Core Ml, de plus, les applis de Lat­tice data seront opti­misées pour elle, et la boucle est bouclée! FPGA, Asic ? On ne con­nait pas encore le for­mat (ou si vous avez plus d’in­fos, suis preneur).

Un SDK per­me­t­tant de l’exploiter sera pro­posé aux développeurs.

Conclusion

Apple arrive t‑elle a rat­trap­er son retard ? Oui, je n’ai pas de doute à ce sujet, mais Google reste quand même un géant dans ce domaine. C’est au coeur de sa stratégie alors que ça n’est qu’une branche chez Apple… Dans tous les cas, si le Machine Learn­ing vous intéresse, je pense qu’il faut sur­veiller Apple de près, on pour­rait être sur­pris. Ce sont surtout les rachats qui peu­vent leur per­me­t­tre de revenir à la charge. Pour l’in­stant, le rachat de Lat­tice Data est, à mon avis, une ten­ta­tive timide. Apple se fait aus­si quelques enne­mis avec Qual­comm (qu’ils met­tent en con­cur­rence avec Intel) et Imag­i­na­tion Tech­nolo­gies (proc graphiques)… Alors, ils veu­lent faire du processeur… même pour l’IA… pourquoi pas… je reste un peu sep­tique tout de même. Voilà , pour l’in­stant je suis intrigué, pas con­va­in­cu. Je vous rap­pelle que je ne suis pas un grand Fan d’Ap­ple, mais que j’ai décidé récem­ment de leur porter un peu d’at­ten­tion.

Laisser un commentaire

Fièrement propulsé par WordPress | Thème : Baskerville 2 par Anders Noren.

Retour en haut ↑

%d blogueurs aiment cette page :