Machine Learning: quésako?

Publié le 10 février 2020 par Adrien Saint

La petite Histoire

S’il y a un nom à citer dans les prémices du machine learning, c’est bien Arthur Samuel. Dès la fin de la seconde guerre mondiale, il avait en tête de créer un programme qui pourrait battre le champion du monde de jeu de dames. Voici sa définition du machine learning:

«C’est une discipline qui vise à donner à un ordinateur la capacité d’apprendre plutôt que de le programmer de façon explicite »

Autre grand nom dans le domaine de l’Intelligence Artificielle, Alan Turing. Bien que ses travaux aient été largement classifiés par l’armée britannique, il est un autre précurseur majeur. Le test de Turing est d’ailleurs toujours utilisé pour mesurer l’Intelligence artificielle. Sa formule rejoint la vision de A.Samuel:

« Une machine apprend lorsque sa performance P à faire une tâche T s’accroît avec l’expérience E. »

Après ces précurseurs post Seconde Guerre Mondiale, l’intelligence artificielle sera surtout portée par des entreprises comme IBM.

De nos jours, nous pouvons distinguer 3 grandes familles d’algorithmes d’apprentissage:

  • Apprentissage supervisé (supervised learning)
  • Apprentissage autonome (unsupervised learning)
  • Apprentissage par renforcement (reinforcement learning)

.

Supervised learning :

C’est le type de machine learning le plus utilisé. Prenons l’exemple de la détermination du prix d’un appartement:

Pour cette phase d’entraînement, on envoie dans un premier temps à la machine des paramètres et un résultat espéré. La machine calculera l’erreur qu’elle a commise et adaptera sa formule en conséquence, bâtissant au fur et à mesure une formule plus exacte à force de scénario. Cette phase d’apprentissage peut durer quelques secondes, mais également plusieurs années, en fonction de l’exactitude souhaitée. Par exemple, la reconnaissance d’une cellule cancéreuse prendra bien plus de temps.

Plusieurs problèmes peuvent être résolu:

  • par régression lorsque la variable est continu avec un nombre infini de valeurs (évolution démographiques, évolution des prix)
  • par classification avec une variable discrète et un nombre fini de valeurs (reconnaître si oui ou non ceci est une cellule cancéreuse, quel type d’animal est sur la photo…)

.

Unsupervised learning :

 

Dans le cas d’un apprentissage non supervisé, nous envoyons à la machine un ensemble de données sans lui dire à quoi cela correspond. A la différence du supervisé où l’on donne les questions et réponses, cette fois ci, nous ne faisons que poser la questions. La machine classifie d’elle même les données selon leurs différences ou ressemblances. La fonction associée cette fois est le K-mean clustering.

Le K-mean clustering aide par exemple à regrouper certains produits similaires comme on le voit sur des sites e-commerce. Il peut aussi aider à repérer des anomalies, comme de la fraude, en mettant à l’écart les comportements anormaux.

.

Reinforcement learning:

 

Dans ce cas, plus de questions ni de réponses ne sont fournies à la machine, qui a seulement à sa disposition un environnement. L’agent se créer sa propre expérience et juge de son impact sur l’environnement. Au sein du programme, l’algorithme développe une batterie d’actions afin de maximiser le nombre de réponses positives afin d’améliorer la performance P. 

Par exemple, si l’agent est une voiture autonome, une action possible serait de tourner à droite alors qu’un mur est sur sa droite. Le résultat de l’action étant néfaste sur le paramètre état de la voiture, alors l’action est jugée négative et sera enregistrée comme telle.

.

Le choix des algorithmes:

Les algorithmes les plus connus sont la régression linéaire, le KNN, les réseaux de neurones, les random forests.

Afin de mettre en place ces algorithmes, la plupart des data scientists utilisent R, pour des explorations, corrélations et régressions linéaires, ainsi que Python pour les problèmes plus complexes comme qui penche plutôt vers le Deep Learning. R est un language open source très fourni et reste relativement simple à utiliser. De nombreuses formations sont disponibles et la communauté partage beaucoup de Best Practices.

De nombreuses API existent pour intégrer des données, comme Google Cloud AI, Microsoft Azure Machine Learning ou la solution d’Amazon AWS Machine Learning.

 

Au delà du Machine Learning :

 

Au sein même du Machine Learning, on trouve le Deep Learning, qui vise à développer des modèles extrêmement complexes avec des milliards et des milliards de données afin de dépasser les capacités humaines. Dans une ère où les multinationales disposent d’un volume et d’une diversité de données affolantes, le Deep Learning offre un moyen de voir plus clair dans un nuage de data. 

 

Conclusion :

 

Que ce soit dans le domaine de la recherche médicale, dans la communication ou le marketing digital, l’Intelligence Artificielle est en plein essor et offre de nouvelles possibilités aux chercheurs et marketeurs. A la croisée de ces mondes, 14eight fait de l’Intelligence Artificielle un des grands axes de développement 2020 avec déjà de très beaux projets dans les pipelines.

Si vous souhaitez en apprendre plus, n’hésitez pas à entrer en contact avec nous!

 

sources :

-https://www.digitalcorner-wavestone.com/2019/03/tour-dhorizon-du-marche-de-lintelligence-artificielle/

-https://siecledigital.fr/2019/01/30/differences-intelligence-artificielle-machine-learning-deep-learning/

-https://www.r-project.org/

-https://machinelearningmastery.com/a-tour-of-machine-learning-algorithms/

-https://www.sas.com/fr_ma/home.html

-https://www.umontreal.ca/en/artificialintelligence/.

-Illustration en banière: https://icones8.fr

SUR LE MÊME
THèME

restez
informés

Abonnez-vous à notre newsletter pour être certain d’avoir un autre regard sur le numérique, vu dans haut, en panoramique !