L'intelligence artificielle (IA) renvoie à "une application capable de traiter des tâches qui sont, pour l'heure, réalisées de manière plus satisfaisante par des êtres humains dans la mesure où elles impliquent des processus mentaux de haut niveau comme l'apprentissage perceptuel, l'organisation de la mémoire et l'esprit critique". C'est ainsi que le scientifique américain Marvin Lee Minsky, considéré comme le père de l'IA, définit ce concept. C'est en 1956 à l'occasion d'une rencontre de scientifiques à Dartmouth (au sud de Boston) organisée en vue d'envisager la création de machines pensantes qu'il parvient à convaincre son auditoire d'accepter le terme.
Suite à de premiers travaux notamment autour des systemes , l'IA émerge bien plus tard. En 1989, le français Yann Lecun met au point le premier réseau de neurones capable de reconnaître des chiffres écrits à la main. Mais il faudra attendre 2019 pour que ses recherches et celles des canadiens Geoffrey Hinton et Yoshua Bengio soient couronnées par le prix Turing. Pourquoi ? Car pour fonctionner, le deep learning est confronté à deux obstacles. D'abord, la puissance de calcul nécessaire pour entraîner les réseaux de neurones. L'émergence des processeurs graphiques dans les années 2010 apporte une solution au problème. Ensuite, l'apprentissage implique évidemment de disposer de volumes de données massifs. Sur ce plan, GAFAM ont depuis tiré leur épingle du jeu, mais des data sets ont aussi été publiés en open source comme ImagiNET.