Les mots Intelligence et Artificiel peuvent-ils être accolés sans qu'il en résulte une contradiction ? L'intelligence est-elle mécanisable, ou peut-on obtenir quelque chose d'intelligent à partir d'une mécanique ? Lors de la création de cette nouvelle discipline, dans les années cinquante, la question se posait dans ces termes. Elle reste toujours sans réponse malgré les grands progrès accomplis, mais l'absence de réponse acceptable n'empêche en rien le travail quotidien des chercheurs.
L'idée de la mécanisation du comportement et de la simulation de la pensée est ancienne. Descartes fut l'un des premiers à envisager sérieusement, loin de toute magie, la possibilité de reproduire certaines activités intellectuelles de l'humain à l'aide de mécanismes. Mais son idée "d'animal-machine" excluait la possibilité pour un tel artefact d'arranger les paroles "diversement pour répondre au sens de tout ce qui se dira en sa présence". Le siècle suivant connut l'impressionnante démonstration des automates, et la thèse radicale de La Mettrie (1747) qui, avec L'homme-machine, effaça d'un trait tout obstacle à la possibilité de concevoir une mécanisation totale des performances humaines.
En 1950 Alan M. Turing, qui s'était rendu célèbre pour ses théorèmes sur la calculabilité mécanique, définit un test d'intelligence pour une machine : se faire passer pour un humain dans une conversation à distance (médiatisée par un système à clavier). Comment refuser l'adjectif "intelligent" à un dispositif qui passerait ce test ! Turing prévoyait qu'un système, que l'on doterait de capacités d'apprentissage, passerait ce test avec succès avant la fin du siècle !
Le chemin parcouru a été malheureusement beaucoup plus long, ce qui a appris aux chercheurs à mesurer la complexité des mécanismes de l'intelligence humaine qu'ils prétendent reproduire. Le résultat : des succès impressionnants, des échecs retentissants, mais toujours, de manière plus ou moins avouée, l'idée qu'aucune limite infranchissable n'est en vue.
Dès la naissance des ordinateurs, les informaticiens ont compris que leurs machines pouvaient faire bien davantage que calculer sur des nombres. La possibilité de manipuler automatiquement des symboles abstraits les a conduits à quitter leur vision purement cybernétique du fonctionnement du vivant et de l'intelligence pour adopter une approche symbolique. En 1956, Le Logic Theorist développé au M.I.T. par Allan Newell, John Shaw et Herbert Simon impressionna beaucoup en démontrant des théorèmes de la logique propositionnelle. Les programmes "intelligents" qui suivirent, notamment les tentatives de mécaniser le jeu d'échec, étaient fondés, comme Logic Theorist, sur la puissance combinatoire de la machine, associée à un certain nombre d'heuristiques qui permettaient d'éviter l'explosion du nombre des possibilités à explorer.
Les limites de cette approche combinatoire apparurent alors que l'Intelligence Artificielle commençait à apparaître en tant que discipline respectable : la communauté de ses chercheurs tint son premier congrès en 1969 et fit paraître la revue spécialisée Artificial Intelligence en 1970. Les programmes de jeu furent alors relayés par les fameux systèmes experts comme fer de lance de la recherche en I.A. La suite ? De nombreux travaux très importants dans les domaines de l'apprentissage automatique, du traitement du langage, de la reproduction du raisonnement, l'avènement au milieu des années 1980 des réseaux neuro-mimétiques, l'intégration d'une partie des recherches I.A. dans les Sciences Cognitives, et surtout de nombreuses perspectives pour les années à venir.