L'intelligence artificielle est une discipline vivante, qui connaît des révolutions conceptuelles périodiques, et qui traite de questions qui, tant sur le plan technique que sur le plan scientifique, représentent des enjeux considérables. Sans adopter l'optimisme des premières époques, il est tout de même envisageable que dans un avenir que nous connaîtrons, les machines seront capables de réaliser des raisonnements valables et communicables, et que nous pourrons argumenter avec elles sur les domaines où elles seront compétentes. On peut même entrevoir un futur où les ordinateurs seront copilotes, professeurs, compagnons, conseillers, etc. Indépendamment de tout jugement sur le caractère désirable de telles projections, il est essentiel de savoir si elles sont crédibles. Certains en doutent. D'où des débats, qui sont indéniablement féconds sur le plan théorique, mais qui permettent surtout à chacun de mesurer ce qui l'attend, et de s'y préparer sur le plan personnel ou professionnel.
L'appellation "Système Expert" apparaît terriblement présomptueuse à certains, au même titre qu' "intelligence artificielle". Au point que l'on parle actuellement plus volontiers de "Systèmes à base de connaissances". En effet, les experts humains semblent effectuer des opérations fort différentes d'un simple enchaînement de règles mémorisées. Il suffit de penser à la rapidité avec laquelle un joueur d'échecs reconnaît une situation lors d'une simultanée. Il reconnaît des configurations, il anticipe des situations, mais rien n'indique qu'il enchaîne des règles du genre "Si ma tour est en F5 et le fou adverse menace en B1, alors créer un obstacle sur la diagonale".
La reproduction de l'expertise par l'enchaînement de règles pré-stockées a été très critiquée, par exemple par le philosophe H. Dreyfus qui compare le comportement du Système Expert à celui d'un débutant, non à celui de l'expert humain. C'est le débutant qui, aux Echecs, cherche à utiliser les règles stratégiques qu'on lui a enseignées. Pour Dreyfus, les Systèmes Experts produisent un comportement, certes, mais sans rapport avec la puissance de l'expertise humaine. De là à conclure que l'expertise humaine est par définition inimitable par des artefacts, il y a un saut qu'aucun chercheur actif en Intelligence Artificielle n'acceptera d'effectuer.
Il existe pourtant une situation dans laquelle n'importe quelle expertise doit passer par une description à l'aide de règles : lorsqu'il s'agit de communiquer l'expertise grâce au langage. Si le champion du monde d'échecs veut critiquer le mouvement d'une pièce sur l'échiquier effectué par l'un de ses élèves, il lui faudra donner des justifications logiques. Cette question de la communication de l'expertise est un enjeu actuel d'une très grande importance. On ne peut plus se contenter de présenter des connaissances figées dans des textes, fussent-ils des hypertextes. Une connaissance sert à produire des explications et des raisonnements pertinents. Au-delà de nos simples besoins en informations factuelles (horaire de train), nous aurons de plus en plus besoin d'accéder à tel ou tel aspect d'une connaissance experte (systèmes d'aide, aide à la conception et à la décision, etc.). Communiquer l'expertise, les machines commencent à savoir le faire.
Si l'on imagine un programme suffisamment puissant, doté de nombreuses connaissances, capable d'effectuer des raisonnements élaborés et doué de capacités linguistiques, bref, un ordinateur capable de passer avec succès le test de Turing, peut-on en conclure comme le fait Turing qu'il pense ? Autrement dit le pari de l'Intelligence Artificielle, dans son acception la plus forte, peut-il être pris au sérieux ?
Pour certains comme John Searle, certainement pas ! Ce que l'ordinateur réalise se résume à une manipulation de symboles. Or la pensée n'est pas réductible, selon Searle, à une manipulation de symboles. Pour le montrer, il vous demande d'imaginer que vous vous trouvez enfermé dans une pièce, la fameuse chambre "chinoise". Vous disposez d'un volumineux document qui vous dicte les actions à effectuer lorsque vous êtes confronté à une chaîne de symboles et que vous devez la transformer. A un moment, on vous envoie par une trappe un papier comportant une liste de symboles chinois. Grâce à votre livre de recettes, vous transformez de proche en proche cette chaîne de symboles, en suivant scrupuleusement les indications du livre, pour aboutir finalement à une chaîne fort différente que le livre vous suggère de restituer en la glissant par la trappe. Sans le savoir, vous venez de produire une réponse particulièrement pertinente et intelligente à la question posée par le chinois qui attendait à l'extérieur de la pièce. Pourtant, vous n'avez aucune compétence en chinois, et à aucun moment vous n'avez eu une représentation du sens de ce que vous faisiez.
Searle conclut de cette parabole que même l'ordinateur le plus intelligent du monde, aux yeux de ceux qui l'auront pris pour une personne sensée, ne fait que manipuler des symboles, et donc ne pense pas et n'a pas de conscience. Le débat est loin d'être clos, bien entendu. Vous n'êtes qu'une partie de la chambre chinoise, le fameux livre jouant lui aussi un rôle non négligeable... Pourquoi ne pas envisager que ce soit ce livre un peu miraculeux imaginé par Searle qui ait produit des pensées, plutôt que l'appareil (vous en l'occurrence) qui se contente de faire circuler les informations ? De plus, les symboles dont parle Searle dans cette expérience imaginaire ne sont peut-être pas les bons. Peut-on comprendre le fonctionnement d'un programme, un tableur par exemple, en regardant circuler les électrons dans l'ordinateur ?
Le débat sur l'apprentissage est particulièrement vif en ce qui concerne le langage. Comment les enfants de deux ans parviennent-ils à apprendre leur langue maternelle là où les ordinateurs les plus puissants, associés aux programmeurs les plus inspirés, échouent ? Trois grands type de théories peuvent être invoqués pour expliquer cette performance des enfants, qui débouchent sur trois approches possibles en I.A.
Le problème est d'expliquer comment les enfants parviennent à repérer les structures de leur langue maternelle. Première solution : ils repèrent les structures fréquentes. Deuxième solution : à partir des exemples qu'ils observent, les enfants construisent des "bonnes" formes, par exemples des ensembles de structures qui sont conservés lors des transformations qu'ils sont capables d'effectuer. Troisième solution : l'enfant a une connaissance innée de certaines contraintes, universelles et qui se retrouvent dans toutes les langues humaines, et qui vont le guider pour repérer les structures pertinentes. Ce débat, qui agite en premier lieu linguistes et psychologues, a des conséquences essentielles pour l'informaticien qui veut réaliser un programme capable d'apprendre. Dans un cas, il fera des statistiques, dans un autre il exigera que l'on ait découvert les propriétés mathématiques des langues, et dans l'hypothèse dite nativiste, il demandera la liste des contraintes qui lui permettront de guider son programme vers la découverte des règles de syntaxe. On comprend pourquoi les informaticiens, forts des essais qu'ils réalisent sur des aspects limités de la langue, prennent une part active à ce débat sur l'apprentissage.