Les limites du paradigme logique

L'aporie de l'IA

L'hypothèse du positivisme logique qui fonde l'IA, à savoir que la connaissance est formelle et n'est que formelle, se révèle impossible à tenir. Il n'est pas possible de formaliser logiquement l'ensemble des connaissances humaines et l'intelligence humaine ne peut être réduite à une manipulation de symboles sans signification.

L'IA comme projet de création de machines pensantes est remis en cause (Winograd et Flores, 1989)[1].

Des machines qui pensent aux machines qui donnent à penser

Les années 1980 voient alors la naissance d'une IA modeste (ou « faible »), dont l'objet n'est plus la construction de machines qui pensent, mais de « machines qui donnent à penser » ( Bachimont, 1996[2]).

ExempleTraduction automatique

Parmi les programmes les plus ambitieux et les plus stratégiques de l'IA, celui de la traduction automatique, largement financé par la défense américaine en période de guerre froide, avait pour terrain d'application la traduction anglais-russe. Une illustration mythique d'échec de ce programme était le test de traduction de la phrase : « The spirit is strong, but the flesh is weak » (« l'esprit est fort mais la chair est faible ») qui donna après traduction automatique en russe, puis de nouveau en anglais : « The vodka is good, but the meat is rotten » (« la vodka est forte, mais la viande est avariée »).

Au delà de son caractère amusant cet exemple illustre très bien l'aporie d'une informatique symbolique qui bute sur des concepts de base tels que le contexte, la polysémie, etc.

ComplémentThéorème d'incomplétude de Gödel

Gödel montre en 1931 que les mathématiques ne peuvent être réduite à la logique. Un corollaire direct est qu'il existe des connaissances qui ne sont pas représentables par la logique.

Notons que Turing a également démontré que certains problèmes sont indécidables par une machine de Turing (sans pour autant que cela remette en cause sa vision positiviste).

ComplémentLa chambre chinoise de Searle

L'ordinateur ne pense pas car il n'accède par au sens, ainsi que l'illustre Searle avec la métaphore de la "chambre chinoise" : Un opérateur qui recevrait des idéogrammes chinois et disposerait de procédures de traitement adapté à ces signes pourrait exécuter des opérations correctes, par application stricte des procédures (algorithmes). Pour autant cet opérateur ne comprendrait pas le chinois.

Ainsi, réaliser automatiquement des actions au sens d'une machine de Turing n'est pas penser.

ComplémentReprésentations locales versus représentation globale

La représentation formelle des connaissances a donné des résultats opérationnels tout à fait satisfaisant (par exemple certains systèmes experts), tant que cette représentation et que les raisonnements qui la concerne restent local à un domaine, en particulier technique (médecine par exemple).

C'est la formalisation globale du monde qui est aporétique.