AI, lo spirito (Geist), scienze sociali e variabilità culturale. (ingl. e fr.)

AI

AI, spirit (Geist), social sciences and cultural variability. “… how can we build a historical machine? A machine that lay beyond the opposition between the cultural and the mechanical fields would allow us to conceive the mind as a device devoted to the generation of cultures, with all that that implies in terms of uncontrollable variability. (…)this paradox lying at the root of Artificial Intelligence, is how to construct machines that, far from being controlled and controllable, may open up new spaces of unpredictability, contingency, and history.

AI, spirit (Geist),social sciences and cultural variability. -The Western intellectual tradition has long been trying to turn “spirit” – the collective term for mental or spiritual phenomena, as the case may be- into the object of a rigorous science. Yet, for a long time this project did not merge with psychology’s own, as some restrictive historical interpretations have claimed. Instead, “spirit” became the object of a series of disciplines which may be called, according to the country and the epoch, “the moral and political sciences,” “the human science,” “cultural studies,” or “the social sciences.” As Stefano Franchi and Güven Güzeldere have shown, a historical study of Artificial Intelligence (AI) must integrate dimensions that are too often disregarded by the historians of the discipline. The problems Artificial Intelligence confronts are very ancient roots and go well beyond the scope of the engineering project that we now know as AI. However, it is useless to go all the way back to Plato and failing to notice that Montesquieu wrote a book titled L’esprit des lois; that the concept of spirit (Geist) is at the heart of the German idealism with Hegel, Schelling and then Humboldt all the way to Cassirer; that Comte suggested a politics of the mind; that Durkheim, picking the Kantian challenge to science, turned to sociology to explain the human capacities to speak truthfully and act morally that Kant had ascribed to transcendental philosophy, thereby claiming that the a priori conditions of knowledge examined by the philosopher should be studied by the scientits instead. It is also necessary to have a very broad scope, in order to see what is to be seen.

It is nonetheless true that even a long-ranging and broad view at the classics will fail to discover any author attempting to apply mechanical models to the mind. On the contrary, the space occupied by the contemporary disciplines of the mind is not defined by any specific theory but by a new link between mind and machine that would have seemed unnatural to the majority of classic authors. Even Descartes -the great Descartes whose heritage is so often claimed by many brilliant protagonists of the “cognitive revolution”- flatly rejected the idea that the human mind could be mechanical and could therefore by simulated by a machine. In fact, Descartes held a historically very old-fashioned view of machines based on devices which, like clocks, react only to purely mechanical factors. It was possible to imagine that the behaviour of animal reacting to external stimuli could be modeled by these machines, according to a conception that will later become the reflex arc. The same approach does not work with human beings, because they decompose the external stimuli and recompose their behaviours from smaller composable parts before acting. Human beings possess what animal don’t: freedom. As we know it is this combinatorial model that allowed the symbolic paradigm to prevail in cognitive science, on the basis of the new kind of machine – Turing’s universal calculator – and from a specific theory that depicts the mind as a computer processing internal representations. This model has been called the “computational-representational theory of mind” (Fodor, 2000).

However, this theoretical model would not have reached the level of popularity it enjoys without entering into a virtuous circularity with the human sciences. Generative linguistics, in particular, has provided a decisive contribution to the credibility of the model of the mind as a processor operating on internal representations. At the same time, the possible interpretation of its models in terms of computer programs provided a handy justification for linguistics itself. After all, a linguistic theory enabling computer programs to simulate, more or less satisfactorily, aspects of human verbal behaviour, enjoyed a decisive advantage over its immediate rivals. This double exchange was made possible by the epistemology of cognitive science, which -ever since the invention of the well-known “Turing-test”- turned Artificial Intelligence from an engineering discipline into an experimental field where allegedly scientific theories of the mind could be evaluated.

The issue is whether the link between cognitive science and the human sciences favours the dominant computational-representational model. During the last few years, we have seen the emergence of a double series of challenges against this model. They came both from the technical side of Artificial Intelligence and from the theoretical side of those linguistic theories to which it is more or less connected with. The challenge had to be the “problem of the mind” lies precisely in the complex circle that ties together theoretical models and technological simulations. From the technical side, the critique of the symbolic paradigm came from a variety of different dynamicist approaches – first those formulated in terms of connectionist networks, then from the morphodynamic and neo-cybernetic models like those provided by catastrophe theory, or from enaction theory, or, finally, from the roboticist model offered by artificial intelligence. On the theoretical side, the challenges came from the internal revisions to standard generative theory, but also from the radical challenges to linguistics’ framework advanced by cognitive linguists, not to speak of the contemporary revival of corpus linguistics and of the hermeneutic approaches to languages.

This twofold critique was motivated by numerous theoretical as well as technical considerations. I would like to discuss one of them in particular, and precisely because it is so rarely stressed. The symbolic paradigm seems unable to provide a satisfactory account on the cultural and therefore variable character of mental phenomena, which is nonetheless one of their crucial features. First, I will clarify in which sense the symbolic model is unable to deal with cultural variation, and I will discuss the objections coming both from within the field of linguistics, and from Artificial Intelligence’s models derived either from the connectionist paradigm or from the robotics. Then, I will show that this twofold critique amounts to a sometimes conscious, but often unconscious rediscovery of Structuralism, the scientific paradigm which held back the adoption of generative grammar in the human sciences. Contrary to its commonly held interpretation, Structuralism did not amount to a search for the linguistic invariants shared by a community (la langue, i.e. the structure of a given language underlying the stylistic or dialectal variations occurring in its actually spoken instances). On the contrary, Structuralism was the effort to understand the principles according to which mechanisms that allow us to learn a language (or a different dimension of cultural life), lead us also to transform it. Or, rather, they lead the language to let itself be transformed by our everyday usage without us being even aware of the transformation process. The true date of birth of Structuralism is marked by the New York encounter between Claude-Lévi Strauss and Roman Jakobson in 1943. It was almost contemporary to the series of meetings among the scientists who would officially christen Artificial Intelligence a decade or so later. Structuralism can be interpreted as a precursor of the contemporary research programs I mentioned above, because, while it privileges an approach to the mind in terms of mechanisms (although it does not offer a specific technological model for it), it also holds that mental phenomena can only occur within cultures which are constantly undergoing social as well as historical variations. In short, through an archaeological excursion into the early history of AI, the paradox that sums up the challenge of AI comes down to this: how can we build a historical machine? A machine that lay beyond the opposition between the cultural and the mechanical fields would allow us to conceive the mind as a device devoted to the generation of cultures, with all that that implies in terms of uncontrollable variability. In short, the paradox lying at the root of Artificial Intelligence, is how to construct machines that, far from being controlled and controllable, may open up new spaces of unpredictability, contingency, and history. Translation of the introduction of an article from Patrice Maniglier.

AI1

Très ancien est le projet de faire de l’esprit, c’est-à-dire des phénomènes mentaux ou spirituels comme on voudra les appeler, l’objet d’une science positive. Longtemps, ce projet s’est confondu avec celui non pas tant de la psychologie, comme une histoire restrictive a tendance à nous le faire croire (cf. Gardner 1985), mais avec ce qu’on appellera selon les pays et les époques : les sciences morales et politiques, les sciences humaines, les sciences de la culture ou les sciences sociales. Comme l’ont montré très justement Stefano Franchi et Güven Güzeldere dans l’introduction de leur recueil, Computational Minds and Mechanical Bodies (cf. Franchi & Güzeldere, 2005), une perspective historique sur l’intelligence artificielle se doit d’intégrer des dimensions trop souvent négligées par les historiens de cette discipline, et la problématique de l’intelligence artificielle dépasse les limites du projet d’ingénierie connu sous ce nom et prend ses racines très loin dans l’histoire. Mais il ne sert à rien de remonter à Platon si l’on ne voit pas que Montesquieu écrivit un livre dont le titre est L’esprit des lois, si l’on oublie que le concept d’esprit (Geist) est au cœur de l’idéalisme allemand avec Hegel, Schelling, puis Humboldt et jusqu’à Cassirer, que Comte propose une politique de l’esprit, ou encore que Durkheim prétend relever le défi posé par Kant à la science, faire une théorie positive de la capacité humaine à dire des vérités et à agir moralement, en sociologisant ce que Kant attribuait à la philosophie transcendantale, et en montrant par là que ce que le philosophe considérait comme des conditions a priori antérieures à tout savoir pouvait tout à fait être l’objet d’une science positive. Dans le temps comme dans l’espace, il ne suffit pas d’avoir la vue longue, il faut aussi avoir un champ de vision assez large, si l’on veut voir ce qui est à voir. Il est vrai cependant que malgré cette longue histoire aux multiples dimensions, il ne vint à à peu près aucun de ces auteurs classiques, l’idée qu’on puisse appliquer à l’esprit lui-même des modèles mécaniques. Or on peut penser que ce qui définit l’espace contemporain des sciences de l’esprit, ce n’est pas telle ou telle théorie particulière, mais ce lien nouveau, et qui aurait paru contre-nature à la plupart des auteurs anciens, entre machine et esprit. On comprend dès lors la place que l’Intelligence Artificielle y joue. Descartes lui-même, le grand Descartes, dont se revendiqueront si volontiers certains parmi les plus brillants représentants de la « révolution cognitive », rejetait explicitement l’idée que l’esprit humain puisse avoir un caractère mécanique et donc être simulé par une machine. C’est qu’il avait, au fond, une conception très datée historiquement de la machine elle-même, sur le modèle des horloges, réagissant à des facteurs purement mécaniques, de sorte que si l’on pouvait imaginer simuler le comportement d’un animal qui réagissait à des forces extérieures (selon un modèle qui deviendra celui de l’arc réflexe), on ne pouvait le faire pour les hommes qui, avant d’agir, décomposent les stimuli et recomposent leurs comportements à partir de petites unités recombinables, de sorte qu’ils connaissent ce que la machine ne connaît pas : la liberté. Or l’on sait que c’est au nom de ce modèle combinatoire même que le paradigme symbolique dans les sciences cognitives s’est imposé, s’appuyant sur l’existence d’un nouveau type de machine, la machine universelle de Turing. Beaucoup ont donc pensé que l’objectivation théorique des phénomènes mentaux à travers des modèles mécaniques était inséparable d’un certain type de machine, l’ordinateur classique, et d’un certain type de théorie de l’esprit, celle qui le représente comme un calculateur opérant sur des représentations internes – modèle qu’on a appelé « computo-représentationnel » (Fodor, 2000).

Cependant, ce modèle théorique n’aurait sans doute pas connu la fortune dont il a bénéficié, s’il n’avait pas entretenu un rapport de circularité vertueuse avec les sciences humaines elles-mêmes. En particulier, la linguistique générative a contribué de manière décisive à crédibiliser le modèle de l’esprit comme un calculateur sur des représentations internes, en même temps qu’elle tirait argument de son interprétabilité (au moins théorique) dans ce modèle pour se justifier elle-même : une linguistique qui pouvait donner lieu à l’écriture de programmes sur ordinateur, qui, eux-mêmes, permettent de simuler certains aspects du comportement verbal humain de manière plus ou moins satisfaisante, n’avait-elle pas sur ses concurrentes un avantage immédiat, si du moins l’on acceptait de se placer dans l’épistémologie constitutive des sciences cognitives depuis le fameux « test de Turing », qui fait de l’intelligence artificielle non pas seulement un projet technologique, mais aussi un terrain expérimental pour des théories à prétention scientifique sur l’esprit? On posera donc, dans la suite de ce texte, que l’espace de ce qu’on appelle les « sciences cognitives » se définit par la polarité induite par ces deux exigences ou ce double terrain expérimental : d’une part l’esprit doit être justiciable d’une simulation par les moyens d’une forme d’intelligence artificielle, d’autre part, on n’aura pas saisi les phénomènes de l’esprit tant qu’on n’aura pas rendu compte aussi des phénomènes culturels. Bref, que le problème de l’esprit posé dans des termes contemporains est celui d’une simulation des phénomènes culturels. La question est maintenant de savoir si ce lien favorise nécessairement le modèle cognitif dominant. Car, depuis quelques années, on constate une double contestation du modèle computo-représentationnel, tant du côté des modèles technologiques d’intelligence artificielle que du côté des théories linguistiques qui s’y rattachent plus ou moins lointainement. Il faut bien que la contestation soit double d’ailleurs, s’il est vrai que c’est dans ce cercle complexe entre simulations technologiques et modèles théoriques que se définit l’originalité du « problème de l’esprit » dans le contexte contemporain. Du côté technologique, la critique du paradigme symbolique s’identifie aux différentes approches dynamicistes, d’abord en termes de réseaux connexionnistes (Rumelhart, D. E., Mc Clelland, J. L. & the PDP Research Group, 1988), puis de modèles morphodynamiques et néo-cybernétiques, comme ceux de la théorie des catastrophes (Petitot, 1985a, 1985b) ou de l’énaction (Varela, 1989), et enfin les modèles robotiques de la vie artificielle (Brooks R. & Steels L., 1995). Du côté théorique, on pensera d’abord aux différents dépassements internes dont la linguistique générative a fait l’objet (en particulier l’approche « Principes et Paramètres »), puis aux contestations radicales qui se sont cristallisées dans les linguistiques cognitives qui ont essayé de changer véritablement le cadre de la théorie linguistique (Lakoff, 1987; mais surtout Langacker, 1987), jusqu’au retour contemporain des linguistiques de corpus et des approches herméneutiques du langage.

Advertisements

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s