Vous êtes ici : Accueil / Langues et langage, comment ça marche ? / La grammaire générative et transformationnelle : bref historique

La grammaire générative et transformationnelle : bref historique

Par Françoise Dubois-Charlier : Professeur - Université d’Aix-en-Provence , Béatrice Vautherin : Maître de Conférences - Université Paris 3-Sorbonne nouvelle
Publié par Clifford Armion le 03/09/2008

Activer le mode zen

La publication par Noam Chomsky de "Syntactic Structures" en 1957 remet en cause le structuralisme dominant et déclenche une révolution copernicienne dans le monde de la linguistique américaine. Cet article se propose d'expliquer quels ont été les apports de la grammaire générative transformationnelle et comment ce courant a évolué en un demi-siècle.

Introduction

La grammaire générative et transformationnelle a profondément marqué la linguistique dans le monde entier dans la deuxième moitié du 20e siècle. Elle reste indissolublement associée à son fondateur, Noam CHOMSKY, aujourd'hui professeur émérite au Massachussets Institute of Technology.

Elle est apparue à la fin des années 50 aux États-unis alors que la discipline est dominée par le structuralisme. Une des grandes nouveautés de cette conception a été de remettre en cause les théories behavioristes sur l'acquisition du langage et la méthodologie empiriste en linguistique. Cette théorie n'a cessé d'évoluer depuis ses débuts.

Il est tout à fait impossible, de rendre compte, en quelques pages, du formidable foisonnement linguistique que représente un demi-siècle de grammaire générative. Nous avons ici beaucoup simplifié et omis de nombreuses choses, cherchant seulement à donner une idée de ce que ce courant proposait et a apporté.

Nous distinguerons ici trois époques :

- la naissance, avec Structures syntaxiques, 1957 ;

- la théorie standard, avec Aspects de la théorie syntaxique, 1965 ;

- les développements ultérieurs.

Nous parlerons surtout des deux premières, un quart de siècle de grammaire générative et transformationnelle. Les développements ultérieurs seront seulement mentionnés : chacun d'eux, à lui seul, demanderait un long exposé approfondi.

Le contexte de la parution de Structures syntaxiques en 1955-57 

Au début des années 50, la linguistique américaine est optimiste et elle est structuraliste. Dans « Directions in Modern Linguistics », 1951, Haugen écrit « La linguistique aux États-unis est aujourd’hui plus florissante qu’à un quelconque moment depuis la création de la République ». Gleason, 1955, parle de « résultats définitifs obtenus par la linguistique structurale, qui, par sa méthode, peut se comparer à la physique, la mécanique quantique, les mathématiques ». Carroll, 1953, écrit : « La linguistique est la plus avancée des sciences sociales, elle peut se comparer de très près à la physique et à la chimie ».

En somme, beaucoup de linguistes américains pensaient que les problèmes fondamentaux d’analyse linguistique avaient été résolus, et qu’il ne restait plus qu’à peaufiner les détails, ce qui pourrait d’ailleurs sans doute être confié aux ordinateurs : en gros, tout ce qu’il restait à faire serait d’entrer les données dans un ordinateur et en pressant sur un bouton on obtiendrait une grammaire. On parlait de traduction automatique, le spectrogramme récemment inventé allait permettre de résoudre définitivement les questions de phonologie.

Quelques principes du structuralisme américain triomphant

L'empirisme

Il peut se définir ainsi : toute connaissance non analytique provient de l’expérience, et seulement d’elle. Tout apprentissage se fait par des généralisations inductives à partir de l’expérience fournie par nos sens. Au départ, l’enfant est une ardoise vierge, sans prédisposition particulière structurant l’acquisition du savoir.

Les maîtres mots en linguistique sont donc données, observation des données, règles inférées des données. « Les seules généralisations utiles sur le langage sont les généralisations inductives. » (Bloomfield, 1933). Il faut que la relation entre le corpus et la description théorique soit directe, il n’est pas question de parler d’autre chose que de ce qu’il y a dans les données, pas question d’expliquer quoi que ce soit en faisant appel à des principes externes, par exemple des universaux. Seule est scientifique la description, les « explications » sont suspectes. « Children want explanations, and there is a child in each of us; descriptivism makes a virtue of not pampering that child. » (Joos, 1958)

Une description linguistique est donc constituée uniquement des observables et des règles ou affirmations qu’on peut extraire directement des observables par l’application de procédures mécaniques. Le but de la linguistique structurale est de découvrir, d’établir une grammaire (la description complète de la langue et de son fonctionnement) en exécutant un certain nombre d’opérations sur un corpus.

Chaque opération successive s’applique sur la précédente, pour aller ainsi du corpus à la grammaire. Le point de départ est une base considérée comme objective parce que concrète, l’enregistrement physique des sons, et l’analyse se fera par niveau, dans cet ordre : phonématique, morphématique, syntaxe, discours. Ainsi, les sons constituent les phonèmes, qui constitueront les données pour l’étude des morphèmes, les morphèmes constitueront les données pour la syntaxe.

La méthode structuraliste consiste donc à partir d’un corpus sur lequel on travaille par segmentation (découper en unités) et classification des unités. Les plus petites unités repérées constituent les sous-unités d’unités plus grandes, qui, ainsi repérées, sont classées et ainsi de suite.

Exemple : Pour repérer les groupements de phonèmes en morphèmes dans la séquence /hizklevə/ (he’s clever), on se basera sur le nombre de phonèmes possibles après chaque segmentation envisagée :

- Si on coupe après /hi/, le corpus montre que 29 phonèmes peuvent suivre ce segment (comme dans he likes, he thinks, he arrived) ;

- si on coupe après /hiz/, on trouve 29 phonèmes possibles après ce segment (comme dans he’s speaking, he’s here, he’s late) ;

- si on segmente après /hizklevə/, 28 phonèmes sont possibles (n’importe quelle suite après he’s clever).

- Tandis que si on isole /hizkle/, alors il n’y a plus que 8 suites possibles ; si on isole /hizklev/, il n’y en a plus qu’une.

On conclura donc que /hi/ constitue un morphème, que /hiz/ et / hizklevə/ sont des suites de morphèmes, tandis que /hizkle/ n’en est pas une, ni /hizklev/.

Toute référence au niveau plus élevé est interdite (ce serait circulaire), en particulier toute référence au sens est interdite (ce ne serait pas objectif).

La psychologie

La psychologie est dominée par Skinner. Le langage, comme toute forme de comportement, s’apprend par stimulus/réponse.

Sous l’optimisme, il y avait quand même des fissures, parce que les principes méthodologiques très stricts ne pouvaient pas être suivis jusqu’au bout. Ainsi Bloch (1947) faisait remarquer qu’il trouvait dans le corpus quatre prononciations de have dans I have seen it /hæv/, /v/, həv/, /əv/, lesquelles n’étaient pas en distribution complémentaire ni en variation libre, et donc qu’il faudrait, pour obéir aux principes, considérer qu’il y a quatre morphèmes différents, ce qui frappait comme faux si on considère la grammaire, et donc n’était pas retenu.

Tout ceci culmine avec l’ouvrage de référence du structuralisme, Methods in Structural Linguistics, 1951, de Z. Harris, dont Chomsky sera l’élève, en continuité avec lui. 

Là dessus, paraît le petit livre de Chomsky, Structures syntaxiques, en 1957. Un compte rendu très élogieux en est fait immédiatement par Lees dans la très influente revue Language. Lees estime que ce livre va changer la linguistique, Voegelin parle de révolution de Copernic, Bazell dit que « la linguistique ne sera plus jamais la même après ce livre ». C’est le début de la révolution chomskyenne, qui durera environ 15 ans : à partir de 1970-72, la théorie monolithique se divise en multiples courants et théories alternatives, mais le formidable élan que Chomsky a donné à la linguistique américaine est acquis. Entre 1957 et 1971, le nombre des membres de la LSA (Linguistic Society of America) est multiplié par quatre. Entre 1963 et 1972, le nombre des départements de linguistique dans les universités américaines est multiplié par quatre. En 1957, le pourcentage des doctorats en linguistique par rapport à tous les doctorats soutenus dans les universités américaines est de 0,18% ; six ans plus tard, ce pourcentage a triplé.

Et en Europe, gros impact aussi, avec un décalage. L’Europe aussi est essentiellement structuraliste jusqu’en 1965-66, puis on a l’arrivée de la GGT, les traductions, le livre de N. Ruwet, les écrits de J. Dubois, ceux de M. Gross, ce qui a le même effet qu’aux États-unis : énorme expansion de la linguistique, création de départements de linguistique, inscription de la linguistique dans les départements de langues vivantes, création d’une option linguistique dans certaines agrégations de langues vivantes.     

1. La naissance, Structures syntaxiques, 1957

Remarque

Ce livre n’est pas du tout l’aboutissement d’une longue réflexion chez un linguiste chevronné : Chomsky a 27 ans quand il écrit la première version de Syntactic structures. Il était entré à l’université avec un autre sujet d’étude, la politique au Moyen-Orient. Son père est un philologue hébreu renommé. Ses parents, qui ne souhaitent pas le voir partir dans un kibboutz, lui présentent Zelig Harris, qui lui suggère d’écrire une grammaire de l’hébreu, ce qu’il fait en 1949-51 (il a 21 ans). Il se rend compte peu à peu que les procédures structuralistes ne lui permettent pas de travailler de manière satisfaisante. En 1955, il écrit un pavé de 900 pages, La structure logique de la théorie linguistique, qui n’intéresse absolument personne : le manuscrit lui est renvoyé par retour du courrier. Au département de langues du MIT, il est chargé de cours divers (français et allemand scientifiques), dont une introduction à la linguistique. Il rédige ses notes en un cours d’introduction, que Halle l’encourage à envoyer à un éditeur. Publication immédiate, succès immédiat : dès 1958, Chomsky apparaît comme une figure de proue de la linguistique.

Ce petit livre d’une centaine de pages est divisé en huit chapitres, dont les titres sont révélateurs :

L’indépendance de la grammaire

Une théorie linguistique élémentaire

La structure syntagmatique

Les limites du modèle syntagmatique

Des buts de la théorie linguistique

Quelques transformations en anglais

Le pouvoir explicatif de la théorie linguistique

Syntaxe et sémantique

Pour simplifier, on peut, très arbitrairement, distinguer deux parties dans ce livre, ou deux types de considérations. L’une est la présentation d’une première grammaire transformationnelle de l’anglais ; l’autre énonce les principes théoriques concernant ce que peut être, et ce que ne peut pas être, la théorie linguistique. 

A. L'ébauche d'une grammaire

N.B. : « Grammaire » ne signifie pas grammaire de type scolaire s’opposant au lexique, ou à la phonologie. La grammaire d’une langue c’est l’ensemble de la description de cette langue et de son fonctionnement, lexique, phonologie, morphologie compris, et, pour Chomsky, c’est l’ensemble de la production des phrases de cette langue.

Chomsky part du modèle syntagmatique (la décomposition en constituants immédiats de Bloomfield et Hockett), qu’il présente comme un système génératif, un ensemble de règles de réécriture permettant de « produire » ou « générer » les phrases de l’anglais.

Extrait de Structures syntaxiques p. 29-30 (édition française, 1969)

Chaque règle de réécriture consiste à réécrire, développer, dire de quoi est constitué le symbole précédent ; quand toutes les règles ont été appliquées, on aboutit à une suite terminale de morphèmes, sur laquelle s’appliquent les règles morpho-phonologiques. La dernière ligne de la dérivation correspond à la « réalité » d’une phrase de la langue.

De telles règles peuvent donc produire et décrire une infinité de phrases de la langue. Cependant, elles ne suffisent pas.

Voyons trois exemples de règles qui simplifient la description de l’anglais mais ne peuvent pas être des règles de réécriture syntagmatique.

- La coordination est un processus très productif pour former des phrases nouvelles ; ainsi, à partir de

(a) Les aventures — d’Arsène Lupin — sont prodigieuses. X—Y—Z

(b) Les aventures — de Fantômas — sont prodigieuses. X—W—Z

on peut former

(c) Les aventures — d’Arsène Lupin et de Fantômas — sont prodigieuses. X—Y et W—Z

Cette réunion par coordination de Y et W n’est possible que si Y et W sont des constituants c’est-à-dire représentent des unités syntaxiques, et des constituants de même nature syntaxique ; si ce n’est pas le cas, la phrase résultante est agrammaticale :

(a) Les aventures — d’Arsène Lupin — sont prodigieuses.

(d) Les aventures — qu’elle a connues —sont prodigieuses.

(e) *Les aventures — d’Arsène Lupin et qu’elle a connues — sont prodigieuses.

La règle de réunion par coordination devra donc mentionner cette contrainte. Cela signifie que la « machine grammaticale » ne peut pas se contenter d’appliquer les règles de réécriture en succession, il faut aussi qu’elle garde en mémoire que de Fantômas a été produit à partir d’un constituant portant une certaine étiquette syntaxique (GP= groupe prépositionnel) tandis que qu’elle a connues a été produit à partir d’un constituant portant une autre étiquette (Rel.= relative).

Or les règles qui, comme celle de la coordination, font référence à l’histoire dérivationnelle des mots ne peuvent pas être de simples règles de réécriture : une fois qu’une étiquette a été réécrite, elle a disparu ; ainsi dans la dérivation (14) ci-dessus, l’étiquette SN figure à la ligne (I), mais elle ne figure plus à la ligne (II).

- Le passif en est un autre exemple. Une grammaire du français doit permettre de produire (a) et d’exclure (b) :

(a) Jean admire la sincérité. (b) *La sincérité admire Jean.

et aussi de produire (c) et d’exclure (d) :

(c) La sincérité est admirée par Jean. (d) *Jean est admiré par la sincérité.

Si les phrases sont produites par les règles syntagmatiques de constitution, il faudra une règle pour (a) et (b) : « admirer ne peut se combiner qu’avec un sujet animé », et une autre pour (c) et (d) : « être admiré se construit avec un complément d’agent animé », donc deux règles indépendantes et sans rapport entre elles. Or on sent bien quand même qu’il s’agit du même phénomène.

Et cette répétition, non conforme à l’intuition, se retrouvera avec tous les verbes transitifs pour chacune de leurs contraintes. Ces « contraintes de sélection », qui établissent avec quel type de sujet et quel type d’objet un verbe donné peut se construire vont jusqu’à des spécifications très fines. Ainsi un verbe anglais comme assassinate ne peut être employé que si son complément d’objet désigne un homme politique important (si ce n’est pas le cas, c’est murder qu’on emploie) : Booth assassinated Lincoln in 1865. *A burglar assassinated my baker. Il paraît contraire à l’intuition de dire qu’il faut une autre règle, concernant be assassinated, sans rapport avec celle pour assassinate, pour expliquer la grammaticalité de Lincoln was assassinated in 1865 et l’agrammaticalité de *My baker was assassinated by a burglar.

Un autre exemple pointu, celui du verbe impeach (mettre en accusation en vue de destituer), qui est très contraint : son sujet doit désigner un organisme juridique et son objet un personnage public ayant de hautes fonctions. Et il faudrait répéter cela, en inversant les termes, dans une autre règle concernant, elle, be impeached?

Toutes ces complications, répétitions et divisions arbitraires pourraient être évitées en posant simplement une règle de transformation passive :

Si S1 est une phrase grammaticale de la forme SN1—Aux—V—SN2

alors est aussi une phrase grammaticale la séquence correspondante de la forme SN2—Aux+be+-en—V—by+SN1

- L’auxiliaire sera notre dernier exemple. Les formes verbales d’un verbe ordinaire comme work (travailler) sont : work, works, worked, has worked, have worked, had worked, is/are/was/were working, might have been working, … il y en a 32.

A première vue et de l’extérieur, on voit une grande série de formes différentes difficiles à retenir. En analysant, on voit que cinq éléments entrent en jeu et se combinent :

- une terminaison de temps (présent work/works vs passé worked)

- un auxiliaire de modalité (will work, would work)

- un aspect perfect : auxiliaire have suivi d’une forme de participe passé (has worked).

- un aspect progressif : auxiliaire be suivi d’une forme de participe présent (is working).

- un auxiliaire de passif : auxiliaire be suivi d’une forme de participe passé (is worked).

Ces éléments peuvent se cumuler et on peut donc écrire :

- V → Aux+ V

- Aux → Tps (M) (have + en) (be + ing) (be + en)

ce qui signifie que la forme verbale est constituée d’éléments auxiliaires + radical du verbe. La marque de temps, présent ou passé, est obligatoire, les autres éléments sont facultatifs. S’ils sont choisis, ils se présentent dans cet ordre.

Il suffit alors d’ajouter une règle qui place les terminaisons sur les éléments verbaux :

affixe + v  v + affixe # (# = fin du mot)

Les affixes sont -ed, -en, -ing, -s, Ø. Les v sont M, V, have, be.

Un exemple :

the man + passé + may + have+en + be+ing + be+en + murder
                       aff        v                aff    v aff          v aff v
                       might           have    been    being         murdered

C’est un système tout à fait remarquable en ceci que deux règles, la règle de constitution de Aux et la règle de placement des terminaisons, suffisent pour produire toutes les formes composées avec placement correct des affixes (désinences) sur le verbe, ou sur un auxiliaire, ou sur un modal selon le cas, et exclure toutes les formes agrammaticales. Les étudiants ont tendance à produire des suites comme *He had could work par calque sur le français Il avait pu travailler ; cette suite est impossible en anglais et la règle de réécriture de Aux l’exclut : si have et un modal sont tous deux présents, alors le modal précède have.

Ces règles contiennent deux choses que les règles de réécriture syntagmatique ne peuvent pas contenir :

- des morphèmes discontinus (be+ing)

- une règle d’inversion, qui est une règle de transformation

L’autre option, celle des règles de constitution, qui oblige à énumérer les 32 possibilités les unes après les autres (V→works, V→worked, V→is working, V→may have worked, …) est naturellement infiniment moins économique et claire.

Structures syntaxiques propose donc que la « machine à générer des phrases » contienne deux ensembles de règles, les règles de structure syntagmatique (de type SN→Art+N), et les règles de transformation (de type aff+vv+aff).

Certaines règles de transformation sont facultatives (par exemple on peut réunir deux phrases par la coordination, mais on n’y est pas obligé), d’autres sont obligatoires (par exemple la règle qui place les affixes là où ils doivent aller).

L’intérêt des transformations est illustré par une série de types de phrases, qui peuvent toutes être générées de manière très simple, à partir de la reconnaissance d’un élément de l’auxiliaire, le temps, accompagné ou non d’un autre constituant de l’auxiliaire. Une seule formule suffit pour obtenir la forme correcte des phrases négatives, interrogatives, réaffirmatives, reprises courtes en so, interrogatives en WH-, etc.

La transformation négative

Insérer NOT après le premier élément verbal de l’auxiliaire, à défaut après l’élément Temps ; si NOT sépare l’affixe de temps de l’élément verbal qui pourrait porter cette désinence, alors insérer do. Exemple He has not seen it, He does not like it

La transformation interrogative

 Inverser le sujet et le premier élément verbal de l’auxiliaire ; à défaut, inverser sujet et Temps ; si cette inversion sépare l’affixe de temps de l’élément verbal qui pourrait le porter, alors insérer do. Exemple Has he seen it?, Does he like it?

La transformation emphatique ou de réaffirmation

Mettre un morphème d’accent contrastif après le premier élément de l’auxiliaire, à défaut après Temps ; si ce morphème sépare l’affixe de temps de l’élément verbal qui pourrait le porter, alors insérer do. Exemple He HAS seen it, He DOES like it

La transformation en so

Mettre so à la place de tout ce qui répété après le premier élément verbal de l’auxiliaire, à défaut après Temps, et intervertir le sujet et so ; si cette inversion sépare l’affixe de temps de l’élément verbal qui pourrait le porter, alors insérer do. Exemple She is working and he is working hardShe is working hard and so is he. She speaks English and so does he.

Par le même type de règle, on produira What is he saying?, Where did he go, Who ate the apple?

Ainsi un très grand nombre de phrases sont générées par des règles simples de transformation, à partir d’une phrase noyau, produite par les régles syntagmatiques.

Ces transformations permettent également d’améliorer l’analyse qu’on peut faire de certaines phrases : 

(a) Jean connaissait le garçon en train de lire dans le bureau. 

(b) Jean surprit le garçon en train de lire dans le bureau.

La phrase (a) n’a qu’un seul passif correspondant :

(a’) Le garçon en train de lire dans le bureau était connu de Jean.

La phrase (b) a deux passifs possibles :

(b’) Le garçon en train de lire dans le bureau fut surpris par Jean.

(b’’) Le garçon fut surpris (par Jean) en train de lire dans le bureau.

Ce qui attire notre attention sur le fait que (b) est une phrase ambiguë, dont la grammaire doit donner deux descriptions différentes. Dans un cas, le garçon en train de lire dans le bureau est un SN, c’est le COD de connaître. Dans l’autre, le SN est seulement le garçon, le reste est complément du verbe surprendre (surprendre qqn quelque part).

Structures syntaxiques donne ainsi une idée de la grammaire conçue comme un appareil capable de produire et décrire toutes* les phrases d’une langue, et rien que les phrases de la langue. Les règles sont formulées de manière à bloquer la production des suites agrammaticales.

Le livre propose une ébauche de cette grammaire pour l’anglais.

*N.B. : Toutes = nombre infini ; aucune description à partir d’un corpus ne peut les énumérer, ni dire si une phrase extérieure au corpus est grammaticale ou non.

B. Principes de théorie linguistique 

Le livre traite aussi d’un certain nombre de principes sur la théorie linguistique qui seront développés dans le livre suivant.

- Pour Chomsky, une grammaire est une « théorie du langage », ce n’est pas un résumé mécanique d’un corpus (contrairement aux procédures structuralistes). Une grammaire est un système axiomatisé qui génère l’ensemble infini des phrases d’une langue.

- Les procédés empiriques d’observation et de découpage du corpus ne permettent pas de comprendre le fonctionnement. Il estime d’ailleurs qu’aucune science n’exige qu’une théorie soit totalement extractible des données observables. Il est vain de chercher des procédures de découverte des grammaires. La seule chose qu’on puisse viser, ce sont des procédures d’évaluation : on imagine des grammaires et on les évalue. 
Parmi les conditions externes d’adéquation qui permettent d’évaluer les propositions, Chomsky retient les points suivants (Newmeyer, 1980, p. 21) :

  • Les phrases générées sont acceptables pour le locuteur natif.
  • Tout cas d’homonymie de construction (deux structures pour une même phrase) décrit une réelle ambiguïté ; toute ambiguïté est représentée par deux structures.
  • Si des phrases semblables en surface ont des interprétations différentes, elles ont des histoires dérivationnelles différentes. (Cf. Le livre a été trouvé par Alfred/ Le livre a été trouvé par hasard).
  •  Les phrases qui sont comprises de la même manière sont représentées de la même manière à un certain niveau de la description.

- « La grammaire est autonome et indépendante du sens ». Pour comprendre une phrase, il est nécessaire (mais non suffisant) de reconstruire sa représentation syntaxique à chaque niveau ; il faut mettre au jour un cadre syntaxique sur lequel s’appuie l’analyse sémantique. « La description du sens peut se référer avec profit à ce cadre syntaxique sous-jacent, mais les considérations sémantiques systématiques ne sont apparemment d’aucun secours pour établir ce cadre » (Structures syntaxiques, p. 118).

Tout ceci est la préparation de ce que l’on a appelé « la théorie standard ».   

2. La théorie standard, Aspects de la théorie syntaxique, 1965 

Entre 1957 et 1965, un très grand nombre de linguistes américains travaillent dans le cadre génératif et transformationnel, ils sont unis et puissants, des ouvrages importants sont publiés comme Grammaire des nominalisations de Lees en 1960, Structure d’une théorie sémantique de Katz & Fodor en 1963, Une Théorie intégrée des descriptions linguistiques de Katz & Postal en 1964 ; de très nombreux articles fondamentaux sont publiés chaque année, par Chomsky lui-même ou par ses élèves et ses adeptes.

En 1965, Chomsky publie Aspects de la théorie syntaxique, qui représente le cadre théorique général de toutes ces études et constituera une référence dans l’histoire de la grammaire générative.

L’ « appareil génératif » est maintenant très précisé et très au point ; il est devenu une théorie complète du langage, intégrant aussi l’étude du sens et l’étude des sons, à côté de la composante syntaxique. Il peut être représenté par le schéma suivant (Newmeyer 1980, p. 85) : 

capture_1493816644304-jpgLe modèle comporte donc trois composantes : la composante syntaxique, centrale, et deux composantes interprétatives qui s’articulent sur la première, la composante sémantique et la composante phonologique.

La composante syntaxique comporte deux parties, les règles de base qui génèrent les structures profondes et les règles transformationnelles qui transforment les structures profondes en structures de surface.

La structure profonde est le niveau où figure tout ce qui est nécessaire à l’interprétation sémantique ; elle résulte de l’application de trois types de règles : 
- les règles syntagmatiques de type P → SN + Aux + SV, SN → Dét + N 
- les règles de sous-catégorisation qui font intervenir les sous-catégories de noms (propre/commun, animé/inanimé, …), de verbes (transitif/intransitif, à sujet humain ou non …) 
- les règles d’insertion lexicale qui insèrent les mots aux places définies par la catégorie et la sous-catégorie et permettent ainsi de générer Sincerity may frighten the boy mais pas *Sincerity may admire the boy.

Les fonctions sont définies par les règles de constitution (syntagmatiques) : le SN qui est immédiatement sous P est sujet de P, le SN qui est immédiatement sous SV est objet de V. A la différence de définitions comme « le sujet renvoie à l’actant, le verbe renvoie à l’action » qui relèvent de l’interprétation sémantique, les fonctions sont définies ici de manière purement syntaxique et relationnelle. 

Sur cette structure profonde s’appliquent les règles de la composante sémantique, qui calculent la signification de la phrase à partir des informations du dictionnaire et à partir des informations données par la description grammaticale de la phrase. Par exemple, si la phrase contient le mot bachelor, le dictionnaire donnera les définitions 1) « qui n’est pas marié », 2) « jeune chevalier servant sous l’étendard d’un autre chevalier », 3) « titulaire d’un diplôme universitaire », 4) « jeune phoque n’ayant pas trouvé de partenaire pendant la saison des amours ».

Les règles de projection calculeront comment chaque sens peut s’intégrer dans la phrase en combinaison avec les autres éléments qu’elle contient, ou encore quel sens a la combinaison de l’article et du nom pour établir la référence du syntagme nominal, etc.

Une fois interprétée sémantiquement, la structure profonde passe par les règles de transformation, qui déplacent, effacent, remplacent des éléments. Ainsi, la phrase Jean promet à Marie de partir a une structure profonde voisine de « Jean promet à Marie que lui=Jean partira », tandis que la phrase Jean permet à Marie de partir correspond à une structure profonde de type « Jean permet à Marie qu’elle=Marie parte ». La composante sémantique interprète donc les deux phrases comme signifiant que l’action de partir est faite par Jean dans l’une et par Marie dans l’autre. Ensuite, les règles de transformation supprimeront les sujets devant l’infinitif, mais cette disparition n’affecte pas la compréhension puisque les phrases ont reçu leur interprétation.

Les règles de transformation réarrangent les éléments contenus dans la structure profonde, placent les désinences où il faut, opèrent des suppressions d’éléments répétés (Paul est plus grand que Marie n’est grande), placent en tête les mots interrogatifs ou relatifs (Tu as vu qui ? → Qui as-tu vu ?), c’est-à-dire en somme mettent les morphèmes et constituants dans l’ordre où ils se présentent dans la phrase effective, dans sa structure de surface.

Sur la structure de surface s’appliquent les règles morpho-phonologiques qui indiquent par exemple le + pluriel → les, à + le + pluriel → aux, tomber + 3e personne du singulier + passé simple → tomba (vs mourut).

Les règles de transformation sont des instructions formelles très précises qui s’appliquent à une structure d’entrée et la transforment en une structure de sortie (input/output de la « machine ») : elles font passer du contenu (le sens) à la forme. 

Nous prendrons l’exemple des comparatives. Soit la phrase :

John is more clever than Bill (is).

Elle dérive d’une structure profonde comme :  

capture_1493816912319-jpg

 

 

 

 

 

où tous les éléments sont présents pour l’interprétation sémantique : John a un certain degré d’intelligence ; ce degré est établi par rapport à l’intelligence de Bill ; l’intelligence de John est supérieure à celle de Bill.

Sur cette structure profonde s’applique une règle de transformation comparative formulée ainsi. Elle s’applique sur une structure de départ constituée des éléments suivants :

SN –   is -   … - … SN is  – Adj       – Adj
1          2      3       4           5               6

Et la transforme en :

SN –       is –         …–       Adj –       … SN is 
1              2              3           6                 4

John is more clever than Bill is. Puis suppression possible de la copule is
(La règle est ici simplifiée. Elle doit être formulée de manière plus abstraite pour s’appliquer à d’autres temps et à d’autres verbes que is et à d’autres éléments que Adj, par exemple les adverbes).

Un des principes fondamentaux de ce modèle est donc que tout ce qui est pertinent du point de vue du sens doit figurer dans la structure profonde, les transformations n’étant que des remaniements qui n’affectent pas le sens.

C’est ce principe qui faisait une grande partie de la richesse et de l’intérêt du modèle : tout « locuteur parlant sa langue » sait, sur les phrases de sa langue, des tas de choses qui ne figurent pas dans ces phrases (cf. le sujet de partir dans les exemples vus plus haut) et ce niveau de structure sous-jacente, profonde, présent derrière la surface des choses, permet de rendre compte de tout cela.

Et c’est en partie quand on a remis en cause ce principe fondamental que les choses ont commencé à s’effriter, voir plus bas les exemples a, b, c, d pour le passif. 

Quelques autres points fondamentaux de Aspects

La distinction compétence/performance

La compétence est la connaissance que le locuteur-auditeur a de sa langue ; la performance est l’emploi effectif de la langue dans les situations concrètes.

La grammaire d’une langue se propose d’être une description de la compétence intrinsèque du sujet parlant sa langue, locuteur natif, locuteur-auditeur idéal. La performance fait intervenir d’autres facteurs de nature diverse. 

Les universaux linguistiques 

A terme, toute grammaire d’une langue doit s’inscrire dans la théorie linguistique générale, qui doit fournir une théorie phonétique générale, une théorie sémantique générale, une théorie syntaxique générale, c’est-à-dire s’inscrire dans le cadre des universaux de langage. L’idée de Chomsky est que si l’enfant n’était pas équipé à la naissance d’une connaissance implicite de ces universaux, il lui serait impossible d’apprendre une langue ; la tâche n’est faisable que s’il s’agit pour l’enfant de reconnaître la forme que ces universaux peuvent prendre dans la langue qu’il cherche à acquérir. [Exemples d’arguments donnés : les mouvements des yeux du bébé de quelques semaines montrent qu’il distingue très vite, parmi les milliers de bruits de l’environnement, quand quelqu’un parle ; ceci est lié à la faculté de langage.]

Quelques citations de Guéron 1993 :

« La grammaire générative considère la linguistique comme une science cognitive, s’inscrivant dans l’étude de la psychologie et de la biologie humaine. Elle fait l’hypothèse que la grammaire est un organe mental autonome. Comme les autres organes physiques, la grammaire n’est pas apprise, mais se développe à partir d’un programme génétique, sous l’influence, dans une certaine mesure, de l’environnement, comme d’autres organes mentaux tels que la vision. »

« La GGT fait l’hypothèse qu’il existe une faculté de langage (ou Grammaire Universelle), associée à des mécanismes physiques du cerveau humain, dont les principes fondamentaux sont communs à toutes les langues. »

« La Grammaire universelle est la théorie de l’état initial de l’organe langagier avant tout apprentissage. Elle identifie toutes les langues accessibles à l’homme. »

Les niveaux d’adéquation

Une description grammaticale peut être :

- adéquate du point de vue de l’observation : elle présente les données premières correctement ;

- adéquate du point de vue de la description : elle rend correctement compte de l’intuition linguistique du locuteur natif et elle décrit les données observées en termes de généralisations pertinentes qui expriment les régularités sous-jacentes de la langue.

- Enfin la théorie linguistique atteindra le niveau de l’adéquation explicative si elle fournit une base générale permettant d’expliquer l’intuition linguistique du locuteur. 

3. Développements ultérieurs 

Vers 1967-69 l’accord général sur le modèle d’Aspects se fissure dans diverses directions, plusieurs points fondamentaux sont remis en question.

- La structure profonde devrait être beaucoup plus abstraite jusqu’à devenir une représentation sémantique. C’est la direction prise par l’école de la sémantique générative, avec Ross, Lakoff, McCawley, qui a eu un énorme impact entre 1967 et 1973-75, moment où le mouvement se dissout. Cf. Langages 1972.

Dans la poursuite et la lignée des idées de Aspects, avec le principe selon lequel « tout ce qui est nécessaire à l’interprétation sémantique d’une phrase figure dans sa structure profonde », on est naturellement allé vers des structures profondes de plus en plus abstraites. Nous prendrons un exemple très simple.

- On pose une transformation passive parce qu’on a le sentiment que la phrase passive a le même sens que l’active ; on leur attribue donc la même structure profonde.

- On constate alors qu’il y a aussi un rapport entre La sauce a épaissi et Marie a épaissi la sauce ; il en va de même pour de nombreux compléments de verbes pouvant être intransitifs ou transitifs : épaissir transitif est le factitif de épaissir intransitif ; la construction épaissir X signifie « faire que X épaississe ». Il y a donc une relation causale et il convient de représenter « faire que P » dans la structure profonde. Marie a épaissi la sauce est donc représenté en structure profonde par « Marie fait que [la sauce épaissit] ».

- On s’aperçoit alors que cette relation, qui existe entre épaissir transitif et épaissir intransitif, existe aussi dans un couple comme tuer/mourir, et qu’il faut donc représenter Jean a tué Paul par une structure profonde comme « Jean a fait que Paul est mort ».

Quand on intègre ainsi au niveau de la structure profonde tous les composants qu’on repère au fur et à mesure de l’étude syntaxique, la syntaxe devient plus abstraite, la structure profonde plus éloignée de la surface, jusqu'à ce que les mots simples eux-mêmes soient représentés par des structures : John a tué Bill sera représenté par « John a fait que il est arrivé que Bill soit non vivant », et Floyd broke the glass sera représenté par « Je te dis que il est arrivé que Floyd a agi de telle manière que Floyd a fait que il s’est passé que le verre est cassé ».

De recul en recul dans l’abstraction, le niveau de la structure profonde syntaxique disparaît au profit de la représentation sémantique, on aboutit à une structure profonde sémantique.

Le problème de cette théorie, très fascinante au demeurant, est qu’on ne sait pas très bien où peut s’arrêter cette quête des composants sémantiques ultimes et indécomposables, et que les règles qui font passer de ces structures très abstraites aux phrases réalisées sont de plus en plus nombreuses et compliquées.

La grammaire casuelle envisage la phrase autour du verbe et d’un ensemble de cas non ordonnés, tirés d’une liste universelle. Ce mouvement est représenté par Fillmore, Starosta, Anderson (cf. Langages 1974).

La structure de la phrase n’est absolument pas de type P → SN + SV avec des relations sujet, objet, définies en structure profonde. Les fonctions appartiennent à la surface et ne sont pas pertinentes pour l’interprétation sémantique. Seuls les cas le sont. Les cas sont par exemple AGENT, INSTRUMENT, RESULTAT, SOURCE, LOCATIF, etc.

Un exemple. Dans les quatre phrases suivantes

a) The door opened 
b) John opened the door
c) The wind opened the door 
d) John opened the door with a chisel.

les SN qui précèdent open seraient tous considérés comme des sujets dans la structure profonde. Or ils ont des relations sémantiques différentes avec le verbe. Ce dont la grammaire casuelle peut rendre compte. Le verbe open se construit nécessairement avec un argument étiqueté OBJET, accompagné facultativement d’un AGENT ou d’un INSTRUMENT. Les cas ne sont pas ordonnés dans la suite linéaire de la structure, mais ils obéissent entre eux à une hiérarchie, et c’est cette hiérarchie générale des cas qui déterminera l’ordre de surface : s’il y a un AGENT, alors il sera sujet en surface, comme en b) et d) ; sinon, ce sera l’INSTRUMENT, comme en c) ; sinon, ce sera l’OBJET, comme en a). D’où par exemple l’agrammaticalité de *The door opened by/with the wind, qui ne respecte pas la supériorité de l’INSTRUMENT par rapport à l’OBJET.

Le problème de cette théorie, très séduisante aussi, est que les auteurs n’ont pas réussi à se mettre d’accord sur la liste des cas ni sur les critères qui permettent de définir ou reconnaître ces cas.

La théorie standard étendue 
Le principe fondamental de la théorie standard était que la structure profonde est le niveau où se fait l’interprétation sémantique, les transformations n’ayant pour fonction que de disposer les éléments comme ils figurent en surface, de convertir un contenu en forme. Ce principe s’est heurté à de nombreux contre-exemples. Un des premiers et des plus connus concerne des couples comme : 

(a) Tout le monde ici connaît au moins deux langues. = est bilingue

(b) Au moins deux langues sont connues de tout le monde ici. = les deux mêmes 

(c) Beaucoup de gens lisent peu de livres. = la lecture n’est pas très répandue 

(d) Peu de livres sont lus par beaucoup de gens. = il y a peu de best-sellers 

On constate que les phrases passives b) et d) n’ont pas le même sens que les phrases actives correspondantes a) et c) : si les personnes en question pour a) et b) parlent, l’une français et anglais, une autre espagnol et italien, une troisième allemand et russe, la phrase a) sera vraie, mais non la phrase b).

Ainsi, il faut admettre, soit que les transformations peuvent changer le sens, soit que l’ordre de surface est pertinent aussi pour le sens. L’une et l’autre options sont contraires au modèle de Aspects. En 1970, c’est la seconde solution que Chomsky adopte (les structures de surface aussi contribuent à l’interprétation sémantique) et les structures de surface deviennent aussi importantes que les structures profondes l’avaient été.

La théorie des traces est introduite en 1975 dans Réflexions sur le langage, au chapitre 3. Nous développerons un seul exemple qui montre en quoi les traces permettent d’expliquer comment les transformations sont soumises à la contrainte de sous-jacence qui veut que les règles de transformation s’appliquent d’abord aux éléments les plus profondément enchâssés :

John seems to be a nice fellow

est dérivé de

Y seems [s John to be a nice fellow]

dans lequel le SN John monte depuis sa place de sujet de la phrase enchâssée vers la position sujet de la phrase supérieure marquée Y.

Même chose pour

John is certain [s t to win]

où la trace t marque la position d’origine de John

Dans

John seems to be certain to win

issu de

Y2 seems [s Y1 to be certain [s John to win]],

on pourrait penser que John a été déplacé directement vers Y2 ; mais ce serait en violation du principe de sous-jacence, et on a une structure intermédiaire :

Y2 seems [s John to be certain [s t to win]]

« Pour résumer […] la grammaire a la structure générale suivante. Les règles de la composante catégorielle et du lexique donnent des indicateurs syntagmatiques initiaux. En appliquant à ceux-ci des transformations, nous dérivons des structures de surface (en y incluant les traces), qui sont soumises à l’interprétation sémantique. Les règles de l’interprétation sémantique déterminent le sens des opérateurs logiques (not, each, who, etc.) et leur portée (scope), assignent des antécédents à des expressions anaphoriques comme les réciproques l’un l’autre (each other) […] Le résultat de l’application de ces règles peut être appelé « forme logique ». » (Chomsky, 1977, p. 129)

Par ailleurs, l’accent est mis sur le fait que les transformations sont des outils extrêmement puissants, et même trop puissants. Si n’importe quelle règle peut librement transformer n’importe quoi en une structure de surface (les transformations sont des instructions très précises, mais on peut écrire n’importe quelle instruction précise), on ne pourra rien faire de sérieux ni de général.

Il importe donc d’établir des contraintes sur les transformations.

Par exemple une contrainte peut être que les transformations ne doivent pas détruire et dénaturer les structures, contrainte dite de « préservation de la structure ».

En voici un exemple.

A partir de :

a) I gave John a picture of who?

on génère :

a’) Who did you give John a picture of?

le mot en wh- passe en tête quittant sa place dans le complément de nom de picture.

Mais à partir de :

b) A picture of who is on the table?

on ne doit pas générer :

b’) *Who is a picture of on the table?

là le mot en wh- ne peut plus quitter sa place de complément de nom de picture pour passer en tête. La transformation qui porte un mot en wh- en tête est soumise à une contrainte générale concernant l’extraction d’éléments à partir du sujet.

Les règles syntagmatiques elles aussi sont reformulées de manière plus générale : c’est la théorie  X (X-barre) (Cf. Jackendoff, 1977).

Elles sont de type
X’’ → (Spec X) + X’
X’ → X (+ compl)

Tous les constituants sont sur le même modèle, tous peuvent prendre un spécifieur et un complément. Exemple : [la [maison [de Pierre]]].

En 1981 la publication des conférences de Chomsky à Pise fait connaître la théorie du gouvernement et du liage, qui amorce une véritable révolution dans la grammaire générative : c’est la théorie des principes et des paramètres.

La théorie X-barre est un principe : tout item lexical peut prendre un spécifieur et un complément. Elle est associée à un paramètre propre à chaque langue sur l’ordre relatif de ces éléments : en français et an anglais le COD suit le verbe ; en allemand et en hollandais, il le précède. 

Bref aperçu sur la suite...

- Certains des « héritiers » de Chomsky prennent leurs distances, tout en proposant une grammaire encore transformationnelle, notamment Bresnan 1982, LFG, lexical functional grammar. On a deux types de structures, la structure en constituants : c-structure, et les structures fonctionnelles : f-structures. Le lexique est la pièce maîtresse. 

- Plus distant, Gazdar 1980 propose la GPSG, generalized phrase structure grammar, grammaire générative mais non transformationnelle. 

- En 1995, Chomsky publie Le programme minimaliste

- En Europe, la GGT est active avec le GLOW, generative linguists of the old world, représenté par exemple par Haegeman, Guéron, Pollock.

En conclusion

La GGT n’est absolument pas morte. (La raison pour laquelle, dans la majorité des départements d’anglais en France, par exemple, on n’en entend plus parler depuis vingt à trente ans est que la linguistique anglaise en France est dominée par une école française, les théories de l’énonciation ; celle-ci n’a pas convaincu les linguistes anglo-saxons - ainsi les grandes bibliographies linguistiques en anglais citent des centaines d’auteurs mais les linguistes anglicistes français en sont absents).

D’une part, le fantastique foisonnement d’écrits de chercheurs de haut niveau a conduit les linguistes non générativistes à prendre en compte des structures, des phénomènes, des modes de réflexion qui n’avaient pas nécessairement beaucoup retenu leur attention jusque là (combien de grammaires des années 50 s’intéressaient aux contraintes de sélection, à des constructions comme les clivées ou les extrapositions par exemple ?)

D’autre part, les divers courants issus de la GGT co-existent et sont féconds.

Bibliographie

Un exposé universitaire doit normalement se terminer par une bibliographie des auteurs cités – et nous la tenons à votre disposition si vous le souhaitez.

Nous n’avons pas jugé utile de la faire figurer ici pour les raisons suivantes :

- telle citation de Joos ou Bloch ou autre peut être appropriée dans le développement mais cela ne signifie pas que vous deviez vous plonger dans la lecture de ces auteurs ;

- plus profitable, si vous souhaitez approfondir, sera la lecture de quelques articles ou ouvrages de synthèse, tels que 

- l’article de J. Guéron, 1993, « La Grammaire Générative », dans Les théories de la grammaire anglaise en France, Cotte et alii éds, Paris, Hachette. 

- les chapitres 5,6,7 de Les Linguistiques Contemporaines, de C. Fuchs et P. Le Goffic, 1996, Hachette supérieur. 

- l’excellent livre de F. Newmeyer, 1980, Linguistic Theory in America, New York Academic Press.

- et, bien sûr, les ouvrages de Chomsky cités ici et dans ces synthèses.

Document à télécharger

Introduction à la grammaire générative et transformationnelle

 

Pour citer cette ressource :

Françoise Dubois-Charlier, Béatrice Vautherin, "La grammaire générative et transformationnelle : bref historique", La Clé des Langues [en ligne], Lyon, ENS de LYON/DGESCO (ISSN 2107-7029), septembre 2008. Consulté le 26/04/2024. URL: https://cle.ens-lyon.fr/langues-et-langage/langues-et-langage-comment-ca-marche/la-grammaire-generative-et-transformationnelle-bref-historique