Th�orie de l'information, information et linguistes fran�ais dans les ann�es 1960. Un exemple de transfert entre math�matiques et sciences du langage. ILF ILF r�cup�ration du fichier au format texte Nikola Tulechki cr�ation du header Mai Ho-Dac pretraitement et balisage du texte selon la TEI P5 Nikola Tulechkic 20/08/2009 CLLE-ERSS
Maison de la recherche 5 all�es Antonio Machado F 31058 TOULOUSE CEDEX

libre de droits

Jacqueline L�on Th�orie de l'information, information et linguistes fran�ais dans les ann�es 1960. Un exemple de transfert entre math�matiques et sciences du langage. ILF http://www.linguistiquefrancaise.org/content/view/217/282/lang,fr/

ANNODIS

projet financ� par l'ANR (Agence Nationale pour la Recherche), CNRS, 2007-2010, dirig� par Maire-Paule P�ry-Woodley, universit� de Toulouse - UTM

objectif : cr�ation d'un corpus de fran�ais �crit annot� discursivement

encodage des textes selon la norme de la Text Encoding Initiative, TEIP5

http://www.tei-c.org/release/doc/tei-p5-doc

cmlf article scientifique linguistique
french
Th�orie de l'information, information et linguistes fran�ais dans les ann�es 1960. Un exemple de transfert entre math�matiques et sciences du langage. Jacqueline L�on Laboratoire d'Histoire des Th�ories Linguistiques UMR7597, CNRS, Universit� Paris 7 Denis-Diderot jleon@linguist.jussieu.fr
1 Introduction

Alors que l'impact de la th�orie de l'information dans les diverses sciences a �t� �tudi�e de fa�on approfondie (voir entre autres Auroux 1990, Segal 2003), la r�ception de cette th�orie en linguistique est loin d'avoir fait l'objet d'une �tude syst�matique, notamment dans le domaine fran�ais. Dans notre article, nous nous int�resserons � l'importation de la th�orie de l'information dans l'oeuvre de trois linguistes, Emile Benveniste (1902 - 1976), Andr� Martinet (1908 - 1999) et Jean Dubois (n� en 1920) qui se sont explicitement int�ress�s � cette nouvelle th�orie dans les ann�es 1960, et lui ont fait une part plus ou moins grande dans leurs ouvrages de linguistique g�n�rale.

Le r�le de passeur de Roman Jakobson (1896 - 1982), avec la syst�matisation de l'analyse des traits distinctifs en phonologie et la mise en place du sch�ma et des fonctions de communication, est ind�niable. Nous attacherons toutefois � montrer qu'il existe une filiation sp�cifique de la th�orie de l'information dans la linguistique fran�aise des ann�es 1960, en partie distincte de l'influence de Jakobson et empruntant d'autres itin�raires parfois compl�mentaires.

On a d�j� montr� que les statistiques de vocabulaire, au moment de l'informatisation du langage et des premiers travaux en traduction automatique, a pr�sid� au renouvellement de la lexicologie au sein de la linguistique structurale fran�aise des ann�es 1960, en permettant de concevoir de nouvelles unit�s linguistiques, les unit�s lexicales compos�es (L�on 1998, L�on 2004). Ainsi, les trois linguistes que nous allons consid�rer ont aussi �t� des acteurs importants du renouveau de la lexicologie par la cr�ation d'unit�s lexicales compos�es : Benveniste et ses synapsies, Martinet et ses synth�mes et Dubois et ses unit�s complexes au sein de classes d'�quivalence. Dans cet article, nous montrerons que ce sont �galement les �tudes statistiques appliqu�es aux mots dans les textes qui ont contribu� � l'introduction en linguistique de la th�orie de l'information.

Afin d'appr�hender les enjeux pour la linguistique des ann�es 1960 de l'attrait pour cette th�orie, nous nous nous appuierons sur l'examen du terme information tel qu'il est apparu dans les ouvrages de ces linguistes. De fa�on plus g�n�rale, nous nous demanderons s'il y a lieu de parler, dans ce cas pr�cis, de transfert de concepts et de m�thodes entre math�matiques et sciences du langage1.

2 Le terme information
2.1 Hypoth�ses

Le rapport entre termes, notions et concepts est certes complexe et l'�tude de la r�ception d'une th�orie � partir de l'examen d'un mot particulier n'est possible que si certaines conditions sont remplies : il faut identifier le moment d'importation du terme, savoir si celui-ci n'a pas d�j� �t� utilis� dans le champ disciplinaire o� il est import�, en l'occurrence les sciences du langage ; il faut rep�rer si le terme est import� seul ou avec un ensemble de termes (une constellation de termes) ; enfin il faut parvenir � d�terminer la fa�on dont s'effectue la migration du terme d'une discipline � une autre.

Le terme information semble r�pondre � ces exigences :

Avec la parution de l'ouvrage de Shannon et Weaver The Mathematical Theory of Communication en 1949, on peut dater de fa�on pr�cise la diffusion de la th�orie de l'information vers les autres disciplines. Rappelons que c'est � partir des ann�es 1920 qu'en physique, en statistique et en t�l�communications, que commence � �merger l'information comme notion scientifique et technique dans un sens bien diff�rent de son usage commun. Plus tard, � partir de la seconde guerre mondiale, des ing�nieurs, physiciens et math�maticiens appellent information la grandeur qui caract�rise diff�rents modes de communication, qui s'apparente � l'entropie de la thermodynamique et qui permet de d�terminer la capacit� de stockage ou de traitement des ordinateurs, � condition de renoncer � toute dimension s�mantique du terme information. Cette notion math�matique d'information reste au plus pr�s de son sens �tymologique, � savoir la mise en forme du signal. Sur le plan des t�l�communications, il s'agissait pour la Bell Telephone Company d'�valuer les conditions les plus �conomiques qui permettent de faire passer le plus grand nombre possible de communications sur un seul fil, c'est-�-dire de transmettre des mots que les gens reconnaissent. Ces travaux trouv�rent leur aboutissement avec la publication des articles de Shannon en 1948 suivi de l'ouvrage de Shannon et Weaver en 1949. Le tra�age de sa r�ception en linguistique para�t relativement ais�e : outre les titres d'articles faisant explicitement r�f�rence � la th�orie et les compte-rendus parus dans les revues, on peut rep�rer l'apparition dans les ouvrages de linguistique de termes enti�rement nouveaux ou qui se chargent d'un sens sp�cifique. La th�orie de l'information est la partie quantitative de la th�orie de la communication, qui, elle-m�me, fait partie de la cybern�tique2. Parmi la constellation de termes apparus, certains sont issus de la th�orie de la communication comme code, codage, d�codage, transcodage, message, communication, �metteur, r�cepteur, locuteur, interlocuteur, �mission, r�ception, transmission, signal, signaux ; d'autres appartiennent � la cybern�tique comme feedback ou contr�le. Enfin, certains termes r�f�rent davantage � la partie quantitative comme information, quantit� d'information, probabilit�s, cha�nes de Markov, redondance, bruits, entropie, co�t ou rendement... Parmi l'ensemble de ces termes, on peut faire l'hypoth�se que certains ont un statut particulier comme code (Fehr 2003) ou information dans la mesure o� ils marquent une �tape particuli�re pour les sciences du langage. On part en effet du constat qu'information n'existait pas auparavant comme m�taterme de la linguistique et �tait tr�s peu utilis� par les linguistes dans son sens du langage ordinaire. On peut s'interroger sur le statut de l'usage de ces nouveaux termes : s'agit-il de l'introduction de concepts transformant la th�orie, de m�tatermes affectant le langage de description, ou bien d'une utilisation approximative et/ou m�taphorique ? De fa�on corrolaire, on s'int�ressera donc � la stabilit� de l'usage du terme information dans les th�ories linguistiques. Comment s'y articulent sens ordinaire et sens technique ? Au sein d'une m�me th�orie, est-il stable ou bien rev�t-il plusieurs sens ? S'int�gre t-il de fa�on permanente ou temporaire ?
2.2 Usage �ordinaire � versus usage technique du terme information

Selon le Robert historique, le sens usuel d'information renvoie depuis le d�but du XXe si�cle soit � l'action de rassembler des renseignements ou des connaissances, soit � cet ensemble lui-m�me.

(1) Le mot se sp�cialise dans la seconde moiti� du XIXe si�cle d�signant l'action de prendre des renseignements (voyage d'information, 1867). Le sens aujourd'hui le plus usuel appara�t sous la IIIe R�publique avec le d�veloppement de la presse : il s'agit alors de l'information que l'on porte � la connaissance d'un public (1886, Zola); d'o� au d�but du XXe si�cle, les acceptions "ensemble des informations"et "action d'informer les publics".

C'est d'ailleurs le sens de l'unique occurrence d'information dans le Cours de linguistique g�n�rale. Celle-ci appara�t dans le chapitre sur la linguistique diachronique : � L'histoire seule peut nous renseigner... Mais d�s que l'information historique est en d�faut, il est bien difficile de d�terminer ce qui est agglutination et ce qui rel�ve de l'analogie� (Saussure, CLG :245).

Face � cet usage 'ordinaire', le sens technique d'information pr�sente les caract�ristiques suivantes (voir Shannon et Weaver 1949, Moreau 1964, Auroux 1990, Segal 2003) :

-L'information est une mesure � caract�re statistique visant � quantifier ce qu'apporte un message � un r�cepteur, et � analyser les facteurs qui peuvent affecter sa transmission. Le message, pour convoyer de l'information, doit repr�senter un choix parmi les messages possibles. -L'information fournie par un �v�nement est donc fonction de sa probabilit� (P) et se mesure selon la formule : I = logPx. Plus la probabilit� d'un �v�nement est grande, moins il nous apporte d'information. Ainsi, si l'�v�nement est certain on n'a besoin d'aucune information pour le d�terminer ; il ne nous apporte aucune information. L'information se mesure en unit�s appel�es binary digits ou bits. -Lorsqu'il y a bruit dans le canal de transmission, le message est affect� par des distorsions et des erreurs. Le bruit augmente donc l'incertitude et devrait augmenter l'information. Mais, comme le pr�cise Shannon, cette incertitude li�e � l'augmentation des erreurs devient ind�sirable. -Le bruit peut �tre compens� par la redondance. En envoyant l'information sous une forme redondante la probabilit� des erreurs peut �tre r�duite de sorte qu'il y a un avantage � ne pas utiliser un processus de codage qui �limine toute redondance, car la redondance restante permet de lutter contre le bruit. Ainsi, dans le domaine des t�lecommunications, on a int�r�t � �lever la redondance pour s'assurer d'une bonne transmission. Shannon recommande d'ailleurs que la redondance de la langue anglaise, de l'ordre de 50%, ne doit pas �tre �limin�e dans la transmission t�l�graphique. Toutefois, plus les donn�es sont structur�es (donc redondantes), moins elles contiennent d'information au sens de Shannon, ce qui va � l'encontre du sens commun du mot 'information'.

Dans ce mod�le, l'information est une notion non s�mantique. C'est une quantit� abstraite qui qualifie le message ind�pendamment de sa signification. La signification du message, son contenu, ne sont pas consid�r�s comme un �l�ment pertinent : ce qui est transmis, c'est une forme et non un sens.

3 Les premiers passeurs : Jakobson et Mandelbrot

En 1951, Beno�t Mandelbrot (n� en 1924) publiait deux compte-rendus � l'Acad�mie des sciences sur la th�orie de l'information intitul�s M�canique statistique et th�orie de l'information et visant � la g�n�ralisation de la loi de Zipf (1902 - 1950) concernant le traitement statistique du vocabulaire dans les textes. Ces compte-rendus seront repris en 1954 sous forme d'un article destin� aux linguistes dans la revue Word. Celui-ci, intitul� Structure formelle des textes et communication, est le premier article en fran�ais appliquant les notions math�matiques de la th�orie de l'information � des objets linguistiques. Il faut noter que la publication de ces compte-rendus pr�c�dent de peu la publication du rapport de Jakobson, Fant et Halle au MIT en 1952, Preliminaries to Speech Analysis, ayant pour objectif d'appliquer la th�orie de l'information � l'analyse des traits distinctifs en phonologie. En France, malgr� cette parution quasi simultan�e, la communaut� des linguistes s'est fait davantage l'�cho des travaux de Mandelbrot et de leur importance pour les statistiques lexicales. Quant aux travaux de Jakobson, ils ont �t� connus en France de fa�on tr�s diverse et tr�s variable dans le temps. Alors que certains ont eu acc�s d�s leur parution aux travaux du d�but des ann�es 1950 en phonologie, d'autres ont connu en premier les travaux ult�rieurs sur les fonctions de communication au moment de leur traduction en fran�ais dans les Essais de linguistique g�n�rale, � savoir seulement en 1963. Cette diversit� d'acc�s aux premiers travaux d'introduction de la th�orie de l'information en linguistique explique en partie la singularit� fran�aise de cette r�ception.

3.1 Jakobson, la th�orie de l'information et les linguistes fran�ais

Il n'est pas le lieu ici d'�tudier en d�tail le r�le de passeur de Jakobson ni sa conception de la th�orie de l'information. Ses premiers travaux d'application de la th�orie de l'information � la phonologie (Jakobson et al. 1952, Cherry et al. 1953, Jakobson and Halle 1956) ont �t� lus tr�s tardivement en France. Rappelons que les Essais de linguistique g�n�rale, parus en 1963, ne comprennent pas ces travaux. Seul, Martinet, � New York jusqu'en 1955 et encore tr�s ami avec Jakobson qui l'avait introduit dans les milieux universitaires am�ricains, cite les Preliminaries d�s leur parution (Martinet, 1952). Mandelbrot, quant � lui, cite sans v�ritablement les commenter les Preliminaries dans son article de Word de 1954 (probablement parce que la phonologie n'est pas son objet).

Dans Preliminaries to Speech Analysis. The Distinctive Features and their Correlate, Jakobson, Fant et Halle se proposent d'effectuer le traitement math�matique de l'information port�e par les traits distinctifs dans un message et d'�tudier leur pouvoir informationnel dans un code linguistique donn�. Ils empruntent � Shannon son sch�ma de communication avec code, encodeur/ locuteur et auditeur/ d�codeur et transmission d'information : un trait distinctif est reconnu par le r�cepteur s'il appartient au code commun � lui et � l'�metteur, s'il est transmis correctement et s'il atteint le r�cepteur. Ils montrent l'int�r�t de la redondance qui augmente la fiabilit� de la communication parl�e en la rendant r�sistante aux diff�rentes sources de distortion. Enfin, ils empruntent � la th�orie de l'information son analyse en termes binaires des processus de communication :

(2) Information Theory uses a sequence of binary selections as the most reasonable basis for the analysis of the various communication processes. It is an operational device imposed by the investigator upon the subject matter for pragmatic reasons. In the special case of speech, however, such a set of binary selections is inherent in the communication process itself as a constraint imposed by the code on the participants in the speech event, who could be spoken of as the encoder and the decoder. (Jakobson et al., 1952 :9).

Le fait de traiter le message oral et le code sous-jacent en unit�s discr�tes binaires est emprunt� � Markov (1856 - 1922) via Shannon (1916 - 2001). Pour les auteurs, les traits distinctifs ont un caract�re universel. Ceux-ci sont limit�s � douze, cependant aucune des langues ne contient l'ensemble de ces traits. Leur incompatibilit� ou leur cooccurrence � l'int�rieur d'une m�me langue et d'un m�me phon�me est d�termin�e par des lois d'implication universellement valides ou bien une grande probabilit� statistique. Cette probabilit� permet d'�liminer les traits hautement probables et de diminuer la redondance

Enfin les auteurs privil�gient les traits acoustiques aux traits articulatoires qui ne transmettent pas d'information directe au r�cepteur :

(3) In decoding the message received (A), the listener operates with the perceptual data (B) which are obtained from the ear responses (C) to the acoustical stimuli (D) produced by the articulatory organs of the speaker (E). The closer we are in our investigation to the destination of the message (ie its perception by the receiver), the more acurately we can gage the information conveyed by its sound shape. This determines the operational hierarchy of levels of decreasing pertinence : perceptual, aural, acoustical, and articulatory (the latter carrying no direct information to the receiver). ( Jakobson et al., 1952 :12).

Dans le texte de Language 1953, Cherry, Halle et Jakobson appliquent la th�orie de l'information � la description phon�mique des langues et en particulier � un corpus de conversations russes enregistr�es. Il s'agit de d�terminer le nombre de traits distinctifs (11 en l'occurrence) n�cessaires � l'auditeur pour diff�rencier les unit�s de sens minimale du code, � savoir les morphemes et leur combinaison en mots, sans l'aide du contexte. A partir de l� toutes les autres diff�rences phon�tiques des morph�mes et des mots seront pr�dictibles et consid�r�es comme redondantes. Ces articles seront suivis du petit essai Fundamentals of Language sign� de Halle et Jakobson et paru en 1956, et de cinq articles parus en 1953, 1959 et 1960 (traduits dans les Essais de linguistique g�n�rale) o� Jakobson d�veloppera les fonctions communicatives du langage.

3.2 Beno�t Mandelbrot et la r�ception de la th�orie de l'information dans la communaut� linguistique fran�aise

Les scientifiques fran�ais s'int�ressent � la cybern�tique et � la th�orie de l'information tr�s t�t. En 1947, le math�maticien Szolem Mandelbrojt (1899 - 1983) invite Norbert Wiener(1894 - 1964) � un colloque � Nancy. Celui-ci se voit offrir la possibilit� de publier en France un ouvrage sur le caract�re unificateur de la cybern�tique. C'est ainsi que Cybernetics fut publi� en 1948 conjointement par les Editions Hermann � Paris et par les MIT Press et John Wiley & Sons aux Etats-Unis.

En 1949, L�on Brillouin (1889 - 1969), membre de l'Ecole des Hautes �tudes de New York depuis 1941, promeut la th�orie de l'information en physique. En 1950, Louis de Broglie (1892 - 1987) organise une s�rie de conf�rences ayant pour titre "Cybern�tique. Th�orie du signal et de l'information"qui conduisit � la reconnaissance de la th�orie de l'information comme science autonome. Dans sa th�se publi�e en 1953, Marcel-Paul Sch�tzenberger (1920 - 1996) insiste sur le caract�re unificateur pour les sciences de la th�orie de l'information3.

Dans ce contexte, le math�maticien Beno�t Mandelbrot joue un r�le cl� dans l'introduction de la th�orie de l'information dans la linguistique en France. Polytechnicien, neveu de Szolem Mandelbrojt, il compl�tera sa formation aux Etats-Unis (Californie en 1948 - 49, Princeton et MIT en 1951 - 53), et est charg� de relire les �preuves de l'ouvrage Cybernetics de Wiener. Il soutient sa th�se d'�tat en 1952 sur l'interaction entre th�orie des jeux et th�orie de l'information. Il montre que la thermodynamique comme les propri�t�s statistiques du langage peuvent �tre expliqu�es comme les r�sultats de jeux entre nature et �metteur. Mandelbrot fait partie, aux c�t�s de Shannon,Wiener et Jakobson, du comit� de lecture de la revue Information and Control, fond�e en 1958 par Brillouin, Peter Elias et Colin Cherry (co-auteur avec Jakobson et Halle de l'article de Language de 1953).

Dans son article de Word paru en 1954 "Structure formelle des textes et communication", premi�re publication en fran�ais sur l'application de la th�orie de l'information � des objects linguistiques, Mandelbrot critique la loi d'Estoup et Zipf qui pr�suppose que les mots-formes (formes fl�chies) auraient des propri�t�s intrins�ques dans un texte. Il propose � la place une th�orie canonique, fond�e sur la th�orie de l'information et les formes vides (de sens) dont la loi de Zipf ne serait qu'un cas particulier. Cet article a ouvert la voie � nombre de travaux en statistiques lexicales, plus ou moins inspir�s de Shannon et Weaver et de Zipf, prenant le relais des �tudes de vocabulaire tr�s d�velopp�es en France dans les d�cennies pr�c�dentes4. A partir de 1954, Pierre Guiraud (1912 - 1983), dans une version tr�s contest�e par les statisticiens, dont Mandelbrot lui-m�me, poursuit les travaux de statistiques lexicales en diffusant la th�orie de l'information aupr�s des linguistes et en promouvant le terme de statistique linguistique (Guiraud 1954, 1960).

Le Bulletin de la Soci�t� de Linguistique de Paris est un bon observatoire de cette diffusion aupr�s des linguistes. Les compte-rendus d'ouvrage sur les statistiques lexicales se multiplient dans les ann�es 1950, de m�me que les expos�s au sein de la Soci�t� elle-m�me et les articles publi�s dans le BSL : compterendus de Mandelbrot par Guiraud, et de Guiraud par Mandelbrot, compte-rendu de Herdan (1956) par Mandelbrot. Benveniste et Martinet ont tous deux r�dig� dans le BSL des compte-rendus d'ouvrages sur l'application de la th�orie de l'information par des linguistes ou psychologues am�ricains. Dans le m�me tome (T.53,1957 - 58), un compte-rendu tr�s critique par Benveniste de l'ouvrage de Joshua Whatmough Language. A Modern Synthesis (1956) est suivi de deux compte-rendus de Martinet : l'un assez n�gatif de Language and Communication de G-A. Miller (1951, tr. fran�aise 1956), l'autre plus �logieux de l'ouvrage de Vitold Belevitch Langage des machines et langage humain (1956) que Martinet consid�re comme une bonne introduction � la th�orie de l'information � destination des linguistes. La contribution, plus tardive, de Dubois consiste en un compte-rendu de la parution en fran�ais des Essais de Linguistique g�n�rale de Jakobson dans le Fran�ais Moderne (1964).

Benveniste, Martinet et Dubois comptent parmi les linguistes fran�ais, hors ceux bien s�r qui se sont consacr�s aux statistiques lexicales, � s'�tre int�ress�s � la th�orie de l'information au point de tenter de l'int�grer dans leurs travaux.

Benveniste : une ext�riorit� prudente

Chacun des deux tomes des Probl�mes de Linguistique g�n�rale (PLG) comporte une partie intitul�e 'Communication'. Dans les index figurent un certain nombre de mots appartenant � la constellation des termes du domaine : information, codage, communication, cybern�tique et signal, dans le tome 1. Le tome 2 semble plus pauvre, on y trouve seulement th�orie de l'information, communication et nonredondance.

Ces termes ne sont pas tr�s fr�quents dans le texte. Si l'on s'en tient � information, il n'y a que 7 occurrences dans le tome 1, et 4 dans le tome 2 dont 3 th�orie de l'information. Le terme information est toujours utilis� dans son acception ordinaire, comme par exemple dans les trois extraits suivants, o� il s'agit d'une information ou de l'information + d�terminant, et jamais dans le sens technique d'une quantit� abstraite :

(4) Ici l'information du N.E.D. est en d�faut (PLG, T1 :342). Il [l'homme parlant] veut lui [interlocuteur] transmettre un �l�ment de connaissance, ou obtenir de lui une information, ou lui intimer un ordre. Ce sont les trois fonctions interhumaines du discours qui s'impriment dans les trois modalit�s de l'unit� de phrase, chacune correspondant � une attitude du locuteur (PLG, T1 :130). En d�crivant, il y a quelques ann�es, les formes subjectives de l'�nonciation linguistique, nous indiquions sommairement la diff�rence entre je jure, qui est un acte, et il jure, qui n'est qu'une information (PLG, T1 :270).

Quant � la th�orie de l'information, Benveniste se contente de citer cette nouvelle th�orie sans que sa mise en oeuvre th�orique soit r�ellement envisag�e. Comme la traduction automatique, la th�orie de l'information offre de nouvelles techniques qui s'av�rent probablement tr�s prometteuses pour les sciences du langage, mais dans un horizon qui reste ind�termin�. Ainsi, en conclusion du chapitre I-2, intitul� Coup d'oeil sur le d�veloppement de la linguistique, Benveniste aborde les nouvelles techniques permettant le d�veloppement de la symbolisation du langage dont les th�ories de l'information5 :

(5) Par ailleurs on sait que les descriptions formelles des langues ont une utilit� directe pour la construction des machines logiques aptes � effectuer des traductions, et inversement on peut esp�rer des th�ories de l'information quelque clart� sur la mani�re dont la pens�e est cod�e dans le langage (PLG, T1 :30 - 31).

Benveniste fait un parall�le entre phrase et mots comme unit�s de la s�mantique, et message et unit�s de codage pour la th�orie de l'information (ici � prendre au sens de sch�ma de communication) dont il postule une organisation syntagmatique. On sait que, pour Benveniste, une phrase est un �nonc� de caract�re n�cessairement s�mantique consid�r� dans son � emploi instantan�, spontan�, personnel � (PLG, T2 :232) :

(6) Que l'id�e ne trouve forme que dans un agencement syntagmatique, c'est l� une condition premi�re, inh�rente au langage.... il [le linguiste] peut seulement conjecturer que cette condition toujours n�cessaire refl�te une n�cessit� de notre organisation c�r�brale. On retrouve dans les mod�les construits par (la th�orie de l'information la m�me relation entre le message et les unit�s pro(bables du codage. (PLG, T2 :226)

Plus haut il indique que le mot est � l'unit� n�cessaire du codage de la pens�e � (PLG, T2 :225). C'est donc une interpr�tation tr�s personnelle que Benveniste propose de la th�orie de l'information puisque ses unit�s de codage sont des unit�s s�mantiques qui s'av�rent tout � fait en contradiction avec les unit�s d'information de Shannon et Weaver, quantit�s d�pourvues de sens.

Ainsi, bien que Benveniste nous indique la voie en proposant dans son texte Gen�se du terme 'scientifique', d'examiner la gen�se d'une discipline scientifique � partir des termes (dont le terme information d'ailleurs), lui-m�me ne semble pas faire grand cas de l'information :

(7) Nous tenons donc l'apparition ou la transformation des termes essentiels d'une science pour des �v�nements majeurs de son �volution. ... Les termes instructifs sont ceux qui s'attachent � un concept neuf d�sign� � partir d'une notion th�orique (civilisation, �volution, transformisme, information, etc.), mais aussi bien ceux qui, d�riv�s d'une notion ant�rieure, y ajoutent une d�termination nouvelle (PLG, T2 :247 - 248).

Il tient en effet la (ou les) th�orie(s) de l'information � une distance prudente et ses r�f�rences � ce nouveau domaine sont tr�s limit�es. Il ne pr�te aucune attention � l'aspect quantitatif de l'information et fait au contraire glisser les unit�s de codage vers des unit�s de sens. Il est probablement plus int�ress� par les questions pos�es par le sch�ma de communication de Jakobson et l'hypoth�se d'interlocution qu'elle suppose6. L'ext�riorit� de la nouvelle th�orie par rapport � la linguistique reste donc enti�re.

Martinet : pour une conception fonctionnelle de l'information

Martinet, nous l'avons dit, est sans doute le seul linguiste fran�ais a avoir lu les Preliminaries de Jakobson et al., c'est-�-dire la premi�re �tude de phonologie appliquant la th�orie de l'information. Toutefois, bien qu'il cite ce texte, Martinet ne reprend pas � son compte cette utilisation de la th�orie de l'information lorsqu'il �labore sa phonologie diachronique.

Dans son �conomie des changements phon�tiques, publi� en 1955, et qui synth�tise les travaux phonologiques de ses ann�es am�ricaines, Martinet pr�tend s'inscrire dans la filiation de Troubetzkoy (1890 - 1938) contre Jakobson. Selon lui, l'analyse des traits distinctifs est pr�sente � l'�tat latent dans l'oeuvre de Troubetzkoy (Martinet, 1955 :67, note 8 et 1957 - 58 :75). Par ailleurs, il consacre plusieurs pages � une critique s�v�re de l'apriorisme universaliste et binariste d�velopp� par Jakobson et al. (1952, 1953) qui d�voie selon lui les positions de Troubetzkoy. Le binarisme proc�de par affirmations de caract�re g�n�ral et cherche � faire entrer toute r�alit� phonologique dans des cadres pr��tablis et identiques pour toutes les langues.

(8)... ce qui rend la position binariste absolument inacceptable en mati�re diachronique, c'est l'�limination arbitraire, comme � redondantes �, de caract�ristiques phoniques r�sultant d'�volutions qui ont chang� les rapports � l'int�rieur du syst�me, ce qui aboutirait � poser que ces changements sont nuls et non avenus. le point de vue diachronique exige un beaucoup plus vif souci de la r�alit� phon�tique que celui qui est de mise lorsqu'on s'escrime � r�duire au minimum le nombre des traits distinctifs(Martinet, 1955 :76) . ... l'apriorisme qui consiste � pr�ciser les traits pertinents, moins en s'inspirant du syst�me de la langue � l'�tude, que par r�f�rence � un un sch�ma pr��tabli dont on postule la valeur universelle (Martinet, 1957 - 58 :75).

Par ailleurs, il s'oppose � la d�termination des phon�mes par des moyens acoustiques pr�conis�e par Jakobson et al. et pr�f�re, en suivant Troubetzkoy, les donn�es articulatoires arguant que l'analyse spectographique ne fait que confirmer l'explication que fournissent imm�diatement les donn�es articulatoires.

Il ne discute pas sp�cifiquement les emprunts faits par Jakobson et ses co-auteurs � la th�orie de l'information. Ceux-ci sont d�nigr�s et qualifi�s de pur habillage physico-math�matique destin� � s�duire les esprits :

(9) ... cependant d�pouill�e de l'appareil physico-math�matique dont on l'a rev�tue pour l'agr�ment des esprits avides de rigueur abstraite, cette th�orie appara�t plus comme une vue de l'esprit que comme un effort pour coordonner les r�sultats d'observations pr�alables (Martinet, 1955 :73)

Toutefois, le terme information appara�t deux fois dans l'Economie (p.140) associ� au pouvoir distinctif. Le pouvoir distinctif, li�e � une fr�quence faible limite l'incertitude et compense une d�pense d'�nergie parfois plus forte, comme dans le cas de la prononciation d'une g�min�e. Information est bien employ� ici dans le sens de Jakobson tel que repris � la th�orie de l'information, sans que d'ailleurs celui-ci soit cit� � cet endroit du texte.

(10) Je puis donc dire qu'en francais /-kt-/ est beaucoup plus riche d'information que /-t-/ et que du point de vue de l'�conomie de la langue, la distinction suppl�mentaire apport�e par /-k-/ vaut bien le surcro�t de travail musculaire qu'il implique ... Si nous passons maintenant � /-atta-/, nous pourrons dire que, l� o� cette combinaison se rencontre cinq fois sur cent fois /-ata-/, le surcro�t de travail que repr�sente la prononciation du /-t-/ implosif, qui distingue /-atta-/ de /-ata-/ vaut largement la peine, puisqu'il a pour effet de limiter l'incertitude dans la proportion de 100 � 5. la g�min�e a donc un grand pouvoir distinctif. Dans la langue o� l'on rencontre /-atta-/ 80 fois pour 100 exemples de /-ata-/ et 10 exemples de /-akta-/, /-tt-/ repr�sentera une d�pense d'�nergie de m�me ordre que celle qui est n�cessaire pour articuler /-kt-/ mais pour un pouvoir d'information beaucoup plus bas (Martinet, 1955 :140).

On voit ici op�rer la tendance contradictoire interne � la notion d'�conomie, signal�e par Verleyen et Swiggers (2006 :176), entre la satisfaction des besoins de la communication qui exige la pr�servation de la quantit� maximale d'information, � savoir un nombre maximal d'oppositions fonctionnelles, et celle de l'inertie qui tend � utiliser un nombre restreint d'unit�s plus fr�quentes.

Dans l'extrait (10), on voit comment l'information contribue au principe du moindre effort que Martinet emprunte � Zipf. L'homme cherche, dans toutes ses activit�s y compris ses activit�s langagi�res, � minimiser l'effort (travail musculaire, d�pense d'�nergie) n�cessaire par rapport au but � atteindre. Selon Martinet, le principe de Zipf r�alise mieux la synth�se entre besoins de communication et inertie humaine que le principe d'�conomie �labor� par Paul Passy dans le cadre de sa th�orie fonctionnaliste des changements phon�tiques7. Enfin, il pr�conise de mesurer l'importance fonctionnelle d'une opposition phonologique ou rendement fonctionnel � l'aide de statistiques dans les textes. En cela aussi, il s'est inspir� de Zipf qui, le premier, a jet� les bases d'une phonologie fonctionnelle qui ne soit pas purement descriptive mais fond�e statistiquement.

Cet int�r�t pour les aspects quantitatifs de l'information se retrouve dans les El�ments de linguistique g�n�rale, parus en 1960, dont une grande partie du chapitre 6 L'�volution des langues est consacr�e � la th�orie de l'information8. Dans cet ouvrage, surtout dans le � 6.9 intitul� La th�orie de l'information et le linguiste, Martinet pr�tend introduire ses vues personnelles sur la th�orie de l'information sans aucune r�f�rence aux travaux ant�rieurs d'application de la th�orie de l'information � la linguistique, notamment ceux de Jakobson9. D'ailleurs, la notion d'information est dissoci�e de celle de traits distinctifs (et donc de l'apport jakobsonien) : ceux-ci n'apparaissent plus que de fa�on sporadique (10 occurrences de traits distinctifs en tout dans les El�ments dont aucune dans le chapitre 6). Les r�f�rences concernant la th�orie de l'information sont les expos�s � relativement simples � de Guiraud � la SLP en 1954 et l'ouvrage de Belevitch dont il a fait le compte-rendu dans le BSL (Martinet, 1957b).

Selon Martinet, les formules mises au point par les ing�nieurs des t�l�communications pour r�soudre leurs probl�mes ne sont pas adapt�es aux probl�mes sp�cifiques des linguistes. Ce qui int�resse le linguiste, dit-il, c'est de savoir dans quelle probabilit� la variation de certains facteurs vont entra�ner celle de certains autres.

(11) Ces variables sont le nombre des unit�s entre lesquelles le locuteur choisit � un point de l'�nonc�, la probabilit� des unit�s ramen�e � leur fr�quence, le co�t de chaque unit� qui comporte, outre l'�nergie n�cessaire � sa r�alisation, ce qu'on pourrait appeler les frais d'emmagasinage dans la m�moire, et enfin l'information qu'apporte chaque unit� (Martinet, 1960 : 182).

Bien qu'il utilise �galement d'autres termes de la constellation comme code, communication, co�t, fr�quence, message ou redondance, le terme information est un des plus fr�quents : on en trouve 59 occurrences dans l'ensemble du texte, dont 48 dans la partie 6-III. A l'exception de quelques occurrences du terme dans son sens ordinaire, Martinet utilise information au sens technique, soit dans un syntagme, quantit� d'information ou co�t de l'information, soit en collocation avec des verbes ou des nominalisations de verbes de quantit� (mesurer, augmenter, doubler, varier, �lever, d�passer, accroissement), ou encore avec des adjectifs ou des adverbes exprimant la quantit� (grande information, information bien sup�rieure, faible information, trop d'information, autant d'information, masse

d'information, dose d'information, densit� d'information, richesse informationnelle). Le verbe apporter occupe une place � part avec dix occurrences en collocation avec information.

Suivant en cela la th�orie de l'information, Martinet consid�re qu'il existe un rapport constant et inverse entre la fr�quence d'une unit� et l'information qu'elle apporte. Plus une unit� est probable, moins elle est informative. Ce qu'il ajoute, c'est une d�finition de l'information en termes de moindre effort � savoir d'efficacit� par rapport � l'�nergie consomm�e � chaque utilisation d'une unit�.

Outre la phonologie, il applique la notion d'information � la litt�rature et � d'autres unit�s linguistiques, comme les mon�mes ou les formes lexicales. Martinet semble utiliser les cha�nes de Markov pour traiter ces s�quences d'unit�s, d'une fa�on tr�s proche de celle de Harris (1955). Il rapporte d'ailleurs dans ses M�moires (Martinet, 1993 :71), que l'id�e selon laquelle la limite des mots pourrait s'�tablir sur la base de la probabilit� des �l�ments successifs lui est venue lors d'une discussion avec Harris (1909 - 1992) � New York au d�but des ann�es 1950. Dans cette utilisation, il pr�cise que l'information n'est en rien une entit� s�mantique :

(12) Si j'entends /il a p.../, /p/ n'a pas de signification en lui-m�me, mais il est dou� d'information dans ce sens qu'il exclut toutes sortes d'�nonc�s possibles, comme il a donn�, il a boug�. Si � l'�nonc� tronqu� s'ajoute /r/ (/il a pr.../), l'incertitude est de nouveau r�duite puisque sont exclus il a pay�, il a pouss�, etc., ce qui indique que /r/ est dou� d'information. L'information n'est donc pas un attribut de la signification, puisque des unit�s non signifiantes comme /p/ et /r/ y participent. (Martinet, 1960 :177 - 78)

C'est au moment o� il aborde le rapport entre information et litt�rature (�6 - 18) que Martinet utilise le syntagme contenu informationnel qui appara�t d'ailleurs cinq fois. Par un choix d'unit�s lexicales nouvelles et en r�duisant la redondance, l'auteur pourra augmenter le contenu informationnel d'un texte afin de retenir l'attention du lecteur. Ce qui est redondant, ce sont les collocations attendues, et ce qu'on attend du po�te ce sont des collocations rares.

(13) L'auteur pourra se contenter de pr�senter, dans les termes les plus directs, des �v�nements, r�els ou imaginaires, assez exceptionnels pour que la densit� informationnelle du r�cit retienne l'attention. Il pourra aussi, par un choix original des unit�s linguistiques, �lever le contenu informationnel de son texte et le doser exactement. Ceci le dispensera d'aller, � chaque instant, chercher l'inattendu dans les p�rip�ties du r�cit. (Martinet 1960 :192).

Avec le terme contenu informationnel, l'information semble perdre son caract�re quantitatif au profit d'une dimension s�mantique : contenu informationnel fait en effet penser � contenu de sens. A noter que le terme contenu d'information, sous quelle que forme et langue que ce soit, n'existe pas dans l'ouvrage de Shannon et Weaver.

En fait, on peut faire l'hypoth�se que contenu d'information vient de Guiraud, une des sources revendiqu�es par Martinet. Guiraud applique la loi de Zipf et la th�orie de l'information aux statistiques de vocabulaire dans des �tudes stylistiques. Comme on le voit dans (14), Guiraud assimile de fa�on un peu rapide fr�quence (des signes) et contenu d'information, alors qu'on a vu que l'information est une mesure abstraite d�pendant de choix, donc une mesure probabiliste et pas seulement statistique.

(14) En fait l'�quation de Zipf est susceptible d'une double interpr�tation. Pour les uns (dont je suis) la fr�quence des signes d�finit leur contenu d'information (au sens que Shannon donne � ce terme) et n'est que le produit de l'�conomie de la communication. Pour Mandelbrot le langage est un syst�me mol�culaire, assimilable � une masse de gaz et soumis � des lois similaires ... Mais autant l'hypoth�se d'une �conomie de la communication en terme de contenu d'information est riche et pratique pour le linguiste, autant il r�pugne de s'aventurer sur le terrain de la thermodynamique o� l'entra�ne Mandelbrot.... (Guiraud 1957 :24).

Comme on le voit, cette position oppose Guiraud � Mandelbrot qui, quant � lui, reste fid�le � la d�finition de l'information comme entropie n�gative : � La quantit� pr�cis�ment n�cessaire � l'�tablissement de l'information correspond exactement � la notion thermo-dynamique d'entropie � (Shannon et Weaver [1975 : 42]).

Il faut savoir que l'utilisation approximative des m�thodes statistiques par Guiraud a �t� tr�s critiqu�e par les math�maticiens, que ce soit Mandelbrot (1954b) ou Moreau (1964), et que leur diff�rend est aussi de nature linguistique. Celui-ci divisera les tenants de la linguistique statistique pendant des d�cennies, et plus r�cemment la linguistique de corpus. Pour Guiraud, il existe une fr�quence intrins�que des mots dans la langue, ce que conteste Mandelbrot. On a vu (cf. �3.2. ci-dessus) que c'est d'ailleurs une des critiques que Mandelbrot adresse � Zipf. On notera que la position de Martinet n'est pas tr�s explicite sur ce point.

Dubois : une version harrisso-jakobsonienne

Curieusement, Dubois, bien qu'ayant commenc� ses travaux de linguiste en lexicographie avec sa th�se parue en 1962 sur Le vocabulaire politique et social en France de 1869 � 1972, ne s'est pas int�ress� aux aspects quantitatifs du vocabulaire, pourtant tr�s en vogues en France dans les ann�es 1950 - 60 et impuls�s par les travaux de Mandelbrot et de Guiraud. Dans sa th�se, Dubois met en oeuvre la m�thode distributionnelle de Harris, dont on peut dire qu'il est l'introducteur en France, et son utilisation en analyse du discours10. Son int�r�t pour la th�orie de l'information appara�t dans des textes post�rieurs, d'abord dans son article sur l'aspect et le temps paru en 1964 dans le Fran�ais Moderne, puis dans sa Grammaire structurale du fran�ais en trois tomes parus respectivement en 1965, 1967 et 1969.

Comme pour les autres auteurs, information n'appara�t pas seul mais avec une cohorte de termes de la constellation, comme on le voit dans le tableau (15) :

Comme on le voit, c'est surtout dans le tome 1 de 1965 qu'information appara�t massivement pour quasiment dispara�tre dans les tomes 2 et 3, alors que les autres termes (dont on n'a fait figurer ici que les plus fr�quents) restent encore plus ou moins utilis�s.

Si l'on examine les formes suivantes apparaissant dans le tome 1 :

(16)

la th�orie de l'information : 1 la quantit� d'information : 4 l'information : 3 SN + l'information (conservation/perte de l'information, co�t de l'information) : 5 SN + information (perte d'information, les �l�ments d'information perdus) : 2

(17)

une information : 1 une information +det (nouvelle) : 1 deux informations : 2 SN + une information (conservation d'une information) : 1 l'information + det (pr�c�dente, premi�re, donn�e, f�minin, de genre, de nombre) : 9 les informations + det (n�cessaires et constantes) : 1

Les occurrences des expressions rassembl�es en (16) r�f�rent bien � la th�orie de l'information. Dans son introduction, Dubois pr�cise qu'il a pour objectif une analyse distributionnelle des marques de genre et de nombre du nom et du pronom, qui se veut compl�mentaire de l'analyse distributionnelle de Harris. C'est en termes d'information, redondance et bruit qu'il se propose d'analyser les contraintes crois�es entre marques de genres et de nombres pour montrer que ce sont des r�gles et non des exceptions en fran�ais. Alors que, dit Dubois -faisant sans doute r�f�rence � la notion de rendement fonctionnel de Martinet - les linguistes ont surtout emprunt� � la th�orie de l'information la notion de co�t, il se propose, quant � lui, de mettre en oeuvre celles de redondance et de bruit. La seule occurrence du terme th�orie de l'information appara�t dans cette exposition du probl�me.

La notion de quantit� d'information (de m�me que celles de conservation, perte et co�t de l'information) est bien celle de la th�orie de l'information : elle est calcul�e en termes de probabilit�s et en termes de fonction inverse : plus la probabilit� d'apparition d'une marque est grande, plus la quantit� d'information est faible. Ainsi la quantit� d'information apport�e par le code �crit est faible, puisque celui-ci est tr�s redondant :

(18) Les marques du code parl� et du code �crit ne sont donc pas �quiprobables : la quantit� d'information apport�e par une marque redondante dans le code parl� est plus grande que celle apport�e dans le code �crit, puisque la probabilit� de la rencontrer apr�s la marque initiale est moindre. La quantit� d'information pr�sent�e en fran�ais �crit par la seconde marque est tr�s faible, puisqu'il est tr�s rare que le code �crit ne pr�sente pas de redondance. (Il n'en est �videmment pas de m�me pour le code parl�)(1965 : 21).

Cette utilisation quantitative et shannonienne de l'information par Dubois est probablement issue de la lecture de Mandelbrot (1954a) figurant dans sa bibliographie mais aussi de celle de Harris, dont les principaux travaux des ann�es 1950 sont cit�s, et de son utilisation des cha�nes de Markov11.

Si maintenant on regarde les expressions dans la liste (17) o� information est d�termin� (une information, la premi�re information, l'information du pluriel, l'information f�minin, l'information de genre, celle de nombre, les /ces deux informations), on est face � un tout autre usage du terme :

(19) On peut se demander ce que deviennent ces deux informations lorsqu'elles sont cumul�es, c'est-�-dire lorsque les �nonc�s au pluriel sont aussi porteurs de l'information f�minin (1965 :82). ... il arrive que l'information de genre se maintienne, tandis que celle de nombre s'efface. ... l'information f�minin a disparu des deux phrases(1965 :83).

Cet emploi d'information fait glisser le terme vers contenu ou sens. Toutefois il ne s'agit pas ici de l'information au sens ordinaire, c'est-�-dire au sens de renseignement, connaissance, acte de rechercher des connaissances, ou ensemble de connaissances existantes. On peut alors se demander pourquoi Dubois utilise le terme information dans ce cas pr�cis. Alors qu'il d�signait une quantit� abstraite, calcul�e � l'aide de probabilit�s et excluant le sens, le terme information d�finit maintenant une signification grammaticale, d'ordre morpho-syntaxique, donn�e par les marques.

Pour r�pondre � cette question, il faut se rappeler que Dubois est familier des Essais de Linguistique G�n�rale de Jakobson, dont il a fait un compte-rendu dans un num�ro du Fran�ais Moderne en 1964, num�ro dans lequel il publie �galement un article o� il applique les th�ories de Jakobson aux probl�mes du temps et de l'aspect. Entre autres choses, Dubois emprunte � Jakobson l'id�e que toutes les formes grammaticales (en particulier l'aspect et le temps) sont marqu�es dans le code de fa�on variable selon les langues. Aussi cherche-t-il les structures formelles dans lesquelles sont traduites dans un code donn� les oppositions s�mantiques d'accompli/ non accompli, ant�riorit� / non-ant�riorit�, et post�riorit� / non post�riorit� qui d�finissent ce que l'on appelle l'aspect et le temps ; on doit en effet constater qu'il existe des langues qui sont appel�es � traduire non ces trois oppositions, mais parfois seulement deux d'entre elles, le d�veloppement de la post�riorit� / non post�riorit� se faisant quelquefois tardivement.

Or ces id�es sont d�velopp�es chez Jakobson dans le chapitre des Essais intitul� La notion de signification grammaticale selon Boas (1963 :197 - 206). Et c'est � Boas (1858 - 1942) qu'il emprunte l'id�e de grammatical meaning. Afin que la d�monstration soit plus convainquante, examinons la version anglaise :

(20) The choice of a grammatical form by the speaker presents the listener with a definite number of bits of information. The compulsory character of this kind of information for any verbal exchange within a given speech community and the considerable difference between the grammatical information conveyed by diverse languages were fully realized by Franz Boas, thanks to his astonishing grasp of the manifold semantic patterns of the linguistic world... (Jakobson, 1959 : 490). It was clear to Boas that any difference of grammatical categories carries semantic information. (Jakobson, 1959 : 493)

Pour Boas, les marques morpho-syntaxiques sont porteuses de signification (grammatical meaning, ou signification grammaticale) de sorte que l'information elle-m�me devient s�mantique. Il est tout � fait �tonnant que Jakobson, qui, comme on l'a vu, fut co-auteur avec des math�maticiens de plusieurs textes appliquant la th�orie de l'information � la phonologie, utilise dans le m�me paragraphe le terme information au sens math�matique (bits of information) et au sens s�mantique (grammatical information). Dans ce texte, il semble avoir s'�tre appropri� le terme et l'utiliser � sa guise sans chercher � rester au plus pr�s de son sens math�matique. Cette attitude est coh�rente avec le fait que Jakobson consid�re que les ing�nieurs de t�l�communications et les linguistes doivent collaborer � la construction d'une th�orie de l'information sans qu'il y ait pr�c�dence des premiers sur les seconds ; la th�orie de l'information n'appartient pas seulement aux ing�nieurs et aux math�maticiens, mais aussi aux linguistes et les rapports entre linguistique et th�orie de l'information (dans sa version probabilitiste et shannonienne) ne sont pas � sens unique. Les math�maticiens peuvent aussi b�n�ficier de l'�tude des langues susceptible de susciter le d�veloppement de nouvelles th�ories.

(21) Quelle est donc exactement la relation entre la th�orie de la communication et la linguistique ? Ya-t-il peut-�tre des conflits entre ces deux modes d'approche ? En aucune fa�on. II est un fait que la linguistique et les recherches des ing�nieurs convergent, du point de vue de leur destination. Mais alors de quel ordre est exactement l'utilit� de la th�orie de la communication pour la linguistique, et vice-versa ? Il faut reconna�tre que, sous certains aspects, les probl�mes de l'�change de l'information ont trouv� chez les ing�nieurs une formulation plus exacte et moins ambigu�, un contr�le plus efficace des techniques utilis�es, de m�me que des possibilit�s de quantification prometteuses. D'un autre c�t�, l'exp�rience immense accumul�e par les linguistes relativement au langage et � sa structure leur permet de mettre au jour les faiblesses des ing�nieurs quand ils s'attaquent au mat�riel linguistique (Jakobson, 1963 :28).

Pour revenir � Dubois, en empruntant les significations grammaticales de Boas-Jakobson, il donne � l'information un sens s�mantique tout � fait oppos� au sens quantitatif de la th�orie de Shannon et Weaver. Toutefois ce n'est pas le seul emprunt qu'il fait � l'interpr�tation jakobsonienne de la th�orie de l'information. Il fait �galement sienne la fa�on dont Jakobson s'est appropri� la notion de redondance :

(22) La notion de redondance, emprunt�e par la th�orie de la communication � une branche de la linguistique, la rh�torique, a acquis une place importante dans le d�veloppement de cette th�orie et a �t� audacieusement red�finie comme �quivalant � 'un moins l'entropie n�gative' ; sous cet aspect, elle a fait sa rentr�e dans la linguistique actuelle, pour en devenir un des th�mes centraux. (Jakobson, 1963 :89)

Dubois inscrit la redondance au coeur de son �tude des marques du fran�ais, et l'utilise encore de fa�on tr�s active dans le tome 2 de la Grammaire structurale (voir tableau 15), contrairement � la notion d'information qui dispara�t.

Alors que chez Jakobson, la migration des termes s'est v�ritablement accompagn�e d'une appropriation de la th�orie de l'information12, on pourrait dire que chez Dubois cet emprunt jakobsonnien, de seconde main en quelque sorte, peut para�tre contradictoire avec l'usage distributionnaliste et quantitatif qui cohabite dans ses textes. Il faut toutefois reconna�tre que la th�orie de l'information acquiert avec Dubois un pouvoir heuristique qui lui permet de penser la dimension s�mantique de certaines cat�gories linguistiques.

Conclusion

Avec nos trois auteurs, nous assistons � trois modes de r�ception en linguistique g�n�rale d'un concept appartenant � une th�orie non-linguistique. A c�t� de la prudente mise � distance de Benveniste, qui s'empare de code et de message mais se pr�occupe peu d'information, on rencontre chez Martinet un mode d'importation plus complexe. C'est au moment o� il fait le moins r�f�rence au terme information, dans Economie des changements phon�tiques, que l'usage qu'il en fait est le plus proche de celui de Jakobson et de sa syst�matisation des traits distinctifs. Bien que cet usage soit accompagn� d'une tr�s vive critique de l'apriorisme binariste de Jakobson et de son utilisation des traits acoustiques, et que Martinet revendique davantage l'influence de Troubetzkoy que celle de Jakobson, il est certain que la notion de pouvoir d'information, li� au pouvoir distinctif qui intervient dans sa d�finition du concept d'�conomie, est inspir� par la conception jakobsonienne. Il est � noter toutefois que sa notion d'�conomie en phonologie diachronique doit tout autant aux travaux de Zipf et son principe de moindre effort qu'� ceux de l'Ecole de Prague. Dans les El�ments de linguistique g�n�rale, il consacre un long d�veloppement � sa propre vision de l'information, ramen�e � l'id�e d'�nergie et de co�t. On notera aussi sa conception probabiliste issue partiellement de l'utilisation de Harris des cha�nes de Markov et son utilisation du terme contenu d'information inspir�e par les travaux en stylistique de Guiraud. Dubois, quant � lui, met en oeuvre de fa�on heuristique les diff�rentes facettes de l'interpr�tation jakobsonienne tout en �tant �galement attir� par l'utilisation qu'en fait Harris. Il se trouve ainsi tiraill� entre deux options contradictoires, d'une part une conception de l'information fonctionnaliste comportant une dimension s�mantique, d'autre part une approche distributionnaliste qui reste au plus pr�s de l'utilisation probabiliste de cha�nes de Markov mais qui devrait exclure le sens.

Il est int�ressant de noter que ce n'est pas le sens ordinaire du terme 'information' qui provoque l'instabilit� de la notion. Cet usage cohabite de fa�on assez �tanche avec le sens technique. Il appara�t dans des environnements distincts comme dans � obtenir de l'interlocuteur une information � ou � le descripteur v�rifie son information �. C'est au contraire le sens technique qui fluctue entre l'information quantitative et non s�mantique de Shannon mise en oeuvre souvent avec une utilisation distributionnelle des cha�nes de Markov, une information fonctionnelle du moindre co�t largement issue des travaux psychologico-statistiques de Zipf, une information s�mantique inspir�e de Jakobson dans sa lecture de Boas, un contenu d'information des unit�s linguistiques issu des �tudes stylistiques du vocabulaire. Ces lectures crois�es d'inspirations multiples : la diffusion en France � travers la SLP, la traduction automatique, les interpr�tations de la th�orie de l'information par des chercheurs d'horizons aussi divers que le math�maticien Mandelbrot, le stylisticien Guiraud, les linguistes fonctionnalistes comme Jakobson ou n�o-bloomfieldiens comme Harris, ou bien encore le psychologue anti-behaviouriste Miller, ont configur� de fa�on multiple la r�ception de la th�orie de l'information par les linguistes fran�ais des ann�es 1960. Cette diversit� de positions et d'influences a probablement contribu� � la multiplicit� des structuralismes (cf. Puech, � para�tre) manifeste y compris au sein m�me de la linguistique fran�aise de cette m�me p�riode.

R�f�rences Bibliographiques Sources primaires : Benveniste, E. (1957). Compte-rendu de l'ouvrage de Joshua Whatmough Language. A Modern Synthesis, 1956, London : Secker & Warburg. BSL T.53, 18 - 22. Benveniste, E. (1966/1974). Probl�mes de linguistique g�n�rale, 2 tomes Paris : Seuil. Bulletin de la Soci�t� de Linguistique : tome 43 (1942 - 1946) � tome 65 (1970). Cherry E.C., Halle M. & Jakobson R. (1953) Toward the Logical Description of Languages in their Phonemic Aspect. Language 29, 34 - 46. Dubois, J. (1964). La traduction de l'aspect et du temps dans le code fran�ais (structure du verbe). Le Fran�ais moderne 32 -1, 1 - 26. Dubois, J. (1965). Grammaire structurale du fran�ais, nom et pronom. Paris : Larousse. Dubois, J. (1967). Grammaire structurale du fran�ais, le verbe. Paris : Larousse. Dubois, J. (1969). Grammaire structurale du fran�ais, la phrase et les transformations. Paris : Larousse. Guiraud P. (1954). Les Caract�res statistiques du vocabulaire. Paris : P.U.F. Guiraud, P. (1957). Compte-rendu de Apostel L, B. Mandelbrot et A. Morf Logique, 1957, Langage et th�orie de l'information. BSL T.53, 23 - 25. Guiraud P. (1960). Probl�mes et m�thodes de la statistique linguistique. Paris : P.U.F Harris, Z.S. (1955). From phoneme to morpheme. Language 31, 190 - 222. Jakobson R., Fant C. G. M., Halle M. (1952). Preliminaries to Speech Analysis. The Distinctive Features and their Correlates MIT Acoustic Laboratory, Technical report n�13. Jakobson, R., Halle M. (1956). Fundamentals of Language. The Hague : Mouton. Jakobson, R. (1959). Boas' view of grammatical meaning. Selected Writings, T.2, 489 - 496 Jakobson, R. (1963). Essais de linguistique g�n�rale. Paris : Les Editions de Minuit. Mandelbrot, B. (1951). M�canique statistique et th�orie de l'information. Compte rendus des s�ances de l'Acad�mie des Sciences t.232, 30 avril 1951, 1638 - 40, 2003 - 2005. Mandelbrot, B. (1954a). Structure formelle des textes et communication. Word 10 - 3, 1 - 27. Mandelbrot, B. (1954b). Compte-rendu de l'ouvrage Pierre Guiraud 1954 Les caract�res statistiques du vocabulaire. Essai de m�thodologie. Paris : PUF. BSL T.50, 16 - 21. Martinet A. (1952). Function, Structure and Sound Change. Word 8 - 1,1 - 32. Martinet, A. (1955). �conomie des changements phon�tiques. Berne : Francke. Martinet, A. (1957a). Compte-rendu de George A. Miller Langage et communication PUF 1956 (tr.fr.). BSL T.53, 25 26. Martinet, A. (1957b). Compte-rendu de Vitold Belevitch Langage des machines et langage humain Paris : Hermann 1956. BSL T.53, 27 - 29. Martinet, A. (1957 - 58). Substance phonique et traits distinctifs BSL T53 :72 - 85. Martinet, A. (1960). El�ments de linguistique g�n�rale. Paris : Armand Colin. Miller, G.A. (1951). Language and Communication. New York : CGraw-Hill. (tr. fr. 1956 Langage et communication Paris : PUF) Moreau, R. (1964). La th�orie de l'information. Ses limites dans l'explication linguistique. BSL T.59, xix-xxiii. Saussure, F. de [1931, 1972] Cours de linguistique g�n�rale (ed. Tullio de Mauro). Paris : Payot. Shannon, C.E. et W. Weaver. (1949). The Mathematical Theory of Communication. Urbana-Champaign : Univ. of Illinois Press. (trad. fr. 1975 La Th�orie math�matique de la communication. Paris :CEPL). Whatmough, J. (1952). Natural Selection in language. Scientific American 186, 82 - 86. Zipf G. K. (1949). Human Behavior and the Principle of Least Effort. Cambridge Mass : Addison-Wesley. Sources secondaires : Auroux, S. (ed.) (1990) Encyclop�die philosophique universelle, Tome 2 : Les notions. Paris :PUF. Chevalier J-C. avec P. Encrev� (2006). Combats pour la linguistique, de Martinet � Kristeva. Lyon : ENS Editions. Fehr, J. (2003). Interceptions et interf�rences : la notion de "code"entre cryptologie, t�l�communications et les sciences du langage. Selected papers from the Eighth International Conference on the History of the Language Sciences, Sylvain Auroux (ed.) Amsterdam & Philadelphia : John Benjamins Publishing Company, 363 - 372. L�on J. (1998). Les d�buts de la traduction automatique en France (1959 - 1968) : � contretemps? Mod�les Linguistiques 9 - 2, 55 - 86. L�on J. (2004). Lexies, synapsies, synth�mes : le renouveau des �tudes lexicales en France au d�but des ann�es 1960 History of Linguistics in Texts and Concepts. Geschichte der Sprachwissenschaft in Texten und Konzeptionen, Gerda Hassler (ed.) M�nster : Nodus Publikationen vol I, 405 - 418. Mindell D., Segal J., Gerovitch S. (2003). From communication engineering to communications science : Cybernetics and Information Theory in the United States, France and the Soviet Union. Science and Ideology : A Comparative History, Mark Walker (ed.), London : Routledge, 66 - 96. Puech C. (ed.) (� para�tre) Les structuralismes linguistiques. Probl�mes d'historiographie compar�e, Les dossiers d'HEL n�3. Rey, A. (1992). Dictionnaire historique de la langue fran�aise. Paris : Dictionnaires Le Robert. Segal, J. (2003). Le Z�ro et le Un. Histoire de la notion scientifique d'information au 20�me si�cle. Paris : Editions Syllepse. Verleyen S. (2007). Le fonctionnalisme entre syst�me linguistique et sujet parlant : Jakobson et Troubetzkoy face � Martinet. Cahiers Ferdinand de Saussure 60, 163 - 188. Verleyen S., Swiggers P. (2006). Causalit� et conditionnement dans le fonctionnalisme diachronique. Folia Linguistica Historica 27/1 - 2,171 - 195.
1 Ce projet de recherche est d�velopp� en relation avec le programme d'ANR DETCOL (D�veloppement et exploitation textuelle d'un corpus d'oeuvres linguistiques) dirig� par Bernard Colombat. Dans ce cadre, seront examin�es dans des �tudes ult�rieures la r�ception de la th�orie de l'information chez d'autres linguistes. 2 Sur les rapports entre cybern�tique, th�orie de la communication et th�orie de l'information, voir Segal (2003). 3 Pour une �tude compar�e de la r�ception de la th�orie de l'information dans les sciences, voir Segal (2003) et Mindell et al. (2003). 4 A noter que Shannon lui-m�me propose d'utiliser les analyses statistiques de Zipf � des fins linguistiques. Se fondant sur l'id�e de la redondance de la langue anglaise, il montre qu'il est possible de calculer l'entropie d'une langue � partir d'�tudes statistiques sur la fr�quence avec laquelle les �l�ments constitutifs d'une phrase sont selectionn�s. 5 L'allusion au codage de la pens�e dans le langage sugg�re que Benveniste rassemble sous le pluriel 'les th�ories de l'information' � la fois la cybern�tique, la th�orie de la communication et la th�orie de l'information. Ce point reste � explorer. 6 Ce point devrait faire l'objet d'une �tude sp�cifique. 7 Dans son �tude sur Martinet et l'Ecole de Prague, Verleyen (2007) insiste davantage sur l'influence de Zipf comme psychologue plut�t que comme statisticien. Il montre que Jakobson et Troubetzkoy con�oivent la langue en diachronie comme une totalit� organique dans laquelle l'influence des locuteurs est relativement faible, alors qu'au contraire Martinet envisage la syst�maticit� du changement en termes de propri�t�s du sujet parlant. Ce qui explique, dit Verleyen, le recours de Martinet au psychologue Zipf, dont le principe du moindre effort tente de rendre compte du comportement humain en g�n�ral. 8 On ne sait si Martinet connaissait les travaux du philologue de Harvard Joshua Whatmough parus dans le Scientific American en 1952 ; celui-ci tente d'expliquer l'�volution des langues par la notion de variation s�lective fond�e sur une formule d�finissant la quantite d'information. 9 Dans la bibliographie sommaire pr�sente dans l'�dition de 1970, l'ouvrage de Jakobson et Halle (1956) n'appara�t que comme r�f�rence aux conceptions binaristes et aprioristes de la phonologie, critiqu�es par Martinet. 10 Chevalier (2006) souligne bien le r�le de passeur de Dubois dans l'introduction des th�ories linguistiques am�ricaines en France dans les ann�es 1960. 11 Alors que, dans sa th�se, Dubois cite l'ouvrage de G.A. Miller Language and Communication (1951, tr.fr.1956), qui est une introduction anti-behaviouriste � la th�orie de l'information destin�e aux �tudiants de psychologie, il ne reprend pas cette r�f�rence dans ses travaux ult�rieurs. 12 Nous ne pr�tendons pas �puiser ici la relation de Jakobson avec la th�orie math�matique de la communication qui est bien plus vaste, notamment en ce qui concerne le domaine de l'interlocution et du dialogisme.