Le langage - La théorie de l'information - page 1
ou imitation ; l’enfant désigne par le même son ou mot plusieurs objets, c’est le phénomène de généralisation : « grrr » va désigner les animaux, « cola » désigne « chocolat, biberon, lait, etc. », « voiture » va désigner « voiture, bateau, vélo, avion »… Depuis Galton, on sait que des mots en associent d’autres (cf. chap. 4), et les behavioristes ont particulièrement insisté sur cet aspect qui leur paraissait la nature même du langage. Cependant, la contiguïté étant une condition nécessaire dans les apprentissages associatifs (supra, chap. 3) pour les behavioristes, les associations les plus fréquentes devraient être des relations de co-occurrence c’est-à-dire correspondre à des mots qui se suivent dans la langue, « colère-noire, neige-ski… » L’étude génétique du développement des associations montre en fait que les associations ne sont pas les mêmes chez l’enfant et chez l’adulte (Woodworth, 1949). Chez l’enfant, les associations fréquentes sont souvent des co-occurrences : table-manger, homme-travail, sombre-nuit, ce qui est conforme aux mécanismes associatifs, mais chez l’adulte, ce sont des relations de similitude et d’opposition qui dominent : table-chaise, homme-femme, sombre-lumière, etc. Ce changement a été étudié par les psycholinguistes qui y voient une modification des processus de représentation. David Mc Neill (1966) fait l’hypothèse que ce changement est permis par l’acquisition des propriétés conceptuelles des mots qui permettent de faire des catégories générales. Les associations sont donc vraisemblablement acquises au début du langage par des mécanismes d’apprentissage associatif, mais des mécanismes d’analyse sémantique se développent avec l’âge et changent la nature des associations. Celles-ci semblent refléter pour l’essentiel des catégories qui préparent l’émission des mots dans le langage, par exemple en diminuant le temps de recherche d’un mot. 3. La théorie de l’information Shannon et Weaver (1949) ont révolutionné les conceptions des systèmes de communication en montrant que l’information est indépendante de ses apparences, codages différents, mais elle se caractérise par les incertitudes qu’elle permet de lever ; par temps sec, prévoir qu’il fera beau, n’apporte pas beaucoup d’informations ; donner le mot « rose » apporte moins d’information si l’on définit au préalable la catégorie des fleurs. Les recherches de Shannon et Weaver, en grande partie pour les communications téléphoniques, les amènent à proposer de quantifier l’information par une fonction logarithmique du nombre d’éventualités. La quantité d’information augmente mais de plus en plus lentement en fonction du nombre d’éventualités possibles. Cette approche a stimulé un grand nombre de recherches qui ont conduit en particulier à la description statistique du langage.