William P. Isham Alice Heylens Sur l’importance d’inclure les Langues des signes dans la recherche en interprétation

Traduction
Sur l’importance d’inclure les Langues des signes dans la recherche en interprétation**L’étude décrite qui étudie des interprétations en langue vocale a été réalisée au Laboratoire de Psychologie Expérimentale, Université Paris V, avec des fonds reçus de la Fondation Fyssen. [On The Relevance of Signed Languages to Research in Interpretation]

William P. Isham Université du Nouveau-Mexique | Université catholique de Louvain (UCL)
Traduit par Alice HeylensUniversité du Nouveau-Mexique | Université catholique de Louvain (UCL)

Les recherches sur les interprètes qui travaillent avec les langues des signes peuvent nous aider à comprendre les processus cognitifs de l’interprétation en général. En prenant l’exemple de l’American Sign Language (ASL), l’article met d’abord en évidence la nature des langues des signes. Ensuite, il décrit la différence entre les langues des signes et les codes manuels pour les langues vocales, et montre que ces deux types de communication, qui utilisent tous deux le canal visuel, ouvrent un nouveau point de vue pour la recherche. La fin de l’article s’appuie sur une étude récente pour démontrer que comparer les interprètes des langues vocales et ceux des langues des signes peut être utile pour tester des hypothèses relevant de l’interprétation.

Table des matières

On a pu observer ces dernières années, aux Etats-Unis et en Europe, une prise en considération du statut de minorité culturelle et linguistique de la communauté Sourde. Avec cette reconnaissance, la demande en interprètes professionnels qui travaillent entre une langue des signes et une langue vocale a augmenté de façon équivalente. Cet article montre comment le comportement des interprètes langues des signes – langues vocales peut nous aider à comprendre les processus cognitifs liés à tout type d’interprétation.

En règle générale, les interprètes, les professeurs d’interprétation et les chercheurs intéressés par l’interprétation pensent que l’interprétation et la traduction impliquent de travailler entre deux langues naturelles. La plupart des gens ne sont en contact avec des interprètes pour sourds qu’en de rares occasions, et beaucoup n’arrivent pas à concevoir que (1) communiquer par signes signifie utiliser une langue au sens strict du terme, et donc que (2) l’interprétation entre une langue des signes et une langue vocale exige la même expertise que l’interprétation entre deux langues vocales. C’est pourquoi, dans un premier temps, cet article se propose d’expliquer brièvement les spécificités des langues des signes et comment elles diffèrent ou non des langues vocales. Sur cette base, il s’agira ensuite d’expliquer que l’étude sur l’interprétation en langue des signes offre une opportunité de recherche unique. Enfin, en s’appuyant sur une étude récente, l’article traitera de la nature des expériences transmodales (qui comparent les langues vocales et les langues des signes).

Les langues des signes et les codes manuels

Beaucoup partent du principe qu’une langue des signes consiste en un codage manuel de la langue vocale de la culture majoritaire. Et que dans ce cas, la « langue des signes » des États Unis serait un code pour transmettre manuellement les mots anglais. De tels codes existent (voir plus bas), mais dans chaque communauté sourde s’est développé, bien plus tôt, une vraie langue naturelle et indépendante de la langue de la culture majoritaire.

En général, ce que les non-initiés appellent « langue des signes » renvoie en fait à plusieurs langues, car il n’existe pas de « langue des signes » universelle. Par facilité, le propos développé dans cet article se limitera à la Langue des signes américaine (American Sign Language, ASL). L’ASL est utilisée par la communauté sourde aux États-Unis et au Canada. Les linguistes, qui étudient l’ASL depuis seulement une trentaine d’années, ont reconnu cette langue comme indépendante de l’anglais (voir, par exemple, Wilbur 1987). Il ne serait pas possible de présenter ici de façon détaillée les différences entre l’ASL et l’anglais, mais quelques exemples suffiront : les verbes en ASL n’expriment pas le temps, et il n’existe pas de voie passive. L’ASL est une langue hautement flexionnelle, et comme en latin, les relations entre le sujet et l’objet ne sont pas dénotées par l’ordre des mots, contrairement à ce qui se fait en anglais. En général, les sujets et objets sont plutôt indiqués par une modification du mouvement des verbes dans l’espace. L’ASL est souvent appelée langue « manuelle », mais il s’agit en fait d’une terminologie inappropriée. En effet, de nombreux indices grammaticaux sont non-manuels : le type de phrase (entre autres) est dénoté par des positions conventionnelles de la tête, des sourcils, et de la bouche (Baker et Cokely 1980 ; voir également Wilbur 1987).

Les études sur l’acquisition du langage ont montré que l’ASL s’acquiert de la même manière que les langues vocales (Hoffmeister et Wilbur 1980 ; Newport et Meier 1985), et notamment par l’intermédiaire d’un stade de babillage manuel (Petitto et Marentette 1991). Les recherches en psycholinguistique ont montré que la maitrise de l’ASL et la maitrise d’une langue vocale sont représentées de la même manière dans l’esprit. Les différences qui ont été trouvées sont, pour la plupart, de l’ordre des premières étapes du traitement de la phrase et sont dues à la différence entre les deux modalités, c’est-à-dire au traitement d’une information visuelle plutôt qu’auditive (Bellugi, Klima et Siple 1975 ; Siple, Fischer et Bellugi 1977 ; Grosjean 1980 ; Grosjean, Lane, Battison et Teuber 1981). Par conséquent, les interprètes qui travaillent en anglais et en ASL travaillent entre deux langues naturelles qui sont très différentes dans leurs structures grammaticales, et ils sont confrontés aux mêmes défis cognitifs que les interprètes qui travaillent entre deux langues vocales.

Toutes les personnes qui éprouvent une déficience auditive n’utilisent pas l’ASL. De nombreuses personnes malentendantes utilisent l’« anglais signé » dans lequel des éléments de vocabulaire de l’ASL sont utilisés, parfois sous une forme modifiée, comme correspondants de mots anglais.11.En fait, il existe plusieurs systèmes officiels qui expriment manuellement l’anglais, ainsi que des variations non-officielles parmi les utilisateurs d’un tel système. Tous les systèmes qui s’appuient sur la structure de l’anglais seront appelés “anglais signé” dans cet article. Les signes sont produits dans l’ordre de la structure anglaise et beaucoup sont modifiés pour inclure la première lettre du mot en anglais. Un mouvement des lèvres imitant la prononciation des mots accompagne généralement les signes.

Pour montrer les différences entre l’ASL et l’anglais signé, le Tableau 1 présente les gloses d’une traduction en ASL et la version de la même phrase en anglais. Les systèmes de notation pour retranscrire des phrases signées varient dans leur capacité à détailler toutes les composantes d’une phrase signée. Dans cet exemple, beaucoup d’aspects importants de la phrase signée ont été ignorés, tels que les relations dans l’espace et les expressions faciales qui transmettent des informations grammaticales essentielles. Cette décision permettra de se concentrer uniquement sur les différences en matière de choix de signes et de leur ordre dans la phrase.

Tableau 1.Comparaison de l’ordre des mots en anglais, ASL et anglais signé
ENGLISH: “l will buy a car if I work this summer.”
ASL GLOSS: SUMMER ME WORK BUY CAR
SIGNED ENGLISH: I FUTURE BUY CAR IF I WORK THIS SUMMER

Légende : Trait suscrit : syntagme dénoté par l’expression faciale et la posture corporelle pour la proposition subordonnée de la phrase au conditionnel.

Analysons les différences entre les phrases en anglais et en ASL dans le Tableau 1. D’un point de vue grammatical, en ASL, la proposition subordonnée apparait avant la proposition principale dans les phrases au conditionnel (Baker et Padden 1978). Pour exprimer le temps d’une phrase, l’ASL utilise entre autres une référence temporelle de façon lexicale en début de phrase, le signe correspondant à « summer » figure donc ici en début de phrase. Bien qu’une unité lexicale correspondante au mot « if » existe en ASL, son utilisation n’est pas obligatoire, puisque la proposition subordonnée est dénotée non manuellement (par l’expression faciale et la posture corporelle). L’unité lexicale « if » n’apparait pas dans cet exemple.

Comme le montre le Tableau 1, l’anglais signé suit plus étroitement la phrase en anglais. Le signe en ASL pour FUTURE est utilisé pour correspondre à l’auxiliaire « will », et sauf pour l’article indéfini qui a été supprimé, l’ordre des mots en anglais signé correspond parfaitement à l’ordre de la phrase originale. Le pronom sujet en ASL, glosé par ME dans le Tableau 1, est modifié en anglais signé par la configuration de la lettre « i ». Enfin, le signe en anglais signé pour le pronom démonstratif THIS est produit sans référence spatiale à un antécédent, alors qu’en ASL, cette référence serait apparue.

En raison de cette différence entre l’ASL et l’anglais signé, le Registry of Interpreters for the Deaf, l’association professionnelle d’interprètes en Amérique du Nord, homologue les interprètes pour deux compétences différentes : l’interprétation entre l’anglais et l’ASL, et la « translittération » au cours de laquelle un interprète substitue de l’anglais à de l’anglais signé. La translittération est semblable au shadowing, bien que le message produit y soit rendu avec les mains, plutôt que par répétition vocalique. En revanche, l’interprétation en ASL exige une plus grande réorganisation des signes : produire les mots dans le même ordre qu’en anglais est souvent agrammatical en ASL. À la place, l’interprète veut tendre vers une compréhension du message par les utilisateurs de l’ASL grâce à leur langue maternelle.

Un clivage similaire existe dans la plupart des pays qui ont créé des programmes scolaires pour les sourds. Par exemple, en France, la Langue des signes française (LSF) est une langue naturelle qui a une grammaire différente du français. Comme aux États-Unis, il existe un « français signé », un système manuel qui transpose les mots et la structure grammaticale du français. Pour l’anecdote, le plus ancien témoignage historique de tels codes manuels vient de France où l’Abbé Charles-Michel de l’Épée a créé ce qu’il a appelé les « signes méthodiques » dans les années 1760 (Lane 1984).

Cette distinction entre les langues des signes naturelles, comme l’ASL et la LSF, et les systèmes de codage des langues vocales, comme l’anglais signé et le français signé, permet d’étudier de façon inédite la nature du processus d’interprétation pour lui-même.

Plusieurs chercheurs ont observé deux approches d’interprétation différentes (Gran 1989 ; Fabbro, Gran, Basso et Bava 1990 ; Fabbro, Gran et Gran 1991). La première est l’interprétation « littérale », au cours de laquelle l’interprète utilise la structure de la phrase en langue source pour construire ses phrases en langue cible. La seconde est l’interprétation « sémantique », où l’interprète vise avant tout à comprendre l’intention du locuteur, puis à reformuler des énoncés en langue cible pour qu’ils soient compris de la même façon par le public cible, quel que soit le degré de fidélité à la structure de l’énoncé original en langue cible.

Seleskovitch (1978, par exemple) a avancé qu’une interprétation sémantique est supérieure à une interprétation littérale, et recommande cette première approche en toutes circonstances. Le consensus général s’accorde sur cette opinion, mais dans certaines situations, l’interprétation littérale est nécessaire. Par exemple, lorsqu’un locuteur énonce une longue liste de substances d’un composé chimique, l’énoncé n’est pas assez structuré pour que l’interprète puisse utiliser l’interprétation sémantique. Gran (1989) a démontré que l’interprétation littérale se produit également lorsqu’un « élément dérangeant » s’insère dans le discours et déconcentre l’interprète de l’interprétation sémantique qui exige plus d’attention.

Cependant, l’interprétation littérale n’est pas praticable par tous les interprètes. Cette possibilité est en partie déterminée par la proximité linguistique des deux langues de travail. Par « proximité linguistique », on entend la similarité relative des grammaires des deux langues. L’espagnol et l’italien, par exemple, sont « proches » linguistiquement, comme ce sont des langues romanes dont beaucoup de mots sont apparentés et qui partagent de nombreuses structures grammaticales. Il est donc possible dans ces cas-là pour les interprètes d’avoir recours à une interprétation littérale, en substituant des mots ou des phrases courtes, et quand c’est nécessaire, de corriger les différences mineures entre les deux langues. Mais à mesure que les langues s’éloignent linguistiquement, la stratégie littérale devient de moins en moins envisageable. L’espagnol et le cantonnais, par exemple, seraient considérés comme « éloignés » linguistiquement. Il existe peu voire pas de mots apparentés entre ces deux langues, et leurs grammaires s’articulent de manière complètement différente. Dans ce cas, utiliser la langue source comme guide pour construire des phrases en langue cible aboutirait à des énoncés totalement agrammaticaux. Plusieurs auteurs ont constaté que les difficultés d’interprétation changent en fonction des langues de travail (par exemple, Gile 1990). Une explication de ce phénomène serait que le recours à l’interprétation littérale est d’autant moins possible que les langues s’éloignent linguistiquement.

Théoriquement, l’interprétation littérale devrait mener à plus d’erreurs d’interprétation, même dans les cas de proximité linguistique. En effet, dans ce cas, la langue source a tendance à interférer davantage. La différence entre les approches d’interprétation littérale et sémantique devrait également avoir des répercussions lors la compréhension du message source par l’interprète. Cette hypothèse peut être testée grâce à une comparaison entre des interprètes en anglais et en ASL, et des translittérateurs en anglais et anglais signé. Dans cette comparaison, la différence entre l’interprétation littérale et l’interprétation sémantique est explicite. Par définition, l’anglais et l’anglais signé sont beaucoup plus proches que l’anglais et l’ASL. En effet, l’anglais signé est un codage manuel de l’anglais ; aucune autre paire de langues ne pourrait présenter autant de proximité linguistique. De plus, une interprétation littérale n’aboutirait pas à des phrases en ASL, mais bien à des phrases en anglais signé. C’est pourquoi étudier les différences entre une interprétation en ASL et une translittération en anglais signé équivaut, en fait, à étudier les différences entre une interprétation littérale et une interprétation sémantique.

Isham et Lane (1994) ont donné un exercice de texte lacunaire en ligne à des interprètes qui devaient rendre certains passages en ASL et d’autres en anglais signé par translittération. Ces passages contenaient des blancs, signalés par un signal sonore, que les sujets devaient « remplir » dans la langue cible de l’interprétation. Cet exercice était enregistré en vidéo. La moitié de ces blancs, ou « lacunes », demandait d’avoir recours à une inférence, alors que l’autre moitié nécessitait de se souvenir d’éléments apparaissant plus tôt dans le texte. Les résultats ont montré que les sujets complétaient plus facilement les lacunes demandant des inférences lorsqu’ils interprétaient en ASL plutôt qu’en translittération. Ces résultats suggèrent que l’interprétation littérale interfère d’une manière ou d’une autre avec la compréhension du discours, puisque le processus d’inférence se produit entièrement au niveau de l’étape conceptuelle du traitement de l’information (Jackendoff 1987).

Il reste encore à déterminer comment et pourquoi cette interférence se produit. Des études plus poussées permettraient de comprendre ce phénomène, et d’autres encore pourraient se concentrer sur les différences entre l’interprétation littérale et l’interprétation sémantique dans son ensemble. L’élément essentiel ici est que les interprètes pour les sourds représentent un groupe de sujets unique pour tester les différences entre l’interprétation littérale et sémantique.

Comparer les interprètes en ASL et les interprètes en langue vocale peut aussi être intéressant pour comprendre les processus cognitifs de l’interprétation. Pour comprendre comment ces comparaisons sont utilisées, une courte explication de la façon dont le traitement linguistique est étudié en psychologie cognitive est nécessaire.

Interprétation et psychologie cognitive

Il existe de nombreuses façons d’étudier l’interprétation simultanée, et chaque approche aborde des questions pertinentes et intéressantes. On peut espérer comprendre un jour l’interprétation du point du vue de la sociolinguistique, ou comment l’environnement, le contexte, et le type de participant ont un impact sur la performance de l’interprète. La neurolinguistique aidera à comprendre ce qui se passe au sein même de cerveau lors de l’interprétation : comment les neurones et les synapses fonctionnent. La plupart des recherches sur l’interprétation se concentrent sur la pédagogie, et l’on a fait plus de progrès pour améliorer nos méthodes d’enseignement que dans n’importe quel autre domaine. La psychologie cognitive, et plus spécifiquement la psycholinguistique, explore une autre facette de ce phénomène compliqué.

Pour le dire simplement, la psycholinguistique étudie le processus cognitif du langage : ce que l’esprit doit faire, fonctionnellement, pour comprendre et produire une langue. La psycholinguistique analyse le phénomène mental au-delà de ce que permet l’introspection consciente. Appliquée à l’interprétation, elle permettrait de comprendre comment l’esprit peut comprendre une langue tout en en produisant une autre.

La compréhension d’une phrase parlée implique différentes étapes. Les ondes sonores viennent frapper le tympan. Cette action envoie un signal au cerveau en passant par le système nerveux, et le cerveau commence son travail. D’abord, les sons doivent être reconnus comme des éléments sonores (phonèmes) qui appartiennent à la langue. Ces phonèmes doivent alors être regroupés en unités de sens qui s’associent pour former des mots, processus connu sous le nom d’accès lexical. À ce stade, le sens des mots, ou concepts, est immédiatement activé. Les mots sont ensuite groupés en syntagmes et phrases : à cet instant, notre connaissance de la grammaire nous permet de calculer les relations grammaticales entre les mots (traitement syntaxique). Les relations entre les concepts sont dérivées de ce processus, et la phrase est alors comprise. De la même façon, les relations entre les phrases sont établies, et le discours devient compréhensible. (Les étapes de planification et de production de phrases sont tout aussi complexes, mais la production linguistique ne va pas être décrite davantage dans cet article. Voir Levelt 1989 pour une description plus approfondie.)

Ces étapes, ou « niveaux de traitement », sont souvent décrites comme un continuum allant du traitement « bas » au traitement « haut » : le traitement le plus bas concerne l’expérience sensorielle (ici, le traitement des sons), alors que le plus « haut niveau » s’occupe de la représentation mentale du savoir sous une forme plus abstraite : par exemple, les concepts et les connaissances à long terme.

Un tel schéma est une simplification exagérée de ce que l’esprit doit réellement accomplir lors du traitement de l’information linguistique. Il existe d’autres schémas du traitement du langage. Aucune de ces étapes, si elles existent vraiment, n’est pleinement élucidée à ce jour. La plupart des chercheurs ont concentré leurs travaux sur une seule de ces étapes de traitement, et même sur un aspect spécifique de l’une d’elles.

Il faut maintenant examiner le problème que pose l’interprétation pour les chercheurs. L’interprétation découle de chacune de ces étapes, ainsi que de celles de la production. Il est dès lors impossible de comprendre totalement l’interprétation avant d’avoir compris les différents processus de compréhension et de production. Le problème est d’une plus grande ampleur encore, car l’interprétation intègre d’autres aspects du langage et de l’esprit qui nous sont encore inconnus. Par exemple : la spécificité du bilinguisme, ou comment deux ou plusieurs langues sont représentées dans l’esprit. Ce sujet est vivement débattu dans les revues scientifiques. Les découvertes sur ce sujet vont certainement avoir un impact sur les modèles d’interprétation. Il reste aussi à élucider comment les connaissances à long terme peuvent interagir avec les informations langagières. Il s’agit d’un secteur de recherche qui regorge de théories et de preuves contradictoires.

Il est évident que l’interprétation est un sujet intimidant pour la psychologie cognitive. Certains diront même qu’il serait préférable de ne pas poursuivre les recherches sur le sujet avant d’en connaitre plus sur le système de traitement du langage en général. Cependant, certaines hypothèses vérifiables par la méthode expérimentale peuvent être avancées dès maintenant, et certaines peuvent être étudiées grâce à la comparaison entre l’interprétation en langues vocales et en langues des signes. Nous allons maintenant nous tourner vers une de ces questions, et l’utiliser comme exemple pour expliquer la logique qui sous-tend une telle comparaison entre deux systèmes utilisant des modalités sensorielles différentes.

La logique des comparaisons transmodales : un exemple

Les interprètes traitent-ils les énoncés reçus de la même façon que tout le monde ? Une hypothèse raisonnable serait de répondre à cette question par l’affirmative. Dans cette optique, il ne devrait pas y avoir de différence entre l’interprétation et la simple écoute d’un discours du point de vue des premières étapes de compréhension des phrases. En d’autres termes, l’interprétation en soi ne change pas la façon dont les énoncés reçus sont traités.

Cette question peut être étudiée en s’intéressant aux effets secondaires obtenus lors de la phase de compréhension des phrases. Un de ces effets secondaires est le souvenir des phrases qui viennent d’être entendues. Le but de la communication est de se souvenir du sens de la phrase, de sa ou ses propositions. Le souvenir de la forme de la phrase n’est pas le but désiré de la communication, il n’est qu’un effet secondaire passager du traitement de la phrase en lui-même (Sachs 1967). Par conséquent, si les traces mnésiques de la forme des phrases varient entre deux conditions d’expérimentation, on peut en déduire que les phrases ont été traitées différemment.

Lors d’expériences sur le souvenir, Isham et Lane (1993) et Isham (1994) ont étudié la mémoire verbale de phrases tirées de discours narratifs. Ces deux expériences ont suivi la même procédure, à savoir celle de Jarvella (1971). Les sujets ont écouté des discours en anglais qui étaient interrompus à intervalles irréguliers par un signal sonore. Après chaque signal, les sujets devaient essayer de se souvenir du plus de mots possible entendus avant celui-ci. Sans que les sujets n’aient été avertis, les deux dernières phrases avant chaque signal ont été manipulées pour tenter de vérifier des hypothèses sur l’influence de la limite syntaxique sur la mémoire. Dans l’expérience d’Isham et Lane (1993), il y avait trois groupes de sujets : des interprètes qui interprétaient simultanément en ASL les passages en anglais jusqu’au signal sonore ; des translittérateurs qui rendaient les passages en anglais signé, et un groupe de référence qui devait simplement écouter avant chaque test. La seconde expérience (Isham 1994) comparait, pour une même tâche, les résultats des interprètes anglais – français et les résultats d’un groupe, également bilingue dans ces langues, qui écoutait. Tous les sujets de cette seconde épreuve étaient natifs du français, et devaient se souvenir des phrases dans leur seconde langue. Ils avaient tous le même niveau en anglais.

Les résultats concernant l’influence de la limite syntaxique sur la mémoire ne seront pas étudiés ici, car les résultats sur les sept derniers mots avant le signal sonore sont plus pertinents. Ces mots formaient une proposition principale, qui était une phrase simple. Il est bien connu que la mémoire pour les mots entendus récemment est presque parfaite. Le nombre de mots dont une personne peut se rappeler est davantage déterminé par la structure syntaxique que par le nombre de mots de la phrase (Jarvella 1971 ; Jarvella 1979 ; et références en fin d’article). Pour les phrases qui viennent juste d’être entendues, les sujets se souviennent en général des mots avec une justesse de 95%. Pour les phrases plus anciennes, la mémoire verbale chute à 30%.

Pourquoi nous souvenons-nous si bien des phrases que nous venons juste d’entendre ? En résumé, il y a plus de sources d’information disponibles pour guider la mémoire. Quand il est question de se souvenir de phrases, n’importe quelle source disponible sera utilisée pour guider le souvenir, et les sources d’information pour les événements récents sont plus nombreuses. Il y a la mémoire des sons en soi, c’est à dire l’expérience sensorielle d’avoir le discours de quelqu’un qui « résonne dans nos oreilles ». Il y a aussi le souvenir des mots utilisés, en dehors de leur expérience auditive. Et il est possible que le souvenir de la structure syntaxique des phrases entendues récemment soit utilisé (se référer cependant à Lombardi et Potter 1992, qui montrent que la structure syntaxique n’est pas retenue dans la mémoire à court terme). Bien sûr, il y a aussi le souvenir de la signification de l’énoncé, des propositions. Toutes ces sources d’information sont disponibles juste après la fin de l’énoncé. Mais pour les phrases antérieures, la mémoire des sons et des mots s’est détériorée. C’est pourquoi en s’appuyant sur la mémoire sémantique de la phrase, mais sans souvenir de la forme, un individu finira toujours par paraphraser. Les résultats sur la mémoire verbale diminuent de façon proportionnelle.

Ce phénomène de mémoire presque parfaite pour les mots les plus récents est un résultat fiable, comme il a été prouvé dans de nombreuses études ces vingt dernières années. En fait, il est difficile de faire échouer des sujets à cette tâche : Potter et Lombardi (1990) et Lombardi et Potter (1992) ont donné à leurs sujets une tâche de distraction entre la présentation et le moment où ils devaient se souvenir, et pourtant leur score n’a baissé que de quelques points, pour se retrouver à 89%. Il est dès lors particulièrement intéressant de constater que les interprètes de langues vocales ont un résultat significativement moins bon pour cette tâche.

L’illustration 1 schématise les résultats obtenus pour la dernière proposition grâce aux données des deux études décrites plus haut (Isham et Lane 1993 ; Isham 1994). L’axe des abscisses représente la position de série des sept derniers mots, à commencer par le mot le plus éloigné du signal sonore. L’axe des ordonnées représente la proportion moyenne des mots qui ont été correctement retenus. Les quatre groupes de sujets sont identifiés dans la légende.

Le graphique montre que les résultats du groupe de contrôle, composé de natifs (les carrés pleins), est égal au résultat de justesse attendu (nombre de mots correctement retenu moyen = 95%). Les non-natifs, qui écoutaient et devaient se souvenir des mots dans leur langue « B », et les interprètes en ASL, qui interprétaient les passages avant chaque signal sonore, ont également tous obtenus le résultat « maximum » (respectivement 96% et 94%). Les résultats des interprètes en langue vocale sont, quant à eux, significativement bien en dessous de chacun des autres groupes (p < .01 pour toutes comparaisons, par des tests post-hoc), et tombent à 72% pour le mot à la position 7.

Comment expliquer ce moins bon résultat de la part des sujets interprétant de l’anglais vers le français ? À ce stade, on peut utiliser les autres groupes d’expérimentation pour les comparer aux natifs en vue de trouver une réponse.

Illustration 1.Proportion moyenne des mots correctement retenus en fonction de leur position dans la phrase et du groupe expérimental
Illustration 1.

Une explication possible pour ce résultat serait que les interprètes anglais – français doivent se souvenir depuis leur langue « B ». Il se peut donc que la mémoire verbale est affectée par le degré de compétence linguistique. Cependant, cette explication est peu probable puisque les non natifs, qui ne faisaient qu’écouter, devaient aussi se souvenir depuis leur seconde langue, et ils ont obtenus de bons résultats.

Une autre explication serait que seuls les interprètes doivent effectuer deux tâches simultanément, ce qui partagerait leur attention. Mais l’attention des interprètes anglais – ASL était aussi partagée entre deux tâches et leur performance était aussi bonne que celle du groupe neutre. Dès lors, cette hypothèse doit aussi être écartée. Une autre explication est à oublier pour la même raison : les moins bons résultats ne peuvent pas être expliqués par le fait de générer des phrases tout en en écoutant d’autres, dès lors que les interprètes en ASL eux-aussi planifient et produisent des phrases en même temps. La comparaison avec les interprètes en langue des signes montre en outre que le processus d’interprétation lui-même ne peut être mis en cause.

Après avoir éliminé toutes ces possibilités, il est normal de s’interroger sur ce que les interprètes en langue vocale font différemment des interprètes en langue des signes. Avant tout, ils travaillent entre deux langues qui utilisent la même modalité sensorielle, à savoir l’ouïe. En quoi travailler entre deux langues utilisant la même modalité peut être différent de travailler avec des langues qui ne partagent pas la même modalité ? Pour le dire plus simplement : quel type de mémoire dépend de la modalité ? La réponse est évidente. La mémoire des sons, la mémoire phonologique, est la seule qui est directement liée au traitement de l’information auditive, par opposition à l’information visuelle.

L’une des premières étapes du traitement consiste à faire correspondre les éléments du discours à des phonèmes. Les interprètes en langue vocale doivent traiter deux flux de paroles : le système de traitement du langage doit analyser les énoncés en langue source, ainsi que les phrases interprétées en langue cible. Il est connu que les interprètes contrôlent leur propre performance. En effet, ils détectent et corrigent leurs propres erreurs à la fois sur le fond et sur la forme. Par conséquent, les interprètes ne doivent pas seulement entendre leur propre discours, mais également le comprendre.

La langue source et la langue cible sont en compétition pour le même système de traitement de l’information, puisqu’elles sont toutes deux perçues par l’ouïe. Cette compétition mène à des interférences : la mémoire contient dans ce cas les traces de deux langues simultanément, et la mémoire phonologique ne permet donc pas de se souvenir de manière efficace. Les interprètes en langue vocale doivent plutôt compter sur d’autres sources d’informations (par exemple, le sens) lorsqu’ils doivent se rappeler quelque chose.

Bien que les interprètes en langue des signes doivent aussi contrôler leur propre performance, ils le font en recourant à des modalités distinctes entre lesquelles il y a moins d’interférences. Le procédé qui permet d’identifier les sons du discours est libre de se concentrer uniquement sur le traitement des énoncés en langue source et pendant ce temps les interprètes contrôlent leur propre performance par d’autres moyens, probablement de façon kinesthésique.

Il peut donc être conclu que les résultats moins bons en ce qui concerne la mémoire des mots entendus récemment chez les interprètes en langue vocale sont probablement causés par des interférences phonologiques. Ces interférences sont provoquées par une obligation de traiter de la même façon deux discours reçus en même temps. Pour répondre à notre première question, nous pouvons dire que les premières étapes du traitement des énoncés reçus sont altérées, mais pas par l’interprétation elle-même. Le traitement est altéré du fait même que le traitement normal des sons du discours se complique à cause des interférences provoquées par le discours en langue cible. Comme il a pu être prouvé par les interprètes travaillant entre l’anglais et l’ASL, l’interprétation ne modifie pas en elle-même les premiers niveaux du traitement de l’information.22.Il a été prouvé que les plus hauts degrés de traitement des phrases sont affectés par l’interprétation, mesurés par la mémoire, particulièrement lors de l’interaction entre les niveaux syntaxiques et conceptuels. Des recherches sont actuellement en train d’étudier cette question. Voir Isham et Lane (1993) et Isham (1993) pour analyse.

Ainsi, en utilisant une comparaison transmodale comme point de contrôle, nous avons appris quelque chose sur l’interprétation en langue vocale. Notons que nous n’aurions peut-être pas abouti à la même conclusion si nous n’avions pas pris la perspective de l’interprétation en langue des signes. En fin de compte, le modèle de mémoire est complètement différent pour les interprètes en langue vocale. En ne prenant que leurs données, nous aurions peut-être conclu que tous les interprètes traitent les informations différemment des personnes qui ne font qu’écouter. Et qu’ils ont une moins bonne représentation des phrases les plus récentes. Mais grâce à nos sujets qui travaillent entre l’anglais et l’ASL, nous pouvons attribuer cette différence non pas au processus d’interprétation lui-même, mais à l’interférence phonologique.

Ceci ne constitue qu’un petit exemple, tiré d’un seul domaine de recherche. Une telle comparaison montre toutefois comment l’interprétation en langue des signes peut contribuer à une plus grande compréhension du processus d’interprétation en général. Grâce aux codes manuels des langues vocales, comme l’anglais signé, nous pouvons tester les hypothèses sur l’interprétation littérale et l’interprétation sémantique. Les comparaisons transmodales, quant à elles, peuvent aider à déterminer si un résultat est causé par les premiers ou les derniers niveaux de traitement. Ainsi, les recherches sur les langues des signes ouvrent une nouvelle perspective sur les langues vocales, ce qui contribue à une meilleure compréhension du processus cognitif de l’interprétation, mais aussi du traitement du langage en général.

Remerciements

Cette traduction a été réalisée dans le cadre de mon stage à l’Université de Namur et plus précisément au Laboratoire de LSFB. Elle a été supervisée par Dirk Delabastita et Laurence Meurant.

Remarques

*L’étude décrite qui étudie des interprétations en langue vocale a été réalisée au Laboratoire de Psychologie Expérimentale, Université Paris V, avec des fonds reçus de la Fondation Fyssen.
1.En fait, il existe plusieurs systèmes officiels qui expriment manuellement l’anglais, ainsi que des variations non-officielles parmi les utilisateurs d’un tel système. Tous les systèmes qui s’appuient sur la structure de l’anglais seront appelés “anglais signé” dans cet article.
2.Il a été prouvé que les plus hauts degrés de traitement des phrases sont affectés par l’interprétation, mesurés par la mémoire, particulièrement lors de l’interaction entre les niveaux syntaxiques et conceptuels. Des recherches sont actuellement en train d’étudier cette question. Voir Isham et Lane (1993) et Isham (1993) pour analyse.

Références

Baker, Charlotte and Dennis Cokely
1980American Sign Language: A Teacher’s Resource Text on Grammar and Culture. Silver Spring, MD: T.J. Publishers.
Baker, Charlotte and Carol Padden
1978 “Focusing on Non-Manual Components of American Sign Language”. Patricia Siple, ed. Understanding Language through Sign Language Research. New York: Academic Press.
Bellugi, Ursula, Edward S. Klima and Patricia Siple
1975 “Remembering in Signs”. Cognition 3. 93–125.
Fabbro, Franco, Bruno Gran and Laura Gran
1991 “Hemispheric Specialization for Semantic and Syntactic Components of Language in Simultaneous Interpretation”. Brain and Language 41. 1–42.
Fabbro, Franco, Laura Gran, Gianpaolo Basso and Antonio Bava
1990 “Cerebral Lateralization in Simultaneous lnterpretation”. Brain and Language 39. 69–89.
Gile, Daniel
1990 “Scientific Research vs. Personal Theories in the Investigation of Interpretation”. Laura Gran and Christopher Taylor, eds. Aspects of Applied and Experimental Research on Conference Interpretation. Udine: Campanotto 1990 28–41.
Gran, Laura
1989 “Interdisciplinary Research on Cerebral Asymmetries: Significance and Prospects for the Teaching of Interpretation”. Laura Gran and John Dodds, eds. The Theoretical and Practical Aspects of Teaching Conference Interpretation. Udine: Campanotto 1989 93–100.
Grosjean, François
1980 “Psycholinguistics of Sign Language”. Lane and Grosjean 1980: 33–60.
Grosjean, François, Harlan Lane, Robin Battison and Hartmut Teuber
1981 “The Invariance of Sentence Performance Structures across Language Modality”. Journal of Experimental Psychology. Human Perception and Performance 7. 216–230.
Hoffmeister, Robert and Ronnie Wilbur
1980 “The Acquisition of Sign Language”. Lane and Grosjean 1980: 61–78.
Isham, William P.
1994 “Memory for Sentence Form after Simultaneous Interpretation: Evidence Both for And Against Deverbalization”. Sylvie Lambert and Barbara Moser Mercer, eds. Bridging the Gap: Empirical Research in Simultaneous Interpretation. Amsterdam/Philadelphia: John Benjamins 1994 191–211.
Isham, William P. and Harlan Lane
1993 “Simultaneous Interpretation and the Recall of Source-Language Sentences”. Language and Cognitive Processes 8. 241–264.
1994 “A Common Conceptual Code in Bilinguals: Evidence from Simultaneous Interpretation”. Sign Language Studies 85. 291–316.
Jackendoff, Ray
1987Consciousness and the Computational Mind. Cambridge, MA: MIT Press.
Jarvella, Robert J.
1971 “Syntactic Processing of Connected Speech”. Journal of Verbal Learning und Verbal Behavior 10. 409–416.
1979 “Immediate Memory and Discourse Processing”. Gordon H. Bower, ed. The Psychology of Learning and Motivation 13: Advances in Research and Theory. New York: Academic Press 1979 379–421.
Lane, Harlan
1984When the Mind Hears: A History of the Deaf. New York: Random House.
Lane, Harlan and Francois Grosjean
eds. 1980Recent Perspectives on American Sign Language. Hillsdale, NJ: Erlbaum.
Levelt, Willem J. M.
1989Speaking: From Intention to Articulation. Cambridge, MA: MIT Press.
Lombardi, Linda and Mary C. Potter
1992 “The Regeneration of Syntax in Short-Term Memory”. Journal of Memory and Language 31. 713–733.
Newport, Elissa L. and Richard Meier
1985 “The Acquisition of American Sign Language”. Dan I. Slobin, ed. The Crosslinguistic Study of Language Acquisition 1: The Data. Hillsdale, NJ: Erlbaum 1985 881–938.
Petitto, Laura A. and Paula F. Marentette
1991 “Babbling in the Manual Mode: Evidence for the Ontogeny of Language”. Science 251. 1493–1496.
Potter, Mary C. and Linda Lombardi
1990 “Regeneration in the Short-Term Recall of Sentences”. Journal of Memory and Language 29. 633–654.
Sachs, Jacquelline S.
1967 “Recognition Memory for Syntactic and Semantic Aspects of Connected Discourse”. Perception and Psychophysics 2. 437–442.
Seleskovitch, Danica
1978Interpreting for International Conferences. Washington, D.C.: Pen and Booth.
Siple, Patricia, Susan D. Fischer and Ursula Bellugi
1977 “Memory for Nonsemantic Attributes of American Sign Language Signs and English Words”. Journal of Verbal Learning and Verbal Behavior 16. 561–574.
Wilbur, Ronnie B.
1987American Sign Language. Linguistics and Applied Dimensions. Boston: College-Hill Press.

Adresse de correspondance

William P. Isham

Signed Language Interpreter Training Program

Department of Linguistics

University of New Mexico

Humanities 526

ALBUQUERQUE, NM 87131-1196

USA