Vers une robotique du traduire

L’apparition sur la toile en 2017 de nouveaux services de traduction automatique neuronale reposant sur des algorithmes d’intelligence artificielle comme DeepL et Google Translate correspond à un nouveau bond en avant en matière de traduction automatique. Ces systèmes récents, comme les systèmes de la génération précédente de traduction automatique statistique et de traduction automatique statistique factorisée, fonctionnent à partir de grands corpus alignés et produisent des résultats dont la qualité est pour certains comparable à certaines traductions humaines. Il s’ensuit que pour produire une valeur ajoutée, le traducteur doit apporter un plus par rapport à la machine. Ce plus peut être inhérent à certains domaines où l’emploi de la machine n’a en soi guère d’intérêt du fait de la dimension essentiellement esthétique de la traduction : c’est le cas des traductions littéraires qui, si de nombreux travaux de traductologie universitaire y prennent appui, ne représentent qu’une petite partie de l’activité de traduction professionnelle existante. Comme de surcroît la machine permet des gains de productivité de l’ordre de 150 à 200% (certains traducteurs atteignent des rendements de 6000 à 8000 mots par jour), la technique de la post-édition tend à s’imposer de plus en plus dans les industries de la langue, ce que confirme en 2017 la sortie de la norme ISO 18587 (Services de traduction — Post-édition d'un texte résultant d'une traduction automatique — Exigences). Cette technique de post-édition pose un cas de conscience au traducteur : accepter de ne pas être à l’origine de sa propre traduction au profit de la machine. L’intelligence artificielle est en train de changer le monde et le rapport que les humains entretiennent avec le travail et concerne les traducteurs au premier chef. La traduction humaine ou biotraduction est-elle en voie d’extinction ? Cette publication dresse un état des lieux provisoire de la question du rôle de l’humain dans l’activité traduisante. En effet, le développement fulgurant de l’intelligence artificielle oblige non seulement les traducteurs professionnels à s’adapter, mais aussi les formations en traduction ainsi que la recherche afférente. Les approches mises en dialogue dans le cadre de cette publication convoquent donc autant l’informatique que la linguistique, la traductologie, la traduction et la didactique des langues.


1. Vers une robotique du traduire ⁠–⁠ Introduction

Anne Baillot ; Ellen Carter ; Thierry Grass ; Pablo Ruiz Fabo.
L’intelligence artificielle est en train de changer le monde et le rapport que les humains entretiennent avec le travail et concerne les traducteurs au premier chef. La traduction humaine ou biotraduction est-elle en voie d’extinction ? Cette publication dresse un état des lieux provisoire de la question du rôle de l’humain dans l’activité traduisante. En effet, le développement fulgurant de l’intelligence artificielle oblige non seulement les traducteurs professionnels à s’adapter, mais aussi les formations en traduction ainsi que la recherche afférente. Les approches mises en dialogue dans le cadre de cette publication convoquent donc autant l’informatique que la linguistique, la traductologie, la traduction et la didactique des langues.

2. Towards robotic translation?⁠ – ⁠Introduction

Anne Baillot ; Ellen Carter ; Thierry Grass ; Pablo Ruiz Fabo.
This issue brings together articles that do not aim to take stock, but rather to present reflections and practical experience not only from professional translators but also from academics specialising in teaching and/or researching translation. The rapid development of artificial intelligence is forcing not only professional translators but also translation courses to adapt. The approaches put into dialogue in the framework of the interdisciplinary conference held at the University of Strasbourg in 2021 concern translation, but also software, linguistics, translation studies and language teaching.

3. Contra Automata : orgueil et préjugés ?

Marc Lebon.
La traduction dite automatique, réalisée sans intervention humaine directe et dont la qualité moyenne ne cesse d’augmenter, est encore souvent mal considérée. Non seulement les machines ne nous ressemblent pas, mais elles ne pensent pas ; comment pourraient-elles traduire ? Et pourtant, elles traduisent, bien qu’automatiser et penser soient souvent perçus comme des concepts antinomiques.Or il se fait que diverses formes de systématisation, d’automatisation de la pensée - de la pensée appliquée au langage - étaient déjà à l’œuvre bien avant le XXe siècle. Kircher, Wilkins, Leibniz et d’autres cherchaient une forme d’harmonie universelle, souvent liée d’une manière ou d’une autre à la réparation de la « catastrophe » babélienne, que ce soit grâce à une langue qui suppléerait aux défauts des autres ou au travers de mécanismes de traduction accessibles à tout le monde. Et ils le faisaient par des procédés qui évoquent parfois clairement certains aspects de la traduction automatique actuelle, rendue possible notamment par les travaux pionniers d’Alan Turing sur le concept d’automaticité. Il y a donc lieu de revoir certains de nos préjugés et de renoncer aux certitudes confortables et caduques.
Rubrique : I. Approches historiques et linguistiques

4. Traduction automatique et doublage : impressions d'une expérience d'enseignement

Julio de los Reyes Lozano.
Cet article présente une expérience d'enseignement alliant traduction automatique (TA) et traduction audiovisuelle (TAV) avec des étudiants de traduction en Espagne. Après avoir traduit pour le doublage un extrait de série télévisée, les participants ont réalisé la post-édition du même texte et ensuite évalué le temps consacré et la typologie d'erreurs générés par la TA. Si les résultats montrent des difficultés pour insérer la TA dans le cadre d'un projet de doublage, une réduction du temps global a été constaté, ce qui encourage à poursuivre la recherche dans ce domaine.
Rubrique : II. Dispositifs pédagogiques

5. The use of MT by undergraduate translation students for different learning tasks

Joop Bindels ; Mark Pluymaekers.
This study investigates the use of MT by first-, second-and third-year translation students for different learning tasks. The results of a self-report survey suggest that most students make regular use of MT, although the frequency of use decreases as they progress through their studies, particularly for reading tasks. Our results highlight the need for a comprehensive approach to the development of MT knowledge and PE skills among undergraduate students, using the concept of MT literacy as a stepping stone.
Rubrique : II. Dispositifs pédagogiques

6. Source or target first? Comparison of two post-editing strategies with translation students

Lise Volkart ; Sabrina Girletti ; Johanna Gerlach ; Jonathan David Mutal ; Pierrette Bouillon.
We conducted an experiment with translation students to assess the influence of two different post-editing (PE) strategies (reading the source segment or the target segment first) on three aspects: PE time, ratio of corrected errors and number of optional modifications per word. Our results showed that the strategy that is adopted has no influence on the PE time or ratio of corrected errors. However, it does have an influence on the number of optional modifications per word. Two other thought-provoking observations emerged from this study: first, the ratio of corrected errors showed that, on average, students correct only half of the MT errors, which underlines the need for PE practice. Second, the time logs of the experiment showed that when students are not forced to read the source segment first, they tend to neglect the source segment and almost do monolingual PE. This experiment provides new insight relevant to PE teaching as well as the designing of PE environments.
Rubrique : II. Dispositifs pédagogiques

7. Biotraduction versus traduction automatique : la subjectivité en question

Maryam Alrasheed.
Grace aux nouveaux systèmes reposant sur les algorithmes de l'intelligence artificielle, la traduction automatique marque un progrès remarquable. La présente contribution se propose donc de s'interroger sur son possible apport, et sur l'impact de l'absence du biotraducteur et de sa subjectivité, dans les traductions exigeant une neutralité. Pour ce faire, nous avons analysé les traductions des noms de métiers à partir d'un corpus trilingue français-arabe-anglais de résumés d'articles scientifiques traduits par Google Translate et Bing Microsoft Translator. Ce qui a permis de mettre en valeur un aspect positif de la subjectivité humaine en tant qu'outil de compréhension et de contextualisation, et de dévoiler la subjectivité de la machine qui pourrait résider dans l'ensemble des subjectivités présentes dans les corpus ayant servi à son entrainement.

8. DeepL et Google Translate face à l'ambiguïté phraséologique

Françoise Bacquelaine.
Malgré les progrès de la traduction automatique neuronale, l'intelligence artificielle ne permet toujours pas à la machine de comprendre pour déjouer tous les pièges de la traduction, notamment ceux de l'ambiguïté lexicale, phraséologique, syntaxique et sémantique (Koehn 2020). Deux structures portugaises moyennement figées présentent les caractéristiques des « unités de construction préformées » (UCP) décrites par Schmale (2013). Elles relèvent donc de la phraséologie au sens large et doivent être traduites en bloc. Les principaux défis de traduction en bloc que lancent ces UCP binaires à la machine résultent, d'une part, de variables simples ou complexes, et, d'autre part, des propriétés syntaxiques de scission et d'inversion des éléments sur l'axe syntagmatique. Un échantillon de 168 occurrences de ces UCP en contexte phrastique a été prélevé sur un corpus journalistique portugais. Cet échantillon a été traduit en français par DeepL et Google Translate en 2019 et en 2021. Les traductions automatiques brutes ont été confrontées à un modèle de biotraduction établi à partir de corpus parallèles ou alignés portugais-français et analysées en fonction de deux critères généraux (non-littéralité et acceptabilité) et de quelques défis spécifiques à chaque UCP. Cette analyse permet d'évaluer l'évolution de ces deux systèmes de traduction automatique face à l'ambiguïté […]
Rubrique : III. Biotraduction vs. traduction automatique

9. Le projet OPTIMICE : une optimisation de la qualité des traductions de métadonnées par la collaboration entre acteurs du monde scientifique et traduction automatique

Katell Hernandez Morin ; Franck Barbin.
Le projet OPTIMICE, pour optimisation de la traduction automatique des métadonnées et de son insertion dans la chaîne éditoriale, vise à concevoir une méthode, transférable à d'autres revues et domaines disciplinaires, en combinant la traduction automatique neuronale (DeepL) et la post-édition humaine pour améliorer la qualité des métadonnées des articles (résumés, mots-clés, etc.) du français vers l'anglais dans le processus éditorial des revues. Une équipe de traducteurs-traductologues a travaillé sur quatre revues éditées par les Presses universitaires de Rennes (PUR), en collaboration avec les comités éditoriaux et la MSHB (Maison des sciences de l'Homme en Bretagne). La traduction des métadonnées d'articles par leurs auteurs et par la traduction automatique a été évaluée comparativement. Une enquête sur les pratiques de traduction des chercheurs en SHS a été menée, et des recommandations de rédaction et de traduction des métadonnées ont été formulées pour l'insertion concertée de la méthodologie au sein du processus éditorial. Mots-clés TAN (traduction automatique neuronale); post-édition; SHS; métadonnées; revues
Rubrique : III. Biotraduction vs. traduction automatique

10. Some Reflections on the Interface between Professional Machine Translation Literacy and Data Literacy

Ralph Krüger.
Due to the widespread use of data-driven neural machine translation, both by professional translators and layperson users, an adequate machine translation literacy on the part of the users of this technology is becoming more and more important. At the same time, the increasing datafication of both the private and the business sphere requires an adequate data literacy in modern society. The present article takes a closer look at machine translation literacy and data literacy and investigates the interface between the two concepts. This is done to lay the preliminary theoretical foundations for a didactic project aiming to develop didactic resources for teaching data literacy in its machine translation-specific form to students of BA programmes in translation/specialised communication.
Rubrique : IV. Enjeux pour la traduction professionnelle

11. Vers une évaluation empirique des textes traduits et de la qualité en traduction

Éric Poirier.
Nous présentons différentes méthodes et outils empiriques qui sont susceptibles d’objectiver et d’optimiser l'évaluation des textes traduits en tant que corpus de traduction parallèles produits par des traducteurs professionnels ou par un service de traduction automatique. Les méthodes et outils proposés prennent appui sur une analyse empirique du traitement de l’information dans les textes traduits ainsi que sur le rôle utilitaire de la traduction automatique et de ses méthodes, et elles peuvent être mises en œuvre dans un appareillage outillé d'évaluation des traductions dans un contexte professionnel. La partie saillante de ces méthodes (qui peuvent être déployées automatiquement ou manuellement) repose sur la comparaison de deux paramètres mesurables dans la plupart des langues naturelles, à savoir la longueur des segments en caractères et le nombre de mots lexicaux qu'ils contiennent. Nos travaux récents (Poirier, 2017 et Poirier, 2021) ont montré que ces paramètres ont une forte corrélation positive en traduction (supérieure à 0,9 en règle générale, et dépassant le plus souvent 0,95) : plus le segment source contient de caractères ou de mots lexicaux, plus la traduction contient de caractères ou de mots lexicaux. La mesure des mots lexicaux et du volume informationnel des traductions permet de distinguer les traductions hétéromorphes (information en surplus ou en moins) des segments isomorphes (même contenu […]
Rubrique : IV. Enjeux pour la traduction professionnelle

12. Le traducteur automatique comme outil du traducteur indépendant spécialisé en médecine

Magali Vidrequin.
Rubrique : IV. Enjeux pour la traduction professionnelle

13. La traduction littéraire automatique : Adapter la machine à la traduction humaine individualisée

Damien Hansen ; Emmanuelle Esperança-Rodier ; Hervé Blanchon ; Valérie Bada.
La traduction automatique neuronale et son adaptation à des domaines spécifiques par le biais de corpus spécialisés ont permis à cette technologie d’intégrer bien plus largement qu’auparavant le métier et la formation des traducteur·trice·s. Si le paradigme neuronal (et le deep learning de manière générale) a ainsi pu investir des domaines parfois insoupçonnés, y compris certains où la créativité est de mise, celui-ci est moins marqué par un gain phénoménal de performance que par une utilisation massive auprès du public et les débats qu’il génère, nombre d’entre eux invoquant couramment le cas littéraire pour (in)valider telle ou telle observation. Pour apprécier la pertinence de cette technologie, et ce faisant surmonter les discours souvent passionnés des opposants et partisans de la traduction automatique, il est toutefois nécessaire de mettre l’outil à l’épreuve, afin de fournir un exemple concret de ce que pourrait produire un système entraîné spécifiquement pour la traduction d’œuvres littéraires. Inscrit dans un projet de recherche plus vaste visant à évaluer l’aide que peuvent fournir les outils informatiques aux traducteurs et traductrices littéraires, cet article propose par conséquent une expérience de traduction automatique de la prose qui n’a plus été tentée pour le français depuis les systèmes probabilistes et qui rejoint un nombre croissant d’études sur le sujet pour d’autres paires de […]
Rubrique : V. L'apport des corpus

14. Machine Translation and Gender biases in video game localisation: a corpus-based analysis

María Rivas Ginel ; Sarah Theroine.
The video game industry has been a historically gender-biased terrain due to a higher number of male protagonists and hypersexualised representations [Dietz, 1998; Downs & Smith, 2010; Lynch et al., 2016]. Nowadays, echoing the debate on inclusive language, companies attempt to erase gender disparity by introducing main female characters as well as non-binary characters. From a technological point of view, even though recent studies show that Machine Translation remains largely unadopted by individual video game localisers [Rivas Ginel, 2021], multilanguage vendors are willing to invest in these tools to reduce costs [LIND, 2020]. However, the predominance of the masculine in Natural Language Processing and Machine Learning has created allocation and representation biases in Neural Machine Translation [Crawford, 2017].This paper aims to analyse the percentage of gender bias resulting from the use of Google Translate, DeepL, and SmartCat when translating in-game raw content from English into French. The games DeltaRune, The Devil's Womb and The Faces of the Forest were chosen due to the presence of non-binary characters, non-sexualized characters, and female protagonists. We compared the results in order to recount and analyse the differences between these tools' output when in terms of errors related to gender. To this end, we created a parallel corpus to compare source documents and all the translations to visualise the semantic and grammatical directions of […]
Rubrique : V. L'apport des corpus

15. DeepL résout-il les conflits ? Bio-traduire et post-éditer les courriers d'avocats de l'italien en français

Alain Volclair.
À l’automatisation ambiante, la TA ne déroge pas. Problèmes éthiques, retour à une objection préjudicielle moderne. L’article se fixe l’objectif de soulever quelques interrogations traductologiques et de fournir des éléments de réponse par le prisme de la traduction juridique des courriers d’avocats de l’italien en français. Est-ce un genre textuel à part entière ? L’intervention humaine est-elle obligatoire ? Peut-on laisser entre les mains de l’IA la résolution de litiges relevant du droit civil ? La performativité est-elle transférable d’une langue à une autre par DeepL sans comporter de risques rédhibitoires ? 12 traducteurs professionnels ont été mis à l’épreuve de la Post-édition pour tracer la voie d’une bonne pratique.
Rubrique : VI. Retours d'expérience

16. Dan Brown, Patricia Cornwell et John Grisham à l'épreuve de DeepL

Dominique Defert.
Cet article n’est pas l’œuvre d’un chercheur en traductologie ni en traitement automatique du langage. Il est le simple témoignage oral d’un professionnel, une reprise verbatim de ma communication dans le cadre du colloque Robotrad, où j’ai tenté de montrer à l’assistance comment et pourquoi, dans mon quotidien de traducteur littéraire (sous pression et toujours débordé), j’utilise DeepL.Durent les vingt minutes qui m’étaient imparties, je n’ai pas insisté sur les maladresses, confusions, contresens que peut produire DeepL (ou les IA d’une manière générale) – des errances, récurrentes et parfois comiques, que nous connaissons tous bien. Je me suis intéressé aux cas où les logiciels de traduction automatique neuronaux (TAN) s’en sortent plutôt bien et ai tenté d’expliciter en quoi, dans le cadre d’une traduction littéraire, ils ne servent à rien (du moins pas à ce pour quoi leurs programmeurs les ont conçus). Et ceci pour deux raisons :1/ La notion de contexte est inconnue des machines.2/ Les machines ne comprennent rien à ce qu’elles écrivent.Car la traduction littéraire est un acte de re-création. Il s’agit de « ra-conter », au sens de « re-conter » (conter une seconde fois) et pour cela, la subjectivité est reine et nécessaire. Pour être un « raconteur », il faut être partial, monomaniaque, obsessionnel. Dans une traduction, choisir un mot – un seul –, c’est déjà proposer une vision du monde. Et […]
Rubrique : VI. Retours d'expérience

17. Voyage au bout de la traduction automatique

Jean-Yves Bassole.
Des outils de traduction automatique, dont certains sont très performants, sont mis gratuitement à la disposition du public ; cette réalité est à prendre en considération dans l'enseignement de la traduction. L'étude qui suit porte sur une série de phrases extraites de l'oeuvre de Louis-Ferdinand Céline et relevant de la langue parlée, voire populaire, ou présentant un caractère proverbial. Sept moteurs de traduction automatique (Bing Microsoft Translator, DeepL, Google Translate, Promt, Reverso, Systran et Yandex) ont été testés à plusieurs reprises et à partir de postes de travail différents pour traduction vers l'anglais (britannique, dans les cas où cette option est offerte). L'examen des traductions proposées par ces sept moteurs permet de constater l'absence fréquente de stabilité dans les traductions proposées ; il permet également d'identifier les points faibles des systèmes moyennant une première analyse des erreurs de compréhension et de traduction.
Rubrique : VI. Retours d'expérience