Towards robotic translation?

The appearance on the web in 2017 of new translation services based on “deep learning” artificial intelligence algorithms such as DeepL and Google Translate corresponded to a new leap forward in machine translation. These recent systems, like the previous generation of statistical machine translation and factored machine translation, rely on large aligned corpora and produce results whose quality is in some cases comparable to some human translations. It follows that to produce added value, the translator must provide something extra compared to the machine. This added value may be inherent in fields where the use of machines is not in itself of much interest because of the essentially aesthetic dimension of translation: this is the case for the translation of certain literary genres. Although much academic translation research refers to this field, it represents only a small fraction of the existing professional translation activity. As the machine allows productivity gains of 150 to 200% (some translators reach outputs of 6,000 to 8,000 words per day), the post-editing technique is becoming increasingly important in the language industries, as confirmed in 2017 by the introduction of the ISO 18587 standard “Translation services — Post-editing of machine translation output — Requirements”. Post-editing poses a moral dilemma for translators: accepting that the machine, and not them, is the source of their own translation. Artificial intelligence is changing our professional activities and translation is one of the fields showing such changes. This issue brings together articles that do not aim to take stock, but rather to present reflections and practical experience not only from professional translators but also from academics specialising in teaching and/or researching translation. The rapid development of artificial intelligence is forcing not only professional translators but also translation courses to adapt. The approaches put into dialogue in this volume concern translation, but also natural langage processing, linguistics, translation studies and language teaching.


1. Vers une robotique du traduire ⁠–⁠ Introduction

Anne Baillot ; Ellen Carter ; Thierry Grass ; Pablo Ruiz Fabo.
L’intelligence artificielle est en train de changer le monde et le rapport que les humains entretiennent avec le travail et concerne les traducteurs au premier chef. La traduction humaine ou biotraduction est-elle en voie d’extinction ? Cette publication dresse un état des lieux provisoire de la question du rôle de l’humain dans l’activité traduisante. En effet, le développement fulgurant de l’intelligence artificielle oblige non seulement les traducteurs professionnels à s’adapter, mais aussi les formations en traduction ainsi que la recherche afférente. Les approches mises en dialogue dans le cadre de cette publication convoquent donc autant l’informatique que la linguistique, la traductologie, la traduction et la didactique des langues.

2. Towards robotic translation?⁠ – ⁠Introduction

Anne Baillot ; Ellen Carter ; Thierry Grass ; Pablo Ruiz Fabo.
This issue brings together articles that do not aim to take stock, but rather to present reflections and practical experience not only from professional translators but also from academics specialising in teaching and/or researching translation. The rapid development of artificial intelligence is forcing not only professional translators but also translation courses to adapt. The approaches put into dialogue in the framework of the interdisciplinary conference held at the University of Strasbourg in 2021 concern translation, but also software, linguistics, translation studies and language teaching.

3. Contra Automata: Pride and Prejudice?

Marc Lebon.
The quality of Machine Translation (i.e. translation performed without direct human intervention) keeps improving, and yet it is often unfavourably considered. Machines don’t look like us humans, obviously; moreover, machines don’t think. How could they be able to translate? Yet translate they do, even though automation and thinking are often seen as complete opposites. Work on thought systematisation and automation – applied to language – started a long time ago. Kircher, Wilkins, Leibniz and a number of others sought universal harmony, quite often as a remedy for the Babel “Disaster”. They developed new languages that would be free of any defects or translation mechanisms that anybody could use. The methods they used sometimes bear uncanny resemblance with current Machine Translation processes. Alan Turing, who worked on automatism as a concept, played a pioneering role. There is therefore a clear case to be made for reconsidering some of our biases and abandon the comfort of obsolete certitude.
Section: I. Historical and linguistic approaches

4. Traduction automatique et doublage : impressions d'une expérience d'enseignement

Julio de los Reyes Lozano.
Cet article présente une expérience d'enseignement alliant traduction automatique (TA) et traduction audiovisuelle (TAV) avec des étudiants de traduction en Espagne. Après avoir traduit pour le doublage un extrait de série télévisée, les participants ont réalisé la post-édition du même texte et ensuite évalué le temps consacré et la typologie d'erreurs générés par la TA. Si les résultats montrent des difficultés pour insérer la TA dans le cadre d'un projet de doublage, une réduction du temps global a été constaté, ce qui encourage à poursuivre la recherche dans ce domaine.
Section: II. Pedagogical practices

5. The use of MT by undergraduate translation students for different learning tasks

Joop Bindels ; Mark Pluymaekers.
This study investigates the use of MT by first-, second-and third-year translation students for different learning tasks. The results of a self-report survey suggest that most students make regular use of MT, although the frequency of use decreases as they progress through their studies, particularly for reading tasks. Our results highlight the need for a comprehensive approach to the development of MT knowledge and PE skills among undergraduate students, using the concept of MT literacy as a stepping stone.
Section: II. Pedagogical practices

6. Source or target first? Comparison of two post-editing strategies with translation students

Lise Volkart ; Sabrina Girletti ; Johanna Gerlach ; Jonathan David Mutal ; Pierrette Bouillon.
We conducted an experiment with translation students to assess the influence of two different post-editing (PE) strategies (reading the source segment or the target segment first) on three aspects: PE time, ratio of corrected errors and number of optional modifications per word. Our results showed that the strategy that is adopted has no influence on the PE time or ratio of corrected errors. However, it does have an influence on the number of optional modifications per word. Two other thought-provoking observations emerged from this study: first, the ratio of corrected errors showed that, on average, students correct only half of the MT errors, which underlines the need for PE practice. Second, the time logs of the experiment showed that when students are not forced to read the source segment first, they tend to neglect the source segment and almost do monolingual PE. This experiment provides new insight relevant to PE teaching as well as the designing of PE environments.
Section: II. Pedagogical practices

7. DeepL et Google Translate face à l'ambiguïté phraséologique

Françoise Bacquelaine.
Malgré les progrès de la traduction automatique neuronale, l'intelligence artificielle ne permet toujours pas à la machine de comprendre pour déjouer tous les pièges de la traduction, notamment ceux de l'ambiguïté lexicale, phraséologique, syntaxique et sémantique (Koehn 2020). Deux structures portugaises moyennement figées présentent les caractéristiques des « unités de construction préformées » (UCP) décrites par Schmale (2013). Elles relèvent donc de la phraséologie au sens large et doivent être traduites en bloc. Les principaux défis de traduction en bloc que lancent ces UCP binaires à la machine résultent, d'une part, de variables simples ou complexes, et, d'autre part, des propriétés syntaxiques de scission et d'inversion des éléments sur l'axe syntagmatique. Un échantillon de 168 occurrences de ces UCP en contexte phrastique a été prélevé sur un corpus journalistique portugais. Cet échantillon a été traduit en français par DeepL et Google Translate en 2019 et en 2021. Les traductions automatiques brutes ont été confrontées à un modèle de biotraduction établi à partir de corpus parallèles ou alignés portugais-français et analysées en fonction de deux critères généraux (non-littéralité et acceptabilité) et de quelques défis spécifiques à chaque UCP. Cette analyse permet d'évaluer l'évolution de ces deux systèmes de traduction automatique face à l'ambiguïté phraséologique et d'en tirer des conclusions quant […]
Section: III. Biotranslation vs. Machine Translation

8. Le projet OPTIMICE : une optimisation de la qualité des traductions de métadonnées par la collaboration entre acteurs du monde scientifique et traduction automatique

Katell Hernandez Morin ; Franck Barbin.
The OPTIMICE project, which stands for optimising machine translation of metadata and its integration into the editorial chain, aims at devising a method – transferrable to other journals and disciplinary fields – that combines neural machine translation (DeepL) and human post-editing to improve the quality of article metadata (abstracts, keywords, etc.) from French to English in the editorial process of journals. A team of translation researchers who are also translators worked on four journals edited by the Presses universitaires de Rennes (PUR), in collaboration with the editorial comittees and the MSHB (Maison des sciences de l’Homme en Bretagne). The translation of the paper metadata by their authors and by machine translation was comparatively assessed. A survey on translation practices among researchers in HSS was led, and recommendations for writing and translating metadata were formulated for the organized integration of the methodology within the editorial process.
Section: III. Biotranslation vs. Machine Translation

9. Some Reflections on the Interface between Professional Machine Translation Literacy and Data Literacy

Ralph Krüger.
Due to the widespread use of data-driven neural machine translation, both by professional translators and layperson users, an adequate machine translation literacy on the part of the users of this technology is becoming more and more important. At the same time, the increasing datafication of both the private and the business sphere requires an adequate data literacy in modern society. The present article takes a closer look at machine translation literacy and data literacy and investigates the interface between the two concepts. This is done to lay the preliminary theoretical foundations for a didactic project aiming to develop didactic resources for teaching data literacy in its machine translation-specific form to students of BA programmes in translation/specialised communication.
Section: IV. Challenges for professional translation

10. Towards an empirical evaluation of translated texts and translation quality

Éric Poirier.
We present various empirical methods and tools that can objectify and optimize the evaluation of translated texts as parallel translation corpora produced by professional translators or by a machine translation service. The proposed methods and tools are based on an empirical analysis of information processing in translated texts and on the utilitarian role of machine translation and its methods, and they can be implemented in a tool-based translation evaluation apparatus in a professional context. The salient part of these methods (which can be deployed automatically or manually) relies on the comparison of two parameters that are measurable in most natural languages, namely the length of the segments in characters and the number of lexical words they contain. Our recent work (Poirier, 2017 and Poirier, 2021) has shown that these parameters have a strong positive correlation in translation (above 0.9 as a rule, and most often exceeding 0.95): the more characters or lexical words the source segment contains, the more characters or lexical words the translation contains. The measurement of the lexical words and the information volume of the translations allows distinguishing heteromorphic translations (more or less information) from isomorphic segments (same information content). The manual and partially automatic analysis of heteromorphic segments opens up new empirical horizons in the professional evaluation of translations as well as in the contrastive study of discourse […]
Section: IV. Challenges for professional translation

11. La traduction littéraire automatique : Adapter la machine à la traduction humaine individualisée

Damien Hansen ; Emmanuelle Esperança-Rodier ; Hervé Blanchon ; Valérie Bada.
La traduction automatique neuronale et son adaptation à des domaines spécifiques par le biais de corpus spécialisés ont permis à cette technologie d’intégrer bien plus largement qu’auparavant le métier et la formation des traducteur·trice·s. Si le paradigme neuronal (et le deep learning de manière générale) a ainsi pu investir des domaines parfois insoupçonnés, y compris certains où la créativité est de mise, celui-ci est moins marqué par un gain phénoménal de performance que par une utilisation massive auprès du public et les débats qu’il génère, nombre d’entre eux invoquant couramment le cas littéraire pour (in)valider telle ou telle observation. Pour apprécier la pertinence de cette technologie, et ce faisant surmonter les discours souvent passionnés des opposants et partisans de la traduction automatique, il est toutefois nécessaire de mettre l’outil à l’épreuve, afin de fournir un exemple concret de ce que pourrait produire un système entraîné spécifiquement pour la traduction d’œuvres littéraires. Inscrit dans un projet de recherche plus vaste visant à évaluer l’aide que peuvent fournir les outils informatiques aux traducteurs et traductrices littéraires, cet article propose par conséquent une expérience de traduction automatique de la prose qui n’a plus été tentée pour le français depuis les systèmes probabilistes et qui rejoint un nombre croissant d’études sur le sujet pour d’autres paires de […]
Section: V. The contribution of corpora

12. Machine Translation and Gender biases in video game localisation: a corpus-based analysis

María Rivas Ginel ; Sarah Theroine.
The video game industry has been a historically gender-biased terrain due to a higher number of male protagonists and hypersexualised representations [Dietz, 1998; Downs & Smith, 2010; Lynch et al., 2016]. Nowadays, echoing the debate on inclusive language, companies attempt to erase gender disparity by introducing main female characters as well as non-binary characters. From a technological point of view, even though recent studies show that Machine Translation remains largely unadopted by individual video game localisers [Rivas Ginel, 2021], multilanguage vendors are willing to invest in these tools to reduce costs [LIND, 2020]. However, the predominance of the masculine in Natural Language Processing and Machine Learning has created allocation and representation biases in Neural Machine Translation [Crawford, 2017].This paper aims to analyse the percentage of gender bias resulting from the use of Google Translate, DeepL, and SmartCat when translating in-game raw content from English into French. The games DeltaRune, The Devil's Womb and The Faces of the Forest were chosen due to the presence of non-binary characters, non-sexualized characters, and female protagonists. We compared the results in order to recount and analyse the differences between these tools' output when in terms of errors related to gender. To this end, we created a parallel corpus to compare source documents and all the translations to visualise the semantic and grammatical directions of the words […]
Section: V. The contribution of corpora

13. Dan Brown, Patricia Cornwell et John Grisham à l'épreuve de DeepL

Dominique Defert.
Cet article n’est pas l’œuvre d’un chercheur en traductologie ni en traitement automatique du langage. Il est le simple témoignage oral d’un professionnel, une reprise verbatim de ma communication dans le cadre du colloque Robotrad, où j’ai tenté de montrer à l’assistance comment et pourquoi, dans mon quotidien de traducteur littéraire (sous pression et toujours débordé), j’utilise DeepL.Durent les vingt minutes qui m’étaient imparties, je n’ai pas insisté sur les maladresses, confusions, contresens que peut produire DeepL (ou les IA d’une manière générale) – des errances, récurrentes et parfois comiques, que nous connaissons tous bien. Je me suis intéressé aux cas où les logiciels de traduction automatique neuronaux (TAN) s’en sortent plutôt bien et ai tenté d’expliciter en quoi, dans le cadre d’une traduction littéraire, ils ne servent à rien (du moins pas à ce pour quoi leurs programmeurs les ont conçus). Et ceci pour deux raisons :1/ La notion de contexte est inconnue des machines.2/ Les machines ne comprennent rien à ce qu’elles écrivent.Car la traduction littéraire est un acte de re-création. Il s’agit de « ra-conter », au sens de « re-conter » (conter une seconde fois) et pour cela, la subjectivité est reine et nécessaire. Pour être un « raconteur », il faut être partial, monomaniaque, obsessionnel. Dans une traduction, choisir un mot – un seul –, c’est déjà proposer une vision du monde. Et […]
Section: VI. Feedback from professional translators

14. Voyage au bout de la traduction automatique

Jean-Yves Bassole.
Des outils de traduction automatique, dont certains sont très performants, sont mis gratuitement à la disposition du public ; cette réalité est à prendre en considération dans l'enseignement de la traduction. L'étude qui suit porte sur une série de phrases extraites de l'oeuvre de Louis-Ferdinand Céline et relevant de la langue parlée, voire populaire, ou présentant un caractère proverbial. Sept moteurs de traduction automatique (Bing Microsoft Translator, DeepL, Google Translate, Promt, Reverso, Systran et Yandex) ont été testés à plusieurs reprises et à partir de postes de travail différents pour traduction vers l'anglais (britannique, dans les cas où cette option est offerte). L'examen des traductions proposées par ces sept moteurs permet de constater l'absence fréquente de stabilité dans les traductions proposées ; il permet également d'identifier les points faibles des systèmes moyennant une première analyse des erreurs de compréhension et de traduction.
Section: VI. Feedback from professional translators