UN PO’ DI STORIA: SUCCESSI E QUALCHE RIFLESSIONE
di Paola Brusasco
Sarà capitato a molti di sorridere davanti alle dubbie formulazioni di quelle che – con ogni probabilità – sono traduzioni automatiche delle specifiche di un prodotto o di informazioni turistiche. Più rara, credo, è la consapevolezza che buona parte dei testi che in diversi modi influenzano o intercettano la rotta della nostra vita sono il risultato di processi di traduzione automatizzata in vario grado. Se l’obiettivo della traduzione automatica – traduzioni corrette ed efficaci di testi in lingue naturali ottenute attraverso l’esclusivo utilizzo di software – non è ancora completamente raggiunto, o solo in pochissimi settori, è pur vero che la traduzione assistita, in cui parte del processo traduttivo avviene tramite procedure automatiche, è ormai la modalità di lavoro standard, con l’unica eccezione dell’ambito editoriale.
La traduzione, da sempre una delle attività umane alla base del progresso, degli scambi commerciali e culturali, nonché dei rapporti di potere, pervade il mondo contemporaneo come mai prima in virtù di quello che Cronin (2013, 19) definisce the ‘3T’ paradigm (Technology, Trade, Translation), ovvero «il paradigma “3T” (Tecnologia, Traffici commerciali, Traduzione)». Aggiungerei una quarta “T”, Tempo, la cui recente accelerazione ha determinato enormi cambiamenti a livello individuale e collettivo. Buona parte del progresso tecnologico, infatti, è volto a ridurre il tempo necessario per una certa operazione, perseguendo obiettivi di risparmio (o profitto) economico, reale o percepito. Lo stesso Cronin sottolinea come l’avvento di Internet abbia reso disponibili innumerevoli pratiche 24/7 (ventiquattro ore al giorno, sette giorni su sette) – per esempio, prenotare biglietti, effettuare bonifici o accedere rapidamente a informazioni in qualsiasi momento – diffondendo così aspettative di risposta o esecuzione immediata. Contemporaneamente il volume di informazioni, servizi e merci è aumentato in modo esponenziale, il che a sua volta richiede e genera nuova tecnologia, più traffico commerciale e relativa documentazione multilingue, nuovi modelli di controllo e sicurezza internazionale e, di conseguenza, più attività di traduzione e localizzazione, o adattamento linguistico e culturale di contenuti digitali rivolti a nuovi mercati.
L’impulso generato dall’incremento di tali flussi, sommato agli sviluppi dell’informatica e della linguistica computazionale, ha permesso sia di elaborare strumenti per la traduzione assistita (i cosiddetti CAT tools, come memorie traduttive, basi terminologiche, software per allineamento e concordanza), sia di dare nuova linfa a progetti di traduzione automatica che, formulati a partire dai tardi anni quaranta del secolo scorso, erano stati successivamente abbandonati a causa dei risultati deludenti. Benché il progresso tecnologico abbia determinato cambiamenti anche nella modalità di lavoro dei traduttori letterari – che, per esempio, possono avvalersi di numerosi dizionari e glossari online, cercare in rete forme colloquiali e contesti d’uso, controllare informazioni fattuali, rivolgersi a forum di discussione, verificare le accezioni d’uso utilizzando corpora della lingua di partenza e/o di arrivo – sono soprattutto i traduttori attivi in ambito commerciale, tecnico, scientifico, istituzionale e giornalistico ad aver vissuto in prima persona le trasformazioni del processo traduttivo. In questi settori non è più possibile prescindere dalle tecnologie per la traduzione:
Translation technology] is widely used by translation companies as an indispensable tool to conduct their business with high productivity and efficiency, by international corporations as a foundation for their global language solutions, by professional translators as a core component of their personal workstations, and by occasional users as an important means of multilingual information mining. The advent of translation technology has totally globalized translation and drastically changed the way we process, teach, and study translation (Sin-wai 2014, XXVII).
Le tecnologie per la traduzione] sono ampiamente usate dalle agenzie di traduzione come strumento indispensabile per operare con elevata produttività ed efficienza, dalle multinazionali come base per soluzioni linguistiche a livello globale, dai traduttori professionisti come elemento essenziale della propria postazione di lavoro e da utilizzatori occasionali come importante mezzo per l’estrazione di informazioni in contesti multilingui. L’avvento delle tecnologie ha globalizzato la traduzione e cambiato radicalmente il modo in cui la si produce, insegna e studia (Traduzione mia).
Anche l’organizzazione del processo traduttivo è cambiata, passando dall’elaborazione perlopiù individuale del testo al «progetto di traduzione» realizzato attraverso un «flusso di lavoro», cioè l’assegnazione a più persone di varie fasi del ciclo produttivo del testo tradotto. Le agenzie di traduzione di medie o grandi dimensioni, i fornitori di servizi linguistici e i traduttori che lavorano stabilmente in istituzioni o in multinazionali di norma individuano un project manager e, in linea di massima, suddividono la lavorazione in tre fasi: 1) la preparazione (definizione dei requisiti, dei parametri e dei destinatari del testo di arrivo; raccolta di materiali di appoggio già utilizzati dal committente, come memorie di traduzione, glossari, testi paralleli o informazioni di background in modo da garantire uniformità terminologica e adesione a determinate tipologie testuali; eventuale predisposizione di format particolari; assegnazione del testo a uno o più traduttori); 2) la lavorazione (analisi del testo e individuazione di possibili problemi terminologici; analisi dei materiali forniti dal committente; eventuali ricerche per approfondire le conoscenze del settore e/o quesiti al committente; traduzione; revisione); 3) il controllo e la consegna (questa fase, che può variare in funzione della complessità del testo e delle richieste del committente, prevede comunque un controllo di qualità finale oppure intermedio, seguito da eventuali modifiche testuali o di formattazione). I glossari e le memorie traduttive acquisite o create appositamente per un certo progetto serviranno a ottimizzare eventuali traduzioni future in termini di tempo e coerenza terminologica.
Inoltre, le tecnologie di cloud computing – che consentono «l’accesso ubiquo a contenuti digitali multilingui e a strumenti di traduzione all’interno di ambienti collaborativi on line utilizzabili gratuitamente o a pagamento» (Monti 2014, 55) – hanno favorito la diffusione di un’altra modalità di lavoro, la «comunità di traduzione», i cui partecipanti, pur a distanza, possono lavorare contemporaneamente sullo stesso documento servendosi di risorse linguistiche e strumenti condivisi e aggiornati di continuo.
Verso la traduzione automatica
Nel suo Memorandum del 1949, Warren Weaver, ingegnere e matematico, ipotizzò che la traduzione di testi da una lingua naturale all’altra potesse avvenire tramite calcolatori. Consapevole che per tale scopo sarebbero servite macchine assai più potenti, capaci di gestire grandi quantità di dati e dotate di velocità e flessibilità logica, Weaver si augurava che il suo contributo quantomeno stimolasse la ricerca in tale direzione.
Il primo sistema per la traduzione automatica fu sviluppato dalla IBM per la coppia linguistica russo-inglese, seguito da altri negli Stati Uniti, nell’Unione Sovietica e in Giappone (Sin-wai 2016, 265-66); tali progetti furono tuttavia abbandonati negli anni sessanta perché i testi ottenuti risultavano di scarsa leggibilità e di gran lunga inferiori alle aspettative. Decisivo in tal senso fu il rapporto dell’Automatic Language Processing Advisory Committee (ALPAC 1966), che definì la traduzione automatica antieconomica a causa degli elevati costi di post-editing, senza il quale i testi tradotti risultavano decipherable for the most part, but […] sometimes misleading and sometimes wrong (1966, 19; «perlopiù decifrabili, ma talvolta fuorvianti o addirittura sbagliati» – traduzione mia). Fra i problemi più significativi il rapporto evidenziò errori nell’ordine delle parole, costruzioni innaturali e la presenza di più traducenti per lo stesso vocabolo, sottolineando inoltre come la ricerca si fosse arrestata davanti a una barriera semantica: we will only have adequate mechanical translation when the machine can “understand” what it is translating (1966, 24; «avremo traduzioni automatiche adeguate solo quando la macchina sarà in grado di capire quello che sta traducendo» – traduzione mia). Pur esprimendo fiducia nel futuro, il rapporto affermava che non c’era alcuna prospettiva di utilizzo immediato o prevedibile della traduzione automatica; tuttavia, auspicava che l’enorme contributo dato dai computer alla linguistica teorica e applicata fosse utilizzato per creare strumenti atti a migliorare e accelerare il lavoro dei traduttori umani.
Quei primi esperimenti erano basati sul principio dell’equivalenza interlinguistica e tendevano quindi a considerare la lingua come un repertorio tendenzialmente stabile di unità di significato per le quali individuare un equivalente nel repertorio della lingua di arrivo. Diversi studiosi – fra cui Vinay e Darbelnet, Catford, Kade, Koller – formularono tipologie di equivalenza che, dettagliando con crescente specificità le categorie, intendevano individuare corrispondenze biunivoche in grado di ridurre i margini di interpretazione – e quindi di errore – tanto per il traduttore quanto per la macchina. Benché non risolutive ai fini della traduzione automatica, tali ricerche contribuirono alla creazione di banche dati terminologiche, uno dei primi sussidi al lavoro del traduttore. In seguito, numerosi centri di ricerca si dedicarono allo sviluppo di memorie traduttive (Sin-wai 2016, 4), cioè sistemi che recuperano segmenti ricorrenti da testi già tradotti per riutilizzarli in traduzioni successive. Inizialmente commercializzate dalle prime società di servizi linguistici, Trados e Star Group (Sin-wai 2016, 12-13), le memorie traduttive hanno avuto enorme diffusione negli ultimi anni, sia grazie all’aggiunta di nuove funzioni e lingue, sia per le possibilità aperte dal cloud computing.
Negli anni novanta la velocità e la potenza dei nuovi computer, la diffusione di Internet, l’aumento degli scambi e l’accessibilità degli strumenti informatici al grande pubblico hanno creato le condizioni per avvicinarsi al traguardo della traduzione automatica. Pur con periodi di coesistenza e sovrapposizione di tecnologie, a grandi linee si sono succedute tre fasi caratterizzate da altrettanti modelli: la traduzione rule–based, la traduzione su base statistica e l’ormai dominante traduzione neurale.
La traduzione rule–based
Il primo approccio, nonché quello di più lunga durata, è stato rule-based: in sostanza, questo indica un sistema che, opportunamente dotato di regole sintattiche e lessico, analizza le frasi del testo di partenza, le scompone, etichetta i singoli lemmi e crea diagrammi ad albero, che trasforma in analoghi schemi della lingua di arrivo, sostituendo infine le parole con i loro equivalenti. Sebbene privo di qualsiasi capacità interpretativa del testo, il computer mima in certa misura il processo umano di decodifica (esclusivamente su base formale) e trasposizione in altra lingua. Benché i software più recenti diano prestazioni più elevate grazie alla capacità di gestire milioni di dizionari bilingui e innumerevoli regole, il prodotto è nel migliore dei casi una traduzione grezza, utile a comprendere il senso generale di un testo, che tuttavia richiede notevole intervento umano per garantirne significato e leggibilità. Illuminanti al riguardo gli esempi citati, nemmeno troppi anni fa, in Dire quasi la stessa cosa (Eco 2003), che mostravano come Altavista e il suo traduttore automatico Babel Fish, traducessero fra sistemi e non fra testi, essendo privi, a differenza di un traduttore umano, di informazioni sul mondo nonché della capacità di interpretare il contesto e operare dunque opportune selezioni contestuali.
Traduzione automatica statistica
Verso la metà degli anni duemila si è diffuso un nuovo modello di traduzione automatica basato su grandi raccolte in formato digitale di testi nella lingua di partenza con relative traduzioni nella lingua di arrivo e altre di testi appartenenti allo stesso dominio scritti originariamente nella lingua di arrivo. A questi corpora paralleli e comparabili che – composti da un minimo di due milioni di parole per dominio specifico, costituiscono esempi d’uso reale di una determinata coppia linguistica – il sistema applica metodi statistici che calcolano l’occorrenza delle parole al loro interno, identificano segmenti di testo simili o uguali a quello da tradurre e la relativa traduzione preesistente nel corpus bilingue, e confrontano le traduzioni possibili con segmenti simili contenuti nel corpus monolingue in modo da ottenere una discreta naturalezza grazie a selezioni contestuali e collocazioni rinvenibili nella lingua di arrivo.
Fra i vantaggi di questo secondo tipo di software per la traduzione automatica, Systran, uno dei principali sviluppatori e fornitori di servizi linguistici, sottolinea la maggiore scorrevolezza del testo in uscita e la possibilità di trovare soluzioni anche per termini o segmenti che rappresentano eccezioni rispetto alla regola. Per contro, la qualità del testo tradotto con sistemi statistici non è prevedibile, così come non è assicurata la coerenza terminologica, soprattutto nei casi in cui, come Google Translate pre-neurale, i corpora di riferimento tratti dalla rete sono potenzialmente infiniti. Questo significa che le parole chiave di testi sullo stesso argomento possono variare a seconda dei corpora cui il sistema attinge durante il processo traduttivo, il che, per aziende e istituzioni, può confondere i clienti o il personale cui sono destinati i testi tradotti. Gli utilizzatori a pagamento, rivolgendosi a società come Systran, SDL, Kantan, Lionbridge e altre, possono «addestrare» il sistema con una base di dati contenente i propri testi e costantemente integrata con le nuove traduzioni, in modo da mantenere uniformità nella terminologia di riferimento.
La Commissione europea, da sempre impegnata nella ricerca di sistemi di traduzione multilingue, ha sviluppato il servizio MT@EC, in uso fino al 2017, che operava con il software statistico open source Moses integrato da regole linguistiche. I corpora in questo caso erano milioni di traduzioni ufficiali di documenti UE, utilizzati per tradurre da e verso tutte le lingue ufficiali, per un totale di 552 coppie linguistiche (EC 2014). A novembre 2017 MT@EC è stato sostituito da eTranslation, un servizio online disponibile gratuitamente anche alle pubbliche amministrazioni fino al 2020. La pagina web dedicata (https://ec.europa.eu/info/resources-partners/machine-translation-public-administrations-etranslation_it) evidenzia la sicurezza del sistema, ma precisa che le traduzioni così ottenute, grezze, sono solo un punto di partenza la cui qualità deve essere perfezionata da un traduttore professionista.
La traduzione neurale
Tra settembre e novembre 2016 Google, Systran e Microsoft hanno annunciato la nascita di nuovi sistemi di traduzione automatica basati su reti neurali artificiali. La svolta è strettamente collegata a recenti successi nel campo dell’intelligenza artificiale grazie ai quali sequenze semplici e intuitive per gli esseri umani, come riconoscere un viso, vengono per la prima volta svolte efficacemente anche dal computer.
Di norma, infatti, il computer risolve con la massima rapidità ed efficacia problemi lunghi e intellettualmente difficili purché li si possa descrivere attraverso un linguaggio formale fatto di formule matematiche; tuttavia, molte azioni che gli esseri umani compiono senza sforzo sono difficilmente codificabili in linguaggio formale, perché dipendono in larga misura da conoscenze esperienziali e intuitive del mondo. Goodfellow, Bengio e Courville (2016, 2) riferiscono l’esperimento con un sistema dotato di una base di conoscenza del mondo espressa in linguaggio macchina e di regole di inferenza logica tali da permettergli di «ragionare» sulle informazioni ricevute. Malgrado il complesso lavoro svolto dai ricercatori per trasformare le conoscenze del mondo esterno in linguaggio formale in grado di dettagliare le innumerevoli possibilità, il computer non ha capito un breve racconto relativo a un uomo di nome Fred che si faceva la barba con il rasoio elettrico perché, applicando le proprie regole di inferenza, ha interpretato l’entità FredWhileShaving (FredMentreSiRade, traduzione mia) come contenente parti elettriche e ha quindi ipotizzato che non si trattasse più di una persona. La soluzione per dotare i computer di simili conoscenze intuitive ora c’è:
This solution is to allow computers to learn from experience and understand the world in terms of a hierarchy of concepts, with each concept defined through its relation to simpler concepts. By gathering knowledge from experience, this approach avoids the need for human operators to formally specify all the knowledge that the computer needs. The hierarchy of concepts enables the computer to learn complicated concepts by building them out of simpler ones. If we draw a graph showing how these concepts are built on top of each other, the graph is deep, with many layers. For this reason, we call this approach to AI deep learning (Goodfellow, Bengio and Courville 2016, 1-2)./CM>
A questo punto, spero che nessuno me ne vorrà se, per dare concretezza agli aspetti teorici sintetizzati sopra, lascerò che siano alcuni di questi sistemi di traduzione neurale a dimostrare le proprie capacità.
Vediamo come se la cava Pure Neural MT™:
Questa soluzione consente ai computer di imparare dall’esperienza e di comprendere il mondo in termini di gerarchia dei concetti, con ogni concetto definito attraverso la sua relazione con concetti più semplici. Raccogliendo conoscenze dall’esperienza, questo approccio evita la necessità che gli operatori umani specifichino formalmente tutte le conoscenze di cui il computer ha bisogno. La gerarchia dei concetti consente al computer di imparare concetti complicati costruendoli da quelli più semplici. Se disegniamo un grafico che mostra come questi concetti sono costruiti sopra l’altro, il grafico è profondo, con molti strati. Per questo motivo, chiamiamo questo approccio all’apprendimento profondo AI.
E ora DeepL Translator:
Questa soluzione permette ai computer di imparare dall’esperienza e comprendere il mondo in termini di gerarchia di concetti, in cui ogni concetto è definito attraverso la sua relazione con i concetti più semplici. Raccogliendo le conoscenze dall’esperienza, questo approccio evita agli operatori umani di specificare formalmente tutte le conoscenze di cui il computer ha bisogno. La gerarchia dei concetti permette al computer di imparare concetti complicati costruendoli da quelli più semplici. Se si disegna un grafico che mostra come questi concetti sono costruiti uno sopra l’altro, il grafico è profondo, con molti livelli. Per questo motivo, chiamiamo questo approccio all’apprendimento profondo dell’intelligenza artificiale.
Infine Google Traduttore:
Questa soluzione consente ai computer di imparare dall’esperienza e capire il mondo in termini di una gerarchia di concetti, con ogni concetto definito attraverso la sua relazione a concetti più semplici. Raccogliendo le conoscenze dall’esperienza, questo approccio evita la necessità per gli operatori umani di specificare formalmente tutta la conoscenza di cui il computer ha bisogno. La gerarchia dei concetti consente al computer di imparare concetti complicati costruendoli da concetti più semplici. Se disegniamo un grafico che mostra come questi concetti sono costruiti uno sopra l’altro, il grafico è profondo, con molti livelli. Per questo motivo, chiamiamo questo approccio all’apprendimento profondo dell’IA.
Davvero notevole. Certo, occorre sottolineare che il testo appartiene al dominio sovrano per il sistema ed è articolato in modo lineare ed esplicativo, tipico della scrittura scientifica anglosassone, il che facilita il compito. Tuttavia, malgrado un grado piuttosto alto di ripetitività ricalcato presumibilmente sul testo fonte, non si può ignorare la correttezza sia formale sia di significato, a parte un errore in tutte e tre le versioni, e un secondo in Pure Neural MT. Nel complesso i tre testi non richiedono che un minimo intervento di post-editing, anche se, nel caso dell’errore, cruciale. Mi riferisco all’incapacità di interpretare correttamente l’ultima frase, «For this reason, we call this approach to AI deep learning», che nelle versioni in italiano pare non conclusa: sebbene l’acronimo AI sia stato reso in modi diversi – tradotto da DeepL e Google, che rispettivamente hanno usato «intelligenza artificiale» e «IA», mantenuto nella sua forma inglese «AI» da Pure Neural MT – i tre sistemi hanno interpretato «AI deep learning» come un sintagma la cui testa, «apprendimento», è premodificata da «profondo» e da «AI», «intelligenza artificiale» e «IA» rispettivamente. È mancato quindi il completamento logico di «chiamare – qualcosa – come?» che avrebbe permesso di ottenere una frase tipo «Ecco perché questo approccio all’intelligenza artificiale viene definito “apprendimento profondo”». Non credo sia un esercizio di pedanteria: le poche righe del testo di partenza avevano lo scopo di spiegare che cosa si intende per «apprendimento profondo» e, benché le traduzioni descrivano correttamente il processo che ne è alla base, non chiudono il cerchio. Addirittura, letta con la giusta intonazione, la frase finale di Pure Neural MT potrebbe capovolgere il senso del passo, arrivando a significare «l’approccio all’apprendimento profondo viene definito “AI”».
I sistemi di traduzione usati sopra si basano su reti neurali artificiali simili a quelle del cervello umano, le cui unità funzionali – i neuroni – ricevono, elaborano e trasmettono le informazioni ad altri neuroni. Per le reti neurali artificiali a più strati, o livelli, si parla di «apprendimento profondo» perché i passaggi descritti precedentemente si attivano in ordine di complessità, estrapolando modelli dall’osservazione di enormi quantità di dati reali e generando nuove rappresentazioni che vanno anche a correggere informazioni precedenti in un meccanismo ripetibile di autoapprendimento (Goodfellow, Bengio, Courville 2016).
Un altro esempio permetterà di apprezzare ulteriormente il potenziale di questo sistema di traduzione. Il passo che segue è tratto da un articolo di The Guardian sulle recenti elezioni politiche italiane:
Italy’s new, complex electoral system means that predictions of seat numbers in its parliament are unreliable. Italy also has a long and rich history of drama. Its people, after all, have survived the rise and fall of western civilisation. In recent decades, political instability and economic stagnation has been a feature of the Italian experience – not a symptom of a wider crisis. Yet this general election is not business as usual (theguardian.com, 5 marzo 2018).
Pure Neural MT™:
Il nuovo e complesso sistema elettorale italiano significa che le previsioni dei numeri di seggi in seno al parlamento sono inaffidabili. L’Italia ha anche una lunga e ricca storia di drammi. I suoi cittadini, dopo tutto, sono sopravvissuti all’ascesa e alla caduta della civiltà occidentale. Negli ultimi decenni l’instabilità politica e la stagnazione economica sono state una caratteristica dell’esperienza italiana, non un sintomo di una crisi più ampia. Tuttavia, queste elezioni generali non sono affari come al solito.
DeepL Translator:
Il nuovo e complesso sistema elettorale italiano rende inaffidabili le previsioni sul numero di seggi in parlamento. Anche l’Italia ha una lunga e ricca storia drammatica. Il suo popolo, dopo tutto, è sopravvissuto all’ascesa e al declino della civiltà occidentale. Negli ultimi decenni, l’instabilità politica e la stagnazione economica sono state una caratteristica dell’esperienza italiana, non un sintomo di una crisi più ampia. Tuttavia, queste elezioni politiche non si svolgono come al solito.
Google Traduttore:
Il nuovo e complesso sistema elettorale italiano significa che le previsioni sul numero di seggi nel suo parlamento non sono attendibili. L’Italia ha anche una lunga e ricca storia drammatica. La sua gente, dopo tutto, è sopravvissuta all’ascesa e alla caduta della civiltà occidentale. Negli ultimi decenni, l’instabilità politica e la stagnazione economica sono state una caratteristica dell’esperienza italiana – non un sintomo di una crisi più ampia. Eppure queste elezioni generali non sono come al solito.
Anche in questo caso, a una prima lettura sono ottime traduzioni. Migliorabili, certo, ma gli errori sono pochissimi. Comuni a tutti e tre le versioni sono il mancato uso della maiuscola per «Parlamento» e la difficoltà di «a rich history of drama», reso con «una ricca storia di drammi» e «una ricca storia drammatica»: per quanto si tratti di un’affermazione innegabile, mi pare che il contesto e l’iperbole creata dalla frase in questione e dalla seguente richiedano una soluzione che evochi il campo semantico teatrale ma suggerisca un potenziale tragicomico, quale, per esempio, «una storia ricca di colpi di scena». Un ulteriore errore nella traduzione di DeepL è, sempre nella seconda frase, «Anche l’Italia ha […]»: la particella aggiuntiva è stata riconosciuta, ma la sua posizione cambia il significato da «A rafforzare l’inaffidabilità delle previsioni concorre il fatto che l’Italia ha anche […]» a «Non solo altri paesi, bensì anche l’Italia»; un traduttore umano avrebbe forse proposto «D’altra parte, l’Italia ha […]» o, «Certo, l’Italia ha […]», ma ho l’impressione che la capacità di interpretare questa e le due frasi seguenti come elementi che corroborano l’affermazione di apertura ma preparano il terreno all’avversativa introdotta da yet risulti al momento troppo articolata per qualsiasi sistema. Vale tuttavia la pena sottolineare la scorrevolezza del testo di DeepL, con soluzioni agili e precise quali «rende inaffidabili», «elezioni politiche» e «ascesa e declino», nonché la sostituzione del trattino lungo con una virgola, una delle possibilità previste dalle nostre regole di punteggiatura. La stessa attenzione alla punteggiatura compare in Pure Neural MT, che tuttavia fornisce una traduzione alquanto goffa della frase di apertura «[…] le previsioni dei numeri di seggi in seno al parlamento […]» e, soprattutto, non coglie l’idiomaticità di business as usual, cioè «ordinaria amministrazione», reso con l’inconsueto letteralismo di «affari come al solito». Nel complesso, la meno efficace pare la traduzione di Google per scelte lessicali («gente», «ascesa e caduta», «elezioni generali») e per il calco d’uso del trattino singolo, non previsto in italiano.
Malgrado queste critiche, sono discrete traduzioni, alla cui qualità contribuiscono tuttavia due fattori: 1) il fatto che la traduzione automatica delle notizie giornalistiche sia una prassi ormai consolidata e quindi in continuo miglioramento, e 2) l’utilizzo crescente di guide di stile concepite per agevolare l’utente nella lettura e, soprattutto, permettere una più efficace traduzione automatica. Le principali indicazioni di questa pratica – diffusa fra multinazionali, enti governativi, istituzioni e quotidiani online – prevedono l’utilizzo di periodi brevi, l’eventuale ricorso a coordinate anziché subordinate, la riduzione d’uso dei deittici poiché richiedono uno sforzo interpretativo per riconoscere il riferimento interno o esterno al testo, la preferenza per le forme verbali rispetto a quelle nominali e per le forme attive anziché passive. Esempi ne sono lo Style Manual and Writers’ Guide della CIA e Scrivere chiaro della Commissione europea, ma anche i numerosi manuali che insegnano a creare narrazioni e contenuti per il web, o, in un esempio estremo, quei software di scrittura che, una volta inseriti gli ingredienti (personaggi, luogo, tempo, azioni, genere di narrazione) producono una storia di finzione o magari una notizia di cronaca. Avviene quindi una sorta di pre-editing preventivo, un ritorno all’idea della lingua controllata, con sintassi semplificata e riduzione del lessico come postulato in Basic English (Ogden 1935), nello stesso momento in cui per la traduzione si aprono possibilità virtualmente infinite. A uno sguardo distopico può sembrare che la capacità umana di usare il linguaggio si vada riducendo proprio mentre quella della macchina cresce a tutta velocità.
Qualche riflessione
Come in altri settori, il progresso tecnologico non ha solo semplificato o alleggerito il compito delle traduttrici e dei traduttori: l’ha trasformato e rischia di ridurre drasticamente la categoria. Il supporto fornito dalle memorie traduttive ha velocizzato i tempi di lavorazione, il che ha significato quantità maggiori e scadenze ravvicinate, mentre l’abbondanza di software ha contribuito a svalutare la percezione della complessità del processo traduttivo fra i non addetti ai lavori, con conseguenze anche sul piano delle retribuzioni. La visione essenzialmente strumentale della traduzione (l’ingresso in nuovi mercati, l’attrazione di nuovi clienti), la parcellizzazione degli incarichi e la segmentazione dei testi operata dalle memorie traduttive spezzano il rapporto con il testo da tradurre e rischiano di ridurne la comprensione, generando una modalità di lavoro assimilabile al fordismo: Output is increased, costs are decreased, the customer gets the car/translation, and the producer pays less for it (Cronin 2013, 92: «La produzione aumenta, i costi diminuiscono, il cliente ha la sua auto/traduzione e il produttore spende meno» – traduzione mia). Malgrado l’apparente diversificazione offerta dalle traduzioni in più lingue, viene consolidato un paradigma di controllo centrale che implica la standardizzazione dei formati, delle espressioni e, a lungo andare, del pensiero. Inoltre, il ricorso a corpora e memorie traduttive determina la cristallizzazione e il riverbero in molteplici sedi degli stessi termini e delle stesse frasi, che, riproposte in automatico dal software durante la lavorazione del testo, difficilmente lasciano spazio a qualsivoglia analisi critica. Come evitare le connotazioni ideologiche veicolate, per esempio, da forme attive anziché passive o da declinazioni di genere?
Le possibilità aperte dalla traduzione neurale ridurranno ulteriormente il fabbisogno di traduttrici e traduttori e sposteranno sempre di più l’intervento umano alla fase di revisione. Non c’è dubbio che i testi più standardizzati e operativi risulteranno praticamente perfetti, ma, come credo di aver suggerito con il passo dall’editoriale del Guardian, i livelli interpretativi sono molteplici e articolati e, se si volessero integrare le osservazioni fatte sopra, quel pur breve testo richiederebbe una notevole operazione di adattamento, il che renderebbe antieconomico il sistema. Un ulteriore rischio, a mio parere, è che testi tendenzialmente scorrevoli e corretti sul piano sintattico e lessicale «ingannino» il revisore, che potrebbe non cogliere eventuali scostamenti di significato e relativo effetto.
La traduzione automatica e altre applicazioni dell’intelligenza artificiale trovano inoltre ampia applicazione nel settore della sicurezza: sono molti gli enti governativi, le agenzie di intelligence e gli eserciti che si avvalgono di software di fornitori di servizi linguistici quali SDL e Systran per analisi di dati provenienti dai social media, creazione di contenuti digitali, traduzioni, comunicazioni simultanee multilingui (sufficientemente attendibili da essere utilizzate anche in reali situazioni di battaglia, si legge sulla pagina di SDL dedicata ai governi, https://www.sdl.com/industries/government/applications.html). Le attuali necessità di monitoraggio sono enormi ed è evidente che si tratta di volumi impossibili da gestire senza le macchine; tuttavia, genera una certa inquietudine pensare che algoritmi o architetture neurali possano decidere di questioni vitali. Non che i testi tradotti da esseri umani siano immuni da errori, ma la portata di questi sviluppi e la progressiva dipendenza dall’intelligenza artificiale generano timori sul futuro dell’umanità espressi perfino da Elon Musk, il fondatore di SpaceX, Tesla e OpenAI, nel documentario Do You Trust This Computer?
La traduzione letteraria non pare toccata dagli automatismi delle macchine. In virtù di una marcata funzione espressiva e del frequente ricorso al valore connotativo del lessico, il linguaggio letterario presenta caratteristiche di unicità e scarto rispetto alla lingua standard che hanno reso impraticabili la traduzione rule-based e la ricerca statistica di stringhe equivalenti. Allo stato attuale, anche l’apprendimento profondo su base neurale da parte delle macchine non ottiene risultati immediatamente utilizzabili. Toral e Way (2015) promuovono l’applicazione della traduzione automatica o quantomeno delle memorie traduttive ai testi letterari, sostenendo che ne trarrebbero vantaggio traduttrici e traduttori, notoriamente mal pagati, e le lingue minoritarie. Tuttavia, l’abbondantissima ricerca sulla traduzione letteraria tradizionalmente si concentra sulla qualità del testo tradotto, sulle soluzioni traduttive, su aspetti di ideologia, sull’annosa questione della fedeltà, sulle caratteristiche testuali, mentre la rapidità di esecuzione del lavoro e la sua redditività – pur essendo aspetti dibattuti – non rientrano fra gli obiettivi. Oltre alle difficoltà oggettive di applicazione della traduzione automatica ai testi creativi, occorre tenere conto del fatto che la traduzione letteraria, in confronto a quella commerciale o a fini strategici, non muove grandi masse di denaro, né nei paesi con lingue minoritarie, né nei paesi di lingua anglosassone, attivissimi nella ricerca sulla traduzione automatica ma notoriamente poco propensi a importare opere letterarie straniere nella propria cultura. Mi pare dunque che al momento i tentativi di applicare la traduzione assistita o automatica al testo letterario siano influenzati più dalla fascinazione per il possibile superamento dei limiti dell’intraducibilità che da obiettivi concreti.
Gli sviluppi tecnologici hanno avuto ovvie ripercussioni anche sulla didattica della traduzione. I corsi di studio specialistici si sono moltiplicati e i normali corsi di lingua straniera spesso forniscono una base in materia. Tuttavia, poiché l’orientamento attuale è far acquisire competenze spendibili sul mercato del lavoro, occorre che gli studenti si familiarizzino con le attuali tecnologie e siano in grado di adattarsi a successivi cambiamenti. In questo addestramento strumentale viene penalizzato il rapporto individuale totale con il testo, compresa la capacità di interpretarlo e riscriverlo. Se la traduzione avviene con l’ausilio delle procedure statistiche descritte precedentemente e i futuri traduttori si occupano prevalentemente di preparazione del testo e relativa revisione, viene loro sottratto l’allenamento all’interpretazione, tutta quella serie di operazioni e ipotesi che portano alla costruzione del significato. Proprio perché in fase di formazione, credo che sarebbe necessario offrire agli studenti la massima ampiezza dell’esperienza di traduzione, permettere di sentirla come «l’atto di lettura più intimo» (Spivak 2007) e al tempo stesso cogliere o immaginare le connessioni fra il testo e il mondo, interrogarsi sul percorso che traccia e sull’orientamento che mostra, per esempio, decidendo poi se mantenerlo in traduzione o smorzarlo, affinando quindi anche la capacità espressiva nella propria lingua.
Questa modalità didattica è in linea con il rallentamento generale, il ritorno al low-tech e la riscoperta della traduzione come arte o artigianato che Cronin (2016) auspica riflettendo sulla responsabilità della traduzione nella crescita esponenziale di dati e merci che contribuiscono al cambiamento climatico, nonché sul consumo di energia e spazio fisico causato dalla crescente digitalizzazione dei processi traduttivi. È una proposta che potrebbe generare interesse se non altro per i costi umani e materiali del cambiamento climatico, ma, considerando gli ostacoli che vengono sollevati alla richiesta di ridurre le emissioni, una sorta di decrescita traduttiva in un momento in cui l’automazione dei processi cognitivi sta ottenendo risultati senza precedenti sembra assai poco probabile.
Riferimenti bibliografici
ALPAC 1966: Automatic Language Processing Advisory Committee, Language and Machines: Computers in Translation and Linguistics, Washington, National Academy of Sciences
Cronin 2013: Michael Cronin, Translation in the Digital Age, London–New York, Routledge
Cronin 2016: Michael Cronin, Eco-translation. Translation and Ecology in the Age of the Anthropocene, Oxon-New York, Routledge
EC 2014: European Commission, MT@EC. Secure Machine Translation for the European Union, Luxembourg, Publications Office of the European Union
Eco 2003: Umberto Eco, Dire quasi la stessa cosa. Esperienze di traduzione, Milano, Bompiani
Goodfellow, Bengio, Courville 2016: Ian Goodfellow, Yoshua Bengio and Aaron Courville, Deep Learning, Cambridge/London, The MIT Press
Monti 2014: Johanna Monti, Le tecnologie per la traduzione nell’era del cloud computing: stato dell’arte e prospettive future, in «Testi e linguaggi» 8/2014, pagg. 55-65 (https://unora.unior.it/retrieve/handle/11574/170110/32144/area10.monti.johanna.4.pdf)
Ogden 1935: Charles Kay Ogden, Basic English. A General Introduction with Rules and Grammar, London, Kegan, Trench, Trubner & Co.
Sin-wai 2014: Chan Sin-wai, The Routledge Encyclopedia of Translation Technology, Oxon–New York, Routledge
Sin-wai 2016: Chan Sin-wai, The Future of Translation Technology. Towards a World without Babel, Oxon–New York, Routledge
Spivak 2007: Gayatri C. Spivak, La politica della traduzione, in Gayatri C. Spivak, Invisibili, Napoli, Filema, 2007, pagg. 121-165 (traduzione italiana di Ambra Pirri da The Politics of Translation, in Destabilizing Theory, edited by Michèle Barrett and Anne Phillips, Stanford, Stanford University Press, 1992, pp. 177-200
Toral, Way 2015: Antonio Toral, Andy Way, Machine-Assisted Translation of Literary Text: A Case Study, in «Translation Spaces», 4, n. 2 (2015), pagg. 240-267
Weaver 1949: Warren Weaver, Memorandum, New York, The Rockefeller Foundation (http://www.mt-archive.info/Weaver-1949.pdf)
Sitografia
DeepL: https://www.deepl.com/translator
Google Traduttore: https://translate.google.it
Pure Neural MT™: https://demo-pnmt.systran.net/production#/translation
SDL: https://www.sdl.com
Systran: http://www.systransoft.com
The Guardian: https://www.theguardian.com/commentisfree/2018/mar/05/the-guardian-view-on-italian-elections-a-lesson-for-progressives