La traducción automática se ha puesto de moda, y es que como Google reza «no es perfecta, pero es mejor que nada». Prueba de ello son las incesantes nuevas aproximaciones a esta disciplina, si se puede llamar así, que quedan recogidas en los encuentros anuales de la Asociación de Lingüística Computacional, que da cuenta del futuro y de los avances de esta ciencia.
Hasta el momento, la traducción automática se había enfocado desde dos perspectivas distintas, mediante traducción automática estadística (SMT) que genera traducciones por estadística al comparar y analizar corpus bilingües; y traducciones automáticas basadas en principios sintácticos. Las primeras tienen en su contra la incapacidad de producir traducciones decentes cuando el orden de palabras en los distintos idiomas es muy diferente. La desventaja de las segundas es que la fuerte jerarquización sintáctica que en teoría subyace a todas las lenguas naturales, no permite más que una buena traducción de un grupo muy reducido de palabras. Así, la nueva invención llamada Syntax-Augmented Machine Translation (SAMT) es un híbrido de las dos anteriores de manera que refuerza la gramática con las probabilidades obtenidas de corpus paralelos.
Otra de las nuevas aproximaciones consiste en la detección automática de posibles errores en la traducción, al mismo tiempo que indica si la traducción es fiable y la calidad de esta. Se trata del MT error prediction.
Sin embargo, a pesar de tanta tecnología y tantos algoritmos aplicados, las traducciones automáticas resultan irrisorias ante determinados fenómenos lingüísticos: refranes, colocaciones, homonimias, polisemias, fraseologías, coloquialismos, etc siguen suponiendo un gran desafío para estos traductores. En mi empeño por demostrar esto como verdad difícilmente rebatible, he sometido a prueba a tres traductores automáticos: Systranet (http://www.systranet.com/translate), Google translate (http://www.translate.google.com) y Reverso (http://www.reverso.net/text_translation). Aquí teneis los resultados.
Fenómeno linguístico | Frase en español | Syntranet | Google | Reverso |
Polisemia | El gallo tenía la cresta ensangrentada | The rooster had the blood-stained crest | The rooster had the bloody crest | The rooster had the stained with blood comb |
Polisemia | Es su cara más divertida | It is the funnier face | Is the lighter side | It is his(her,your) more enterteining face |
Coloquialismo | Es un tío bueno | Is an good uncle | Is a hunk | Is an good uncle |
Coloquialismo, polisemia | Molar mazo | To be fun mallet | Molar deck | Molar mallet |
Colocación | Es mi amigo del alma | Is my friend of the soul | Is my soul mate | Is my best friend |
Homonimia | Cuando sale, liga | When she leaves, league | When it comes out, league | When it(he,she) goes out, it(he,she) goes well together |
Homonimia | Ella se puso la liga roja | The red league put itself | She put on her red garter | It (he, she) put on his (her, your) red league |
Fraseología | Tomar el pelo | To take the hair | Tease | To take the hair |
Fraseología | Estirar la pata | To strech the leg | To kick the bucket | To strech the leg |
Refrán | Mejor prevenir que curar | Better safe than sorry | Better safe than sorry | Better to anticipate (preparate) than to recover |
Refrán | Quien se fue a Sevilla perdió su silla | The one that went to Seville lost its chair | Which went to Seville lost his seat | The one that went away to Sevilla lost his (her, your) chair |
Simplemente creo que nos faltan palabras (y nunca mejor dicho) para describir los resultados. Para empezar a analizar, diré que en el cuadro están marcados en verde aquellas traducciones válidas (por tanto, todas las demás traducciones son incorrectas o no correctas al 100%), y en rojo aquellas que por algún motivo me han llamado más la atención. Por lo que parece, Google translate es más correcto, aunque el porcentaje de éxito es mínimo.
A rasgos generales, podemos ver la gran dificultad que estos tres traductores encuentran a la hora de traducir palabras polisémicas y homónimas, ya que la mayoría de veces no son detectadas y por lo tanto la frase resulta en un sinsentido. La cantidad de coloquialismos y colocaciones traducidas correctamente es vergonzosa, aunque más vergonzosas son las traducciones ofrecidas: ¿«mollar deck»?, por favor… Igualmente llama la atención la literalidad con la que se traducen las colocaciones, la fraseología, los refranes. Aunque en algunas ocasiones la traducción es la correcta, cabe destacar que esa traducción es la misma en los distintos traductores, lo que lleva a pensar que no se han incluido en la base de datos del traductor fraseologismos o refranes sinónimos. ¿Qué pasa con «An apple a day keeps the doctor away» o «to pull the leg»?, ¿son, acaso, menos válidos? La respuesta es no, y la explicación se resume en la pobreza de estos recursos (por si no había quedado claro con todos los ejemplos anteriores). Además de estas líneas generales de análisis, sobresale la cantidad fallos gramaticales graves (especialmente en Syntranet) y la incapacidad para incluir un sujeto gramatical certero. Este hecho demuestra que un traductor automático no es capaz, por una parte, de desentrañar el contexto en el que se desenvuelve la frase, ya que si este fuera el caso, la primera frase ofrecida en el cuadro (por ejemplo), no tendría mayor dificultad. Por otra parte, saca a relucir la necesidad de la estructura sintáctica completa en el idioma al que se va a traducir, ya que no es capaz de reemplazar un sujeto omitido por el tipo de acción que esté realizando o por el tipo de complementos a los que se vea ligado («is a uncle good»).
Debido a estas razones, no he incluido en mi estudio fenómenos lingüísticos que dependen en un grado mucho más alto del contexto, como podrían ser ambigüedades, juegos de palabras, ironías o sarcasmos. Estos le resultarían totalmente indescifrables, y la única tarea que realizaría el traductor automático sería un mero transvase idiomático, vacío de connotación, sin significación pragmática. Por cierto, en este punto creo conveniente destacar que Google ya traduce poesía… Supongo que las implicaturas poéticas no suponen mayor problema para sus traducciones.
Sin embargo, soy consciente de que he sometido deliberadamente a estos traductores a pruebas que ofrecían conflicto a priori con el objetivo de demostrar lo mal traducidos que pueden llegar a estar algunos pasajes. Pero yo prefiero abogar por la objetividad y mostraros la realidad tal y como aparece en la web. Todas las explicaciones teóricas ya están dadas, así que vamos a lo práctico, a casos reales. En primer lugar, me dirijo al artículo que publicó TAUS titulado «What machines still can't translate» (http://translate.google.es/translate?hl=es&sl=en&u=http://www.translationautomation.com/technology/whatmachinesstillcanttranslate.html&ei=FKjMTtPDJ8jb8gPlnen6Dw&sa=X&oi=translate&ct=result&resnum=1&ved=0CDsQ7gEwAA&prev=/search%3Fq%3Dwhat%2Bamchines%2Bstill%2Bcant%2Btrasnlate%26hl%3Des%26biw%3D1024%26bih%3D452%26prmd%3Dimvns) y me acojo a la opción de Google de traducirlo automáticamente (recordemos que google translate era el que nos ofrecía mejores resultados). Lo primero que leo, el título, dice así
Sin embargo, soy consciente de que he sometido deliberadamente a estos traductores a pruebas que ofrecían conflicto a priori con el objetivo de demostrar lo mal traducidos que pueden llegar a estar algunos pasajes. Pero yo prefiero abogar por la objetividad y mostraros la realidad tal y como aparece en la web. Todas las explicaciones teóricas ya están dadas, así que vamos a lo práctico, a casos reales. En primer lugar, me dirijo al artículo que publicó TAUS titulado «What machines still can't translate» (http://translate.google.es/translate?hl=es&sl=en&u=http://www.translationautomation.com/technology/whatmachinesstillcanttranslate.html&ei=FKjMTtPDJ8jb8gPlnen6Dw&sa=X&oi=translate&ct=result&resnum=1&ved=0CDsQ7gEwAA&prev=/search%3Fq%3Dwhat%2Bamchines%2Bstill%2Bcant%2Btrasnlate%26hl%3Des%26biw%3D1024%26bih%3D452%26prmd%3Dimvns) y me acojo a la opción de Google de traducirlo automáticamente (recordemos que google translate era el que nos ofrecía mejores resultados). Lo primero que leo, el título, dice así
«Lo que las máquinas aún no se puede traducir». Y tanto. Desde luego, el título no deja lugar a dudas: realmente los traductores automáticos no son capaces de traducir. En este caso ya no se trata únicamente de la traducción de una palabra polisémica que ya sabíamos que estaba condenada al fracaso, sino de errores gramaticales que no tienen razón de ser. El resto de la traducción resulta igualmente inconsistente: falsos amigos, concordancias de género incorrectas, verbos sin flexionar, frases que carecen de sentido... Desde luego no tiene desperdicio.
Acudo a continuación a una página en la que ya estuve hace algunas semanas, la universidad de Texas, para comprobar, si quizás la traducción automática funciona mejor para aquellos textos que no necesitan de coherencia ni cohesión, como puede ser una interfaz (http://translate.google.es/translate?hl=es&sl=en&u=http://www.utexas.edu/&ei=5qvMToTwNdG38gOg7aEE&sa=X&oi=translate&ct=result&resnum=1&sqi=2&ved=0CCcQ7gEwAA&prev=/search%3Fq%3Dtexas%2Buniversity%26hl%3Des%26biw%3D1024%26bih%3D452%26prmd%3Dimvns). Me resulta curioso comprobar que no existen diplomaturas, ni licenciaturas, ni ingenierias, ni grados, únicamente «pregrados» y que estos se aplican, como se aplica el maquillaje.
En este punto de análisis me reaparece en la cabeza una pregunta que ya se me planteó en la primera de mis entradas: ¿hasta qué punto prefiere la gente una buena traducción frente a una traducción accesible, automática, vacía? Como vemos, los traductores automáticos son incapaces de relacionarse de manera efectiva con el contexto, con la pragmática y, en definitiva, con el verdadero mensaje. La tarea de la traducción es dura y requiere de conocimientos y habilidad, mucha habilidad para poder aunar todos los factores de manera efectiva. Como dije, no se trata de una automatización de la traducción, sino de una auto-matización, una matización de conceptos que se expresa de manera única, autónoma, en cada uno de nosotros.
*Bibliografía
-What machines still can’t translate, TAUS
-What machines can’t translate... yet?, TAUS
-Google translate
-Syntranet
-Reverso
No hay comentarios:
Publicar un comentario