Microsoft ha dado un enorme impulso a su software y servicios de traducción al adoptar una nueva tecnología de inteligencia artificial que mejora drásticamente la calidad de los modelos de traducción de producción.
En última instancia, el gigante del software tiene como propósito conjuntar modelos de IA para texto, visión, audio e idioma a través de su iniciativa más extensa Código XYZ. Como parte de esta iniciativa, Z-code apoya la creación de sistemas de IA que pueden charlar, ver, oír y entender.
Microsoft ha actualizado su software Microsoft Translator así como sus otros servicios de Azure AI con sus nuevos modelos de código Z. Para llevar estos modelos a producción, el gigante del software está usando GPU Nvidia y Triton Inference Server para darles vida. incorporarlos de forma eficaz.
También merece la pena indicar que Microsoft Translator es el primer distribuidor de traducción automática en presentar las plantillas Z-code Mixture of Experts en vivo para los clientes del servicio.
Mezcla especialista de código Z
A diferencia de los modelos de IA precedentes, los modelos de Z Code emplean una nueva arquitectura llamada Mixture of Experts (MoE) donde diferentes partes de los modelos pueden aprender diferentes labores. Así, los modelos aprenden a traducir entre múltiples idiomas simultáneamente.
Al mismo tiempo, los nuevos modelos Z-code MoE aprovechan el aprendizaje por trasferencia que deja compartir conocimientos de forma eficaz entre idiomas afines, como el inglés y el francés. Los modelos asimismo emplean datos paralelos y monolingües a lo largo del proceso de formación, lo que deja una traducción automática de alta calidad más allí de los idiomas de muchos recursos.
En octubre del año pasado, Microsoft anunció en una publicación de weblog que Microsoft Translator ahora puede traducir más de cien idiomas. Para esto, la compañía usó doscientos cero millones de factores compatibles con cien pares de idiomas. No obstante, debido a que adiestrar modelos grandes con miles de millones de factores es bastante difícil, el equipo de Traductor trabajó con Microsoft DeepSpeed para desarrollar un sistema de alto desempeño que utilizaron para asistir a adiestrar sus grandes modelos MoE de código Z. Ladder.
Luego, Microsoft se asoció con Nvidia para aprovechar motores más veloces que se pueden emplear en tiempo de ejecución para incorporar sus nuevos modelos Z-code/MoE en GPU. Por su lado, Nvidia ha desarrollado núcleos CUDA adaptados que aprovechan las bibliotecas CUTLASS y FasterTransformer para incorporar capas de MoE en una GPU V100.
Las nuevas plantillas de código Z de Microsoft ahora están libres por convidación para los clientes del servicio que emplean su función de traducción de documentos, que traduce documentos completos o aun volúmenes de documentos en una pluralidad de formatos de fichero diferentes, sosteniendo su formato original íntegro.