Microsoft erweitert seine KI-Übersetzungsfunktionen

Microsoft erweitert seine KI-Übersetzungsfunktionen

Microsoft hat seiner Übersetzungssoftware und seinen Übersetzungsdiensten durch die Einführung einer neuen Technologie der künstlichen Intelligenz, die die Qualität der Produktionsübersetzungsmodelle erheblich verbessert, einen enormen Aufschwung verliehen.

Letztendlich will der Softwareriese durch seine umfangreichere Code-XYZ-Initiative KI-Modelle für Text, Bild, Audio und Sprache zusammenführen. Im Rahmen dieser Initiative unterstützt Z-code die Schaffung von KI-Systemen, die chatten, sehen, hören und verstehen können.

Microsoft hat seine Microsoft Translator-Software sowie seine anderen Azure AI-Dienste mit seinen neuen Z-Code-Modellen aktualisiert. Um diese Modelle in die Produktion zu bringen, verwendet der Softwareriese Nvidia-GPUs und Triton Inference Server, um sie zum Leben zu erwecken. diese wirkungsvoll einbinden.

Erwähnenswert ist auch, dass Microsoft Translator der erste Anbieter maschineller Übersetzung ist, der den Kunden des Dienstes Live-Z-Code-Mixture-of-Experts-Vorlagen zur Verfügung stellt.

Z-Code-Spezialisten-Mix

Im Gegensatz zu früheren KI-Modellen verwenden Z-Code-Modelle eine neue Architektur namens Mixture of Experts (MoE), bei der verschiedene Teile der Modelle unterschiedliche Aufgaben erlernen können. So lernen die Modelle, gleichzeitig zwischen mehreren Sprachen zu übersetzen.

Gleichzeitig nutzen die neuen Z-Code-MoE-Modelle die Vorteile des Transferlernens, das einen effektiven Wissensaustausch zwischen verwandten Sprachen wie Englisch und Französisch ermöglicht. Die Modelle verwenden während des gesamten Trainingsprozesses außerdem parallele, einsprachige Daten, was eine hochwertige maschinelle Übersetzung über viele Ressourcensprachen hinweg ermöglicht.

Im Oktober letzten Jahres gab Microsoft in einem Blogbeitrag bekannt, dass Microsoft Translator mittlerweile über hundert Sprachen übersetzen kann. Hierzu nutzte das Unternehmen zweihundertnull Millionen Faktoren, die von einhundert Sprachpaaren unterstützt wurden. Da es jedoch ziemlich schwierig ist, große Modelle mit Milliarden von Faktoren zu trainieren, arbeitete das Translator-Team mit Microsoft DeepSpeed ​​​​​​ zusammen, um ein Hochleistungssystem zu entwickeln, mit dem sie ihre großen Z-Code-MoE-Leitermodelle trainieren konnten.

Microsoft ging dann eine Partnerschaft mit Nvidia ein, um die Vorteile schnellerer Engines zu nutzen, die zur Laufzeit verwendet werden können, um ihre neuen Z-Code/MoE-Modelle in GPUs zu integrieren. Nvidia hat seinerseits benutzerdefinierte CUDA-Kerne entwickelt, die die Vorteile der CUTLASS- und FasterTransformer-Bibliotheken nutzen, um MoE-Schichten in eine V100-GPU zu integrieren.

Die neuen Z-Code-Vorlagen von Microsoft sind jetzt auf Einladung für Kunden des Dienstes verfügbar, die dessen Dokumentübersetzungsfunktion nutzen, die ganze Dokumente oder sogar Dokumentenmengen in eine Vielzahl unterschiedlicher Dateiformate übersetzt und dabei ihr Originalformat in ihrer Gesamtheit sichert.