Microsoft hat seiner Übersetzungssoftware und -diensten durch die Einführung neuer KI-Technologie, die die Qualität von Produktionsübersetzungsmodellen dramatisch verbessert, einen enormen Schub verliehen.

Letztendlich zielt der Softwareriese darauf ab, KI-Modelle für Text, Bild, Audio und Sprache durch seine größere Code XYZ-Initiative zusammenzubringen. Als Teil dieser Initiative unterstützt Z-Code die Entwicklung von KI-Systemen, die chatten, sehen, hören und verstehen können.

Microsoft hat seine Microsoft Translator-Software sowie seine anderen Azure-KI-Dienste mit seinen neuen Z-Code-Modellen aktualisiert. Um diese Modelle in Produktion zu bringen, verwendet der Softwareriese Nvidia-GPUs und Triton Inference Server, um sie zum Leben zu erwecken. diese effektiv integrieren.

Es ist auch erwähnenswert, dass Microsoft Translator der erste Anbieter von maschineller Übersetzung ist, der Z-Code Mixture of Experts-Vorlagen live für Kunden des Dienstes bereitstellt.

Z-Code-Spezialisten-Mix

Im Gegensatz zu früheren KI-Modellen verwenden Z-Code-Modelle eine neue Architektur namens Mixture of Experts (MoE), bei der verschiedene Teile der Modelle unterschiedliche Aufgaben lernen können. So lernen die Models, zwischen mehreren Sprachen gleichzeitig zu übersetzen.

Gleichzeitig nutzen neue Z-Code-MoE-Modelle Transfer Learning, das einen effektiven Wissensaustausch zwischen verwandten Sprachen wie Englisch und Französisch ermöglicht. Die Modelle verwenden während des gesamten Trainingsprozesses auch parallele und einsprachige Daten, was eine qualitativ hochwertige maschinelle Übersetzung über ressourcenintensive Sprachen hinaus ermöglicht.

Im Oktober letzten Jahres gab Microsoft in einem Weblog-Beitrag bekannt, dass Microsoft Translator nun über hundert Sprachen übersetzen kann. Dafür verwendete das Unternehmen zweihundert null Millionen Faktoren, die mit einhundert Sprachpaaren kompatibel sind. Da das Trainieren großer Modelle mit Milliarden von Faktoren jedoch ziemlich schwierig ist, arbeitete das Translator-Team mit Microsoft DeepSpeed ​​​​​​an der Entwicklung eines Hochleistungssystems, mit dem sie ihre großen Code-MoE-Modelle trainieren konnten. Z.Ladder.

Microsoft ging dann eine Partnerschaft mit Nvidia ein, um schnellere Engines zu nutzen, die zur Laufzeit verwendet werden können, um ihre neuen Z-Code/MoE-Modelle auf GPUs zu bringen. Nvidia hat seinerseits benutzerdefinierte CUDA-Kernel entwickelt, die die CUTLASS- und FasterTransformer-Bibliotheken nutzen, um MoE-Layer in eine V100-GPU zu integrieren.

Die neuen Z-Code-Vorlagen von Microsoft sind jetzt auf Einladung kostenlos für Kunden des Dienstes, die die Dokumentübersetzungsfunktion nutzen, die ganze Dokumente oder sogar Dokumentenmengen in eine Reihe verschiedener Dateiformate übersetzt, während ihr ursprüngliches Format intakt bleibt. .

Teilen Sie es