Google lernt sprechen

(Bild: Google)

Googles Projekt für künstliche Intelligenz ist der computergenerierten Sprache auf der Spur. Google DeepMind will mit dem System WaveNet nun fast so gut Texte vorlesen können wie ein Mensch.

Sogenannte Text-to-Speech-Systeme (TTS) sind praktisch, weil sie geschriebenen Text in Sprache umformen, und so leichter zum Beispiel als Podcast konsumiert werden können. Das Problem ist nur: Sowas hört sich meistens ziemlich übel nach Computerstimme an. Nun hat Google einen wesentlich verbesserten Algorithmus entwickelt, der den Unterschied zu echten Menschen deutlich verringern soll.

Diese Erfolge wies DeepMind sowohl für die englische Sprache wie auch Hochchinesisch (Mandarin) nach. Zudem könne sein System nahtlos zwischen Stimmen wechseln und auch Musik realistisch imitieren.

In dem neuen Forschungsbericht heißt es, die derzeit besten TTS-Systeme seien nach allgemeiner Ansicht die der Kollegen von Google. Sie basierten auf „Sprachfragmenten“ eines einzelnen menschlichen Sprechers, die dann zu computergenerierten Äußerungen verbunden würden. Dieser Ansatz, der auch als TTS durch Konkatenation oder Verkettung bezeichnet wird, kann zwar natürlich klingende gesprochene Sprache produzieren, ist aber typischerweise auf eine einzige Stimme beschränkt. Diese Limitierung versucht so genanntes parametrisches TTS zu überwinden, das auf einem Codec-Synthesizer basiert. Es gilt bisher aber als weniger echt klingend.

WaveNet verwendet hingegen einen Maschinenlernen-Ansatz: Es wird mit Audio-Rohdaten mehrerer Sprecher geschult. Als neuronales Netz modelliert es diese Signale zu synthetischen Äußerungen um. „Die Verwendung von Rohdaten der Tonschwingungen ergibt nicht nur natürlicher klingende Sprache, sie führt auch dazu, dass WaveNet jede Art Audio nachmodellieren kann, einschließlich Musik“, schreibt DeepMind in einem Blogbeitrag.

Auf einer Skala von 1 bis 5 klingt WaveNet natürlicher als konkatenative und parametrische TTS-Systeme von Google (Bild: DeepMind).

Auf einer Skala von 1 bis 5 klingt WaveNet natürlicher als konkatenative und parametrische TTS-Systeme von Google (Bild: DeepMind).

WaveMind könne auch die Eigenheiten einzelner Sprecher samt Atmung und Mundbewegungen nachbilden und sowohl mit männlichen wie auch weiblichen Stimmen sprechen, heißt es. In seinem Blog legt das Forschungslabor einige Hörproben vor, und zwar in Englisch und Hochchinesisch.

Die Forscher schreiben auch, sie hätten das Netzwerk auf die Identität bestimmter Sprecher hin konditioniert, damit es immer wisse, welche Stimme es verwenden solle. Das Training mit Material unterschiedlicher Sprecher habe aber die Qualität auch bei der Modellierung einer einzelnen Stimme verbessert. „Das legt eine Art Transferdenken nahe“, heißt es.

Vorerst benötigt WaveNet gewaltige Datenmengen und Rechenkraft. Für die Modellierung von Audio-Rohdaten setzt DeepMind mindestens 16.000 Samples pro Sekunde an. Dieser Ansatz sei aber für ein realistisches Ergebnis nötig gewesen. Die Forscher hoffen, ihren Ansatz mit geringer Mühe auf Musik und Spracherkennung übertragen zu können.

Tags :Quellen:ZDNet.comVia:Mit Material von Florian Kalenda, ZDNet.de

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Advertising