ADMIN
2021
08
2021-08-01T12:00:00
Hochverfügbarkeit und Monitoring
RUBRIKEN
097
Forschungslabor
Aus dem Forschungslabor Folge 32
Gepflegter Smalltalk
von John Pardey
Veröffentlicht in Ausgabe 08/2021 - RUBRIKEN
Viele moderne Computer-Sprachtechniken bieten dank Machine Learning zwar beeindruckende Ergebnisse, es mangelt ihnen aber immer noch an einer zentralen Eigenheit natürlicher Sprache: eine offene Konversation ohne vorgegebene Pfade oder plötzliche Abbrüche. So sind "sinnvolle" Antworten relativ einfach zu erreichen, denn im einfachsten Fall ist "Ich weiß es nicht" eine sinnvolle Antwort auf praktisch alle Fragen. Damit sich das Gespräch mit dem Rechner natürlich anfühlt, müssen Antworten zudem auch spezifisch ausfallen.
Großer Sprung für Sprachassistenten
Google schreibt dazu: "Während sich Gespräche in der Regel um bestimmte Themen drehen, können sie aufgrund ihrer Offenheit an einem Ort beginnen und an einem völlig anderen Ort enden. Ein Gespräch mit einem Freund über eine TV-Show könnte sich zu einer Diskussion über das Land entwickeln, in dem die Show gedreht wurde, bevor eine Debatte über die beste regionale Küche dieses Landes geführt wird". Genau das ist bisher mit automatisierten Sprachsystemen aber nicht möglich.
Mit LaMDA (Language Model for Dialogue Applications) will Google dies überwinden und es ermöglichen, Konversationen mit Rechnern zu führen. Diese Fähigkeit soll künftig natürlichere Arten der Interaktion mit Technologie und völlig neue Kategorien hilfreicher Anwendungen ermöglichen. Dies ist ein Quantensprung gegenüber modernen Sprachassistenten, die nicht viel mehr leisten, als einfache, zugerufene Befehle auszuführen.
Viele moderne Computer-Sprachtechniken bieten dank Machine Learning zwar beeindruckende Ergebnisse, es mangelt ihnen aber immer noch an einer zentralen Eigenheit natürlicher Sprache: eine offene Konversation ohne vorgegebene Pfade oder plötzliche Abbrüche. So sind "sinnvolle" Antworten relativ einfach zu erreichen, denn im einfachsten Fall ist "Ich weiß es nicht" eine sinnvolle Antwort auf praktisch alle Fragen. Damit sich das Gespräch mit dem Rechner natürlich anfühlt, müssen Antworten zudem auch spezifisch ausfallen.
Großer Sprung für Sprachassistenten
Google schreibt dazu: "Während sich Gespräche in der Regel um bestimmte Themen drehen, können sie aufgrund ihrer Offenheit an einem Ort beginnen und an einem völlig anderen Ort enden. Ein Gespräch mit einem Freund über eine TV-Show könnte sich zu einer Diskussion über das Land entwickeln, in dem die Show gedreht wurde, bevor eine Debatte über die beste regionale Küche dieses Landes geführt wird". Genau das ist bisher mit automatisierten Sprachsystemen aber nicht möglich.
Mit LaMDA (Language Model for Dialogue Applications) will Google dies überwinden und es ermöglichen, Konversationen mit Rechnern zu führen. Diese Fähigkeit soll künftig natürlichere Arten der Interaktion mit Technologie und völlig neue Kategorien hilfreicher Anwendungen ermöglichen. Dies ist ein Quantensprung gegenüber modernen Sprachassistenten, die nicht viel mehr leisten, als einfache, zugerufene Befehle auszuführen.
Im Livestream der I/O zeigte Google etwa Gesprächsaufzeichnungen, in denen LaMDA in die kuriose Situation versetzt wurde, den Zwergplaneten Pluto und einen Papierflieger zu verkörpern. Auf die Frage, ob er jemals Besucher habe, antwortete der LaMDA-Pluto etwa: "Ja, einige. Der bedeutendste war das Raumfahrzeug New Horizons, das mich besucht hat". Der Papierflieger holte bei der Frage nach seinem schlimmsten Landeplatz zu einer kurzen Geschichte über eine Pfütze aus. Darin habe er einige Minuten liegen müssen, das sei recht nervig gewesen.
Die Entwicklung des LaMDA-Chatbots soll Googles KI-Richtlinien folgen und Missbrauchsrisiken minimieren. Beispielsweise will Google verhindern, dass LaMDA aus seinem Lernmaterial hasserfüllte Sprache, Vorurteile oder Falschinformationen mitnimmt. Google räumt aber gleichzeitig ein, dass LaMDA ab und zu noch unsinnige Antworten ausspucke, zumal die vorgestellte Technik noch weiterentwickelt wird.
Transformer als Basis
Wie viele aktuelle Sprachmodelle basiert LaMDA auf Transformer. Diese neuronale Netzwerkarchitektur wurde von Google Research erfunden und 2017 Open Source zur Verfügung gestellt. Diese Architektur erzeugt ein Modell, das sich darauf trainieren lässt, viele Wörter zu lesen (etwa einen Satz oder einen Absatz), darauf zu achten, wie diese Wörter zueinander in Beziehung stehen, und dann die Wörter vorherzusagen, von denen es denkt, dass sie als Nächstes kommen. Aber im Gegensatz zu den meisten anderen Sprachmodellen wurde LaMDA für Dialoge trainiert. Im Laufe seines Trainings hat es viele der Nuancen aufgeschnappt, die offene Gespräche von anderen Formen der Sprache unterscheiden. LaMDA ist somit in der Lage zu erkennen, ob eine Antwort im Gesprächskontext sinnvoll ist.
Diese Funktion zur vernünftigen Konversation will Google in seine eigene Suche oder auch die Workspaces integrieren. Die LaMDA-Technik soll außerdem Entwicklern und Unternehmenskunden zur Verfügung gestellt werden. Noch ist es aber nicht so weit und wann entsprechende Produkte mit der Technik bereitstehen, ist derzeit noch nicht absehbar.