Wenn Algorithmen Emotionen lernen

    Leicht
    Deutsch perfekt 4/2022
    Smiley
    © Video Render/Shutterstock.com
    Von Eva Wolfangel

    Milenko Saponja versucht, „glücklich“ zu sprechen. Aber das Display des Smartphones zeigt ihm ein Symbol für „neutral“. Auf dem Handy laufenhier: aktiv seinläuft eine spezielle App. Sie erkennenhier: merken, wie / was für ein(e) … etwas isterkennt das Gefühl, -eEmotionGefühle aus der die Stimme, -nhier: ≈ charakteristische Melodie: Jeder Mensch hat sie, wenn er spricht.Stimme – aber man kann sie nicht täuschenhier: machen, dass … etwas nicht erkennttäuschen. Das ist in diesem Moment sehr deutlich zu sehen bei Audeering, einer Softwarefirma für Audioanalyse in Gilching bei München.  

    Saponjas Chef Björn Schuller erklärt: „Das Problem ist, dass Das System wurde trainiert.Man hat das System trainiert.das System mit echtwirklichechten Emotionen Das System wurde trainiert.Man hat das System trainiert.trainiert wurde.“ An diesem Tag wollen die Angestellten aber die App vorstellen. Und dafür müssen sie die Emotionen imitieren, sagt Schuller. Er ist nicht nur Firmenchef von Audeering, sondern auch Informatik-Professor.

    Gefühle und das Persönlichkeits­merkmal, -eindividueller Aspekt von einem CharakterPersönlichkeitsmerkmale machen etwas mit unserer Stimme. Sie sagt, wie wir uns fühlen. Und sie sagt, wer wir sind.

    Die Technik zur Analyse kann schon bald Teil des Alltags werden. Denn es zusammenkommenhier: zur gleichen Zeit da seinkommen aktuell zwei Faktoren zusammenkommenhier: zur gleichen Zeit da seinzusammen: erstens die Computertechnik des maschinellvon Maschinenmaschinellen Lernens mit ihrem Talent, das verborgene Muster, die verborgenen MusterAnalogie: Man kann sie auf den ersten Blick nicht sehen oder merken.verborgene Muster zu erkennen. Zweitens die Daten, einfach weil immer mehr Menschen mit ihren das Digitalgerät, -ez. B. Smartphone, Tablet, Smartwatch …Digitalgeräten sprechen. Das bringt extrem viele Daten.

    Shrikanth Narayanan von der University of California hat vor ein paar Jahren eine emotional schwere Situation untersucht. Er hat aufzeichnenhier: die Stimme speichern, z. B. als MP3aufgezeichnet, wie Eheleute bei die Paartherapie, -nhier: psychologische Hilfe durch einen Experten für ein Paar mit Problemen (das Paar, -e: hier: (Ehe-)Frau und (Ehe-)Mann)Paartherapien miteinander≈ zusammenmiteinander sprechen. Der Computer hat nicht untersucht, was die Worte bedeuten. Er hat nur den der Klanghier: Nuance von einer Stimme, z. B. fröhlichKlang der Stimmen analysiert.

    Später hat der Algorithmus Informationen darüber bekommen, welches Paar verheiratet geblieben ist – und welches nicht. Bald hat das System in vier von fünf der Fall, Fällehier: Situation; BeispielFällen die korrekte Prognose gegeben, ob ein Paar nach dem Ende der Therapie verheiratet bleibennoch länger verheiratet seinverheiratet geblieben ist. Das war eine bessere Prognose als die der Therapeutinnen.

    Die ersten Systeme zur die Gefühlserkennungvon: Gefühle erkennenGefühlserkennung sind schon aus den Laboren gekommen. In Deutschland muss man die Menschen vor so einer Analyse informieren. Aber kaum jemand weiß genau, was mit die Sprachaufnahme, -nhier: Datei von gesprochenen Wörtern und TextenSprachaufnahmen auf den Servern von großen US-amerikanischen Firmen passiert. Die sammeln am fleißigsten. Amazon hat schon ein ein Patent anmelden aufversuchen, ein Patent zu bekommen für (das Patent, -e:, ≈ Erlaubnis: Nur man selbst darf eine neue Idee oder Konstruktion verkaufen.)Patent darauf angemeldet, Emotionen und Krankheiten aus der Stimme zu erkennen.

    „Der Computer weiß, wann ich schwach bin.“

    Firmenchefs in diesem Sektor erzählen gern von der Arbeit mit Patientinnen. Schuller von Audeering zum Beispiel. Er hat vor rund 20 Jahren mit Projekten für junge Autisten begonnen. Sie sollen es für Eltern leichter machen, die Gefühle ihrer autistischen Kinder zu erkennen. So …hier: Zum Beispiel …So zeigen Schullers Angestellte spezielle Spiele für diese Kinder. Sie üben zusammen mit süßhier: ≈ lieb; nettsüßen Robotern, ihre Emotionen zu zeigen. Technik für etwas Gutes.

    Eines darf man nicht vergessen: Das größte Interesse an dieser Technologie zeigen Firmen, die sich für den Menschen nicht als Patienten oder Klientinnen interessieren, sondern als der Verbraucher, -Person: Sie kauft Produkte oder benutzt einen Service.Verbraucher. Die Kunden von Audeering sind zum Beispiel Institute, die andere Firmen beraten. Sie alle wollen an der Stimme die Meinung der Leute zu einem Produkt erkennen.

    Auch an der Analyse von Stimmdaten aus dem Internet gibt es sehr großes Interesse. Zum Beispiel, wenn Personen auf Youtube über ein Produkt sprechen. Und für das Verkaufen der Zukunft ist es wichtig, den Kunden im richtigen Moment zu erwischenhier: ≈ genau dann treffen, wenn … schwach / ohne Hilfe isterwischen: „Der Computer kann dann perfekt die die Stimmung, -enhier: Gefühl: So geht es einer Person.Stimmung analysieren und weiß, wann ich schwachhier: leicht zu manipulieren, z. B. zum Kaufenschwach bin“, sagt Schuller.

    So schützenhier: machen, dass niemand anderer … ohne Erlaubnis benutzen und verkaufen darfschützt Amazons Gefühlserkennungs-Patent eine Methode, um Kundinnen passende Produkte vorzuschlagen. Schuller ist sich sicher, dass alle der Sammler, -Person oder Firma: Sie sammelt.Sammler von Sprachdaten an Emotionen arbeiten, zum Beispiel auch Google.

    Und es funktioniert auch umgekehrt≈ genau andersumgekehrt: Maschinen lernen, Emotionen in Gesprächen zu simulieren – mithilfe von Details in ihren synthetischen Stimmen. Aber wer will so etwas? „sobald≈ im Moment, wenn; sofort, wennSobald es der Vorteil, -epositiver AspektVorteile bringt, wird es schnell normal und akzeptiert sein“, sagt Schuller.

    Neugierig auf mehr?

    Dann nutzen Sie die Möglichkeit und kombinieren Ihr optimales Abo ganz nach Ihren Wünschen.