Neuigkeiten und Blogs

Wenn Computer lieben lernen – Affective Computing

Hollywood macht es schon lange vor und zeigt in Filmen wie Baymax oder A.I. – Künstliche Intelligenz, dass Computer bald in der Lage sein werden, Gefühle zu erkennen und Gefühle zu zeigen. Aktuell erfüllen Maschinen hauptsächlich ihren Zweck – unsere Smartphones erinnern uns an Termine, Netflix analysiert unser Fernsehverhalten und schlägt uns proaktiv neue Filme und Serien vor, die uns gefallen könnten und mit Siri und Amazons Alexa sind erste Interaktionen möglich. So entsteht bereits jetzt häufig das Gefühl, dass eine gefühlvolle Interaktion zwischen Menschen und unseren smarten Geräten entsteht. Generell neigen wir ja dazu, unsere Alltagsgegenstände zu personalisieren. Allerdings fehlt ein entscheidender Schritt – noch erkennt unser Smartphone oder unser Fernseher nicht, in welcher Gefühlslage wir uns befinden. Vielleicht ist uns heute eher nach einem spannenden Action-Thriller, als nach einer Komödie. Oder man möchte einfach rührselige Musik hören, weil einem gerade zum Heulen ist.

Doch auch das wird sich bald ändern. Wir geben unseren Rechnern immer mehr Informationen über uns, um einen möglichst großen Vorteil zu erhalten. Gleichzeitig entwickeln sich die Bereiche des maschinellen Lernens und der künstlichen Intelligenz immer schneller weiter. Und auch der Mensch wird immer offener gegenüber neuer Technologie. Wearables sind bei manchen aus dem Alltag gar nicht mehr wegzudenken und das Internet der Dinge revolutioniert nicht nur die Industrie. Spracherkennung und erste Interaktionen mit smarten Geräten treiben die Entwicklung des sogenannten affective computing – also des gefühlvollen Rechners – immer weiter voran.

Affective computing beschreibt im weitesten Sinne Systeme und Geräte, die menschliche Gefühle erkennen, interpretieren, verarbeiten und simulieren können. Oder einfacher gesagt: Es geht um Technik, die weiß, wie wir uns gerade fühlen, und darauf entsprechend reagiert.

Gefühle programmieren oder erlernen

Doch wie genau soll mein Fernseher oder mein Kühlschrank nun wissen, wie ich mich gerade fühle? Künstliche Intelligenz und maschinelles Lernen sind hier die grundlegenden Schlagworte. Vor allem durch die Spracheingabe können Geräte Gefühle erlernen und analysieren – Tonhöhe, Wortwahl, Pausen. Je besser die Spracherkennung wird, desto mehr lernen Maschinen daraus und können verschiedenste Parameter analysieren. Ein vernetztes Heim kann dann beispielsweise auf eine angespannte Gemütslage reagieren: das Licht dimmen, die Heizung einstellen, ruhige Musik spielen und eine Tasse Tee zubereiten, um eine entspannende Atmosphäre zu kreieren.

Neben der Sprachtechnologie kann auch die Gesichtserkennung eine wesentliche Rolle spielen. Bereits aus der Werbeanalyse kennt man die Tests, in denen Probanden gebeten werden, sich Werbespots anzusehen und anschließend ermittelt wird, wo der Blick am meisten war, um dann die optimale Position für das beworbene Produkt zu finden. So ähnlich kann sich die Gesichtserkennung bestimmte Punkte im Gesicht suchen und lernen, welche Mimik zu welcher Gefühlslage gehört.

Auch Lösungen, die bereits heute viele von uns nutzen, können für das Erkennen von Gefühlen eine Rolle spielen. Wearables, die die Bewegung, den Puls oder die Körpertemperatur messen, geben Aufschluss über den aktuellen Gemütszustand.

Hier zeigt sich bereits, dass es beim affective computing nicht wirklich um das Erkennen von Gefühlen geht, sondern um das Erlernen von Zeichen, die Interpretation und Simulation dieser Zeichen. Noch ist eine wirkliche Interaktion mit Maschinen schwierig, doch die Möglichkeiten, die wir heute schon nutzen können, bieten einiges. Inwiefern Maschinen aber letztendlich Gefühle richtig interpretieren und dann auch authentisch simulieren können, bleibt erstmal noch Zukunftsmusik.

Dieser Blog ist in Zusammenarbeit mit unserer Partneragentur HBI entstanden.

      Lassen Sie Ihren Kommentar