Künstliche Intelligenz und Affective Com puting tragen dazu bei dass Geräte in Zukunft intelligenter werden und Situati onen besser analysieren können Auch Maschinen können anhand bestimmter Daten menschliche Gefühle und Stim mungen erkennen Den technologischen Ansatz der natürli chen Sprachverarbeitung wird von virtu ellen Assistenten wie Alexa Cortana und Siri genutzt Diese verstehen natürlich gesprochene Sprache jedoch sind diese nicht in der Lage menschliche Gefühle in der Sprache zu erkennen Mit Emotion Artificial Intelligence Al könnte dann der nächste Schritt erfolgen Mit entsprechen der Reaktion soll das System die Emotio nen des Anwenders erkennen Im Prinzip können alle Geräte welche mit Sensoren ihre Umgebung wahrnehmen lernen mit Menschen zu interagieren Um Emotionen erkennen zu können müs sen sie jedoch trainiert werden Es muss gelehrt werden welche verschiedenen Gefühlszustände es gibt und wie sie an gemessen zu reagieren haben Ziel des sen soll sein dass Assistenten sowohl mit Körpersprache als auch verbal auf die Emotionen der Menschen reagieren Dabei spielt zwischen Mensch und Ma schine das Deep Learning eine immer bedeutendere Rolle Denn von der Deep Learning Technologie können Robo ter beispielsweise Mimik und verbale Ausdrücke von bestimmten Emotionen messen Um die Emotion in Echtzeit zu messen helfen Kameras und Al basier te Emotion Tracking Software Zu den ersten Branchen welche Emotion Al ver wenden könnten Gesundheitswesen und Automobilindustrie zählen Autohersteller wären in der Lage zu prüfen ob die Ver wendung eines Emotion Detection Sys tems in Fahrzeugen sinnvoll ist Das System ist in der Lage Gemütszustän de wie Aggression Müdigkeit und Wut zu erkennen und gibt diese dann dem Fah rer als Hinweis Solche Hinweise könnten dann für mehr Sicherheit im Straßenver kehr sorgen Für den Einsatzbereich He althcare soll dieses System vonNnutzen sein wenn Menschen tragbare Geräte bei sich tragen und diese Geräte dann den Gesundheitsstatus des Patienten rund um die Uhr überwachen Sollte un terwegs ein Notfall sein kann das System den Notarzt direkt informieren Zudem sind Ärzte dann in der Lage Muster leicht zu erkennen und zu entscheiden ob sie mit dem Patienten kommunizieren sollen Experten gehen davon aus dass in den nächsten Jahren der Emotion Al Bereich ausgebaut wird und dadurch wird die Interaktion mit den virtuellen Assistenten menschlicher komfortabler und natürli cher mw KÜNSTLICHE INTELLIGENZ GEFÜHLE ZU ERKENNEN IST SCHWER 22 MAGAZIN ALS EPAPER LESEN SOLSNAP MAGAZIN DE INDUSTRIE SOLsnap com

Vorschau SOLsnap-Magazin Februar 2018 Seite 22
Hinweis: Dies ist eine maschinenlesbare No-Flash Ansicht.
Klicken Sie hier um zur Online-Version zu gelangen.