Digitalen Assistenten Gesicht und Stimme geben
Chatbots sowie sprachbasierte Assistenten für die Wohnung oder für das Smartphone werden immer beliebter. Jedoch fehlt aktuell noch die Visualisierung dieser virtuellen Helfer: Gesicht, Mimik und Gestik werden nämlich nicht dargestellt. Dabei zeigen Studien, dass audiovisueller Austausch im Vergleich zu rein audio- oder text-basierter Interaktion einen Mehrwert bietet.
Die Forschenden des Projekts AniBot entwickeln und evaluieren eine Schnittstelle für Chatbots, um für virtuelle Assistenten eine fotorealistische, KI-basierte Videosynthese zu realisieren. Sie geben dem Assistenten ein Gesicht. Zusammen mit einer authentischen Stimmsynthese erlaubt dies eine persönliche und natürliche Mensch-Technik-Interaktion, die den Zugang zu Technik erleichtern kann. Um diese neuartige Schnittstelle zu untersuchen, entwickeln die Forschenden einen Demonstrator, der einen bestehenden Chatbot für telemedizinische Versorgung visualisiert. Sie untersuchen außerdem, welchen Mehrwert Patientinnen, Patienten und Pflegekräfte davon haben, wie sie mit dieser neuen Schnittstelle interagieren und welche ethischen, rechtlichen und sozialen Folgen damit einhergehen.
Das innovative System erweitert vorhandene Chat- und Sprachassistenten um Gesicht und Stimme. Damit kann es schnell Zugang zu weiteren Zielgruppen und Anwendungsgebieten finden. Mittelfristiges Ziel des Forschungsteams ist eine Ausgründung.