Sozio.Lab - Labor für empirische Untersuchungen

Überblick/Einführung

Im Forschungsfeld der Sozioinformatik werden empirische Fragestellungen interdisziplinär untersucht. Dabei stehen vorwiegend Herausforderungen an der Schnittstelle zwischen Menschen und Technologien im Vordergrund. Dies beinhaltet biophysiologische Messungen bei der Mensch-Computer- bzw. Mensch-Maschine-Interaktion, wie bspw. Hautleitfähigkeit, Herzratenvariabilität, Eye-Tracking und Pupillometrie. Durch praxisnahe Forschungsprojekte der Professur Sozioinformatik und gesellschaftliche Aspekte der Digitalisierung können Studierende Einblick in die Herausforderungen des Themengebiets gewinnen.

Schwerpunkte:

  • Biophysiologische Messungen während der Technikinteraktion.
  • Identifikation, Implementierung und Evaluierung innovativer Mensch-Computer-Interaktion.
  • Ethische Implikation und Herausforderungen im Kontext der Digitalisierung.

Beispielprojekte

Die Professur arbeitet mehreren Projekten in unterschiedlichen Stadien. Die folgenden Beispiele geben einen Einblick in mögliche Abschluss- und Projektarbeiten im Gebiet der Sozioinformatik.

Mensch-Roboter-(Roboter)-Interaktion

Fernkommunikation gewinnt immer mehr an Bedeutung in einer globalisierten Welt, gerade auch in ganz speziellen Situationen und Lagen, wie bspw. einer Pandemie. Telepräsenzroboter sind mobile Computerplattformen, die - ausgestatte mit einem eigenen Bewegungsapparat, Mikrofonen, Kameras und einem Bildschirm - die Teilnahme an entfernten Events ermöglichen. Gegenüber regulären Videotelefonaten bieten Telepräsenzroboter den Vorteil, dass Nutzer sich autonom bewegen können, ohne auf Hilfe angewiesen zu sein.

Studien durch die Forschungsprofessur Sozioinformatik an der FHWS zeigen, dass Menschen über einen Telepräsenzroboter ebenso Zuneigungen empfinden und Interaktionen ausführen können. So sind in Zukunft z. B. Touren in Hochschulen oder Museen für Menschen mit körperlicher Einschränkung oder aber ein Einsatz in Alten- und Pflegeeinrichtungen sinnvoll möglich.

Video-Link: https://youtu.be/W_PEO1xFj2o

Publikationen zum Projekt:

Keller, L.; Pfeffel, K.; Huffstadt, K. & Müller, N. H. (2020). Telepresence Robots and Their Impact on Human-Human Interaction. DOI: 10.1007/978-3-030-50506-6_31

Neue Formen der Mensch-Computer-Interaktion

Mensch-Computer-Interaktionen können per Maus, Tastatur und Gestensteuerung stattfinden. Fortschritte in den Fachbereichen der Neurowissenschaften, Medizin und Bioinformatik führen zur Erprobung von alternativen Schnittstellen zur Steuerung von Vomputern für motorisch eingeschränkte Patientinnen und Patienten. Die Forschungsprofessur Sozioinformatik an der FHWS verfolgt zwei innovative Ansätze: die Steuerung per Muskelkontraktion (EMG) sowie die Erfassung von Gehirnaktivität mittels funktionaler Nahinfrarotspektroskopie (fNIRS).

An der FHWS werden Mensch-Computer-Schnittstellen entwickelt und überprüft, wie sie im Hinblick auf Benutzbarkeit und Potential für mobile Anwendungen im Konsumentenbereich zu bewerten sind.

Video-Link: https://youtu.be/3KhvkPEW06Y

Publikationen zum Projekt:

Ulsamer, P.; Fertig, T.; Kraus, M.; Pfeffel, K. & Müller, N. H. (2020). Motor Imagery to Control Mobile Applications - An fNIRS Study.

Ulsamer, P.; Pfeffel, K. & Müller, N. H. (2020). Brain Activation in Virtual Reality for Attention Guidance. DOI: 10.1007/978-3-030-50506-6_14

Vibrotaktile Emotionsvermittlung

Alltägliche Face-to-Face Gesprächssituationen nutzen eine Vielzahl von Kommunikationskanälen. Menschen mit einer Beeinträchtigung bei der Erkennung, bspw. der Sehkraft sind durch diesen Umstand in der Interpretation einer Kommunikationssituation benachteiligt, da sie keinen Zugriff auf visuelle nonverbale Informationen haben, wie z. B. Gesichtsausdrücke. Dies führt dazu, dass eine Gesprächssituation nur unvollständig analysiert werden kann.

An einer Lösung arbeitet der Forschungsprofessur für Sozioinformatik an der FHWS. das Ziel ist es, die Gesprächssituation mit einem Interface zu unterstützen, das Emotionen erkennt, diese in taktile Reize umwandelt und über einen Vibrationshandschuh mitteilt. Die Lösung stützt sich dabei auf ein Kodierungssystem für Gesichtsmuskelbewegungen und ist gängiger Standard zur Erkennung von Emotionen anhand von Gesichtsausdrücken. Neu ist die Weitergabe essentieller Informationen über den Vibrationshandschuh. So kann einem Sprecher mit Beeinträchtigung während des eigenen Sprechaktes die Mimik des Zuhörers vermittelt werden.

Video-Link:  https://youtu.be/5P9aQWOdHaQ

Publikationen zum Projekt:

Kushnir A. & Müller N. H. (2020). Haptic Feedback in Everyday Conversation Situations. DOI:10.1007/978-3-030-50726-8_31

Kushnir A. & Müller N. H. (2020). Development of a Wearable Vision Substitution Prototype for Blind and Visually Impaired That Assists in Everyday Conversations. (Best Paper Award)

Berühungsfreie Steuerung von Mobilgeräten - handicAPP

Die Steuerung von Mobilgeräten mit Touch- oder Tastatureingabe kann für Menschen mit Beeinträchtigungen der Motorik eine Herausforderung darstellen. Mit der handicAPP kann die Gerätesteuerung durch die Verwendung der Webcam erleichtert werden. Dabei handelt es sich um eine lokal auf dem jeweiligen Gerät ablaufende Software, welche die Kopf- und Gesichtsposition relativ zum Gerät erfasst. Je nach Winkelabweichung zur Kamera, wenn der Kopf z. B. nach links oder rechts gedreht wird, können diese Informationen für die Steuerung verwendet werden. Das Projekt wurde bei der Social Innovator Challenge der Universitätz und FHWS in Würzburg mit dem ersten Platz ausgezeichnet.

Video-Link: https://youtu.be/VB8giMhA04I

Publikationen zum Projekt:

Pressemitteilung der FHWS und der Universität Würzburg.

Fotogrammetrische Erfassung der Ritterkapelle Haßfurt

Im Rahmen der Smart City Initiative der Stadt Haßfurt wurde ein Modellversuch zur fotogrammetrischen Erfassung der Ritterkapelle von Haßfurt nach modernsten Verfahren durchgeführt, um eine Grundlage für zukünftige Digital-Twin-Projekte zu ermöglichen.

Mit Foto- und Drohnenaufnahmen wird durch photogrammetrische Rekonstruktion ein hochdetailiertes 3D-Modell der Kapelle erstellt und soweit optimiert, dass das fertige Modell in verschiedensten digitalen Umgebungen verwendet werden kann – in etwa auf dem Smartphone, auf einer Website oder bei virtuellen Rundgängen. Das Team der Professur setzt hierbei auf aktuellste Technik, Software und leistungsstarkes Equipment, um ein möglichst fotorealistisches Ergebnis zu erzielen. So entstehen aus rund 38.000 Fotos und etwa vier Stunden Videoaufzeichnungen ein zur Realität nahezu identisches, drei-dimensionales Abbild des Innen- und Außenbereichs der Ritterkapelle Haßfurt.

Der dabei entwickelte Workflow wird in Zukunft dazu verwendet, sowohl die Digitalisierung der Stadt Haßfurt voranzubringen, als auch in ähnlichen Städten mit historischen Wahrzeichen eine dauerhafte Speicherung von Kunstwerken und architektonischen Besonderheiten zu gewährleisten.

Video-Link: https://youtu.be/LinMY9GgVaA

Publikationen zum Projekt:

Projektbericht auf der Smart City Webseite der Stadt Haßfurt.

Kontakt