Thomas Kiderle M.Sc.
Telefon: | +49 821 598 - 2330 |
E-Mail: | thomas.kiderle@informatik.uni-augsburginformatik.uni-augsburg.de () |
Raum: | 2038 (N) |
Adresse: | Universitätsstraße 6a, 86159 Augsburg |
Forschungsinteressen
- Analyse und Synthese von nonverbalem Verhalten
- Computational Humor
- Deep Learning
- Virtuelle Charaktere
LINKS
Projekte
Offene Themen für Abschlussarbeiten und Projektmodule
Die folgenden Themen betreue ich gerne im Rahmen einer Bachelorarbeit, Masterarbeit oder eines Projektmoduls. Der inhaltliche Schwerpunkt kann dabei flexibel angepasst werden, sodass Interessen und Kompetenzen der Studierenden optimal abgedeckt werden.
Darüber hinaus freue ich mich jederzeit über eigene Themenvorschläge, sofern sie eine gewisse Überschneidung mit meinen Forschungsschwerpunkten aufweisen.
Virtueller Zuhörer durch Bewegungssynthese
In diesem Projekt soll ein fotorealistischer virtueller Charakter lernen, wie er einem Sprecher in Echtzeit aufmerksam zuhört und richtig auf den Sprecher reagiert. Dies kann beispielsweise nonverbales Verhalten wie Backchanneling (z.B. Nicken, Lächeln), aber auch die passende Mimik oder Gestik zum aktuellen Kontext umfassen. Zur Visualisierung wird Meta-Human benutzt (Epic Games), für das Machine-Learning State-of-the-Art Methoden aus der Literatur. Das Endergebnis ist eine Live-Pipeline, in welcher der Benutzer eine Geschichte erzählt und die virtuelle Figur in der Zwischenzeit das gelernte Zuhörerverhalten anwendet.
Virtueller Sprecher durch Bewegungssynthese
In diesem Projekt soll ein fotorealistischer virtueller Charakter lernen, wie er beim Sprechen das richtige nonverbale Verhalten zeigt. Da dieses Verhalten manchmal vom Kontext abhängt (z.B. emotional vs. nicht emotional), kann die Mimik oder Gestik für die aktuelle Sprachsequenz variieren. Zur Visualisierung wird Meta-Human benutzt (Epic Games), für das Machine-Learning State-of-the-Art Methoden aus der Literatur. Das Endergebnis ist eine Live-Pipeline, in welcher der virtuelle Charakter eine Geschichte zusammen mit dem gelernten nonverbalen Verhalten vorträgt.
Diskussion mit einem virtuellen Charakter
In diesem Projekt soll eine Pipeline erstellt werden, in welcher ein Nutzer mit einem photorealistischen Charakter ein Gespräch führen kann. Der Charakter soll dabei möglichst passende Antworten geben (z.B. LLM) und mit synchronen Lippenbewegungen sprechen. Die meisten Tools dafür existieren bereits am Lehrstuhl und müssen lediglich zusammengebaut werden. Ein Hauptfokus wird darauf liegen, ein bereits existierendes TTS-System zur Generierung von Lippenbewegungen und Audio einzusetzen.
Publikationen
2021 |
Silvan Mertes, Florian Lingenfelser, Thomas Kiderle, Michael Dietz, Lama Diab and Elisabeth André. 2021. Continuous emotions: exploring label interpolation in conditional generative adversarial networks for face generation. In Ana Fred, Carlo Sansone and Kurosh Madani (Ed.). Proceedings of the 2nd International Conference on Deep Learning Theory and Applications, July 7-9, 2021. SciTePress, Setúbal, 132-139. DOI: 10.5220/0010549401320139 |
Hannes Ritschel, Thomas Kiderle and Elisabeth André. 2021. Implementing parallel and independent movements for a social robot's affective expressions. In 2021 9th International Conference on Affective Computing and Intelligent Interaction, Workshops and Demos (ACIIW), 28 September – 1 October, 2021, Virtual Event, Nara, Japan. IEEE, Piscataway, NJ, 1-4 DOI: 10.1109/ACIIW52867.2021.9666341 |
Silvan Mertes, Thomas Kiderle, Ruben Schlagowski, Florian Lingenfelser and Elisabeth André. 2021. On the potential of modular voice conversion for virtual agents. In 2021 9th International Conference on Affective Computing and Intelligent Interaction, Workshops and Demos (ACIIW), 28 September – 1 October, 2021, Virtual Event, Nara, Japan. IEEE, Piscataway, NJ, 1-7 DOI: 10.1109/ACIIW52867.2021.9666349 |
Thomas Kiderle, Hannes Ritschel, Kathrin Janowski, Silvan Mertes, Florian Lingenfelser and Elisabeth André. 2021. Socially-aware personality adaptation. In 2021 9th International Conference on Affective Computing and Intelligent Interaction, Workshops and Demos (ACIIW), 28 September – 1 October, 2021, Virtual Event, Nara, Japan. IEEE, Piscataway, NJ, 1-8 DOI: 10.1109/ACIIW52867.2021.9666197 |
2020 |
Hannes Ritschel, Thomas Kiderle, Klaus Weber, Florian Lingenfelser, Tobias Baur and Elisabeth André. 2020. Multimodal joke generation and paralinguistic personalization for a socially-aware robot. Lecture Notes in Computer Science 12092, 278-290. DOI: 10.1007/978-3-030-49778-1_22 |
Hannes Ritschel, Thomas Kiderle, Klaus Weber and Elisabeth André. 2020. Multimodal joke presentation for social robots based on natural-language generation and nonverbal behaviors. In Second Workshop on Natural Language Generation for Human–Robot Interaction at HRI 2020, March 23, 2020, Cambridge, UK. |