„Wie wäre es, wenn ich meiner KI moralische Fragen stellen könnte?“
In Folge 63 des Podcasts Digital Sensemaker spricht der Host Christoph Holz mit unserer Kollegin Sophie Jentzsch unter anderem darüber, inwiefern KI in der Lage ist, menschliche Dimensionen wie z.B. Moral, oder auch Humor zu lernen. Diese Frage ist sowohl aus wissenschaftlich/methodischer Sicht, als auch im Hinblick auf unsere Gesellschaft und die voranschreitende Digitalisierung hochinteressant.
Tools wie die Moral Choice Machine sind dabei eng eingebettet in das Thema Biases in der KI und diskriminierende KI.
Sophie Jentzsch hat ihr Studium an der TU Darmstadt an den Fachbereichen Psychologie und Informatik absolviert. Dort entwickelte sie zusammen mit der AIML Gruppe die „Moral Choice Machine“ – Ein Tool, das einfache Verhaltensregeln automatisiert aus Texten lernt. Seit 2019 ist Sophie Doktorandin und wissenschaftliche Mitarbeiterin am Deutschen Zentrum für Luft- und Raumfahrt in Köln, wo sie mit Themen wie „Computational Humor“ oder „Biases in AI“ weiterhin an der Frage forscht, ob und wie implizite menschliche Dimensionen mit Methoden des Maschinellen Lernens erfasst werden können.
Die Folge gibt es hier in voller Länge zu hören:
(Podigee) https://digitalsensemaker.podigee.io/65-63-wie-waere-es-wenn-ich-meiner-ki-moralische-fragen-stellen-koennte-mit-sophie-jentzsch-wiss-mitarbeiterin-bei-dlr
(Spotify) https://open.spotify.com/episode/6noAIsUayVSoiJzXaMfNvW?si=jAytEYMAQIW4jB2BP-XRmg&nd=1
Wissenschaftliches Paper zu “The Moral Choice Machine”: Frontiers | The Moral Choice Machine (frontiersin.org)