Archiv: Leonce und Lena
Landestheater Theaterwerkstatt
von Georg Büchner
© Alexi Pelekanos
© Alexi Pelekanos
© Alexi Pelekanos
© Alexi Pelekanos
© Alexi Pelekanos
© Alexi Pelekanos
© Alexi Pelekanos
von Georg Büchner
Es beginnt wie eine klassische Shakespeare-Komödie: Prinz Leonce aus dem Königreich Popo soll Prinzessin Lena aus dem benachbarten Königreich Pipi heiraten. Leonce und Lena haben sich aber noch nie gesehen. Bevor es also zu dieser arrangierten Ehe und ihrem vorbestimmten höfischen Lebensweg kommt, flüchten beide unabhängig voneinander nach Italien. An dieser Stelle des Stückes wird aus Büchners Lustspiel ein absurdes Drama. Auf dem Weg in den Süden sind die jungen Menschen plötzlich auf sich allein gestellt und stürzen in seelische Abgründe und in eine veritable Sinnkrise. Wie die heutige Generation „Maybe“, zwischen Bindungsangst und der „Fear of missing out“, der Angst, etwas Besseres zu verpassen, stellen sie die großen Menschheitsfragen: Wie soll man leben? Und warum?
„Leonce und Lena“ beendete Büchner 1836 und schickte es als Beitrag eines Schreibwettbewerbs an den Cotta-Literaturverlag. Völlig frei und gegen alle Konventionen hat der deutsche Schriftsteller, Naturwissenschaftler und Revolutionär in seinem „Lustspiel“ die Grenzen der Genres gesprengt. Er greift die Tradition der romantischen Verwechslungskomödie auf, nimmt Anleihen an Shakespeares Klamauk, um schließlich eine neue, ganz eigene, hochpoetische Sprache zu entwickeln: aberwitzige Wortspiele, kristallklare Sätze voller Weisheit und Wissen um die Widersprüche unserer Existenz. Der junge in St. Pölten geborene Regisseur und Nestroypreisträger Moritz Franz Beichl wird mit seiner verspielten szenischen Fantasie den Büchner’schen heiter-verzweifelten Kosmos ausloten.
„Diesmal hat Moritz Franz Beichl eine reduzierte, gleichwohl burleske Inszenierung vorgelegt, die bei der Premiere am Freitagabend anhaltenden Applaus erntete.”
„Hingegen schießt Philip Leonhard Kelz als Valerio den Vogel ab: Sein komödiantisches Mienenspiel, die musikalische Parodieszene und nicht zuletzt sein köstliches italienisches Solo zählen zu den absoluten Highlights des Abends.”
APA/Salzburger Nachrichten
„Zuerst noch etwas verhalten, nimmt das Stück dann umso mehr Fahrt auf und sorgt für viele Lacher - aber auch Momente, die über das eigene Leben und Sein nachdenken lassen. Etwa wenn sich König Peter (großartig: Michael Scherff) an der Melancholie versucht. Getragen wird die Komödie vor allem von Valerio (Energiebündel: Philip Leonhard Kelz). Doch auch Prinz Leonce (gefühlvoll: Tobias Artner) und Prinzessin Lena (frisch: Marthe Lola Deutschmann) sorgen für heitere Stimmung.”
NÖN
Der Roboterpsychologe Dr. Benedikt Leichtmann vom Robopsychology Lab der Johannes Kepler Universität Linz über Vertrauen und andere Emotionen zu Künstlichen Intelligenzen (KI).
Georg Büchner beendet „Leonce und Lena“ mit der rätselhaften Fantasie, als Automat zu heiraten. Heute sind wir näher dran denn je, „menschliche Automaten“ zu bauen. Beschreibt die Roboterpsychologie zwischenmenschliche Aspekte von „Künstlichen Intelligenzen“?
Die Roboterpsychologie erforscht, wie künstliche Systeme auf Menschen wirken und wie wir uns Robotern gegenüber verhalten. Ein wichtiges Ziel ist es auch immer, Designempfehlungen zur Gestaltung von Robotern abzugeben. Dabei steht der Mensch im Fokus. Roboter sollten so gestaltet sein, dass sie sozial akzeptabel sind, Wohlbefinden befördern und unsere Bedürfnisse berücksichtigen. Wenn z.B. ein Roboter in einem Lager hilft, muss er so programmiert werden, dass er einen bestimmten Abstand zu Menschen einhält und uns nicht zu nahe kommt, sonst fühlen wir uns gestresst und machen Fehler.
So wie auch Menschen einander anfangs nicht zu nahe kommen?
Ja, wie mit einer fremden Person, die man noch nicht so gut einschätzen kann. Wenn jemand dann länger mit einem Roboter arbeitet, könnte man den Abstand reduzieren. In Studien sehen wir, dass Personen, die öfter mit Robotern arbeiten, von sich aus den Abstand reduzieren. Oder, wenn eine KI von sich aus zu viele Aufgaben übernimmt, kann es dazu führen, dass wir uns in dem Bedürfnis, die Kontrolle zu bewahren, eingeschränkt fühlen und sie nach unserer Wahrnehmung „übergriffig“ handelt.
Welche Bedeutung haben Emotionen? Welche Gefühle sollen Künstliche Intelligenzen darstellen können?
Generell haben simulierte Emotionen den Zweck, bestimmte Informationen zu übertragen. Gerade bei sozialen Robotern sind Emotionen ein Signal im zwischenmenschlichen Bereich. Roboter können uns motivieren oder eine gute Stimmung erzeugen. Aber wir wissen auch, dass es Gefahren bergen kann, wenn Roboter zu stark Gefühle simulieren. Anthropomorphismus ist die Tendenz, nicht-menschlichen Entitäten menschliche Eigenschaften zuzuschreiben. Eine Theorie besagt beispielsweise, je einsamer Menschen sind, desto stärker sind sie geneigt, nach sozialen Reizen zu suchen, und desto eher interpretieren sie soziale Eigenschaften in den Roboter hinein. Das sollte nicht dazu führen, dass man den menschlichen Kontakt nicht mehr anderweitig sucht.
Sind uns Roboter umso vertrauter, je „menschlicher“ sie designt sind? In „Leonce und Lena“ gibt es auch die Idee, dass die Roboter einfach als Stellvertreter für Menschen herhalten können.
Es gibt den Robotik-Professor Ishiguro Hiroshi, der einen Roboter nach seinem Äußeren nachgebaut hat. Ich vermute, das hat auch einen spielerischen Aspekt und es geht darum, den Rahmen des Möglichen auszuloten. In der Forschung kennt man das Phänomen des unheimlichen Tals, des „Uncanny Valley“: Wenn ein Roboter menschenähnlich wird, bewerten wir ihn zunächst als ansprechender, aber dann gibt es ein bestimmtes Niveau an Ähnlichkeit, ab dem die Ähnlichkeit unheimlich wird. Das unheimliche Tal ist ein offener Punkt in der Forschung. Wir sind technologisch noch nicht so weit, perfekte Roboter zu bauen, aber die Theorie besagt, dass es nach dem unheimlichen Tal wieder nach oben geht, wenn die Imitation noch besser wird und wir vielleicht keine Unterschiede mehr erkennen.
Welche Gefahren birgt die Imitation des Menschlichen?
Mit einer bestimmten Optik assoziieren wir schnell emotionale Fähigkeiten, die eine KI gar nicht erbringen kann. Das führt zu überhöhtem Vertrauen. Wir verlieren aus den Augen, dass die Informationen, die wir von der KI erhalten, nur auf der Basis von begrenzten Daten entstehen.
Das ist auch ein Aspekt der Fantasie, ein Automat zu sein – perfekt, fehlerlos und vor allem ohne die ständigen lästigen Zweifel zu leben.
Das ist aber ein Trugschluss, denn jede KI und Robotik ist Produkt eines Menschen, der entscheidet, wie eine KI funktionieren soll. Das heißt, dass auch unsere Fehler mit drinstecken. Eine KI kann nur so gut sein, wie es die Qualität und Vielfalt des Materials ist, auf dessen Basis die KI lernt.
Bedeutet das auch, dass sich in Künstlichen Intelligenzen Klischees, Vorurteile und Rollenbilder verstärken, oder können sie sie auch abfedern? Georg Büchner hat die zwei Automaten auf Erfüllung der Rollenbilder programmiert…
In der Robotik und KI steckt sicher die Chance, Stereotypen entgegenzuwirken, wir haben ja einen Gestaltungsspielraum im Design. Aber es ist wichtig, dass dieser Aspekt bewusst berücksichtigt wird. Wenn ich mit Datenmaterial arbeite, das einen gewissen Bias hat, wird sich das später zeigen. Wenn z.B. ein Roboter für die Pflege so gestaltet wird, dass er weibliche Proportionen widerspiegelt und das Stereotyp der weiblichen Krankenschwester bedient, wird der Roboter dieses Rollenbild weiter verfestigen.
Wo gibt es heute schon so etwas wie Liebe zu einem Roboter?
Chat-Bots, die Gespräche simulieren, simulieren zugleich zwischenmenschliche Beziehungen. Aber zu Liebe gehört ja noch so viel mehr. Letztlich geht es bei den Chat-Bots ja nur darum, mein einzelnes Bedürfnis zu befriedigen, ohne dass ich Grenzen einhalten muss.
Büchners Automaten sind auch Medien der Erkenntnis.
Wir können durch Robotik viel über uns selbst lernen. Indem wir lernen, wie wir Roboter für unsere sozialen Bedürfnisse gestalten, lernen wir auch den Menschen besser zu verstehen.
0 Einträge Eintrag