Janina Loh ist feministische Technikphilosophin und Expertin für Trans-, Posthumanismus sowie Roboterethik. Im Gespräch mit Katharina Serles erläutert sie, welche Zukunfts- beziehungsweise End-Visionen diese Theorien mit sich bringen.
Mit einem Comic von Stephan Gasser.
Katharina Serles: Was macht die Diskurse beziehungsweise Strömungen, mit denen du dich beschäftigst, aus?
Janina Loh: Die Zielvorstellung aller Diskurse rund um Trans- und Posthumanismus ist das Posthumane, das immer etwas Unterschiedliches bedeutet. Der Transhumanismus hat es sich zum Ziel gesetzt, den Menschen technologisch zu modifizieren. Es geht ihm um die Erschaffung eines radikal veränderten Menschen, der über gesteigerte und neue Kompetenzen verfügt. Dem Posthumanismus im Allgemeinen ist nicht mehr an einer Weiterentwicklung des Menschen gelegen, sondern an seiner Überwindung – deswegen nicht mehr ‹trans› im Sinne von ‹durch / hindurch›, sondern ‹post› im Sinne von ‹darüber hinaus / nach›. Der ‹technologische Posthumanismus› versucht, den Menschen durch Erschaffung einer künstlichen Superintelligenz zu überwinden. Seine große Endvision ist die Singularität. Das bezeichnet einen Moment, eine Epoche oder Daseinsweise in der Zukunft, ab dem bzw. in und mit der sich das menschliche Leben radikal gewandelt haben wird, insbesondere dank der Ablösung der menschlichen Spezies als ‹Krone der Schöpfung› durch eine artifizielle Superintelligenz und durch die Auflösung fundamentaler Kategorien wie Raum und Zeit, ich und du. Der ‹kritische Posthumanismus› möchte den Menschen auch überwinden, aber mittels kritischer Hinterfragung des aktuellen humanistischen Weltbilds. Dieses gilt dem kritischen Posthumanismus als Grundlage unseres ethischen, politischen und ökonomischen Denkens und damit als Ursache von Exklusion, Diskriminierung, Speziesismus und Rassismus. Der Humanismus ist unter anderem ein sogenannter Anthropozentrismus, das heißt, der männliche, weiße, westliche Mensch kann als einziges Wesen einen höchsten und absoluten moralischen Wert beanspruchen, wohingegen alle anderen Wesen auf diesem Planeten einen moralisch niedrigeren Status haben.
Du kritisierst u. a. den technologischen Posthumanisten Ray Kurzweil, der davon spricht, dass das Universum ‹aufwacht›, wenn es zur Singularität kommt. Das impliziert einen klaren Einschnitt – der Schlafzustand ist beendet, der Wachzustand beginnt – und auch eine Art Verbesserung. Ist es das, was dich stört?
Der Transhumanismus und viel mehr noch der technologische Posthumanismus sind in ihrer Haltung genuin apolitisch. Der Transhumanismus hat eine krasse Lücke, wenn es um die politischen und gesellschaftlichen Konsequenzen der eigenen Visionen geht. Der technologische Posthumanismus geht noch einen Schritt weiter: Kurzweil meint etwa anhand verschiedener technologischer Errungenschaften berechnen zu können, dass wir im Jahr 2045 in die Singularität eintreten. Das ist nicht nur ein logischer Fehlschluss, denn man kann nicht vom Einzelnen auf das Allgemeine schließen, es ist auch ein Fehlschluss mit politischen und gesellschaftlichen Konsequenzen. Daraus folgt nämlich, dass wir uns jetzt eigentlich hinsetzen und die Hände in den Schoß legen können. Das halte ich für höchst problematisch. Der Begriff der Utopie baut ganz maßgeblich darauf, dass die jetzigen Umstände kritisiert werden. Das sind nicht einfach nur Blasen im Raum des Transzendenten, das ist kein Universum, das irgendwann, flups, erwacht … Was soll das überhaupt heißen? Nein, Utopien sind Visionen einer besseren Welt mit Blick auf die schwierigen Zustände einer jetzigen Welt. Es gibt kein Ende, es gibt nur das Ringen im Hier und Jetzt, und das ist schon mehr als genug.
Wie kommt Roboterethik da noch ins Spiel? Ist diese Disziplin eine Konsequenz der Idee der Singularität oder ist es etwas, das wir auch jetzt schon brauchen, bzw. anwenden?
Roboterethik ist die philosophische Subdisziplin, die sich mit den moralischen Werten beschäftigt, die im Bau von und im Umgang mit Robotern eine Rolle spielen. Man kann danach fragen, inwiefern Roboter selbst moralische Handlungsakteure sein können, also moralische Handlungen ausführen können. Oder man fragt, inwiefern Roboter moralische Handlungsobjekte sein können. Welchen moralischen Wert haben sie? Erfordern bestimmte Roboter, wie etwa Pflegeroboter, ein bestimmtes Verhalten von uns, weil sie einen anderen moralischen Wert haben als beispielsweise ein Staubsaugerroboter? Hat man mit einem Sexroboter anders als mit einem Militärroboter umzugehen? Kann man ihnen einen moralischen Status und damit auch moralische Rechte zuschreiben? Das führt dann zur Frage, was denn überhaupt ein moralischer Akteur ist, und ob unsere Haltung dazu nicht selbst schon problematisch ist. Müssten wir nicht eigentlich auch andere, nichtmenschliche Wesen in unsere Überlegung einbeziehen? Müssen wir vielleicht Kompetenzen, wie etwa Verantwortung oder Autonomie, die wir vorrangig bislang einzelnen moralischen Akteuren zugeschrieben haben, anders verstehen? Vielleicht können wir so etwas wie Verantwortung oder Autonomie nur in der interaktiven Realisation verstehen. Autonomie ist dann nicht mehr etwas, das du hast, oder das ich habe, sondern etwas, das entsteht, wenn wir gemeinsam etwas machen. Und dann tragen du und ich und eventuell noch involvierte Objekte, wie dieses Aufnahmegerät und dieser Tisch, gemeinsam Verantwortung und sind gemeinsam autonom.
Das hieße ja, in der Überwindung des Humanismus liegt ganz große Handlungsmöglichkeit.
Hinter dem kritischen Posthumanismus steckt eine radikal kapitalismuskritische und feministische Haltung. Die Handlungsmöglichkeit liegt etwa in einer Kritik der Wissenskulturen. Im Zeitalter von Fake News und Trump, in einer Zeit, in der Hannah Arendt mit ihrem Text Wahrheit und Lüge in der Politik wieder eine ganz neue Rolle spielt, fragen kritische Posthumanist*innen, welche Rolle wissensschaffende Instanzen spielen. Wer legt überhaupt fest, was Wissen ist und was nicht? Und warum könnte das problematisch sein? Alles Wissen – Schaffen, Verbreiten und Perpetuieren – ist immer auch politisch, hat eine ökonomische und eine ethische Dimension. Wir erschaffen buchstäblich Fakten. Und das ist nicht einfach nur intellektuelle Gedankenspielerei, wir machen Politik damit.
Was bedeutet es denn für die Zukunft der Kulturarbeiter*innen, wenn auch Maschinen Kunst machen können?
Ich habe aus kritisch-posthumanistischer Sicht überhaupt kein Problem damit, wenn Maschinen auch Kunst schaffen können. Damit verknüpft sind andere, grundlegende, philosophische Fragen, nämlich: Was ist gute, nicht entfremdete Arbeit? Warum wollen wir überhaupt arbeiten? Und wer baut diese Maschinen? Und wenn wir trotz allem das Gefühl haben, Kunst und Kultur sind Dinge, die wir – aus welchen Gründen auch immer – weiterhin in menschlicher Hand lassen wollen, dann sollten wir politisch und ökonomisch und rechtlich die gegebenen Rahmenstrukturen schaffen. Dafür müssen wir uns aber eben diese grundlegenden Fragen erstmal stellen.