Technik ist nie neutral: eine kleine Philosophie der KI
Shownotes
Unsere heutige Gästin ist Prof. Rafaela Hillerbrand. Rafaela forscht und lehrt am KIT in Karlsruhe.
Und Achtung: HEUTE – WIRD’S - ANDERS.
Heute sprechen wir nicht über Baustoffe, Energiequellen oder Mobilitätskonzepte – sondern über große Fragen der anderen Art: Was ist gut? Was ist gerecht? Und wer entscheidet das eigentlich – wir Menschen… oder bald unsere Maschinen?
In ihrem Alltag beschäftigt sich Rafaela mit der Ethik des Forschens und Entwickelns – vor allem, wenn es um komplexe Technologien wie Künstliche Intelligenz geht.
Denn eins steht fest: Technik ist nie neutral. Sie formt unsere Welt, beeinflusst unser Handeln – und ist damit immer auch eine moralische Angelegenheit. Doch was passiert, wenn wir anfangen, Verantwortung an Algorithmen abzugeben? Haben Maschinen eine Moral – oder brauchen sie überhaupt eine? Und was bedeutet das für uns als Gesellschaft?
In dieser Folge verlassen wir die gewohnten Ingenieurs-Pfade und tauchen ein in die Philosophie: in Denkmodelle, ethische Dilemmata und die Zukunft des Zusammenlebens von Mensch und Maschine.
Rafaela bringt nicht nur kluge Gedanken mit, sondern auch die Fähigkeit, abstrakte Fragen ganz konkret, lebendig und nachvollziehbar zu machen. Freuen sie sich also auf eine ungewöhnliche, inspirierende und sehr spannende Folge.
Viel Spaß beim Hören!
Homepage: www.ingbw.de Kontakt: ingcast@ingbw.de Jingle und Musik: www.songfabrik.com
Transkript anzeigen
00:00:00: [Musik]
00:00:19: Herzlich Willkommen zum Inschcast, dem Science Talk der Ingenieurkammer Baden-Württemberg.
00:00:25: Heute wird's anders.
00:00:28: Heute sprechen wir nicht über Baustoffe, Energiequellen oder Mobilitätskonzepte,
00:00:33: sondern über große Fragen der anderen Art, was ist gut, was ist gerecht?
00:00:39: Und wer entscheidet das eigentlich, wir Menschen oder bald unsere Maschinen?
00:00:44: Unser heutiger Gast ist Professor Rafaela Hillerbrand.
00:00:48: Sie ist Technikphilosophin am Karlsruher Institut für Technologie
00:00:52: und beschäftigt sich mit der Ethik des Forschens und Entwicklungs.
00:00:56: Vor allem, wenn es um komplexe Technologien wie künstliche Intelligenz geht.
00:01:02: Denn eins steht fest, Technik ist nie neutral.
00:01:06: Sie formt unser Welt, beeinflusst unser Handeln und ist damit auch immer eine moralischer Angelegenheit.
00:01:13: Doch was passiert, wenn wir anfangen Verantwortung an Algorithmen abzugeben?
00:01:18: Haben Maschinen eine Moral? Oder brauchen sie überhaupt eine?
00:01:23: Und was bedeutet das für uns als Gesellschaft?
00:01:26: In dieser Folge verlassen wir die gewohnten Ingenieurspade
00:01:30: und tauchen ein in die Philosophie, in Denkmodelle, ethische Dilemmata
00:01:36: und die Zukunft des Zusammenlebens von Mensch und Maschine.
00:01:40: Rafaela Hillerbrand bringt nicht nur kluge Gedanken mit,
00:01:43: sondern auch die Fähigkeit, abstrakte Fragen ganz konkret, lebendig und nachvollziehbar zu machen.
00:01:50: Freuen Sie sich also auf eine ungewöhnliche, inspirierende und sehr spannende Folge.
00:01:55: Viel Spaß beim Hören!
00:01:57: Ja, los geht's! Heute hier aus dem sonnigen Karlsruhe bei Best im Wetter
00:02:05: sitzen wir im KIT in den Büroräumlichkeiten von Prof. Rafaela Hillerbrand.
00:02:11: Hallo Rafaela, schön, dass wir da sein dürfen.
00:02:14: Unser Thema heute ist Technik ist nie neutral, eine kleine Philosophie der KI
00:02:19: und wir starten immer mit drei Fragen.
00:02:22: Unsere lieben Zuhörerinnen und Zuhörer kennen das schon.
00:02:26: Mache ich die erste Frage, wie toll?
00:02:28: Mach du doch die erste Frage drin.
00:02:29: Okay, Rafaela, die erste Frage wäre, das wollte ich als Kind werden.
00:02:34: Ich wollte zwei Dinge werden in der ersten Klasse.
00:02:38: Ich wollte Klusterschwester werden und ich wollte Astronautin werden.
00:02:42: Wow, das passt glaube ich auch so ein bisschen zu meinem Lebenslauf,
00:02:46: weil so diese, na gut, vielleicht eher Theologie,
00:02:48: was sich dann die Philosophie entwickelt hat
00:02:51: und ja die Begeisterung für Natur, Wissenschaften und Technik,
00:02:54: sieht man glaube ich da auch schon ganz gut.
00:02:56: Ich glaube, die Astronomie hat mich immer fasziniert
00:02:59: und ich war auf einer Mädchenschule
00:03:03: und die war damals auch noch durch einen Honning geführt.
00:03:04: Mach ich auch!
00:03:06: Ach, wie sehr schön ist der los?
00:03:07: Wie siehst du eine?
00:03:08: Er war eine Maria-Wahrtschule.
00:03:09: Okay, ich war auf dem St. Agnes.
00:03:11: Los, das Schüler unter sich.
00:03:12: Ja, genau, das Mädchenschüler.
00:03:14: Ja, genau, dann kann man vielleicht auch dazusagen,
00:03:16: dass es tatsächlich heute noch in Europa so ist,
00:03:18: dass Frauen von Mädchenschulen von nicht-koedokativen Einrichtungen
00:03:22: vermehrt in die Mintfächer gehen.
00:03:24: Ja, das stimmt, weil wir anders gefördert werden.
00:03:28: Und weil nicht so diese Hemmung besteht,
00:03:30: dass man sich den Jungs da irgendwie im Konkurrenzverhältnis nicht traut,
00:03:35: da irgendwie Fragen zu stellen im Mint und so.
00:03:37: Also ich glaube, so die Studien gehen dann gehen,
00:03:39: dass sich Mädchen auf Mädchenschulen
00:03:40: einfach viel stärker in ihren eigenen Fähigkeiten
00:03:43: und Interessen entwickeln können.
00:03:44: Das ist schon schockierend, finde ich, in der heutigen Zeit,
00:03:46: wo man sich denkt, es gibt ja doch sehr wenige Mädchenschulen.
00:03:49: Und wenn die dann immer noch überrepräsentiert sind,
00:03:51: dann werden wir entfächern.
00:03:53: Oh, da muss ich jetzt aber gleich mal rein.
00:03:54: Ich will jetzt nicht so freudianisch werden.
00:03:56: Aber wann sollen wir über Geistsystem sprechen, wenn nicht heute?
00:04:01: Könntest du dir vorstellen, weil ich stelle mir mal vor,
00:04:03: dass so eine Kloster-Schule, dass es so eine gewisse Enge hat.
00:04:06: Und wenn du dann eine Begeisterung entwickelst
00:04:09: für den Weltraum, für der Erde,
00:04:11: dem irdischen, sag ich mal, irgendwie entkommen,
00:04:14: könntest du mal, siehst du dann zusammen?
00:04:16: Ich glaube nicht.
00:04:17: Also das könnte natürlich sein.
00:04:19: Aber da muss ich, glaube ich, sehr lange drüber nachdenken,
00:04:21: wie ich als Kind gedacht habe.
00:04:22: Das kann ich jetzt nicht.
00:04:23: Ich glaube, es wird die generelle Begeisterung
00:04:25: von Kindern für die Raumfahrt und das Weltall.
00:04:29: Okay, gut, alles klar.
00:04:31: Spannend.
00:04:32: Zweite Frage.
00:04:33: So stellte ich mir zu Beginn meiner Laufbahn
00:04:36: meinen Arbeitsalltag vor?
00:04:38: Ja, ich glaube, sehr international, Austausch mit Forschern
00:04:44: über dem ganzen Globus und sehr viel Forschenschreiben,
00:04:48: Austausch mit Kollegen.
00:04:50: Und realisiert hat sich das international.
00:04:52: Mein Alltag ist deutlich weniger Forschung,
00:04:54: als ich mir das so vorgestellt hatte.
00:04:57: Ich glaube, es gibt schon, glaube ich, viele,
00:04:59: die fragen sich so ein bisschen, okay, so ein Alltag,
00:05:00: was macht ein Philosoph eigentlich Beruf?
00:05:02: Ja, ja.
00:05:03: Ist er ein Beruf?
00:05:04: Ist er nicht so greifbar?
00:05:05: Besteht es sein Beruf, da ein Bücher zu lesen, so?
00:05:08: Aber ich meine, okay, jetzt bist du Professorin,
00:05:10: vielleicht ein Bücher.
00:05:11: Also die philosophische Arbeit wäre argumentativ zu analysieren.
00:05:15: Also Argumente für, was auch immer,
00:05:17: als jetzt die Wissenschaftstheorie, die Technikphilosophie
00:05:19: oder die Philosophie des Geistes, so durchdenken,
00:05:22: das dann auch mit Kollegen natürlich durchzusprechen.
00:05:24: Und was uns, glaube ich, von empirischen Wissenschaften
00:05:28: unterscheidet dann in der Arbeit ist,
00:05:30: bei uns sind die Publikationen, also das Buch lesen natürlich auch,
00:05:34: aber vor allem das Buch schreiben oder vor allem
00:05:35: die peer-reviewed-journal-Publikationen schreiben,
00:05:38: der wesentliche Teil der Arbeit.
00:05:40: In empirischen Wissenschaften ist er oft so,
00:05:42: man macht die Forschungsarbeit und fasst dann schnell zusammen.
00:05:44: Bei uns ist die Arbeit.
00:05:45: Textarbeit ist eigentlich, das Texten ist die Arbeit so ein bisschen.
00:05:48: Ja, genau, die Argumentative Analyse ist das, was wir machen.
00:05:51: Mehr haben wir nicht anzubieten und auch nicht weniger als Philosophen.
00:05:54: Und jetzt hast du gerade schon gesagt,
00:05:55: du bist super viel international unterwegs,
00:05:57: das heißt weltweit, oder?
00:06:00: Also ich glaube, wir haben stärker noch
00:06:03: als vor allem die Teile der Naturwissenschaften
00:06:06: den Fokus auf die westliche Welt.
00:06:07: Also international heißt bei uns meistens,
00:06:09: da tatsächlich noch USA, Europa und die anderen Länder
00:06:14: sind deutlich weniger vertreten.
00:06:15: Das sind wir, glaube ich, nicht so weit wie einige Naturwissenschaften.
00:06:19: So die großen Fachverbände versuchen das aufzugreifen,
00:06:23: dass man Leuten aus anderen Ländern
00:06:25: dann auch die Möglichkeit gibt, zu reduzierten Sätzen
00:06:29: auf der Konferenz teilzunehmen.
00:06:30: Aber da laufen wir ein bisschen hinterher.
00:06:32: Und gibt es eigentlich, ich finde da,
00:06:35: wie das ergeben sich jetzt schon super viele Fragen?
00:06:37: Ja, wahnsinn.
00:06:38: Weil wir auch so ein bisschen neu in dem Bereich sind.
00:06:40: Gibt es auch, dass man, sage ich mal,
00:06:41: vielleicht irgendwie so indische Philosophie studieren kann
00:06:44: und dann nicht über Aristoteles oder so lernt, oder?
00:06:46: Also es gibt jetzt in einigen westlichen Ländern
00:06:51: sowas wie internationale Philosophie.
00:06:53: Also da wird natürlich mehr, zum Beispiel,
00:06:58: indische Philosophie aus dem islamischen Bereich gelehrt.
00:07:02: Aber da es bei der Philosophie um die argumentative Analyse geht
00:07:09: und die an Argumenten stichkräftig oder nicht,
00:07:12: egal vor welchem kulturellen Hintergrund ich das sage,
00:07:15: ist natürlich eigentlich das Philosophieren als solch.
00:07:18: Es ist genauso wenig kulturabhängig wie jetzt die Teilchenphysik.
00:07:22: Von daher besteht kein guter Grund,
00:07:25: dass wir nicht genauso international sind wie alle anderen Fächer.
00:07:28: Das sind einfach so kontingente Gründe.
00:07:30: Und wo hast du dann studiert, Raffaele?
00:07:35: Ich habe Ursprung nicht einmal im Heimatort studiert,
00:07:37: wo ich auch in der Schule war in Erlangen an der F.A.U.
00:07:41: und bin dann, ich habe ja in beiden Fächern promoviert,
00:07:45: ich habe Physik und Philosophie studiert,
00:07:47: die man so ein bisschen an meiner Berufsorientierung
00:07:51: schon an der ersten Klasse sah.
00:07:52: Das wurde dann aus Theologie und Astronomie.
00:07:55: Aber hast du es dann bald auf Diplom parallel studiert?
00:07:57: Das eine auf Diplomen, das andere auf Magister
00:07:59: und man war ja damals noch relativ frei.
00:08:02: Und das Diplomstudiengang war natürlich sehr strukturiert
00:08:05: und der Magister war deutlich freier.
00:08:08: Und das sind natürlich auch zwei Fächer,
00:08:10: die sich methodisch sehr ergänzen.
00:08:11: Also wenn ich genug hatte von der Philosophie,
00:08:13: konnte ich mir Physik machen und anders drum.
00:08:16: Genau, und dann bin ich tatsächlich
00:08:18: zur Promotion in Physik nach Münster gegangen
00:08:20: und dann bin ich auch schnell ins Ausland.
00:08:22: Also ich war auch während dem Studium schon in Liverpool
00:08:24: dann mehr mit Mathe und Physik als mit Philosophie.
00:08:27: Aber es ist auch einfach einfacher.
00:08:30: Die Philosophie lebt ja doch von der Sprache.
00:08:32: Die Argumente, die wir entwickeln, ist nicht die Mathematik.
00:08:34: Die ist in Englisch genauso einfach oder genauso schwierig,
00:08:37: wie auf Deutsch.
00:08:38: Aber in der Philosophie ist das natürlich stärker sprachabhängig.
00:08:41: Und dann bin ich tatsächlich viel im Ausland gewesen.
00:08:45: Ich kam jetzt auch ans KIT, also nach Karlsruhe zurück,
00:08:48: über meine letzte Station war die TU Delft in den Niederlanden.
00:08:51: Und ich war da vorhin in Oxford und in Nizza in Südfrankreich.
00:08:54: Wow.
00:08:56: Hey, du bist richtig rumgekommen.
00:08:57: Da kommt man sich so vor wie so eine Landpomeranze hier.
00:09:00: Das ist schon ein Wissenschaftsbetrieb auch.
00:09:03: Manche sehen das als Pflicht.
00:09:06: Ich fand das immer die Kühe, ganz wunderbar.
00:09:09: Okay, letzte Frage.
00:09:11: Diese Errungenschaft oder dieses bahnbrechende Projekt
00:09:15: meiner Branche fasziniert mich bis heute.
00:09:17: Das ist tatsächlich für einen Bilus hoch.
00:09:20: Eine ganz schwierige Frage,
00:09:22: weil wir haben jetzt so richtige Durchbrüche, Errungenschaften.
00:09:25: Ja, gar nicht. So geht die Philosophie ja nicht vor.
00:09:28: Und ich glaube, ich könnte vielleicht zwei Dinge nennen.
00:09:31: Das eine ist, das hatten wir ja gerade schon.
00:09:33: Mich fasziniert die Art und Weise wie die Philosophie,
00:09:35: die Methode der Philosophie, diese argumentative Analyse.
00:09:39: Und ich glaube auch, das geht dann auch in meinen Alltag über mich.
00:09:45: Faszinieren auch Menschen, die aufgrund besserer Argumente
00:09:48: ihre Meinung ändern und einsehen können.
00:09:51: Dass es bessere Argumente gibt, auch bessere,
00:09:53: vielleicht empirische Basis.
00:09:55: Um zu argumentieren, aber manchmal hat man ja einfach
00:09:57: auch Argumentationsfehler.
00:09:59: Das ist, glaube ich, das, was mich am meisten an der Philosophie fasziniert.
00:10:04: Es gibt tatsächlich auch eine Errungenschaft
00:10:07: um die 2000er herum, die auch jetzt für meine eigene Arbeit wichtig ist.
00:10:13: Ich befasse mich also in der Grenze mit Wissenschafts- und Technikphilosophie.
00:10:18: Also, wie geht denn Wissenschaft und Technik vor, aber auch mit Ethik.
00:10:22: Und Heather Douglas hat um 2000 festgestellt oder argumentiert,
00:10:30: dass alle empirischen Wissenschaften durch ihre empirische Forschung
00:10:35: auch schon wertbeladen sind in den Normativen, in dem ethischen Sinn.
00:10:38: Also, ganz einfach kann ich mir irgendwie empirische Wissenschaften
00:10:42: so vorstellen.
00:10:44: Ich untersuche X-Fälle im Labor, also X-Kupferstücke
00:10:50: und schließe dann daraus, dass alles ein elektrischer Leiter ist.
00:10:54: Und ich muss natürlich meine empirische Basis immer irgendwo abbrechen.
00:10:58: Wir nennen das unsere Induktionsbasis.
00:11:01: Und dann hat sie herausgestellt, dass, wann ich meine Forschung abbreche,
00:11:06: wie viel als empirische Basis ich genug empfinde,
00:11:10: hängt auch von Werturteilen ab.
00:11:11: Also, wenn es um die Frage geht, ist der Impf-Satz,
00:11:15: ist dieser Impfstoff sicher,
00:11:17: dann hängt das viel von gesellschaftlichen Werten ab.
00:11:21: Der Kontingentensituationen, da ist mir gerade eine Pandemie und so weiter.
00:11:25: Was ist die Schwere der Krankheit gegen die wir impfen und so weiter.
00:11:27: Und das ist tatsächlich was, was auch in meiner eigenen Arbeit jetzt wichtig ist
00:11:30: und mich fasziniert.
00:11:32: Diese Verknüpfung zwischen empirischer Forschung, Epistemologie und ethischen Werten.
00:11:41: So ein bisschen wie in der Ethnologie oder so Wissenschaften,
00:11:44: wo man so beobachten muss, dass man irgendwann gesagt hat,
00:11:47: okay, allein schon die Anwesenheit einer beobachtenen Instanz,
00:11:51: die dann Mitschriften macht, verändert das, was passiert.
00:11:54: Und deswegen kannst du eigentlich gar nicht objektiv was beobachten.
00:11:58: Wenn Menschen, sobald eine Kamera im Raum ist,
00:12:00: sind Menschen ja schon anders als ohne.
00:12:02: Sobald ein Mensch der Forscher mit im Raum ist,
00:12:04: sind sie schon anders als ohne.
00:12:06: Und deswegen ist allein schon der Akt des Forschens verändert,
00:12:09: dann das Erforster und so weiter.
00:12:11: Genau, das ist noch mein anderer Punkt, aber es ist auch so eine ähnliche Forschung.
00:12:14: So ein methodologischer Punkt, dass diese objektiven Aussagen,
00:12:17: die wir glauben zu haben, gar nicht so objektiv vielleicht sind
00:12:19: oder zumindest auch Werte beladen sind.
00:12:21: Und das Interessante bei dieser Art von Douglas Formulierung des Induktionsproblems
00:12:27: ist, dass Werte bei jeder Art empirischer Untersuchungen hineingekommen.
00:12:32: Mitschwingen, okay, okay.
00:12:34: Also die Beobachtung als solche, solange sie endlich ist,
00:12:36: das ist sie halt, selbst mit Karriere.
00:12:39: Folgt Strukturen, die irgendwie geformt sind, okay, verstehe.
00:12:44: Wow!
00:12:45: Gut, ich würde sagen, wir leiten so ein bisschen ein.
00:12:49: Wir wollen ja eigentlich dann so ein bisschen zu dieser Philosophie der KI kommen.
00:12:53: Aber ich dachte, wir leiten so ein bisschen ein mit der Mensch und die Maschine an sich.
00:12:58: Rafaela, wie ist es denn überhaupt jetzt?
00:13:03: Hast du mir im Vorgespräch gesagt, du beschäftigst dich mit Ethik und unter anderem,
00:13:09: mit Ethik und KI, Ethik für KI, Maschinen und Ethik und so weiter.
00:13:14: Ist es denn so, dass an sich Ethik und Moral, also könntest du nur mal
00:13:19: den Erklären, den Unterschied, was ist es überhaupt?
00:13:21: Und ist es so, dass wir Menschen das haben oder ist es alles schon?
00:13:26: Also kommen wir mit bestimmten Vorstellungen auf die Welt oder ist das alles ein Konstrukt
00:13:30: und alles könnte auch genauso gut anders sein und ist daher auch austauschbar?
00:13:34: Oder gibt es ewige, für uns Menschen ewige Werte so?
00:13:37: Ja, vielleicht fange ich einfach mal an, was wir unter Moral verstehen
00:13:41: und dann, was wir unter Ethik verstehen, sind jetzt viele Fragen.
00:13:45: Die Moral ist ein spezifisches Normensystem.
00:13:47: Also wir kennen ja Normensysteme aus dem Recht.
00:13:49: Wir kennen Normensysteme auch aus der Straßenverkehrsordnung.
00:13:53: Und moralische Urteile oder moralische Normensysteme sind im Dimsinn speziell,
00:13:58: dass wir immer von starken Wertungen ausgehen.
00:14:00: Dinge sind richtig falsch, es ist gut, es ist böse.
00:14:05: Mit diesen starken Wertungen unterwegs sind die auch sehr oft schwarz-weiß sind
00:14:10: oder von schwarz-weiß gedacht werden.
00:14:11: Jetzt ist die Ethik, die philosophische Ethik, die Reflexion auf Normensysteme.
00:14:16: Und genau das ist die erste Unterscheidung und moralisches Verhalten.
00:14:25: Die Frage war ja so ein bisschen...
00:14:28: Also ich habe das richtig verstanden, Ethik ist quasi darüber nachdenken,
00:14:31: ob das überhaupt schlimm ist, zu lügen.
00:14:34: Genau, oder welche Argumentative für Basis haben wir...
00:14:38: Du sollst nicht lügen, okay.
00:14:40: Genau, und da gibt es dann vielleicht auch...
00:14:43: Da kann man auch sehr schön nochmal den Unterschied zu den naturwissenschaften,
00:14:46: den empirischen Wissenschaften klarmachen.
00:14:50: Es ist verboten zu töten, es ist eine Aussage,
00:14:54: die finden wie an ganz vielen kodifizierten Rechtssystemen.
00:14:57: Aber die ethische Reflexion darüber, ob das richtig oder falsch ist, zu töten,
00:15:04: ist eine völlig andere, da kann ich mich nicht darauf zurückfallen lassen,
00:15:07: dass ein Führenrechtssystem in verboten ist oder da drauf Menschen töten.
00:15:13: Das ist auch ein empirisches Faktor.
00:15:15: Ich muss eine andere Art der Argumentation anführen als eine rein empirische.
00:15:20: Und Ethik und Moral sind von daher natürlich anders,
00:15:29: als wenn ich irgendwie studierenden Bequantenmechanik beibringe,
00:15:32: weil jeder argumentiert in seinem Alltag schon ethisch und kennt Moral-System.
00:15:37: Also man hat auch Studien aus der Entwicklungspsychologie,
00:15:42: die nahelegen, dass Kinder schon relativ früh Gefühl von Gerechtigkeit entwickeln.
00:15:47: Aber welchem Alter beginnt es so ungefähr, kann ich sagen?
00:15:49: Ich bin natürlich keine Entwicklungspsychologin,
00:15:51: aber ich würde schon sagen, relativ früh, so mit, spätestens mit zwei,
00:15:54: aber ich glaube, da müsste man nochmal genauer reinsehen.
00:15:59: Und da muss man zu dieser Art von Forschung auch sagen,
00:16:02: also Lawrence Kohlberg war jemand, der ganz stark erforscht hat,
00:16:04: wie dieses Gerechtigkeitsverständnis sich bei Menschen entwickelt,
00:16:10: ein Wahlpsychologe und das ist jetzt nicht nur für die Psychologie,
00:16:15: aber auch für viele Teile der Moralphilosophie seit der Aufklärung typisch.
00:16:19: Wir reden von Moralgerne in Termen, von Begrifflichkeiten, von Gerechtigkeit.
00:16:24: Und mir kommt als Rechtsträger, als Moralobjekt bestimmte Rechte zu.
00:16:29: Das ist auf einer sehr abstrakten Ebene.
00:16:32: Und das ist auch, was wir von Kindern kennen, das ist Mainz und so weiter.
00:16:35: Und es gab ab den 70er-Jahren eine Bewegung,
00:16:38: vor allem in der feministischen Philosophie,
00:16:40: die aber auch frühere Ansätze, Baristoteles und so weiter aufgreifen.
00:16:43: Es sagt, na ja, Moral ist ja eigentlich mehr
00:16:46: oder vielleicht gar nicht mal so sehr Gerechtigkeitsüberlegungen.
00:16:50: Weil wenn man sich Kinder anschaut, das meint es gerade acht,
00:16:52: also wenn man diese Gerechtigkeitsargumentationen anschaut,
00:16:56: sind die in der Regel ja nicht so sehr moralisch geprägt,
00:16:58: sondern das ist nur so, dass es mir gegenüber unfair.
00:17:01: Das ist so das Typische, was man sieht.
00:17:02: Und Kerry Gilligan, das war so die Urmutter,
00:17:06: vielleicht der modernen Care-Ethik, hat dagegen gestellt.
00:17:09: Moral hat ganz oft oder vielleicht sogar primär mit der Fürsorge zu tun,
00:17:18: die ich anderen Menschen teilwerden lasse.
00:17:20: Also ich mag den Englischen Begriff "Care" lieber,
00:17:23: weil er irgendwie weniger vorgeprägt ist, wie das deutsche Fürsorge.
00:17:29: Und ich glaube, man muss beides mitdenken.
00:17:32: Natürlich brauchen wir gerade, wenn es um die Regulierungen
00:17:34: und dann auch um die Regulierung von technischen Fortschritts gibt,
00:17:38: natürlich diese Gerechtigkeitsüberlegungen.
00:17:40: Wer wird dadurch benachteidigt?
00:17:42: Wer profitiert davon?
00:17:43: Das sind ja Überlegungen, die wir stellen müssen.
00:17:46: Aber ich glaube, wenn es um die Praxis der Ingenieurs-Ethik geht,
00:17:49: glaube ich dürfen wir nicht vergessen,
00:17:50: dass es hier auch ganz zentral um diesen Care-Aspec geht.
00:17:53: Wer ist betroffen?
00:17:55: Welche Bedürfnisse haben die Leute, die betroffen sind überhaupt?
00:17:58: Und ich glaube, das sind Begrifflichkeiten,
00:18:02: mit denen Ingenieure auch sehr gut umgehen können.
00:18:05: Auch wenn sie erst mal fremd erscheinen.
00:18:06: Aber so in meiner Diskussion habe ich auf das Gefühl,
00:18:09: wenn man von Verantwortung redet, dann kommt man sehr oft in die Haltung,
00:18:12: ja, waren wir vorher verantwortungslos,
00:18:14: bevor wir uns der Ethik zugewandt haben, was natürlich so nicht stimmt.
00:18:17: Aber wenn man über Care redet, ist man sehr schnell,
00:18:19: sich dabei zu überlegen, wir haben in unseren westlichen Gesellschaften
00:18:24: oder in modernen Gesellschaften allgemein ein großes Netzwerk
00:18:27: an Care für Sorge füreinander geschaffen,
00:18:30: durch moderne Infrastruktur, sei es Straßen, sei es Stromnetz, sei es Wasser,
00:18:34: mit dem wir gegenseitig für Sorge tragen.
00:18:37: Und dazu trägt natürlich die Technik und die Ingenieurswissenschaften primär bei.
00:18:41: Genau.
00:18:42: Jetzt weiß ich gar nicht, ob ich alles von dieser Frage beantwortet hatte.
00:18:46: Na, wir hatten ja irgendwie, also eigentlich ja,
00:18:49: weil wir hatten ja angefangen mit "Haben wir von Natur aus Moral und Ethik?"
00:18:54: und da meintest du eigentlich Tendenz ja.
00:18:56: Ja, genau. Also ich muss schon beides sagen, man muss das auch erlernen
00:19:00: und vor allem an diese argumentativen Regeln erlernen.
00:19:03: Also dass auch dieses, aber es ist im Menschen angelehnt,
00:19:08: bestimmte moralische Rundfälle fällen zu können.
00:19:11: Ja, okay, okay, ja, ja.
00:19:13: Aber ich glaube, es ist genau das, was du auch gesagt hast,
00:19:15: gerade bei kleinen Kindern, die sehen ja vor allem sich.
00:19:19: Also ne, ich hab oft das Gefühl, die können sich noch gar nicht in das Gegenüber reinversetzen.
00:19:22: Und die verstehen nicht, hey, wenn du das jetzt wegnimmst,
00:19:25: dann ist der andere traurig oder hätte das halt auch gerne,
00:19:29: sondern die stellen halt sich so in den Fokus.
00:19:31: Also müssen die da schon viel auch erlernen.
00:19:36: Genau, und ich glaube, da ist auch viel in der Entwicklung ja schon angelegt,
00:19:39: dass man halt auch diese Studien, dass Menschen generell wenig egoistisch werden,
00:19:43: jenseits der Mitzwanziger.
00:19:46: Aber gleichzeitig glaube ich, es Ethik, gerade wenn es darum geht,
00:19:50: wie wollen wir mit Technik umgehen?
00:19:52: Auch jenseits von Trivial, also man muss dann auch schon bestimmte Fähigkeiten,
00:19:57: bestimmte Kompetenzen auch im Berufsleben erwerben und weiter ausbilden.
00:20:03: Und würdest du sagen, jetzt gerade im Hinblick auf Maschinen oder KI, wie auch immer,
00:20:09: ist es gerechter? Sind die objektiver?
00:20:14: Also, ich würde sagen nein, aber ich glaube, das ist ein ganz typischer Fehlschluss,
00:20:18: den wir ganz oft haben.
00:20:21: Und ich glaube, er kommt da, wir sehen es ja gerade bei der KI.
00:20:25: Man hat ja oftmals die Hoffnung an die KI, dass wenn ich mal so eine typische KI-Wendung,
00:20:31: der zum Beispiel Auswahl von Bewerbern KI eingesetzt wird oder die Kompassoffe in den USA,
00:20:38: die Gerichtsentscheidungen da angegen unterstützt,
00:20:44: dass sie versucht, vorher zu sagen, die Rückfallhäufigkeit eines Täters,
00:20:49: also wie wahrscheinlich ist es, dass dann nochmal ein Verbrechen begehen wird.
00:20:54: Und wenn wir uns momentan gegenwärtige KI anschauen, also Maschinelles Lernen,
00:21:02: man trainiert die ja auf empirischen Daten, die aus einer Gesellschaft kommen,
00:21:06: die natürlich die gleichen Vorurteile hat, die wir als Menschen in der Regel auch haben.
00:21:10: Das heißt, dass mit der Objektivität wäre schön, aber ergibt sich so nicht,
00:21:15: weil auch die KI beginnt irgendwo im luftlären Raum,
00:21:19: also nicht im luftlären Raum, sondern in realen gesellschaftlichen Situationen,
00:21:23: die eben beierst und ungerecht sein können.
00:21:28: Von da muss man das ein bisschen vorsichtig sein.
00:21:30: Natürlich kann man KI dazu einsetzen, sich selber zu hinterfragen,
00:21:35: welche Vorurteile man hat, aber da muss man schon sehr vorsichtig sein.
00:21:39: So quasi die Hoffnung, dass wir jetzt moralisch und fehlbar werden,
00:21:44: weil Maschinen und KI uns diese Moral abnehmen, die ist schon mal unbegründet.
00:21:48: Genau, die ist zum einen unbegründet, weil, also das eine Punkt, den hatte ich ja schon genannt,
00:21:52: dass die natürlich auch auf Daten trainieren, die zweier sind.
00:21:55: Das war auch so der Vorwurf, den man da Kompasssoftware macht,
00:21:58: dass die Menschen mit dunkler Hautfarbe diskriminiert,
00:22:06: wen wundert, die ist trainiert auf gesellschaftlichen Daten, die deutlich diskriminieren.
00:22:13: Aber gleichzeitig kann die KI, wie wir sie heute haben,
00:22:18: also ich rede es vor allem von Maschinellem Lernen und Varianten davon,
00:22:23: überhaupt mit Begriffen wie Gerechtigkeit nichts anfangen.
00:22:27: Und da wird es dann auch schwierig, eine KI könnte jetzt ja auch beispielsweise
00:22:31: gegenüber Menschen mit weißen Socken diskriminieren,
00:22:34: eine Kategorie, die wir als Menschen nicht haben.
00:22:37: Und dann wird es natürlich schwierig, weil wir das sehr, sehr schwierig auch reproduzieren können.
00:22:42: Und ich würde sagen, jetzt sind wir schon eigentlich mittendrin im Thema.
00:22:48: Kannst du uns ein bisschen, Raphaela, jetzt beschäftigst du dich extrem
00:22:51: und natürlich auf einer Flughöhe, die für uns vielleicht so hoch ist mit diesem Thema.
00:22:56: Aber wie blickt jetzt, wenn wir wirklich jetzt auf dieses Thema KI einsteigen,
00:23:02: wie blickt eine Philosophin auf KI?
00:23:04: Weil wir sind jetzt natürlich ständig konfrontiert mit der Sicht von Ingenieuren auf KI,
00:23:09: die finde ich da wie, ich weiß nicht, wie du es sagen würdest, sich aufspreizt,
00:23:13: entweder brauche ich nicht früher, ging es auch ohne, oder hey cool,
00:23:19: jetzt wird alles leichter, weil die KI nimmt mir Arbeit ab.
00:23:21: Ich würde sagen, das sind so die beiden Positionen, die Ingenieure auf KI haben, oder?
00:23:25: Im Großen und Ganzen.
00:23:26: Im Großen und Ganzen.
00:23:27: Aber ich würde sagen, nicht nur Ingenieure, sondern das zieht sich durch sehr viele...
00:23:30: Oder vielleicht die Gesellschaft auch.
00:23:31: Genau, ja.
00:23:32: Weil wir hatten vielleicht ganz kurz vergangene Woche unseren Ingenieuretag,
00:23:36: wo es auch um das Thema Digitalisierung und KI unter anderem ging.
00:23:41: Und da waren auch Jurist da, also ein Rechtsanwalt, der da so ein bisschen über Urheberrechte gesprochen hat.
00:23:46: Und der auch gesagt hat, auch in deren täglichem Alltag kommt immer wieder die Frage auf,
00:23:51: ja, ist dadurch vielleicht dann irgendwann der Jurist überflüssig,
00:23:53: weil theoretisch KI den Schriftstatz aufsetzen kann, oder dann vielleicht die Entscheidung trifft.
00:23:59: Brauchst gar kein Richter mehr.
00:24:00: Mhm.
00:24:01: So, ne?
00:24:02: Mhm.
00:24:03: Und irgendwie habe ich den Verdacht und verinnerst du, dass du als Philosophin anders auf KI blickst.
00:24:06: Hahaha.
00:24:07: Ja, mal schauen.
00:24:08: Also ich glaube so, tatsächlich das, was ihr gerade beschrieben habt,
00:24:12: das glaube ich schon auch so der Ansatzpunkt, bei dem wir anfangen.
00:24:14: Also ich glaube, das sind auch noch Mehrheitsversprechungen im Raum,
00:24:17: als nur es nimmt mir die Arbeit ab.
00:24:19: Also bis hin zur Lösung, das Problem ist das Treibhaus-Effekt,
00:24:22: wo der schon alles versprochen bei der KI und das sozusagen die eine Extremposition,
00:24:26: also diese Utopie einer besseren Zukunft durch Technik.
00:24:29: Das haben wir ja an der Technik Geschichte sehr oft.
00:24:32: Und gleichzeitig, aber auch in der Technik Geschichte auch,
00:24:36: diese sehr pässe, diese Unhaltsprophezeibung.
00:24:40: Also wir hatten ja vor zwei Jahren jetzt ungefähr,
00:24:44: hatten ja einige große KI-Unternehmen gefordert,
00:24:47: einen Moratorium, also einen halbjährigen Stopp der KI-Entwicklung,
00:24:52: zu gesetzlich auf der Länderebene durchzusetzen,
00:24:58: weil man eben mit diesen Entwicklungen nicht mehr mithalten kann und so weiter.
00:25:02: Da kann man sich auch fragen, ob das jetzt vor allem ein Marketing-Trick war
00:25:05: für die eigenen Produkte.
00:25:07: Aber wenn man das jetzt mal ernst nimmt, glaube ich,
00:25:10: würde ich jetzt als Technikphilosophin sagen,
00:25:13: die Wahrheit wird wahrscheinlich in der Mitte sein.
00:25:14: Es ist eine neue Technik mit einem extremen Potenzial,
00:25:19: dass man für gute und schlechte Dinge einsetzen kann.
00:25:21: Aber man sieht einfach auch diese Heils- und Unhaltsprophezeibung
00:25:27: auch bei früheren Techniken.
00:25:29: Und ich glaube, man muss als Philosoph auch aufpassen,
00:25:33: man muss sich mit KI beschäftigt.
00:25:35: Ich glaube, wir haben die jetzige KI-Maschine das Lernen,
00:25:38: nicht diese generelle umfassende Intelligenz.
00:25:42: Die KI, wie wir sie heute haben, hat viele ethische Herausforderungen,
00:25:45: sei es von Privacy, also Datenschutz und so weiter und so weiter.
00:25:50: Und viele Implikationen,
00:25:52: dass wir uns mit denen schon ethisch auseinandersetzen müssen
00:25:54: und nicht irgendwelche Zukunftsszenarien diskutieren müssen
00:25:58: oder vorwiegend diskutieren sollten, die so noch gar nicht da sind.
00:26:01: Genau, und ich glaube, so viele KI-Entwickler selber
00:26:10: nehmen ja schon auch ethische Fragen ernst.
00:26:12: Die ganze Debatte um Transparenz oder explainability,
00:26:18: Verständlichkeit der KI-System ist ja eine,
00:26:21: die auch aus der KI-Entwicklung selber betrieben wurde.
00:26:25: Und die Philosophie, bitte, das ist halt noch mal breiter ein.
00:26:28: Also, was wir ganz oft haben, ist ja diese Debatte in der KI-Ethik
00:26:31: um diese Black-Box-Nature der KI, was wir auch vorhin gesagt haben.
00:26:36: Wir wissen jetzt bei einem tiefen neuronalen Netz
00:26:40: gar nicht unbedingt immer auf, was die KI trainiert.
00:26:44: Da gibt es ja diese wunderbaren Beispiele der Bilderkennung,
00:26:47: dass die KI wurde trainiert drauf,
00:26:51: dass die Pferde erkennt, aber sie hat nur die Bildunterschrift erkannt.
00:26:54: Und dann kam natürlich ganz abschruse Fehler raus.
00:26:56: Das ist natürlich ein einfaches Beispiel.
00:27:00: Aber im Prinzip wissen wir nicht, was in diesen tiefen neuronalen Netzen passiert
00:27:03: und diese Ansätze zu mehr Transparenz, explainability,
00:27:09: die auch ganz stark auf der medizinischen Anwendung der KI kommen,
00:27:11: also das sind wir schon in den frühen 2000er-Jahren,
00:27:15: sind natürlich ein Aspekt.
00:27:17: Aber ethische Fragen sind jetzt nicht nur in dieser Black-Box zu finden,
00:27:20: sondern ich formuliere ja ein Problem auf eine bestimmte Art und Weise,
00:27:24: dass KI damit umgehen kann.
00:27:25: Ich trainiere auf bestimmten Daten setzen,
00:27:29: die bestimmte gesellschaftliche Phänomenos so abbilden,
00:27:32: die dann erst mal als Daten repräsentiert werden,
00:27:34: auf eine bestimmte Art und Weise repräsentiert werden.
00:27:36: Also ethische Fragen, sei es nach der Gerechtigkeit,
00:27:39: sei es nach Nachhaltigkeit und so weiter,
00:27:41: kommen bei allen diesen Schritten zum Tragen.
00:27:45: Aber würdest du sagen, man kann jetzt auch Fragen der Gerechtigkeit
00:27:53: oder auch der Moral, würdest du das jetzt an KI delegieren?
00:27:57: Also würdest du denen das Zutrauen quasi der KI oder würdest du sagen,
00:28:02: boah nee, da muss man sagen, dass dazu sein, dass ja Davina ja Juristin ist
00:28:07: und es hat durchaus wahrscheinlich vermutlich bei dir im Studium
00:28:10: immer ein Thema war, oder? So Recht versus Gerechtigkeit.
00:28:12: Ja, absolut klar.
00:28:14: Also ich glaube, moralische Verantwortung lässt sich erst mal so nicht delegieren.
00:28:20: Ich glaube, dass zum Rechtssystem anders rechtliche Verantwortung lässt sich abgeben.
00:28:26: Aber soweit ich eine moralische Verantwortung habe,
00:28:29: ich kann natürlich für das Beispiel der Ärztin nehmen,
00:28:32: die kann bestimmte Aufgaben an die Pflegekraft delegieren,
00:28:35: aber die moralische Verantwortung für das Wohl des Patienten bleibt bei ihr.
00:28:40: Und so ist das auch bei KI.
00:28:42: Eine KI kann natürlich diese Fürsorge oder auch Gerechtigkeitsfragen
00:28:48: nur in einer gewissen Atemweise simulieren,
00:28:50: auch nur soweit simulieren, wie sie das durch den Entwickler mitbekommen kriegt.
00:28:56: Sie kann uns helfen, Verantwortung besser zu übernehmen, im Idealfall.
00:29:01: Das sind KI-Anwendungen, die ja gerade noch in den Kinderschuhen sind,
00:29:04: zu schauen, wo diskriminiert wird gegen welche Gruppen.
00:29:08: Aber da kann man natürlich große Datensätze können dann natürlich sehr gut helfen.
00:29:13: Aber ich glaube, was KI deutlich macht, das haben wir oft bei Technik,
00:29:16: aber hier vielleicht noch mal deutlicher,
00:29:18: dass am Schluss die moralische Verantwortung nicht nur beim Entwickler liegt,
00:29:22: sicherlich nicht bei der KI, aber auch beim Nutzer,
00:29:25: bei demjenigen, der die rechtlichen Rahmenbedingungen aufstellt und so weiter.
00:29:28: Das heißt, wir haben so eine geteilte Verantwortung,
00:29:31: die wir oft haben, auch bei der Entwicklung von Technik,
00:29:33: aber hier vielleicht noch mal deutlicher wird als bei anderen technischen Produkten.
00:29:36: Aber es ist nicht wahnsinnig gefährlich.
00:29:39: Also weil, ich meine, derjenige, der das jetzt trainiert, die KI,
00:29:43: der kann doch das in die eine oder andere Richtung,
00:29:46: auch tatsächlich die Moral, die Gerechtigkeit auch negativ beeinflussen, ne?
00:29:50: Ja, also allein dadurch, dass er auf dem bayersten Datensatz trainiert,
00:29:54: kriege ich natürlich andere Ergebnisse raus. Das ist so.
00:29:59: Und es gibt ja immer dieses Beispiel mit diesen selbstfahrenden Autos,
00:30:06: die in einer brenzlichen Situation selber entscheiden sollen,
00:30:09: wem sie ausweichen und fahren sie dann auf dem Gehweg sind Leute
00:30:14: und sie können entweder auf dem Gehweg ausweichen
00:30:15: und dann fahren sie Leute um, die zu Fuß gehen oder sie halten drauf
00:30:19: und dann gefährden sie aber das Leben der Person im Fahrzeug.
00:30:24: Gibt es da irgendwie erarbeitet, wie geht man damit um?
00:30:29: Also ich meine, okay, jetzt werden diese KI's ja von Privatwirtschaften
00:30:34: in den Unternehmen entwickelt, die nicht verraten,
00:30:37: nach welchen Prinzipien sie das trainieren, aber gibt es erarbeitet?
00:30:42: Da die Philosophie, sag ich mal Konzepte oder ist das alles so eine Grauzone?
00:30:48: Oder ist das jetzt nochmal Jura, im Sinne von das hat nichts mit Philosophie zu tun?
00:30:53: Also ich finde, da gibt es so ganz viele Fragen
00:30:56: und ich frage mich so, wer beantwortet die irgendjemand?
00:31:00: Also da gibt es natürlich auch viele rechtliche Aspekte,
00:31:03: auch viele soziologische Aspekte, auch ökonomische sicherlich,
00:31:07: aber es ist, in der Kern geht es hier um ein philosophisches Dilemma.
00:31:09: Also wir kennen das auch schon lange,
00:31:11: also schon vorm autonomen Fahren in der Philosophie ist Rolle Dilemma.
00:31:15: Ich bin verantwortlich für das Fahren an der Straßenbahn.
00:31:19: Sie fährt umgeschützt auf fünf Leute zu, von denen ich alle weiß,
00:31:22: sie würden sterben, sind ein sehr einfacher Fall, haben wir in der Realität ja nicht,
00:31:25: aber ich könnte sie umlegen und auf dem Gehweg zur Seite liegt eine Person.
00:31:29: Und da kann man jetzt auch verschiedene moralische Intuitionen rauskitzeln.
00:31:33: Also wenn ich mich wie im Ut, in das sogenannte utilitaristischen Ethik
00:31:38: nur an den Konsequenzen meiner Handlung orientiere,
00:31:42: müsste ich ja sagen, ich muss die Weiche umlegen
00:31:45: oder dass mein autonomes Fahrzeug muss den fünf Menschen ausweichen,
00:31:48: auch wenn es dann vielleicht den Fahrer selber tötet bei der anderen Situation.
00:31:55: Wenn ich kanthianisch aus einer Pflichtenperspektive argumentiere
00:32:01: und sage meine Pflicht ist, unumstößig, dass ich aktiv niemanden töten darf,
00:32:06: dann müsste ich natürlich im Falle meines Trollys,
00:32:08: im Falle meiner Straßenbahn, die Straßenbahn laufen lassen.
00:32:11: So und ich glaube, diese vereinfachte Darstellung zeigt auch noch mal,
00:32:15: wie wir das in der Philosophie gebrauchen, also um moralische Intuitionen rauszukitzeln.
00:32:19: Wir hatten ja am Anfang gesagt, naja, wir haben keine Empirie,
00:32:22: also wir haben keine Wirklichkeit, an der wir uns abgleichen können,
00:32:25: sondern wir müssen irgendwie argumentieren vor Ratz
00:32:27: und das sind halt Intuitionen, ein wichtiger Ausgangspunkt.
00:32:31: Jetzt sind uns natürlich sehr unterschiedliche Intuitionen, die wir hier haben.
00:32:34: Man kann jetzt wieder empirisch sagen, die meisten Menschen würden
00:32:36: utilitaristisch handeln und so weiter, aber die Frage ist ja,
00:32:39: wie soll das autonome Fahrzeug sich verhalten?
00:32:44: Soll es den Leuten ausweichen oder nicht?
00:32:46: Soll es den Fahrer schützen, weil sonst kauft keiner das Auto und so weiter?
00:32:52: Ich glaube, das sind wichtige Fragen, die man auch dieser KI mitgeben muss,
00:32:56: wie man im Zweifelsfall sich zu verhalten hat. Ich glaube aber, dass das
00:33:01: Ethik und autonomes Fahren in viel breitere Fragestellungen hat. Da geht es zum Beispiel
00:33:08: um Fragen, was ist mit Privacy meiner Daten und so weiter. Und Dilemma-Situationen, wie
00:33:13: solche tauchen ja im Verkehr leider Gottes auf, wo es darum geht. Was mache ich in einer kurzfristigen
00:33:18: Situation und ganz ehrlich, es gibt in der Technik Folgenabschätzung so eine "Wool of Samt",
00:33:24: das ist jetzt keine wissenschaftliche Begründung. Aber wenn die Maschine nicht schlechter ist
00:33:28: als der Match, dann haben wir schon mal was erreicht. Und der Mensch reagiert in so einer
00:33:33: Situation völlig intuitiv, völlig irrational. Das heißt ganz ehrlich, diese Situation treten
00:33:37: nicht oft auf. Autonomes Fahren wird solche, also selbst nur semi-autonomes Fahren vermeidet
00:33:43: ja solche Situationen nicht hundertprozentig, das ist ja völlig klar. Aber sie werden dort
00:33:48: nicht seltener auftreten. Ich glaube, man sollte dann nicht irgendwie dem Retiring abfolgen,
00:33:52: dass das die zentrale Aufgabe der Ethik des Autonomen vorhanden ist, dieses philosophische
00:33:58: Dilemma, das ein Dilemma ist und bleiben wird, zu lösen. Weil ich hatte so ein bisschen
00:34:04: diese utilitaristische Perspektive vorgestellt. Man muss, genau, die fünf, vielleicht sind
00:34:10: fünf Menschen leben, nicht fünfmal so viel wert wie ein Menschenleben, aber wir haben
00:34:13: keine andere Unterscheidung. Menschenleben haben einen Wert, dann muss ich halt den
00:34:17: einen in den Kauf nehmen. Aber die Situation schaut ja völlig anders aus, wenn ich die
00:34:22: eine Person kenne, wenn ich die eine Person bin oder die eine Person mein Kind ist, mein
00:34:26: Vater, meine Mutter. Und dann kann man wieder mit Rückgriff auf die Kehrethik auch gute
00:34:32: Argumente machen, dass unsere Gesellschaft ja so auch organisiert ist, dass wir verwarten,
00:34:36: dass sie in der Nähe bei uns sind, mehr Fürsorge vor uns tragen und dann vielleicht doch irgendwie
00:34:40: im Kauf nehmen, dass vielleicht fünf Leute sterben und dann muss man auch noch dazu
00:34:47: sagen, dass es keine triviale Komplikation, weder für die Ethik noch für die Entscheidungstheorie.
00:34:53: Wir sind an der Regel nicht sicher, wir sind ja nicht in Situationen, wo wir wissen, da
00:34:58: sterben fünf ganz sicher und da steht eine Person ganz sicher, wir reden dann von Unsicherheiten,
00:35:03: vielleicht von Wahrscheinlichkeiten im besten Fall, die wir gegeneinander abwägen müssen.
00:35:07: Und in Jura, wenn ich das vielleicht ergänzen darf, ist es tatsächlich so, dass du kannst
00:35:14: ein Mensch leben, nicht mit fünf Menschen. Also darfst ein Mensch dem nicht gegeneinander
00:35:17: aufwägen, was wiegt mehr, was wiegt weniger. Und ich weiß nicht, ob ihr den kennt, den
00:35:21: Ferdinand von Skirach, das ist ein Rechtsanwalt, ich glaube aus Berlin und der hat auch mal
00:35:26: ein Film gemacht zu dem Thema Gerechtigkeit, was ist gerecht und was nicht. Und es war
00:35:30: in der Zeit, als diese Terroranschläge waren, wo die Frage oft aufkam, darf man den Flugzeug
00:35:35: abschießen, mit dem Wissen, dass du dann die Insassen natürlich töte, aber dafür vielleicht
00:35:41: hunderte aus dem Gebäude schützen kannst. Ist es dann strafbar oder ist es nicht strafbar?
00:35:48: Das ist natürlich dann für den Juristen interessant. Aber ja, fand ich damals schon wahnsinnig
00:35:52: eine spannende Frage und genau das, was du angesprochen hast, wenn man dann die Person
00:35:56: kennt, die in dem Flugzeug sitzen, würde man wahrscheinlich ganz anders entscheiden, wie
00:36:00: wenn es wildfremde Menschen sind und es hat ja alles einen wahnsinnigen Einfluss dann.
00:36:05: Genau und wichtig ist glaube ich auch aus der ethischen Sicht, das ist auch vertretbar.
00:36:09: Dafür kann man auch gute ethische Argumente anführen, dass das vertretbar ist. Und ich
00:36:15: glaube vielleicht auch wegen diesem Beispiel, ich glaube, dass es auch wirklich interessante
00:36:20: Implikationen, also man sieht interessant die Verknüpfung zwischen Recht und Philosophie.
00:36:24: Ich glaube im Kontinental Europa ist es ja so, dass wir, wir kennen das kategorische
00:36:29: Verbot zu töten. Bei uns ist es zwar straffrei die Notwehr, aber es ist halt nur straffrei,
00:36:36: es ist trotzdem, es ist trotzdem eine Straftat, eine Straftat, genau. Und im englisch-seksischen
00:36:42: Bereich ist das anders, die haben stärker diese konsequenzialistische, utilitaristische
00:36:46: Traditionen, in den Niederlanden auch. Und man sieht das auch in der Technikgestaltung,
00:36:50: also im europäischer Konstruktion des Bahnsystems, bei aller öffentlichen Verkehrsmittel werden
00:36:57: Unfälle mit Menschenleben, also verursachte Todesfälle, anders behandelt als alle anderen
00:37:05: Unfälle. Während hingegen den Niederlanden, in den USA, in England werden die verrechnet,
00:37:11: werden die monetarisiert die Menschenleben und dann mit den anderen Scheiden verrechnet.
00:37:15: Wahnsinn. Ganz interessant.
00:37:19: Ja, Rafaela, ich habe mal eine Kinderfrage zwischendurch. Gibt Philosophie eigentlich
00:37:26: Antworten? Also sagt ihr zu irgendwas falsch oder richtig oder handelt so oder kann das
00:37:33: Ist das nur Religion oder antwortet ihr auch auf Fragen im Sinne von "konkret"?
00:37:38: Äh, ja.
00:37:39: Da hilft ja immer "konkret", aber wer soll man antworten bisher?
00:37:42: Ähm, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja, ja
00:37:42: Wir müssen natürlich immer unsere argumentative Basis klarmachen, also welche Annahmen, gerade in der Ethik, welche Annahmen wir machen, woraus wir das ableiten, weil wir keine letzte Begründung haben, die wir alle irgendwie akzeptieren würden.
00:38:01: Es gibt Bereiche menschlichen Handel, die bei der Ethik bleiben, die sicherlich geh- oder verboten sind, aber gerade im Bereich der Technik-Ethik würde ich sagen, das sind nicht die interessanten Fälle und sind auch nicht die Fälle, mit denen wir uns normalerweise befassen.
00:38:21: Das ist eher so ein ethischer Graubereich, es gibt gute Argumente in die eine Richtung, es gibt gute Argumente in die andere Richtung und wir müssen abwägen.
00:38:27: Also, man ist ja ganz oft bei Technik, mein KI ist da ja nur ein Beispiel und sagt, ja, vielleicht können wir besser mit der globalen Erwärmung umgehen durch eine KI, aber gleichzeitig müssen wir den Datenschutz über den Haufen werfen, weil wir das nur dann machen können, wenn wir sehr viel privat Bewegungsdaten von Menschen erfassen.
00:38:44: Und dieses Abwägen verschiedener Werte ist, glaube ich, Brot und Putzer der Technik-Ethik und da sind wir halt weit weg von irgendwelchen Geboten und Verboten-Aussagen.
00:38:59: In der Regel wird die angewandte Ethik nicht sagen, ja, GU-Engineering ist kategorisch verboten und selbst nicht für spezielle GU-Engineering Anwendung, sondern, weil it depends.
00:39:09: Und ich glaube, das ist auch etwas, was in der Lehre schwierig zu verstehen ist für Studierende, dass es hier keinen Karnung gibt, den man lernt.
00:39:25: Ja, ich habe mir das Gefühl, das glaubt man als Außenstehender irgendwie, würde ich jetzt sagen, oder?
00:39:31: Dass Philosophie dann immer so Antworten gibt im Sinne von Geboten oder Verboten, aber das ist eigentlich gerade nicht so.
00:39:37: Nee, in der Regel nicht. Es gibt natürlich auch Dinge, wo man sagen muss, die sind kategorisch verboten, bestimmte Anwendungen, aber da haben wir dann in der Regel ja auch schon im Konsens über das Rechtssystem.
00:39:46: In der Regel sind immer nicht die spannenden Anwendungen und es geht uns mehr darum, gut begründet Handlungsoptionen gegeneinander abzuwägen.
00:40:00: Und hier auch eben elitische Aspekte mitzuberücksichtigen, nicht nur die ökonomische Machbarkeit oder die technische Machbarkeit, den ökonomischen Erfolg und so weiter.
00:40:09: Also kann man sagen, es geht eigentlich darum, durch Nachdenken so wenig töricht wie möglich zu handeln?
00:40:15: Ja, das ist schon zusammengefasst, genau. Und damit das bei unseren KIT-Studierenden erreichen, dann glaub ich sind wir schon da, wo wir sein wollen.
00:40:23: Und was würdest du sagen, Raffaella, wer übernimmt denn jetzt auch die Verantwortung für Entscheidungen von KI?
00:40:31: Ist es immer der Anwender oder ist es derjenige, der die trainiert hat?
00:40:37: Ich würde schon sagen alle. Genau, es ist sowohl natürlich derjenige, der die KI entwickelt, das sind ja noch nicht unbedingt die gleichen, die die Trainingsdaten entwickelt haben.
00:40:47: Das ja oftmals, wie in anderen ingenieurswissenschaftlichen Bereichen auch, sehr kollaboratives Handeln und Forschen und entwickeln.
00:40:56: Derjenige, der sie anwendet, aber auch der und die, die die regulatorischen Rahmenbedingungen setzen.
00:41:03: Wir haben jetzt in der EU das erste Mal weltweit überhaupt eine Regulierung von KI-Anwendungen durch den EUAI-Akt.
00:41:11: Das ist schon eine geteilte Verantwortung.
00:41:14: Klar, ich bin technisch großschuldig unterrichtet, wenn ich jemandem unterrichtet, dann vor allem Ingenieure.
00:41:20: Und dann kommt es natürlich oft so rüber, als ob der Ingenieur und die Ingenieure die Verantwortung hier trägt.
00:41:25: Die trägt einen Teil der Verantwortung. Die Technik ist ja eingebettet in den großen gesellschaftlichen Rahmen.
00:41:30: Weil ich immer sagen würde, dass der Anwender die größte Verantwortung daran trägt.
00:41:36: Weil der muss doch hinterfragen, was da ausgespuckt wird.
00:41:39: Ja, aber wenn du jetzt das Auto kaufst, das Selbstfahrende, und du drückst nur auf den Knopf, fahre mich irgendwo hin, dann bist du ja der Anwender.
00:41:47: Aber wie sollst du dann Verantwortung für irgendwas übernehmen?
00:41:49: Ich würde halt diesem Knopf nicht drücken, wenn ich mir nicht hundertprozentig sicher bin.
00:41:52: Ja, dann kannst du ja das produktlich benutzen.
00:41:55: Und ich glaube, das wäre auch, glaube ich, ein unterkomplexer Blick auf nicht nur Technik, sondern auch unsere Lebenswelt heute.
00:42:02: Da ist vielleicht KI jetzt auch herausragend, was wir als Blackbox-Nature bezeichnen.
00:42:08: Wer kann schon die KI durchblicken?
00:42:12: Ich weiß ja nicht, auf welchen Daten die trainiert.
00:42:15: Ich kenne einen Algorithmus im Detail nicht.
00:42:17: Ich kann den überhaupt nicht verstehen.
00:42:19: Also ich glaube schon, dass der Anwender bis zu einem gewissen Grad auch literat werden muss.
00:42:24: Also sich weiterbilden muss, wie KI als solche funktioniert.
00:42:28: Also da gibt es eine Verantwortung auch dazu.
00:42:31: Aber allein dem Nutzer, dem Käufer, die Verantwortung aufzulegen, ist schwierig.
00:42:36: Und das haben wir aber auch in anderen Bereichen.
00:42:38: Wenn es um Ernährungs- oder Kaufgewohnheiten gibt.
00:42:42: Ja, keiner von uns hat überhaupt die Möglichkeit im Alltag, die Lieferketten so im Detail,
00:42:47: so in der Blicken, dass wir wissen, ob da irgendwelche ethischen problematischen Dinge passiert sind,
00:42:54: bis das Produkt bei uns im Supermarkt und bei uns daheim im Kühlschrank liegt.
00:42:57: Würde es eigentlich Sinn machen, Rafaela, die KI selber darüber philosophieren zu lassen?
00:43:03: Also was KI, wenn sie gut trainiert ist,
00:43:08: vielleicht, wahrscheinlich kann es uns helfen, Argumentationslücken aufzudecken.
00:43:16: Also wenn das damit gemeint ist.
00:43:18: Probiert ihr das?
00:43:19: Also sagt ihr, Cheche Petit findet mal eine Lösung für ein moralisches Dilemma?
00:43:24: Wenn man das Cheche Petit fragen würde, was wir natürlich alle ausprobiert haben,
00:43:29: als Cheche Petit auf dem Markt kam, oder zumindest die meisten meiner Kollegen, die ich kenne,
00:43:33: dann gibt einem Cheche Petit ein schönes Claimer und sagt, ich bin keine moralische Instanz,
00:43:39: ich bin eine Maschine und das auch völlig zu Recht und ich trainiere auf bestimmten Daten.
00:43:43: Also was zum Beispiel large-language-modelle sind ja maschinelles Lernen, die auf Daten trainieren.
00:43:51: Und diese Daten sind die, die im Netz gefunden werden.
00:43:55: Und damit ist der Nutzen von Cheche Petit für Philosophie relativ begrenzt,
00:44:05: denn nicht alle Texte, die so im Netz zu finden sind, entsprechend gute Argumentativverpraxis.
00:44:13: Also at home in einem Argument, das kennt man ja auch als Jurist,
00:44:17: diese Diskreditierung aufgrund derjenigen oder derjenigen, die das Argument geäußert hat und so weiter.
00:44:23: Logisch keine Berechtigung, aber findet man ganz oft.
00:44:27: Und von daher muss man, wenn man Cheche Petit oder andere large-language-Modelle für philosophische Fragen verwenden,
00:44:34: sich ganz stark auf eine Datenbasis einschränken.
00:44:38: Also untersucht bitte nur die Texte von Judas Butler beispielsweise und jeder Frage nach das.
00:44:49: Und da muss man schon sehr viel Wissen reinstecken.
00:44:52: Also ist so ein bisschen, also was ich jetzt meinen Studierenden sage, also den Philosophisch-Studierenden,
00:44:57: zu Cheche Petit ist das Gleiche, was ich Ihnen früher zu Wikipedia gesagt habe,
00:45:01: das ist ein wunderbares Hilfsmittel, wenn du deine Doktorbeit schreibst über ein Thema,
00:45:05: da vorher hast du nicht die Möglichkeit zu erkennen, ob das sinnvoll ist, was gesagt wird.
00:45:11: Und du hast vor allem bei Cheche Petit, das ist bei Wikipedia bei jeder Lexikon anders,
00:45:16: du hast gar nicht die Möglichkeit, dir zu überlegen, wie könnte es falsch gehen
00:45:21: und wie muss ich meine Frage einschränken.
00:45:23: Also ich glaube, es kann unterstützen natürlich, aber ich glaube, also wir als Philosophen glauben ja,
00:45:30: dass wir durch AI nicht ersetzt werden.
00:45:35: Ich habe keine Aussage, ob wir die Zukunft treffen, aber wir fühlen uns relativ ziemlich.
00:45:41: Und könnte es sein, also ich kenne es manchmal so aus der Diskussion um KI und Kunst,
00:45:46: dass man dann manchmal sagt, okay, das ist halt dadurch entsteht einfach eine andere Kunst,
00:45:49: eine KI-Kunst.
00:45:51: Und gibt es es auch unter Philosophen, dass man sagt, okay, es entsteht jetzt einfach eine andere Art von Nachdenken über etwas?
00:45:57: Was könnte sein, dass es jemand sagt, ich habe doch noch nie so drüber nachgedacht,
00:46:00: eine andere Art des Nachdenken über etwas.
00:46:02: Aber wenn wir philosophisch argumentieren, dann legen wir schon sehr enge Kriterien an,
00:46:07: an das, was wir als gültiges Argumente achten, also einfach logische Schlüsse, keine Widersprüche.
00:46:17: Wir fahren dann beispielsweise in der Ethik auch noch andere Kriterien,
00:46:22: zum Beispiel, dass wir es zumindest im Prinzip allen gegenüber rechtfertigen können.
00:46:26: Wir verlangen Widerspruchsfreiheit.
00:46:29: Und nochmal, ich glaube, da könnte KI tatsächlich unterstützen.
00:46:33: Aber auch in Kunst ist ja ein kreativer Schaffungsprozess, der ja auch erstmal unreguliert sein kann.
00:46:43: Natürlich kann ich auch kritisch durch Kunst werden, aber in dem Sinne ist ja Philosophie deutlich weniger kreativ.
00:46:50: Und eine Unterstützung durch KI, gerade was Argumentationslücken, Widersprüchlichkeiten angeht,
00:46:56: ist natürlich wunderbar und es gibt auch Kollegen, die das machen, die KI dafür sogar programmieren,
00:47:00: um beispielsweise solche Widersprüche aufzudecken.
00:47:03: Aber neue Art der Philosophie sehe ich jetzt nicht.
00:47:09: Aber das heißt auch, deine Studenten, die schreiben ganz normal eine Bachelorarbeit.
00:47:12: Also da hast du jetzt keine Angst, dass die, die von ChatGPT schreiben müssen.
00:47:15: Doch, das müssen wir. Also das geht quer durch alle Fächer.
00:47:19: Das ist ein großes Problem für, ja, ja, nicht nur für Hochschullehrer,
00:47:23: sondern auch an der Schule. Wie geht man damit oben?
00:47:26: Und ich glaube, man sollte auch nicht, ich glaube, es ist eine Technik mit einem großen Potenzial.
00:47:30: Also ich gebrauche auch sehr viel ChatGPT.
00:47:32: Also wie ich ChatGPT gut, also ein anderes Language-Modell, gut gebrauchen kann ist.
00:47:38: Wenn ich schon weiß, was ich unterrichten möchte, wie ich das didaktisch vielleicht ein bisschen besser aufbereiten.
00:47:44: Ich habe vier Studierende, die haben alle den und den Hintergrund.
00:47:47: Was für interessante Fallbeispiele könnte ich bringen?
00:47:51: Und dafür kann mich zum Beispiel ChatGPT unterstützen.
00:47:55: Es kann mich nicht unterstützen und erstaunlich schlecht unterstützen.
00:47:58: Wenn es um die Frage geht, ja, ich möchte den und den Kurs unterrichten, was soll ich lesen?
00:48:03: Das ist einfach auch die Datenbasis im Netz, was unsere, was mein Fach oder was viele Fächer angeht, so klein.
00:48:09: Und genauso möchte ich halt auch den Studierenden beibringen, auf eine sinnvolle Art und Weise mit ChatGPT umzugehen,
00:48:15: dass sie das nutzen, um besser ihre Hausarbeiten zu schreiben.
00:48:19: Also ich meine, die Qualität, zum Beispiel das Englischen wird ja deutlich besser.
00:48:23: Und das ist natürlich schwierig, weil wir alle ja noch, es ist eine Technik, die neu ist, die Entwicklung ist.
00:48:29: Wir haben ja selber noch keine guten Kriterien, wie wir sie einsetzen.
00:48:32: Es ist immer alles noch so "Learning by doing".
00:48:34: Was bringe ich da meinen Studierenden bei? Also für bestimmte Arten der Aufgaben gibt es jetzt wieder mehr Klausuren,
00:48:42: ohne technische Unterstützung als früher.
00:48:45: Das ist wahrscheinlich auch so eine Übergangsphase, nicht nur mein Fach, sondern auch in anderen Fächern.
00:48:50: Und ja, dann bestimmte Einschränkungen.
00:48:53: Und Plagiat war früher verboten, sollte auch der ChatGPT verboten sein.
00:48:58: Es gibt jetzt auch erste Software, die unterstützen, Language-Modelle rausfindig zu machen.
00:49:04: Die sind natürlich noch nicht so wahnsinnig verlässlich und so weiter.
00:49:07: Aber ich glaube, ich bin da manchmal, man sollte sowas nicht verbieten,
00:49:10: sondern auch diesen sinnvollen Umgang mit der Technik, das Studierenden naheliegen bei Studierenden.
00:49:15: Und bei unserem Ingenieuretag, das kann ich da nochmal draufzusprechen, war auch ein Referent,
00:49:19: der ist auch Professor an der Hochschule und der hat gesagt, er prüft einfach viel mehr mündlich.
00:49:24: Ja, also, dass man da irgendwie in den Austausch kommt und auch nachvollziehen kann.
00:49:28: Versteht es denn der Studentin in dem Fall?
00:49:35: Genau, das wäre natürlich auch der Königsweg meines Erachtens,
00:49:39: weil man in der mündlichen Prüfung lernt beides,
00:49:42: zumindest der Studierende noch etwas.
00:49:46: Aber das muss natürlich auch machbar sein.
00:49:49: Ja, also ich meine, wir sind ja alle auf Online-Klausuren umgestiegen,
00:49:52: weil die Studierendenzahlen einfach zugenommen haben.
00:49:56: Aber ja, und ich glaube, da gibt es viele Lösungen, aber es sind gerade alle im Umbruch hier.
00:50:03: Das heißt, die Zukunft ist ungewiss.
00:50:06: Wie gehen wir denn damit um, Rafaela?
00:50:09: Oh, ja, also da gibt es natürlich mehrere Antworten.
00:50:12: Also, zum einen, glaube ich, auf der einen Seite, glaube ich, kann man sagen,
00:50:14: man könnte ja entspannt sein, der Mensch kann gut mit Unsicherheiten umgehen,
00:50:18: sonst werden Evolution nicht so weit gekommen.
00:50:21: Es gibt jetzt in der Technik Philosophie oder auch in der Technik Folgenabschätzung
00:50:26: bestimmte Arten, wie man mit Unsicherheiten umgeht,
00:50:28: die auch in den empirischen Wissenschaften kommen.
00:50:30: Ich glaube, so eine ganz wichtige Unterscheidung,
00:50:32: wenn wir von Risiko und Unsicherheit reden,
00:50:35: dann ist es bei uns ganz oftmals aus dem Diskurs geprägt
00:50:38: über die zivilen Nutzung der Kernenergie.
00:50:40: Hier kann ein großer Unfall passieren mit sehr hohem Schaden.
00:50:44: Muss aber nicht, ja?
00:50:46: Also, der Begriff Risiko wurde hier geprägt,
00:50:49: dass wir wissen, was alles schiefgehen kann
00:50:51: oder was alles passieren kann.
00:50:53: Und wir können dem Wahrscheinlichkeiten zuordnen.
00:50:57: Aber wir reden auch gerne von Unsicherheiten,
00:51:00: dass wir eben keine Wahrscheinlichkeiten zuordnen können.
00:51:03: Und ja, unser Wissen wird noch weniger,
00:51:05: wenn wir von Ungewissheit reden oder Ignorance im Englischen,
00:51:08: wenn wir schon gar nicht mehr wissen, was alles passieren kann.
00:51:10: Ja, und die Technik Geschichte hat für alles so ihre Beispiele.
00:51:13: Also, wenn man an die Zulassung von FCKWs
00:51:16: in den 70er Jahren als exzellentes Kühlmittel denkt,
00:51:19: kann man dafür argumentieren,
00:51:21: dass man wirklich nicht absehen konnte,
00:51:23: dass dieses innerte Gas, also eines, das kaum reagiert
00:51:25: und in der Atmosphäre hoch oben, da wo es kälter ist,
00:51:28: die meisten chemischen Reaktionen laufen dann langsam ab,
00:51:30: diese ozonschädigende Wirkung hatte.
00:51:32: Das heißt, wir haben auch diese Ignorance-Unterscheidungen.
00:51:35: Und ich glaube, es ist schon mal wichtig, sich bewusst zu machen,
00:51:38: dass wir in den empirischen Wissenschaften jetzt Möglichkeiten haben,
00:51:42: mit diesen Artenweisen umzugehen.
00:51:45: Aber das ist natürlich immer ein,
00:51:47: dass wir, wenn wir einen langen Entscheidungshorizont ansehen,
00:51:50: also wenn die Folgen unserer Einsatz eines technischen Produktes
00:51:54: zeitlich lang betrachten, zukünftige Nationen mit einem beziehen,
00:51:57: global betrachten, räumlich weit,
00:51:59: dass wir immer eigentlich bei einer Entscheidung
00:52:01: unter Ungewissheit sind, also unter Ignorance,
00:52:03: und dass wir bewusst sagen müssen,
00:52:05: wir schneiden unseren Entscheidungshorizont irgendwo ab,
00:52:08: um das ganze pragmatisch handbar zu machen.
00:52:10: Und dann müssen wir noch schauen,
00:52:12: ist es wirklich eine Entscheidung,
00:52:13: wo ich mit Wahrscheinlichkeiten umgehen kann,
00:52:15: dann kann ich natürlich sagen,
00:52:16: Risikominimierung machen,
00:52:18: habe ich diese Wahrscheinlichkeiten nicht,
00:52:20: dann muss ich natürlich vielleicht eher mit dem Vorsorgeprinzip argumentieren.
00:52:22: Aber ich glaube, wichtig ist hier zu erkennen,
00:52:24: dass selbst bei dieser pragmatischen Entscheidung,
00:52:26: wo, oder unter anderem,
00:52:28: pragmatische, ähnliche Aspekte eine Rolle spielen,
00:52:30: wann höre ich auf,
00:52:32: wer hier zukünftige Generationen interessieren mich nicht mehr,
00:52:34: oder schaue ich mir doch bloß die Auswirkungen
00:52:37: im regionalen Umfeld an,
00:52:39: oder im Nationalstaat, oder, oder.
00:52:41: Es ist alles halt irgendwie ethisch.
00:52:43: Belastet das ein Anführungszeichen?
00:52:48: Und nochmal dazu,
00:52:50: dass Menschen, glaube ich,
00:52:51: sehr gut sind, also sehr gut sind,
00:52:53: um mit Unsicherheiten umzugehen.
00:52:55: Es gab diese Entwicklung in der Entscheidungstheorie,
00:52:58: dass man die Risikominimierung
00:53:00: als rational erachtet,
00:53:02: und das hat man ganz oft in der Ökonomie vor allem,
00:53:04: aber auch in der Philosophie zum Teil.
00:53:06: Und das macht natürlich wenig Sinn,
00:53:08: zu sagen, ja, wir Menschen sind schlecht,
00:53:10: mit Unsicherheiten umzugehen.
00:53:12: Ich glaube, das ist noch ein Punkt,
00:53:14: wo die empirische Forschung noch nachhalten kann,
00:53:16: sich anzuschauen, wie gehen den Menschen
00:53:18: tatsächlich mit Unsicherheiten um,
00:53:20: und was können wir für unsere wissenschaftliche Umgang
00:53:23: mit Unsicherheiten davon lernen.
00:53:25: Und ich glaube, das ist auch gerade so ein Umdenken,
00:53:27: was in der Entscheidungstheorie passiert
00:53:29: und in der Psychologie der Unsicherheiten.
00:53:32: Wie stehst du so zu diesen ganzen Debatten,
00:53:35: um Regulierungen, Nichtregulierungen,
00:53:37: europäisches versus amerikanisches Modell,
00:53:39: sag ich mal so ein bisschen?
00:53:41: Also ich weiß nicht genau, was du vor Augen hast.
00:53:45: Also ganz oft sagt man, ja, amerikanisches Modell ist...
00:53:48: Ja, ja, dieses Risikomodell,
00:53:50: während hingegen das europäische, das Vorsorgeprinzip ist.
00:53:53: Das ist das, was du vor Augen hast.
00:53:55: Ja, ich hätte jetzt gedacht,
00:53:57: an gar nichts regulieren und die Unternehmen machen lassen,
00:53:59: was sie wollen, wer amerikanisch und europäisch,
00:54:01: wer regularien finden,
00:54:03: um zum Beispiel Arbeitsplätze zu schützen oder so.
00:54:07: Also das geht jetzt ein bisschen aus meiner Expertise raus,
00:54:11: dass ich glaube, ich könnte jetzt gute Argumente liefern,
00:54:14: warum im einen Fall die als Technikphilosophen,
00:54:17: warum im einen Fall ein Risiko herangehen,
00:54:20: weil es vielleicht sinnvoll ist,
00:54:22: z.B. bei der Betrachtung von der Kernenergie
00:54:24: oder aber da muss man es auch echt ausholen,
00:54:26: oder warum bei anderen Aspekten
00:54:28: wie dem Treibos-Effekt weiten Vorsorgeprinzip,
00:54:30: also wir schauen uns den ganz kurz zusammengefasst,
00:54:32: den schlechtestmöglichsten Fall an, der auftreten kann,
00:54:36: egal wie häufig der auftritt, oder wie wahrscheinlich der ist,
00:54:43: aber wir versuchen das zu vermeiden.
00:54:45: So, und das sind ja Dinge, wo die Ethik klassisch was beitragen kann.
00:54:51: Die Frage, die du jetzt gestellt hast,
00:54:53: ist ja noch eine viel weitergehende,
00:54:55: zu sagen, lasst man den Markt machen
00:54:57: oder will ich überhaupt Regulierungen?
00:54:59: Und da bin ich jetzt, glaube ich, eher da,
00:55:01: wo ich jetzt als Privatperson spreche.
00:55:03: Also ich bin schon stark für eine regulierte Marktwirtschaft,
00:55:05: denn das Recht des Stärkeren,
00:55:07: also wir haben staatliche Strukturen,
00:55:09: um das Recht des Stärkeren auszuhebeln oder zu unterbinden,
00:55:12: und dann brauche ich das auf dem Markt
00:55:14: nicht auch noch unbedingt übertragen.
00:55:16: Und dazu kommen natürlich auch noch so kontingente Dinge,
00:55:18: wie dass der Markt sich in den klassischen Marktsektoren bewiesen hat,
00:55:24: aber wenn wir von Dingen reden,
00:55:27: die ja auch durch die Industrie tangiert werden wie Tripos Effekt,
00:55:30: sind ja die Hauptschäden nicht in Marktsektoren zu erwarten.
00:55:33: Wo die Hauptschäden des Tripos Effekt sind nicht,
00:55:36: dass wir Ernteausfälle haben,
00:55:38: sondern die Implikationen der Ernteausfälle
00:55:40: auf das Leben von Menschen, die dann zu Todesfällen führen.
00:55:44: Und die klassischen Marktsektoren sind monetarisiert.
00:55:47: Das ist bei Menschenleben hat nicht die Eigenschaften wie Geld.
00:55:51: Ich kann meine Freunde nicht tauschen.
00:55:53: Mein eigenes Leben ist auch irgendwann vorbei.
00:55:56: Ja, da ist mir auch mein vieles Geld nicht.
00:55:58: Also einfach auch noch mal,
00:56:00: als Philosophen, wenn meine Argumentation
00:56:04: gegen diesen völlig unregulierten Markt aussagen,
00:56:08: zumindest bis dato jetzt,
00:56:10: ist das ja in den USA auch nicht so gewesen.
00:56:13: Dieser völlig unregulierte Markt macht natürlich überhaupt keinen Sinn,
00:56:17: weil wir den Markt auch auf klassische Nichtmarktsektoren anwenden,
00:56:20: wo wir erst argumentieren müssen, dass das überhaupt da Sinn macht.
00:56:22: Und wenn du dir jetzt überlehnen würdest,
00:56:26: was könnte sich gesellschaftlich oder politisch,
00:56:29: wie müssten die Rahmenbedingungen sein?
00:56:31: Ab 2026 oder 2030, wie auch immer.
00:56:35: Was würdest du sagen?
00:56:38: Ich glaube, ich würde mir sicherlich wünschen,
00:56:47: dass wir Rahmenbedingungen schaffen,
00:56:52: dass das Argument und die argumentation
00:56:54: wieder rationale Argumente wieder stärker Bedeutung haben.
00:56:59: Und das ist, glaube ich, etwas,
00:57:02: was ich stark in der Bildungspolitik sehen würde.
00:57:05: Also auch wenn ich jetzt tatsächlich Technikphilosophie mache
00:57:08: und man jetzt erwarten würde,
00:57:10: ich würde jetzt für stärkere technische Regulierung argumentieren.
00:57:12: Ich glaube, ich würde mich eher im deutschen Kontext
00:57:14: ein Sondervermögen für Bildung wünschen.
00:57:17: Was wir gerade haben, das hängt natürlich mit meinem Fach zusammen,
00:57:20: dass mich das stört.
00:57:23: Wir lernen nicht zu argumentieren.
00:57:26: Argumentieren ist ja normalerweise noch viel mehr als nur die Logik,
00:57:30: die hinter den argumentativen Analysen ist zu lernen,
00:57:33: sondern auch die eigenen Interessen und Werte zu hinterfragen.
00:57:36: Also zu fragen, will ich das jetzt wirklich?
00:57:40: Und was wir in der Schule lernen,
00:57:42: da hatte ich ein ganz schönes anektotisches Beispiel
00:57:44: mit meiner eigenen Tochter.
00:57:46: Meine Tochter ging natürlich ganz früh in die Kita.
00:57:48: Und ich habe dann nie irgendwie negative Implikationen
00:57:51: oder negative Rückmeldung bekommen.
00:57:53: Aber die Rückmeldung, die ich zweimal von wildfremden Menschen
00:57:56: im Zug bekommen habe, war super, dass ihr jetzt schon in die Kita geht.
00:57:59: Da lernt sie sich durchzusetzen.
00:58:01: Und dann dachte ich mir, wenn das die hauptsoziale Fähigkeit ist,
00:58:05: die wir als Gesellschaft glauben,
00:58:07: dass Kinder in der Interaktion mit anderen lernen,
00:58:09: wo ist denn die Basis für unser demokratisches Zusammenleben?
00:58:12: Wir müssen ja lernen, auf die Interessen anderer einzugehen.
00:58:15: Und wir müssen meines Erachtens auch viel besser lernen
00:58:18: in der Schule und darüber hinaus,
00:58:20: dass es Stärke ist, im Lichte anderer empirischer Befunde
00:58:24: im Einsehen von Fehlschlößen bessere Argumente zu erkennen,
00:58:28: dass man die eigene Meinung ändern muss
00:58:30: und nicht die eigene Meinung durchzusetzen.
00:58:32: Und das, glaube ich, würde ich mir hauptsächlich wünschen.
00:58:34: Aber es ist nicht ein Grundproblem dann auch der Philosophie,
00:58:38: dass es offensichtlich mit dem Alltag nicht unbedingt immer vereinbar ist.
00:58:42: Weil wenn jetzt alle Menschen da draußen, die nicht Philosophen sind,
00:58:44: sagen, ich will, dass mein Kind lernt, sich durchzusetzen
00:58:46: und die anderen im Kindergarten fertig zu machen.
00:58:49: Also ist es dann nicht ein Grundproblem der Philosophie,
00:58:52: dass es offensichtlich eine große Verwerfung zum Alltag gibt?
00:58:56: Ich glaube, ich würde noch nicht mehr sagen,
00:58:58: dass es notwendigerweise so ist.
00:59:00: Ich glaube, man kommt wieder zum Wirtschaftssystem.
00:59:02: Wir sind ja in einem bestimmten Wirtschaftssystem unterwegs.
00:59:04: Das ist das bestimmte menschliche Eigenschaften,
00:59:06: wie den Eigennutz zu befördern, stark in den Vordergrund stellt.
00:59:09: Aber Menschen sind ja viel mehr.
00:59:11: Wir tragen Fürsorge füreinander, die wenigsten Menschen.
00:59:14: Und die würden wir dann als Pathologisch bezeichnen.
00:59:16: Und sind ja genuine Egoisten.
00:59:18: Von daher, glaube ich, jede Gesellschaft hat ihre Nachteile.
00:59:22: Wir fokussieren momentan sehr stark auf eine menschliche Charakter-Eigenschaft.
00:59:27: Und nicht nur dieser Eigennutz,
00:59:30: sondern auch, die es immer mehr haben wollen, immer mehr können wollen.
00:59:33: Wenn wir das nicht regulieren aus der Selbstregulation
00:59:36: oder auch staatlich uns natürlich an die Wand fährt,
00:59:38: und ich glaube, die Umweltprobleme, die wir gerade sehen,
00:59:40: sind ein Beispiel dafür.
00:59:42: Und dann nochmal zurück zu KI.
00:59:44: Und dann zu glauben, dass dann die Technik das löst,
00:59:48: aber wir gleichzeitig genauso weitermachen,
00:59:50: halte ich einfach für sehr kurzsichtig und für sehr, sehr unwahrscheinlich.
00:59:54: Gut.
00:59:59: Für Ella, du darfst jetzt gegen Ende des Podcasts ein bisschen was wünschen.
01:00:03: Wie wäre denn, sag ich mal, so einfach nicht nur im nächsten Jahr,
01:00:09: sondern generell in Zukunft, wenn du das wünschen könntest,
01:00:12: wie sollten die Leute auf KI belicken?
01:00:14: Weil wir hatten es jetzt schon am Anfang,
01:00:16: dass immer mehr so die Ränder betont werden,
01:00:19: entweder das Heizversprechen oder die Angst,
01:00:22: was ist ich, dass die Maschinen die Kontrolle übernehmen?
01:00:24: Was würdest du dir so wünschen, wie die Gesellschaft so ganz allgemein,
01:00:29: also du kannst jetzt auch einen Annäherungspunkt,
01:00:31: wie du möchtest dir raussuchen,
01:00:33: wie die Gesellschaft wirklich nicht nur 2026,
01:00:35: sondern vielleicht wirklich in den nächsten 10 Jahren
01:00:37: so mit KI sich beschäftigen sollt.
01:00:39: Gute Frage.
01:00:41: Also ich glaube, was ich mir wünschen würde,
01:00:43: ist tatsächlich, dass was so ein bisschen auch bei diesem geforderten Moratorium anklang,
01:00:48: ich würde mir wünschen, da Tempo rauszunehmen,
01:00:51: sowohl in der Anwendung als auch in der Umsetzung.
01:00:55: Weil ich glaube, dass so das größte Problem ist,
01:00:59: dass wir als Menschen mit dem Tempo der Veränderung nicht umgehen können
01:01:03: und auch natürlich überhaupt keine Möglichkeit haben,
01:01:06: die negativen Implikationen abzuschätzen,
01:01:08: geschweige denn dann irgendwie auf einer legislativen Ebene zu regulieren.
01:01:12: Das ist eine, was ich mir wünschen würde.
01:01:14: Und damit einhergeht auch, ich würde mir wünschen,
01:01:18: dass zum einen natürlich diejenigen, die KI entwickeln und regulieren,
01:01:25: sich in ethischen Aspekten schulen, also in ethischer Argumentation.
01:01:31: Und ja, an Teilbereichen sieht man das schon,
01:01:34: aber gleichzeitig würde ich mir auch von allen anderen wünschen,
01:01:37: das gilt jetzt für die Philosophen, die sich mit KI befassen,
01:01:39: genauso wie für die Juristen.
01:01:41: Und die Anwender, ich glaube, wir können nicht umhinnen,
01:01:45: die Technik, die wir gebrauchen, zumindest im Prinzip zu verstehen.
01:01:50: Und das ist bei KI natürlich sehr voraussetzungsreich.
01:01:53: Aber das sind wir schon bei normalen Gegenständen,
01:01:56: wie der Mikrowelle, wer weiß schon, wie die Mikrowelle funktioniert.
01:01:59: Man hat man obstrußigste Argumente, es hilft halt nichts.
01:02:02: Die Welt ist komplex, und wenn sie so komplex bleiben soll,
01:02:05: das hat ja alles zu seiner Berechtigung.
01:02:07: Und wir können so viele Menschen auf dem Globus ja gar nicht ernähren.
01:02:09: Das ist ja auch erstmal ohne moderne Technik und Naturwissenschaften.
01:02:12: Das ist ja auch erstmal sehr positiv viele Menschen.
01:02:14: Dann muss man sich einfach auch mit der Technik
01:02:18: einen gewissen Punkt auseinandersetzen.
01:02:21: Und dann komme ich wieder zu meinem,
01:02:23: vielleicht nicht verwunderlich als Hochschullehrerin,
01:02:25: komme ich wieder zu meinem Punkt.
01:02:26: Und ich glaube, das hat auch Implicationen für die Bildungspolitik.
01:02:31: Super.
01:02:33: Vielen Dank, Rafaela.
01:02:35: Bevor wir aber zum Abschluss kommen,
01:02:37: stellen wir unserem Gast oder unsere Gäste immer noch eine letzte Abschlussfrage.
01:02:41: Und zwar würde ich dich bitten, die Folge in drei, vier Wörtern setzen,
01:02:47: wie auch immer zusammenzufassen, was unser Zuhörer mitnehmen kann.
01:02:52: Wenn der Zuhörer keine Lust hat, den Podcast zu hören,
01:02:54: und er es gibt bis oder spult vor bis hier.
01:02:57: Was sagst du ihm dann?
01:03:00: Was sag ich ihm dann?
01:03:02: Also zum einen würde ich sagen,
01:03:05: dass es viele ethische Herausforderungen
01:03:08: in den gegenwärtigen KI-Anwendungen gibt.
01:03:11: Wir müssen dann nicht auf eine allgemeine Intelligenz rekurrieren.
01:03:14: Es ist wichtig, sich nicht nur, aber auch für die ethischen Implicationen
01:03:18: von KI damit auseinandersetzen, vertraut zu machen,
01:03:21: wie den KI funktioniert.
01:03:23: Also ein rudimentäres Verständnis, wie ein Large-Language-Modell
01:03:26: oder andere maschinelle Lerneugorithmen funktionieren,
01:03:30: ist hier unabdingbar.
01:03:32: Und ja, wir müssen als Gesellschaft wieder lernen,
01:03:37: auf die Kraft des besseren Argumentes zu vertrauen,
01:03:40: dass Stärke ist, einzusehen, dass andere Argumente vielleicht besser sind,
01:03:44: nicht nur das eigene Argument und die eigene Meinung durchzusetzen.
01:03:50: Schön.
01:03:52: Super, vielen Dank.
01:03:54: Vielen Dank, der Raffaella.
01:03:56: Schön, dass wir hier dich besuchen durften an Karlsruhe.
01:03:59: Ja, jetzt wird es auch lange wirklich wahr.
01:04:01: Es geht es gegen die Mittagszeit.
01:04:04: Schön, dass ihr da wart.
01:04:06: Vielen, vielen Dank für das Gespräch.
01:04:08: Es war eine spannende Frage auch für mich.
01:04:10: Danke dir.
01:04:12: Sehr schön.
01:04:14: Wie toll.
01:04:16: Wow, wir waren in Karlsruhe.
01:04:18: Es war eine aufregende Reise hier von Stuttgart.
01:04:21: Was sagst du?
01:04:23: Ich muss sagen, ich bin richtig angetan davon,
01:04:27: dass wir mal eine ganz andere Art von Podcast jetzt aufgenommen haben.
01:04:31: Ich hatte fast so ein bisschen das Gefühl,
01:04:34: wir hätten nicht nur eine eigene Folge dazu aufnehmen sollen,
01:04:37: sondern so eine eigene kleine Podcast-Serie.
01:04:40: So Philosophie des Ingenieurwesens.
01:04:43: Und dann so verschiedene Bereiche,
01:04:45: so Abdecken und mal so einen Ausflug in so eine andere Welt.
01:04:48: Ja, was nicht ist, kann ja noch werden.
01:04:50: Ja, Wagen.
01:04:52: Dementsprechend muss ich dir sagen, ich fand es richtig gut.
01:04:55: Ich fand es aber auch wahnsinnig viel in einer Folge
01:04:57: an anderen Perspektiven, sag ich mal.
01:05:00: Ja, es ging mir ähnlich.
01:05:02: Vor allem ich jetzt als Jurist oder als Juristin.
01:05:05: Für mich ist es ganz schwer greifbar.
01:05:08: Ich habe mich immer wieder dabei ertappt,
01:05:10: wie ich irgendwie so dachte.
01:05:12: Ja, das klingt alles absolut nachvollziehbar.
01:05:14: Und wie du auch sagst, die Rafaela,
01:05:16: die hat es wundervoll dargestellt
01:05:18: und wirklich versucht, greifbar auch für den Zuhörer
01:05:21: oder die Zuhörerin zu machen.
01:05:23: Aber für mich war es manchmal schon sehr abstrakt.
01:05:26: Ich finde es einfach eine andere Art zu denken,
01:05:29: wo man, die man auch so ein bisschen wie erlernen muss,
01:05:31: sag ich mal.
01:05:33: Wahrscheinlich, ja.
01:05:35: Wir sind sehr gespannt, wie das Feedback ist zu der Folge.
01:05:37: Ja, und vielleicht wird ja aus der Folge noch eine Serie.
01:05:40: Mal sehen.
01:05:42: Genau, viel Spaß.
01:05:44: Ciao.
Neuer Kommentar