Hat KI ein Bewusstsein?
Shownotes
Die Philosophin Dorothea Winter forscht und lehrt unter anderem zum Thema Künstliche Intelligenz. Sie promoviert an der Humboldt-Universität zu Berlin.
Hinweis: Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findest du hier.
Transkript anzeigen
Speaker1: T3N Interviews. Spannende Gäste aus dem digitalen Kosmos.
Speaker1: Kann künstliche Intelligenz ein Bewusstsein haben? Und wenn ja,
Speaker1: was wären die Auswirkungen auf unsere Gesellschaft?
Speaker1: Diese und viele weitere Fragen stellt heute mein Kollege Nils Boulder.
Speaker1: Bei ihm ist die Philosophin Dorothea Winter zu Gast. Und jetzt viel Spaß mit der Episode.
Speaker0: Hallo und herzlich willkommen zum T3N Interview Podcast. Wenn wir über generative
Speaker0: KI reden, dann denken viele an ein Tool, einen Benutzungsgegenstand, eine Sprachbox.
Speaker0: Für andere hingegen ist KI mittlerweile eher ein Begleiter und wie es sich für
Speaker0: Begleiter gehört, sagt man dann auch Danke und Bitte.
Speaker0: Aber grundlegend ist da die Frage, ob KI überhaupt ein Bewusstsein hat.
Speaker0: Um diese Frage zu beantworten, habe ich einen Gast mitgebracht und zwar Dorothea
Speaker0: Winter. Sie ist Philosophin und KI-Ethikerin und hat sich auch in ihrer Doktorarbeit
Speaker0: damit beschäftigt. Hallo Dorothea.
Speaker1: Hi, danke, dass ich hier sein darf.
Speaker0: Als allererstes, warum ist es denn überhaupt relevant, ob wir jetzt darüber
Speaker0: reden, ob KI ein Bewusstsein hat oder nicht?
Speaker1: Ja, das wirkt auch erstmal wie eine bisschen sehr Elfenbeinturmfrage.
Speaker1: So ja, das können sich ja ein paar Philosophen da in irgendwelchen Seminarräumen die Frage stellen.
Speaker1: Aber es ist auch gesellschaftlich relevant. Das ist auch für uns alle als BürgerInnen
Speaker1: in einem Staat super wichtig, dass wir uns diese Frage stellen.
Speaker1: Weil wenn zum Beispiel KI-Systeme wirklich Bewusstsein hätten oder wir es ihnen
Speaker1: zuschreiben würden, dann hätte das auch wirklich maßgeblich rechtliche Folgen.
Speaker1: Wir müssten darüber reden, über sowas wie Roboterrechte, was die Debatte unter
Speaker1: dem Schlagwort geführt wird.
Speaker1: Oder auch die ganze Verantwortungszuschreibung, ob wir eben Systeme überhaupt
Speaker1: noch abschalten dürfen. Alle diese Fragen müssten wir uns dann ganz anders stellen.
Speaker0: Genau, wie diese Fragen dann im Endeffekt aussehen können, da geben wir auch
Speaker0: nochmal am Ende drüber ein.
Speaker0: Als erstes möchte ich auch nochmal darüber mich informieren oder schlau machen,
Speaker0: was überhaupt Bewusstsein ist und wie es in der Philosophie definiert wird.
Speaker1: Also wie du dir wahrscheinlich vorstellen kannst, gibt es in der Philosophie
Speaker1: so viele Positionen wie wahrscheinlich Philosophinnen, aber es gibt so grobe
Speaker1: Strömungen, dass man die einfach in so ein paar Schubladen packen kann,
Speaker1: wie man jetzt Bewusstsein definiert.
Speaker1: Und eine ganz bekannte Definition oder verbreitete ist der sogenannte Behaviorismus.
Speaker1: Ich weiß nicht, ob du das schon mal gehört hast, das heißt, dass man quasi,
Speaker1: wenn sich etwas bewusst verhält oder als hätte es Bewusstsein,
Speaker1: dass es das dann auch hat.
Speaker0: Also wir sind jetzt bei diesen, sag ich mal, Punkten, wo Behaviorismus,
Speaker0: würde dann ja eher die KI als bewusstes Wesen, sag ich mal, anerkennen, oder?
Speaker1: Genau, genau.
Speaker0: Wie begründet der das denn?
Speaker1: Das ist, also wenn ich mit ChatGPT zum Beispiel kommuniziere,
Speaker1: also da so einfach ein Gespräch führe, dann verhält sich ja ChatGPT so,
Speaker1: wie eigentlich wahrscheinlich auch, wenn ich mit dir schreiben würde.
Speaker1: Also es sagt auch Danke, es sagt Bitte, es denkt nach, es sortiert Sachen ein.
Speaker1: Also es ist ja eigentlich nicht mehr unterscheidbar davon, wie man mit einem
Speaker1: KI-System kommuniziert oder mit einem Menschen.
Speaker1: Und deswegen gibt es dann für Personen, die diese Position vertreten,
Speaker1: keinen Grund, warum ich sagen sollte, du hast Bewusstsein, aber das KI-System nicht.
Speaker0: Wie versucht denn der BHA-WROM, dieses Wort ist wirklich schwierig.
Speaker1: Ich lese es auch lieber, als dass ich es ausspreche.
Speaker0: Aber wie versucht denn diese Theorie, das zu messen? Wie kann man denn dieses
Speaker0: Bewusstsein in dieser Art messbar machen?
Speaker1: Eigentlich ganz einfach, indem man einfach schaut, wie sich Sachen verhalten
Speaker1: oder wie Sachen auftreten.
Speaker1: Also wenn ich mich eben mit Chattivity unterhalte und da eine Antwort kommt,
Speaker1: die sinnvoll ist, die auch hätte menschlich sein können oder wo vielleicht solche
Speaker1: Begriffe wie ich verwendet werden, dann kann man sagen, hat Bewusstsein, check.
Speaker0: Ich wollte jetzt auch noch einmal über diesen Turing-Test eingehen,
Speaker0: den gibt es ja auch schon seit den 50er Jahren, der das ja auch so ein bisschen
Speaker0: festmacht. Kannst du mir da noch etwas zu erklären?
Speaker1: Genau, das ist eigentlich genau das gleiche Beispiel, was wir jetzt gerade schon mit JGVT hatten.
Speaker1: Der Turing-Test ist so aufgebaut, dass eine Person via Computer mit jemandem
Speaker1: kommuniziert und dann erraten muss, ist das eine Maschine, hat man früher immer
Speaker1: noch gesagt und nicht KI-System, oder ist das ein Mensch?
Speaker1: Und wenn der Mensch vor dem Computer nicht sagen kann, dass das eine Maschine
Speaker1: ist oder ein Mensch und das aber eine Maschine war, also die Maschine den Menschen
Speaker1: betrogen hat oder so sozusagen,
Speaker1: dann hat sie Intelligenz und dann hat sie auch Bewusstsein nach diesem Turing-Test.
Speaker0: Und ich denke mal, das wird auch verglichen mit Menschen an sich und Menschen und Menschen.
Speaker0: Gibt es da irgendwie so Prozentanzahlen, wie oft Menschen richtig Menschen erkennen
Speaker0: und wie oft Menschen richtig KIs erkennen?
Speaker1: Das kommt immer auf das System an. Also inzwischen,
Speaker1: glaube ich, kann man das gar nicht mehr an Zahlen festmachen,
Speaker1: weil wir einfach mit so vielen Chatbots inzwischen kommunizieren und da fast
Speaker1: nicht mehr wissen, ob da jetzt wirklich ein Mensch im Callcenter irgendwo dahinter
Speaker1: sitzt oder ob da einfach ein KI-Chatbot dahinter ist.
Speaker1: Und in den meisten Fällen, das muss man ja auch so ehrlich sein,
Speaker1: ist ja auch einfach egal.
Speaker1: Also wenn ich bei irgendeinem Lieferdienst oder sowas irgendwas reklamieren
Speaker1: möchte und ich dann am Ende dazu komme, dass mir zum Beispiel das Geld erstattet
Speaker1: wurde, weil meine Bestellung auf dem Boden gelandet ist, dann ist es ja völlig
Speaker1: okay, dass ich zu diesem Ergebnis kam.
Speaker1: Und es ist völlig egal, ob das jetzt ein Mensch war oder eng ein KI-Chatbot, oder?
Speaker0: Eigentlich schon. Das wäre jetzt meine nächste Frage. Welche Konsequenzen das
Speaker0: dann für uns hätte, wenn wirklich KI ein Bewusstsein hätte?
Speaker1: Also wenn wir so behavioristisch argumentieren und sagen, alles,
Speaker1: was sich so verhält als ob, hat auch Bewusstsein, dann hätte das wirklich weitreichende
Speaker1: Folgen, weil dann ganz schön viel eigentlich Bewusstsein hätte oder bewusst wäre.
Speaker1: Dann hätten eigentlich fast alle Sprach-KIs, alle LLMs, müsste man eigentlich
Speaker1: Bewusstsein zuschreiben, wenn man das wirklich ernst nehmen würde,
Speaker1: weil die verhalten sich ja so als ob.
Speaker0: Gibt es denn noch andere Theorien, die das irgendwie stützen oder die auch,
Speaker0: sag ich mal, eher pro KI hat ein Bewusstsein argumentieren?
Speaker1: Ja, so die zweite große Denkströmung ist der Funktionalismus.
Speaker1: Da geht es um Funktionen und das kann man alles ganz leicht sagen.
Speaker1: Also hier bitte nicht abschalten, das ist nicht so philosophisch,
Speaker1: wie es sich anhört und nicht so langweilig, wie es sich erstmal anhört.
Speaker1: Und zwar da ist die Theorie, dass es nur auf die Funktionen ankommt,
Speaker1: also auf das Was, was vermittelt wird bei der Information. Ich mache mal ein Beispiel.
Speaker1: Also wir könnten das quasi so sehen, wie wenn der Satz sowas wie morgen regnet,
Speaker1: ist in Hannover, das ist der Inhalt des Satzes und das ist die Information.
Speaker1: Und die ist ja wahr, egal ob ich sie dir sage oder ob es JGBT dir sagt.
Speaker1: Und deswegen ist es so in dieser funktionalistischen Theorie,
Speaker1: ist es völlig egal, ob das jetzt was quasi die Hardware ist,
Speaker1: sondern es kommt auf die Software an. Und das ist egal, ob das unsere biologischen
Speaker1: Synapsen sind, die dann irgendwann diese Informationen rausbringen oder ob das
Speaker1: einfach ein KI-System ist.
Speaker0: Das wäre dann, welche Konsequenz für unser Verhandelten?
Speaker0: Ich muss jetzt auch gerade wieder an die Lieferando-Bestellung oder den Kundenchat denken.
Speaker1: Ja, auch da wäre es schon wieder genau das gleiche Resultat.
Speaker1: Es ist doch eigentlich egal, ob da jetzt Bewusstsein ist, ob das ein Mensch
Speaker1: macht oder nicht, sondern die Maschine oder die Information kommt auf jeden Fall bei mir an.
Speaker1: Und wer das jetzt vermittelt hat, kann man ja in der Argumentation eigentlich
Speaker1: erstmal hinten anstellen, weil es darauf einfach nicht ankommt.
Speaker0: Welche ganz großen Konsequenzen und Fragen da sind, da gehen wir später nochmal drauf ein.
Speaker0: Ich würde jetzt gerne noch einmal da über die Gegenseite sprechen,
Speaker0: weil da gibt es ja auch genug Argumente und auch genug Theorien für.
Speaker0: Ich war super fasziniert, als du mir im Vorgespräch von diesem chinesischen
Speaker0: Raumexperiment ausgesprochen.
Speaker0: Erzählt hast. Kannst du da nochmal drauf eingehen?
Speaker1: Das geht auf John Searle zurück und das ist auch so ein bisschen die Position,
Speaker1: die ich vertrete, deswegen das muss ich mal kurz offenlegen,
Speaker1: da habe ich Sympathien mit, aber ich versuche alle Positionen fair darzustellen
Speaker1: und das ist so, also es gab ja diesen Gedanken, dieses Gedankenexperiment Turing
Speaker1: Turing-Test in den 50er Jahren und das war eben diese behavioristische Position
Speaker1: und dann kam irgendwann in den 80er Jahren die Gegenposition,
Speaker1: die gesagt haben, der Turing-Test, das ist doch Schwachsinn,
Speaker1: das kann doch nicht sein, da können wir doch nicht allem irgendwie hier Selbstbewusstsein
Speaker1: und Intelligenz zuschreiben,
Speaker1: das fasst es doch nicht, so ist doch nicht die Welt.
Speaker1: Und da hat dann schon Searle, das ist auch eben ein Philosoph,
Speaker1: die Theorie entwickelt, auch wieder ein Gedankenexperiment, das machen auch
Speaker1: Philosophinnen sehr gerne offensichtlich,
Speaker1: Das macht Spaß, dass man sagt, da sitzt so ein Typ in einem Zimmer,
Speaker1: der komplett abgeschottet ist und der kann kein Chinesisch.
Speaker1: Das ist die Prämisse, der kann kein Chinesisch, kein Wort.
Speaker1: Und draußen sind immer Menschen, die ihm so Zettel reingeben und er muss dann
Speaker1: irgendwelche Zettel rausgeben. Die sind alle auf chinesischen Schriftzeichen. was er eben nicht kann.
Speaker1: Dann hat er aber drinnen wie so ein Handbuch und kann dadurch diese Zettel irgendwie
Speaker1: so sinnvoll zuordnen, obwohl er chinesisch nicht spricht, dass draußen immer
Speaker1: die richtigen Zettel ankommen, also die richtige Antwort draußen ankommt.
Speaker1: Und das ist jetzt eben das Gegenargument zu Thuring, das dir sagt,
Speaker1: für die Leute draußen außerhalb des Zimmers wirkt das so, als würde dieser Typ chinesisch sprechen.
Speaker1: Aber das kann er nicht. Er kann nur richtig zuordnen, weil er halt dieses Handbuch
Speaker1: hat und weil er irgendwie weiß, wie man da richtig Syntaktisches verbindet.
Speaker1: Und das ist so diese Analogie, dass KI-Systeme, die können Sachen richtig zuordnen,
Speaker1: die können eben diese Informationen, deswegen funktionieren diese auch so gut,
Speaker1: die Resultate hervorbringen, die wir wollen, aber die verstehen nicht, was sie da sagen.
Speaker1: Die haben kein Verständnis von der Welt, die wissen nicht, was das bedeutet.
Speaker1: Also wenn ein KI-System zu dir sagt, ich liebe dich nicht, äh,
Speaker1: ich liebe dich, beides, heißt das was ganz anderes, wie wenn ich das zu dir sagen würde.
Speaker0: Du hast ja schon gesagt, das ist ein Gedankenexperiment. Ich stelle mir das
Speaker0: sehr schwierig vor, das im echten Leben zu überprüfen,
Speaker0: weil auch mir würde es ja schwer fallen, irgendwie zu überprüfen,
Speaker0: ob du, wenn du jetzt irgendwie Gefühlsbekenntnisse machst, ob ich dir das glauben
Speaker0: kann oder ob wir da überhaupt auf demselben Level sind. Also wie macht man sowas überprüfbar?
Speaker1: Also letztendlich kann man es eigentlich auch bei uns Menschen nicht überprüfen.
Speaker1: Da spricht man in der Philosophie von der dritten Personenproblem.
Speaker1: Nur ich weiß für mich ja wirklich, wie es sich anfühlt zu denken.
Speaker1: Nur ich weiß für mich, wie es sich anfühlt, was ich empfinde und ob das wahr ist.
Speaker1: Und schon für dich kann ich das ja eigentlich nicht mehr mit letztendlicher Begründung sagen.
Speaker1: Allerdings haben wir ja schon in unserem menschlichen Zusammenleben gute Gründe,
Speaker1: dass ich annehmen kann, dass zum Beispiel du die Welt ähnlich wahrnimmst wie ich.
Speaker1: Und das ist gute Gründe anzunehmen, dass wenn du Sachen sagst,
Speaker1: also dass wenn du zu mir sagst, da steht ein Tisch vor dir, dass es stimmt.
Speaker1: Also so funktioniert ja auch unsere ganze Kommunikation und so wird ja sonst
Speaker1: auseinanderbrechen, wenn ich gar nicht mehr vertrauen könnte, was du sagst.
Speaker1: Und das ist eben die Position, diese Gegenposition, diese Qualia-Position,
Speaker1: die sagt, KI-Systeme haben das nicht, prinzipiell nicht.
Speaker0: Welche Konsequenzen hätte denn das für unser Handeln oder unseren Umgang mit KI?
Speaker1: Eigentlich so, wie wir aktuell auch mit KI umgehen. Und zwar,
Speaker1: dass das halt einfach sehr wirkmächtige, super praktische Software-Systeme sind
Speaker1: und einfach Tools sind, Werkzeuge, aber halt auch nicht mehr.
Speaker1: Also die Debatten über Rechte für KI-Systeme oder Verantwortungszuschreibung
Speaker1: und sowas, das wäre dann alles obsolet.
Speaker1: Und man muss auch sagen, das ist ja aktuell auch eigentlich der Common Sense
Speaker1: in der Gesellschaft, aber auch in den meisten wissenschaftlichen Disziplinen,
Speaker1: Dass man sagt, ja, da ist nicht mehr als das, was wir eigentlich beschreiben
Speaker1: können und sehen können.
Speaker0: Ich will jetzt mal kurz dreist sein.
Speaker1: Sehr gerne.
Speaker0: Warum habe ich dich dann eingeladen?
Speaker1: Warum müssen wir darüber sprechen?
Speaker0: Ja, dann ist ja, also wenn der Konsens sowieso schon ein, ja okay,
Speaker0: das sind halt irgendwelche Maschinen und wir nutzen die wie Tools und es sind auch eigentlich Tools.
Speaker0: Manche Menschen sehen sie eher als Begleiter.
Speaker0: Warum unterhalten wir uns darüber?
Speaker1: Weil es in vielen Fällen schon problematisch ist, ethisch und für die Gesellschaft,
Speaker1: dass diese Systeme so gebaut werden, als hätten sie Bewusstsein.
Speaker1: Das ist schon problematisch genug. Selbst wenn wir wissen, sie haben kein Bewusstsein,
Speaker1: es ist schon schlimm genug, dass die die ganze Zeit wir uns wieder versichern
Speaker1: müssen und kleinen Kindern und alten Menschen und auch allen anderen dazwischen
Speaker1: erklären müssen, du, das ist kein Gegenüber.
Speaker1: Das ist nur eine Maschine, das ist nur ein KI-System und das meint es nicht, was es so sagt.
Speaker1: Also das ist kein Mensch und das ist keine echte Begegnung, die du da hast.
Speaker0: Jetzt frage ich mich so ein bisschen, wie wird das denn dargestellt,
Speaker0: dass KI-Systeme nicht einfach nur Werkzeuge sind und stattdessen Begleiter sein,
Speaker0: Sondern wie zum Beispiel setzt sich OpenAI dafür ein?
Speaker0: Hast du irgendwie ein konkretes Beispiel mit, wo du jetzt sagst,
Speaker0: hey, guck mal hier, sagt OpenAI das, aber das ist gar nicht das?
Speaker1: Also eine Vision, die mir da auf jeden Fall einfällt, ist von Zuckerberg.
Speaker1: Der ist da so sehr pro Bewusstsein bei KI-Systemen, zumindest in der Zukunft
Speaker1: und sagt, dass er zum Beispiel möchte,
Speaker1: dass dieses ganze Metaversum, was jetzt auch gar nicht mehr so en vogue ist
Speaker1: gerade, aber zumindest noch ein bisschen, also es existiert noch irgendwo oder seine Ideen davon,
Speaker1: dass er sagt, er will irgendwann, dass Meta quasi und man durch KI-Systeme Freundschaften hat.
Speaker1: Und dann wird es auch ein bisschen wir, weil er sagt, das soll natürlich nicht
Speaker1: die menschlichen Freundschaften ersetzen, bla bla bla.
Speaker1: Aber man merkt schon und das merkt man auch bei den ganzen anderen großen Persönlichkeiten
Speaker1: im Tech-Bereich, also auch von Peter Thiel und Elon Musk und wie sie alle heißen,
Speaker1: die sprechen andauernd darüber, ob es KI und wann KI Bewusstsein entwickeln wird.
Speaker0: Hast du eine Vermutung, warum diesen Tech-Giganten das so wichtig ist?
Speaker1: Also ich habe zwei Vermutungen auf zwei verschiedenen Ebenen.
Speaker1: Erstmal ökonomisch ist es, glaube ich, einfach sinnvoll,
Speaker1: Menschen mit diesen Narrativen zuzuhauen, weil dann man ja auch nicht über die
Speaker1: ganzen anderen Regulierungsbedarfe und
Speaker1: die reellen Gefahren und Manipulationsmöglichkeiten nicht so sehr spricht.
Speaker1: Und dass es ja auch ökonomisch dann man sich in so eine Vorreiterposition setzt oder stellt selbst.
Speaker1: Also dass dann, ich glaube, sich so ein Elon Musk halt auch sehr gut in der
Speaker1: Position gefällt, dass er weiß, ihr denkt jetzt hier noch drüber nach,
Speaker1: irgendwie über, keine Ahnung, Tertivität zu regulieren und ich bin schon dabei
Speaker1: und habe die großen Gedanken dazu, ob jetzt KI-Bewusstsein entwickelt oder nicht.
Speaker0: Also so ein bisschen die Darstellung, Selbstdarstellung als Zukunftsvisionäre,
Speaker0: sage ich jetzt einfach mal.
Speaker1: Und natürlich auch dann, dass die Unternehmen mehr wert sind,
Speaker1: wenn wirklich da eine KI entwickelt werden sollte, die Bewusstsein hat.
Speaker1: Also auch ganz einfach ganz billige ökonomische Gründe.
Speaker1: Und psychologisch, das ist die andere Ebene, ist es glaube ich auch sehr spannend,
Speaker1: dass gerade diese Personen, und die haben ja schon auch oft ähnliche Persönlichkeitsstrukturen,
Speaker1: halt einfach diese Hybris vertreten.
Speaker1: Dass sie denken, sie wollen jetzt KI-Systeme erschaffen, die dann auch so den
Speaker1: Menschen untertan werden.
Speaker1: Und da sind wir im Wording wieder wie so in der Antike früher,
Speaker1: dass wir so kleine Maschinen schaffen, die unsere Knechte sind und so.
Speaker1: Und ich glaube, das ist auch einfach urmenschlich. Das kann man psychologisch
Speaker1: super gut erklären, warum das so ist.
Speaker1: Aber das sieht man bei denen echt sehr deutlich, dass das auch ein Beweggrund ist.
Speaker0: Ich habe es am Anfang jetzt schon einmal angeteasert, weil...
Speaker0: Dann wären wir ja genau an der Stelle, wo wir jetzt wären, was ist denn,
Speaker0: wenn KI überhaupt ein Bewusstsein hätte?
Speaker0: Und wenn es jetzt wirklich, wir hätten jetzt hier im Podcast noch zu Gast so
Speaker0: einen kleinen Roboter, der selbstbewusst, also ein eigenes Bewusstsein hat und
Speaker0: unser Hilfsroboter hier im Studio ist.
Speaker0: Welche Auswirkungen hätte das denn, wenn wir dem jetzt menschlich Bewusstsein
Speaker0: oder menschenähnliches Bewusstsein zuschreiben würden?
Speaker1: Eigentlich hängt und steht mit Bewusstseinszuschreibung komplett zum Beispiel
Speaker1: unsere ganze moralische Praxis und unsere ganze rechtliche Praxis,
Speaker1: habe ich auch schon gesagt.
Speaker1: Also wenn wir jetzt hier so einen kleinen Roboter hätte, der genauso bewusst
Speaker1: ist wie du, warum sollte er weniger Rechte haben wie du? Dann müssten wir sicherstellen,
Speaker1: dass der auch sowas wie Wahlrecht hat, vielleicht.
Speaker1: Dann müssten wir auch sicherstellen, dass ihm nicht einfach in der Saft abgedreht wird.
Speaker1: Dann müssten wir schauen, dass seine Gefühle und dass er psychisch gesund bleiben
Speaker1: kann, weil das körperlich ist es ja nicht, weil wir reden nicht darüber,
Speaker1: ob ein Taschenrechner eigentliche Bewusstseinszustände hat oder Rechte haben
Speaker1: sollte oder sonst irgendwas.
Speaker1: Aber das ist wirklich ein langer Rattenschwanz. Und ich bin mir manchmal auch
Speaker1: nicht bewusst, ob die Personen, die das vertreten und sagen,
Speaker1: KI hat vielleicht irgendwann Bewusstsein, ob die sich bewusst sind,
Speaker1: was das alles bedeuten würde dann.
Speaker0: Weil man dann so gesehen bewusste Wesen auch irgendwie unterdrücken würde und versklaven würde.
Speaker1: Ja, eben. Also das wäre schon krass dann.
Speaker0: Irgendwie schon. Du hast auch gerade noch rechtliche Probleme oder rechtliche Fragen angesprochen.
Speaker0: Was wären da die Fragen, die man sich stellen müsste?
Speaker1: Aktuell kennen wir im Recht ja nur Akteure. Wir Menschen, wir sind verantwortlich
Speaker1: für Sachen. Also wenn du jetzt meine Schuhe kaputt machst, dann bist du dafür
Speaker1: verantwortlich. Das war ein kurzes Beispiel.
Speaker1: Wenn du ein Messer nimmst und Leute verletzt, bist du dafür rechtlich verantwortlich.
Speaker1: Wenn ein Hund aber zum Beispiel einen anderen Menschen angreift oder beißt,
Speaker1: dann ist es, wenn es dein Hund ist, bist auch du dafür verantwortlich.
Speaker1: Also wir kennen im Recht eben diese Akteure, wir kennen Sachen,
Speaker1: die nicht irgendwie rechtlich relevant sind.
Speaker1: Also der Blumentopf kann nicht in Verantwortung gezogen werden,
Speaker1: du schon. Und dann kennen wir sowas wie Tiere, die sind sachähnlich.
Speaker1: Das ist so ein komischer Zwischenstatus.
Speaker1: Wir sagen im deutschen Recht zumindest, es ist keine Sache, aber es ist auch
Speaker1: kein Mensch so irgendwo dazwischen.
Speaker1: Und da ist gerade so auch im rechtlichen Fokus die Debatte, ob KI-Systeme vielleicht
Speaker1: diesen Status bekommen sollten.
Speaker0: Also, dass sie wie Tiere sein sollen.
Speaker0: Ist das denn momentan eine Lücke
Speaker0: irgendwie, dass KI irgendwie nicht zur Verantwortung gezogen werden kann?
Speaker0: In welchem Problemfeld befinden wir uns denn da?
Speaker1: Es sind natürlich immer sehr spezifische Anwendungen. Das heißt also ein KI-System,
Speaker1: das zur Hautkrebserkennung eingesetzt wird in einem Krankenhaus,
Speaker1: da ist eigentlich keine Lücke.
Speaker1: Weil da sind entweder die Ärztinnen verantwortlich, die am Ende dir dann sagen,
Speaker1: es ist Hautkrebs oder es ist nicht Hautkrebs.
Speaker1: Oder es ist dann das Softwareunternehmen verantwortlich, das die Daten geliefert
Speaker1: hat oder das System geliefert hat oder das Krankenhaus hat so einiges.
Speaker1: Also da sind wir relativ auf sicherer Seite und das sind gute Kontexte,
Speaker1: wo man sieht, ganz spezifische KI-Anwendungen, da sind weder ethische noch rechtliche große Probleme.
Speaker1: Problematisch wird es immer da, wo es dann solche, diese allgemeinen Systeme,
Speaker1: sowas wie JGPT, dass man da ja auch, wie wir auch die ganze Zeit im Urheberrecht
Speaker1: merken, nicht so ganz überprüfen kann, wo es die Verantwortung ist und wer wann in welcher Form haftet.
Speaker0: Ich wollte dich gerade dazu fragen, ob es da irgendwie Unterscheidungen zwischen
Speaker0: einzelnen KI-Modellen gibt.
Speaker0: Es gibt ja so gesehen, deskriptive KI, die eher etwas beschreibt oder etwas
Speaker0: erkennt, wie du schon gerade gesagt hast, die Hautkrebserkennung und generative KI.
Speaker0: Ist das dann diese Bewusstseinsfrage eine Frage, die sich nur auf generative
Speaker0: KI bezieht oder gibt es da auch andere Systeme, die davon betroffen wären?
Speaker1: Also theoretisch kann man das natürlich auf alles, was irgendwie KI heißt, ausweiten.
Speaker1: Aber in der Regel werden die Debatten eher über LLMs vor allem halt einfach
Speaker1: geführt, weil es da naheliegender ist.
Speaker1: Also weil wir ja auch Bewusstsein irgendwie dann mit Sprache oder Kommunikation
Speaker1: verbinden, weil was sich nicht in irgendeiner Form ausdrücken kann,
Speaker1: dem schreiben wir erstmal kein Bewusstsein zu.
Speaker1: Und deswegen ist die Debatte eigentlich auch relativ eng auf generative oder LLMs so beschränkt.
Speaker0: Ja, hast du noch einen abschließenden Gedanken für uns und die Zuschauenden?
Speaker1: Also ich plädiere auch dafür, sich Fragen zu stellen, sowas wie hat KI-Bewusstsein
Speaker1: oder nicht, selbst wenn es keinen ganz praktikablen Nutzen hat.
Speaker1: Also es ist wirklich spannend, sich die Fragen zu stellen und deswegen finde
Speaker1: ich es auch als Philosophin so cool,
Speaker1: weil man ja auch immer wieder sich dann die Frage stellen muss,
Speaker1: was uns Menschen ausmacht, weil wir uns dann eben begründen müssen,
Speaker1: warum hast du jetzt Bewusstsein, warum hat das KI-System nicht,
Speaker1: warum hat der Blumentopf nicht und da lade ich erstmal zu ein.
Speaker0: Dorothea, vielen, vielen Dank dass du hier bei uns im Podcast warst ich bedanke
Speaker0: mich sehr, dass du hergekommen bist und das war es mit unserer aktuellen Folge
Speaker0: von T3 Interview, ich hoffe ihr schaltet beim nächsten Mal auch wieder ein und ja, bis bald.
Neuer Kommentar