Hat KI ein Bewusstsein?

Shownotes

Die Philosophin Dorothea Winter forscht und lehrt unter anderem zum Thema Künstliche Intelligenz. Sie promoviert an der Humboldt-Universität zu Berlin.

Hinweis: Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findest du hier.

Transkript anzeigen

Speaker1: T3N Interviews. Spannende Gäste aus dem digitalen Kosmos.

Speaker1: Kann künstliche Intelligenz ein Bewusstsein haben? Und wenn ja,

Speaker1: was wären die Auswirkungen auf unsere Gesellschaft?

Speaker1: Diese und viele weitere Fragen stellt heute mein Kollege Nils Boulder.

Speaker1: Bei ihm ist die Philosophin Dorothea Winter zu Gast. Und jetzt viel Spaß mit der Episode.

Speaker0: Hallo und herzlich willkommen zum T3N Interview Podcast. Wenn wir über generative

Speaker0: KI reden, dann denken viele an ein Tool, einen Benutzungsgegenstand, eine Sprachbox.

Speaker0: Für andere hingegen ist KI mittlerweile eher ein Begleiter und wie es sich für

Speaker0: Begleiter gehört, sagt man dann auch Danke und Bitte.

Speaker0: Aber grundlegend ist da die Frage, ob KI überhaupt ein Bewusstsein hat.

Speaker0: Um diese Frage zu beantworten, habe ich einen Gast mitgebracht und zwar Dorothea

Speaker0: Winter. Sie ist Philosophin und KI-Ethikerin und hat sich auch in ihrer Doktorarbeit

Speaker0: damit beschäftigt. Hallo Dorothea.

Speaker1: Hi, danke, dass ich hier sein darf.

Speaker0: Als allererstes, warum ist es denn überhaupt relevant, ob wir jetzt darüber

Speaker0: reden, ob KI ein Bewusstsein hat oder nicht?

Speaker1: Ja, das wirkt auch erstmal wie eine bisschen sehr Elfenbeinturmfrage.

Speaker1: So ja, das können sich ja ein paar Philosophen da in irgendwelchen Seminarräumen die Frage stellen.

Speaker1: Aber es ist auch gesellschaftlich relevant. Das ist auch für uns alle als BürgerInnen

Speaker1: in einem Staat super wichtig, dass wir uns diese Frage stellen.

Speaker1: Weil wenn zum Beispiel KI-Systeme wirklich Bewusstsein hätten oder wir es ihnen

Speaker1: zuschreiben würden, dann hätte das auch wirklich maßgeblich rechtliche Folgen.

Speaker1: Wir müssten darüber reden, über sowas wie Roboterrechte, was die Debatte unter

Speaker1: dem Schlagwort geführt wird.

Speaker1: Oder auch die ganze Verantwortungszuschreibung, ob wir eben Systeme überhaupt

Speaker1: noch abschalten dürfen. Alle diese Fragen müssten wir uns dann ganz anders stellen.

Speaker0: Genau, wie diese Fragen dann im Endeffekt aussehen können, da geben wir auch

Speaker0: nochmal am Ende drüber ein.

Speaker0: Als erstes möchte ich auch nochmal darüber mich informieren oder schlau machen,

Speaker0: was überhaupt Bewusstsein ist und wie es in der Philosophie definiert wird.

Speaker1: Also wie du dir wahrscheinlich vorstellen kannst, gibt es in der Philosophie

Speaker1: so viele Positionen wie wahrscheinlich Philosophinnen, aber es gibt so grobe

Speaker1: Strömungen, dass man die einfach in so ein paar Schubladen packen kann,

Speaker1: wie man jetzt Bewusstsein definiert.

Speaker1: Und eine ganz bekannte Definition oder verbreitete ist der sogenannte Behaviorismus.

Speaker1: Ich weiß nicht, ob du das schon mal gehört hast, das heißt, dass man quasi,

Speaker1: wenn sich etwas bewusst verhält oder als hätte es Bewusstsein,

Speaker1: dass es das dann auch hat.

Speaker0: Also wir sind jetzt bei diesen, sag ich mal, Punkten, wo Behaviorismus,

Speaker0: würde dann ja eher die KI als bewusstes Wesen, sag ich mal, anerkennen, oder?

Speaker1: Genau, genau.

Speaker0: Wie begründet der das denn?

Speaker1: Das ist, also wenn ich mit ChatGPT zum Beispiel kommuniziere,

Speaker1: also da so einfach ein Gespräch führe, dann verhält sich ja ChatGPT so,

Speaker1: wie eigentlich wahrscheinlich auch, wenn ich mit dir schreiben würde.

Speaker1: Also es sagt auch Danke, es sagt Bitte, es denkt nach, es sortiert Sachen ein.

Speaker1: Also es ist ja eigentlich nicht mehr unterscheidbar davon, wie man mit einem

Speaker1: KI-System kommuniziert oder mit einem Menschen.

Speaker1: Und deswegen gibt es dann für Personen, die diese Position vertreten,

Speaker1: keinen Grund, warum ich sagen sollte, du hast Bewusstsein, aber das KI-System nicht.

Speaker0: Wie versucht denn der BHA-WROM, dieses Wort ist wirklich schwierig.

Speaker1: Ich lese es auch lieber, als dass ich es ausspreche.

Speaker0: Aber wie versucht denn diese Theorie, das zu messen? Wie kann man denn dieses

Speaker0: Bewusstsein in dieser Art messbar machen?

Speaker1: Eigentlich ganz einfach, indem man einfach schaut, wie sich Sachen verhalten

Speaker1: oder wie Sachen auftreten.

Speaker1: Also wenn ich mich eben mit Chattivity unterhalte und da eine Antwort kommt,

Speaker1: die sinnvoll ist, die auch hätte menschlich sein können oder wo vielleicht solche

Speaker1: Begriffe wie ich verwendet werden, dann kann man sagen, hat Bewusstsein, check.

Speaker0: Ich wollte jetzt auch noch einmal über diesen Turing-Test eingehen,

Speaker0: den gibt es ja auch schon seit den 50er Jahren, der das ja auch so ein bisschen

Speaker0: festmacht. Kannst du mir da noch etwas zu erklären?

Speaker1: Genau, das ist eigentlich genau das gleiche Beispiel, was wir jetzt gerade schon mit JGVT hatten.

Speaker1: Der Turing-Test ist so aufgebaut, dass eine Person via Computer mit jemandem

Speaker1: kommuniziert und dann erraten muss, ist das eine Maschine, hat man früher immer

Speaker1: noch gesagt und nicht KI-System, oder ist das ein Mensch?

Speaker1: Und wenn der Mensch vor dem Computer nicht sagen kann, dass das eine Maschine

Speaker1: ist oder ein Mensch und das aber eine Maschine war, also die Maschine den Menschen

Speaker1: betrogen hat oder so sozusagen,

Speaker1: dann hat sie Intelligenz und dann hat sie auch Bewusstsein nach diesem Turing-Test.

Speaker0: Und ich denke mal, das wird auch verglichen mit Menschen an sich und Menschen und Menschen.

Speaker0: Gibt es da irgendwie so Prozentanzahlen, wie oft Menschen richtig Menschen erkennen

Speaker0: und wie oft Menschen richtig KIs erkennen?

Speaker1: Das kommt immer auf das System an. Also inzwischen,

Speaker1: glaube ich, kann man das gar nicht mehr an Zahlen festmachen,

Speaker1: weil wir einfach mit so vielen Chatbots inzwischen kommunizieren und da fast

Speaker1: nicht mehr wissen, ob da jetzt wirklich ein Mensch im Callcenter irgendwo dahinter

Speaker1: sitzt oder ob da einfach ein KI-Chatbot dahinter ist.

Speaker1: Und in den meisten Fällen, das muss man ja auch so ehrlich sein,

Speaker1: ist ja auch einfach egal.

Speaker1: Also wenn ich bei irgendeinem Lieferdienst oder sowas irgendwas reklamieren

Speaker1: möchte und ich dann am Ende dazu komme, dass mir zum Beispiel das Geld erstattet

Speaker1: wurde, weil meine Bestellung auf dem Boden gelandet ist, dann ist es ja völlig

Speaker1: okay, dass ich zu diesem Ergebnis kam.

Speaker1: Und es ist völlig egal, ob das jetzt ein Mensch war oder eng ein KI-Chatbot, oder?

Speaker0: Eigentlich schon. Das wäre jetzt meine nächste Frage. Welche Konsequenzen das

Speaker0: dann für uns hätte, wenn wirklich KI ein Bewusstsein hätte?

Speaker1: Also wenn wir so behavioristisch argumentieren und sagen, alles,

Speaker1: was sich so verhält als ob, hat auch Bewusstsein, dann hätte das wirklich weitreichende

Speaker1: Folgen, weil dann ganz schön viel eigentlich Bewusstsein hätte oder bewusst wäre.

Speaker1: Dann hätten eigentlich fast alle Sprach-KIs, alle LLMs, müsste man eigentlich

Speaker1: Bewusstsein zuschreiben, wenn man das wirklich ernst nehmen würde,

Speaker1: weil die verhalten sich ja so als ob.

Speaker0: Gibt es denn noch andere Theorien, die das irgendwie stützen oder die auch,

Speaker0: sag ich mal, eher pro KI hat ein Bewusstsein argumentieren?

Speaker1: Ja, so die zweite große Denkströmung ist der Funktionalismus.

Speaker1: Da geht es um Funktionen und das kann man alles ganz leicht sagen.

Speaker1: Also hier bitte nicht abschalten, das ist nicht so philosophisch,

Speaker1: wie es sich anhört und nicht so langweilig, wie es sich erstmal anhört.

Speaker1: Und zwar da ist die Theorie, dass es nur auf die Funktionen ankommt,

Speaker1: also auf das Was, was vermittelt wird bei der Information. Ich mache mal ein Beispiel.

Speaker1: Also wir könnten das quasi so sehen, wie wenn der Satz sowas wie morgen regnet,

Speaker1: ist in Hannover, das ist der Inhalt des Satzes und das ist die Information.

Speaker1: Und die ist ja wahr, egal ob ich sie dir sage oder ob es JGBT dir sagt.

Speaker1: Und deswegen ist es so in dieser funktionalistischen Theorie,

Speaker1: ist es völlig egal, ob das jetzt was quasi die Hardware ist,

Speaker1: sondern es kommt auf die Software an. Und das ist egal, ob das unsere biologischen

Speaker1: Synapsen sind, die dann irgendwann diese Informationen rausbringen oder ob das

Speaker1: einfach ein KI-System ist.

Speaker0: Das wäre dann, welche Konsequenz für unser Verhandelten?

Speaker0: Ich muss jetzt auch gerade wieder an die Lieferando-Bestellung oder den Kundenchat denken.

Speaker1: Ja, auch da wäre es schon wieder genau das gleiche Resultat.

Speaker1: Es ist doch eigentlich egal, ob da jetzt Bewusstsein ist, ob das ein Mensch

Speaker1: macht oder nicht, sondern die Maschine oder die Information kommt auf jeden Fall bei mir an.

Speaker1: Und wer das jetzt vermittelt hat, kann man ja in der Argumentation eigentlich

Speaker1: erstmal hinten anstellen, weil es darauf einfach nicht ankommt.

Speaker0: Welche ganz großen Konsequenzen und Fragen da sind, da gehen wir später nochmal drauf ein.

Speaker0: Ich würde jetzt gerne noch einmal da über die Gegenseite sprechen,

Speaker0: weil da gibt es ja auch genug Argumente und auch genug Theorien für.

Speaker0: Ich war super fasziniert, als du mir im Vorgespräch von diesem chinesischen

Speaker0: Raumexperiment ausgesprochen.

Speaker0: Erzählt hast. Kannst du da nochmal drauf eingehen?

Speaker1: Das geht auf John Searle zurück und das ist auch so ein bisschen die Position,

Speaker1: die ich vertrete, deswegen das muss ich mal kurz offenlegen,

Speaker1: da habe ich Sympathien mit, aber ich versuche alle Positionen fair darzustellen

Speaker1: und das ist so, also es gab ja diesen Gedanken, dieses Gedankenexperiment Turing

Speaker1: Turing-Test in den 50er Jahren und das war eben diese behavioristische Position

Speaker1: und dann kam irgendwann in den 80er Jahren die Gegenposition,

Speaker1: die gesagt haben, der Turing-Test, das ist doch Schwachsinn,

Speaker1: das kann doch nicht sein, da können wir doch nicht allem irgendwie hier Selbstbewusstsein

Speaker1: und Intelligenz zuschreiben,

Speaker1: das fasst es doch nicht, so ist doch nicht die Welt.

Speaker1: Und da hat dann schon Searle, das ist auch eben ein Philosoph,

Speaker1: die Theorie entwickelt, auch wieder ein Gedankenexperiment, das machen auch

Speaker1: Philosophinnen sehr gerne offensichtlich,

Speaker1: Das macht Spaß, dass man sagt, da sitzt so ein Typ in einem Zimmer,

Speaker1: der komplett abgeschottet ist und der kann kein Chinesisch.

Speaker1: Das ist die Prämisse, der kann kein Chinesisch, kein Wort.

Speaker1: Und draußen sind immer Menschen, die ihm so Zettel reingeben und er muss dann

Speaker1: irgendwelche Zettel rausgeben. Die sind alle auf chinesischen Schriftzeichen. was er eben nicht kann.

Speaker1: Dann hat er aber drinnen wie so ein Handbuch und kann dadurch diese Zettel irgendwie

Speaker1: so sinnvoll zuordnen, obwohl er chinesisch nicht spricht, dass draußen immer

Speaker1: die richtigen Zettel ankommen, also die richtige Antwort draußen ankommt.

Speaker1: Und das ist jetzt eben das Gegenargument zu Thuring, das dir sagt,

Speaker1: für die Leute draußen außerhalb des Zimmers wirkt das so, als würde dieser Typ chinesisch sprechen.

Speaker1: Aber das kann er nicht. Er kann nur richtig zuordnen, weil er halt dieses Handbuch

Speaker1: hat und weil er irgendwie weiß, wie man da richtig Syntaktisches verbindet.

Speaker1: Und das ist so diese Analogie, dass KI-Systeme, die können Sachen richtig zuordnen,

Speaker1: die können eben diese Informationen, deswegen funktionieren diese auch so gut,

Speaker1: die Resultate hervorbringen, die wir wollen, aber die verstehen nicht, was sie da sagen.

Speaker1: Die haben kein Verständnis von der Welt, die wissen nicht, was das bedeutet.

Speaker1: Also wenn ein KI-System zu dir sagt, ich liebe dich nicht, äh,

Speaker1: ich liebe dich, beides, heißt das was ganz anderes, wie wenn ich das zu dir sagen würde.

Speaker0: Du hast ja schon gesagt, das ist ein Gedankenexperiment. Ich stelle mir das

Speaker0: sehr schwierig vor, das im echten Leben zu überprüfen,

Speaker0: weil auch mir würde es ja schwer fallen, irgendwie zu überprüfen,

Speaker0: ob du, wenn du jetzt irgendwie Gefühlsbekenntnisse machst, ob ich dir das glauben

Speaker0: kann oder ob wir da überhaupt auf demselben Level sind. Also wie macht man sowas überprüfbar?

Speaker1: Also letztendlich kann man es eigentlich auch bei uns Menschen nicht überprüfen.

Speaker1: Da spricht man in der Philosophie von der dritten Personenproblem.

Speaker1: Nur ich weiß für mich ja wirklich, wie es sich anfühlt zu denken.

Speaker1: Nur ich weiß für mich, wie es sich anfühlt, was ich empfinde und ob das wahr ist.

Speaker1: Und schon für dich kann ich das ja eigentlich nicht mehr mit letztendlicher Begründung sagen.

Speaker1: Allerdings haben wir ja schon in unserem menschlichen Zusammenleben gute Gründe,

Speaker1: dass ich annehmen kann, dass zum Beispiel du die Welt ähnlich wahrnimmst wie ich.

Speaker1: Und das ist gute Gründe anzunehmen, dass wenn du Sachen sagst,

Speaker1: also dass wenn du zu mir sagst, da steht ein Tisch vor dir, dass es stimmt.

Speaker1: Also so funktioniert ja auch unsere ganze Kommunikation und so wird ja sonst

Speaker1: auseinanderbrechen, wenn ich gar nicht mehr vertrauen könnte, was du sagst.

Speaker1: Und das ist eben die Position, diese Gegenposition, diese Qualia-Position,

Speaker1: die sagt, KI-Systeme haben das nicht, prinzipiell nicht.

Speaker0: Welche Konsequenzen hätte denn das für unser Handeln oder unseren Umgang mit KI?

Speaker1: Eigentlich so, wie wir aktuell auch mit KI umgehen. Und zwar,

Speaker1: dass das halt einfach sehr wirkmächtige, super praktische Software-Systeme sind

Speaker1: und einfach Tools sind, Werkzeuge, aber halt auch nicht mehr.

Speaker1: Also die Debatten über Rechte für KI-Systeme oder Verantwortungszuschreibung

Speaker1: und sowas, das wäre dann alles obsolet.

Speaker1: Und man muss auch sagen, das ist ja aktuell auch eigentlich der Common Sense

Speaker1: in der Gesellschaft, aber auch in den meisten wissenschaftlichen Disziplinen,

Speaker1: Dass man sagt, ja, da ist nicht mehr als das, was wir eigentlich beschreiben

Speaker1: können und sehen können.

Speaker0: Ich will jetzt mal kurz dreist sein.

Speaker1: Sehr gerne.

Speaker0: Warum habe ich dich dann eingeladen?

Speaker1: Warum müssen wir darüber sprechen?

Speaker0: Ja, dann ist ja, also wenn der Konsens sowieso schon ein, ja okay,

Speaker0: das sind halt irgendwelche Maschinen und wir nutzen die wie Tools und es sind auch eigentlich Tools.

Speaker0: Manche Menschen sehen sie eher als Begleiter.

Speaker0: Warum unterhalten wir uns darüber?

Speaker1: Weil es in vielen Fällen schon problematisch ist, ethisch und für die Gesellschaft,

Speaker1: dass diese Systeme so gebaut werden, als hätten sie Bewusstsein.

Speaker1: Das ist schon problematisch genug. Selbst wenn wir wissen, sie haben kein Bewusstsein,

Speaker1: es ist schon schlimm genug, dass die die ganze Zeit wir uns wieder versichern

Speaker1: müssen und kleinen Kindern und alten Menschen und auch allen anderen dazwischen

Speaker1: erklären müssen, du, das ist kein Gegenüber.

Speaker1: Das ist nur eine Maschine, das ist nur ein KI-System und das meint es nicht, was es so sagt.

Speaker1: Also das ist kein Mensch und das ist keine echte Begegnung, die du da hast.

Speaker0: Jetzt frage ich mich so ein bisschen, wie wird das denn dargestellt,

Speaker0: dass KI-Systeme nicht einfach nur Werkzeuge sind und stattdessen Begleiter sein,

Speaker0: Sondern wie zum Beispiel setzt sich OpenAI dafür ein?

Speaker0: Hast du irgendwie ein konkretes Beispiel mit, wo du jetzt sagst,

Speaker0: hey, guck mal hier, sagt OpenAI das, aber das ist gar nicht das?

Speaker1: Also eine Vision, die mir da auf jeden Fall einfällt, ist von Zuckerberg.

Speaker1: Der ist da so sehr pro Bewusstsein bei KI-Systemen, zumindest in der Zukunft

Speaker1: und sagt, dass er zum Beispiel möchte,

Speaker1: dass dieses ganze Metaversum, was jetzt auch gar nicht mehr so en vogue ist

Speaker1: gerade, aber zumindest noch ein bisschen, also es existiert noch irgendwo oder seine Ideen davon,

Speaker1: dass er sagt, er will irgendwann, dass Meta quasi und man durch KI-Systeme Freundschaften hat.

Speaker1: Und dann wird es auch ein bisschen wir, weil er sagt, das soll natürlich nicht

Speaker1: die menschlichen Freundschaften ersetzen, bla bla bla.

Speaker1: Aber man merkt schon und das merkt man auch bei den ganzen anderen großen Persönlichkeiten

Speaker1: im Tech-Bereich, also auch von Peter Thiel und Elon Musk und wie sie alle heißen,

Speaker1: die sprechen andauernd darüber, ob es KI und wann KI Bewusstsein entwickeln wird.

Speaker0: Hast du eine Vermutung, warum diesen Tech-Giganten das so wichtig ist?

Speaker1: Also ich habe zwei Vermutungen auf zwei verschiedenen Ebenen.

Speaker1: Erstmal ökonomisch ist es, glaube ich, einfach sinnvoll,

Speaker1: Menschen mit diesen Narrativen zuzuhauen, weil dann man ja auch nicht über die

Speaker1: ganzen anderen Regulierungsbedarfe und

Speaker1: die reellen Gefahren und Manipulationsmöglichkeiten nicht so sehr spricht.

Speaker1: Und dass es ja auch ökonomisch dann man sich in so eine Vorreiterposition setzt oder stellt selbst.

Speaker1: Also dass dann, ich glaube, sich so ein Elon Musk halt auch sehr gut in der

Speaker1: Position gefällt, dass er weiß, ihr denkt jetzt hier noch drüber nach,

Speaker1: irgendwie über, keine Ahnung, Tertivität zu regulieren und ich bin schon dabei

Speaker1: und habe die großen Gedanken dazu, ob jetzt KI-Bewusstsein entwickelt oder nicht.

Speaker0: Also so ein bisschen die Darstellung, Selbstdarstellung als Zukunftsvisionäre,

Speaker0: sage ich jetzt einfach mal.

Speaker1: Und natürlich auch dann, dass die Unternehmen mehr wert sind,

Speaker1: wenn wirklich da eine KI entwickelt werden sollte, die Bewusstsein hat.

Speaker1: Also auch ganz einfach ganz billige ökonomische Gründe.

Speaker1: Und psychologisch, das ist die andere Ebene, ist es glaube ich auch sehr spannend,

Speaker1: dass gerade diese Personen, und die haben ja schon auch oft ähnliche Persönlichkeitsstrukturen,

Speaker1: halt einfach diese Hybris vertreten.

Speaker1: Dass sie denken, sie wollen jetzt KI-Systeme erschaffen, die dann auch so den

Speaker1: Menschen untertan werden.

Speaker1: Und da sind wir im Wording wieder wie so in der Antike früher,

Speaker1: dass wir so kleine Maschinen schaffen, die unsere Knechte sind und so.

Speaker1: Und ich glaube, das ist auch einfach urmenschlich. Das kann man psychologisch

Speaker1: super gut erklären, warum das so ist.

Speaker1: Aber das sieht man bei denen echt sehr deutlich, dass das auch ein Beweggrund ist.

Speaker0: Ich habe es am Anfang jetzt schon einmal angeteasert, weil...

Speaker0: Dann wären wir ja genau an der Stelle, wo wir jetzt wären, was ist denn,

Speaker0: wenn KI überhaupt ein Bewusstsein hätte?

Speaker0: Und wenn es jetzt wirklich, wir hätten jetzt hier im Podcast noch zu Gast so

Speaker0: einen kleinen Roboter, der selbstbewusst, also ein eigenes Bewusstsein hat und

Speaker0: unser Hilfsroboter hier im Studio ist.

Speaker0: Welche Auswirkungen hätte das denn, wenn wir dem jetzt menschlich Bewusstsein

Speaker0: oder menschenähnliches Bewusstsein zuschreiben würden?

Speaker1: Eigentlich hängt und steht mit Bewusstseinszuschreibung komplett zum Beispiel

Speaker1: unsere ganze moralische Praxis und unsere ganze rechtliche Praxis,

Speaker1: habe ich auch schon gesagt.

Speaker1: Also wenn wir jetzt hier so einen kleinen Roboter hätte, der genauso bewusst

Speaker1: ist wie du, warum sollte er weniger Rechte haben wie du? Dann müssten wir sicherstellen,

Speaker1: dass der auch sowas wie Wahlrecht hat, vielleicht.

Speaker1: Dann müssten wir auch sicherstellen, dass ihm nicht einfach in der Saft abgedreht wird.

Speaker1: Dann müssten wir schauen, dass seine Gefühle und dass er psychisch gesund bleiben

Speaker1: kann, weil das körperlich ist es ja nicht, weil wir reden nicht darüber,

Speaker1: ob ein Taschenrechner eigentliche Bewusstseinszustände hat oder Rechte haben

Speaker1: sollte oder sonst irgendwas.

Speaker1: Aber das ist wirklich ein langer Rattenschwanz. Und ich bin mir manchmal auch

Speaker1: nicht bewusst, ob die Personen, die das vertreten und sagen,

Speaker1: KI hat vielleicht irgendwann Bewusstsein, ob die sich bewusst sind,

Speaker1: was das alles bedeuten würde dann.

Speaker0: Weil man dann so gesehen bewusste Wesen auch irgendwie unterdrücken würde und versklaven würde.

Speaker1: Ja, eben. Also das wäre schon krass dann.

Speaker0: Irgendwie schon. Du hast auch gerade noch rechtliche Probleme oder rechtliche Fragen angesprochen.

Speaker0: Was wären da die Fragen, die man sich stellen müsste?

Speaker1: Aktuell kennen wir im Recht ja nur Akteure. Wir Menschen, wir sind verantwortlich

Speaker1: für Sachen. Also wenn du jetzt meine Schuhe kaputt machst, dann bist du dafür

Speaker1: verantwortlich. Das war ein kurzes Beispiel.

Speaker1: Wenn du ein Messer nimmst und Leute verletzt, bist du dafür rechtlich verantwortlich.

Speaker1: Wenn ein Hund aber zum Beispiel einen anderen Menschen angreift oder beißt,

Speaker1: dann ist es, wenn es dein Hund ist, bist auch du dafür verantwortlich.

Speaker1: Also wir kennen im Recht eben diese Akteure, wir kennen Sachen,

Speaker1: die nicht irgendwie rechtlich relevant sind.

Speaker1: Also der Blumentopf kann nicht in Verantwortung gezogen werden,

Speaker1: du schon. Und dann kennen wir sowas wie Tiere, die sind sachähnlich.

Speaker1: Das ist so ein komischer Zwischenstatus.

Speaker1: Wir sagen im deutschen Recht zumindest, es ist keine Sache, aber es ist auch

Speaker1: kein Mensch so irgendwo dazwischen.

Speaker1: Und da ist gerade so auch im rechtlichen Fokus die Debatte, ob KI-Systeme vielleicht

Speaker1: diesen Status bekommen sollten.

Speaker0: Also, dass sie wie Tiere sein sollen.

Speaker0: Ist das denn momentan eine Lücke

Speaker0: irgendwie, dass KI irgendwie nicht zur Verantwortung gezogen werden kann?

Speaker0: In welchem Problemfeld befinden wir uns denn da?

Speaker1: Es sind natürlich immer sehr spezifische Anwendungen. Das heißt also ein KI-System,

Speaker1: das zur Hautkrebserkennung eingesetzt wird in einem Krankenhaus,

Speaker1: da ist eigentlich keine Lücke.

Speaker1: Weil da sind entweder die Ärztinnen verantwortlich, die am Ende dir dann sagen,

Speaker1: es ist Hautkrebs oder es ist nicht Hautkrebs.

Speaker1: Oder es ist dann das Softwareunternehmen verantwortlich, das die Daten geliefert

Speaker1: hat oder das System geliefert hat oder das Krankenhaus hat so einiges.

Speaker1: Also da sind wir relativ auf sicherer Seite und das sind gute Kontexte,

Speaker1: wo man sieht, ganz spezifische KI-Anwendungen, da sind weder ethische noch rechtliche große Probleme.

Speaker1: Problematisch wird es immer da, wo es dann solche, diese allgemeinen Systeme,

Speaker1: sowas wie JGPT, dass man da ja auch, wie wir auch die ganze Zeit im Urheberrecht

Speaker1: merken, nicht so ganz überprüfen kann, wo es die Verantwortung ist und wer wann in welcher Form haftet.

Speaker0: Ich wollte dich gerade dazu fragen, ob es da irgendwie Unterscheidungen zwischen

Speaker0: einzelnen KI-Modellen gibt.

Speaker0: Es gibt ja so gesehen, deskriptive KI, die eher etwas beschreibt oder etwas

Speaker0: erkennt, wie du schon gerade gesagt hast, die Hautkrebserkennung und generative KI.

Speaker0: Ist das dann diese Bewusstseinsfrage eine Frage, die sich nur auf generative

Speaker0: KI bezieht oder gibt es da auch andere Systeme, die davon betroffen wären?

Speaker1: Also theoretisch kann man das natürlich auf alles, was irgendwie KI heißt, ausweiten.

Speaker1: Aber in der Regel werden die Debatten eher über LLMs vor allem halt einfach

Speaker1: geführt, weil es da naheliegender ist.

Speaker1: Also weil wir ja auch Bewusstsein irgendwie dann mit Sprache oder Kommunikation

Speaker1: verbinden, weil was sich nicht in irgendeiner Form ausdrücken kann,

Speaker1: dem schreiben wir erstmal kein Bewusstsein zu.

Speaker1: Und deswegen ist die Debatte eigentlich auch relativ eng auf generative oder LLMs so beschränkt.

Speaker0: Ja, hast du noch einen abschließenden Gedanken für uns und die Zuschauenden?

Speaker1: Also ich plädiere auch dafür, sich Fragen zu stellen, sowas wie hat KI-Bewusstsein

Speaker1: oder nicht, selbst wenn es keinen ganz praktikablen Nutzen hat.

Speaker1: Also es ist wirklich spannend, sich die Fragen zu stellen und deswegen finde

Speaker1: ich es auch als Philosophin so cool,

Speaker1: weil man ja auch immer wieder sich dann die Frage stellen muss,

Speaker1: was uns Menschen ausmacht, weil wir uns dann eben begründen müssen,

Speaker1: warum hast du jetzt Bewusstsein, warum hat das KI-System nicht,

Speaker1: warum hat der Blumentopf nicht und da lade ich erstmal zu ein.

Speaker0: Dorothea, vielen, vielen Dank dass du hier bei uns im Podcast warst ich bedanke

Speaker0: mich sehr, dass du hergekommen bist und das war es mit unserer aktuellen Folge

Speaker0: von T3 Interview, ich hoffe ihr schaltet beim nächsten Mal auch wieder ein und ja, bis bald.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.