Update verfügbar

Transkript

Zurück zur Episode

„Update verfügbar – ein Podcast des BSI“

Transkription für Folge 63,

Titel: „KI hat kein Gewissen – wer trägt Verantwortung, wenn Maschinen entscheiden?“

Moderation: Schlien Gollmitzer und Hardy Röde

Gast: Prof. Dr. Katharina Zweig, RPTU

Herausgeber: Bundesamt für Sicherheit in der

Informationstechnik (BSI)

_________________________________________________________________________________________

Schlien Gollmitzer: Hardy.

Hardy Röde: Schlien.

Schlien Gollmitzer: Ich bin etwas enttäuscht von dir.

Hardy Röde: Jetzt schon. Wir haben doch erst Januar. Es ist doch die erste Folge 2026.

Schlien Gollmitzer: Naja, was heißt jetzt schon? Wir kennen uns ja jetzt seit 20 Jahren. Hardy, ich habe nachgeschaut, tatsächlich 20 Jahre ist es her. Und trotzdem gibt es noch Dinge, die ich über dich nicht wusste und die du offensichtlich von mir geheim hältst.

Hardy Röde: Keine Ahnung, was das sein soll.

Schlien Gollmitzer: Ich wusste bisher zum Beispiel nicht, dass dein Lebensmotto lautet: „Lieber eine gute Idee zu spät als eine schlechte pünktlich“.

Hardy Röde: Aha, wer hat dir das gesagt, Ex-Kollegen?

Schlien Gollmitzer: Auch nicht, dass du bevorzugt im Stehen am Whiteboard arbeitest.

Hardy Röde: Hast du meine Handyfotos angeschaut, oder was?

Schlien Gollmitzer: Reinhard Röde ist ein Multitalent mit Schwerpunkt auf kreativer Improvisation, strategischem Kaffeekonsum und der Fähigkeit, Meetings um mindestens 30% länger wirken zu lassen, als sie eigentlich sind.

Schlien Gollmitzer: Unverschämtheit.

Schlien Gollmitzer: Er gilt außerdem, als der Erfinder des Satzes: „Da müssen wir ganzheitlich draufschauen“.

Hardy Röde: Also irgendwie klingt es wie gequirlter Kokolores, was du da erzählt.

Schlien Gollmitzer: Ja, aber das ist das, was ChatGPT über dich denkt, Hardy. Und jetzt auch unsere Hörerinnen und Hörer.

Hardy Röde: Na, schönen Dank.

Schlien Gollmitzer: Das ist Update verfügbar, ein Podcast des BSI für Sicherheit im digitalen Alltag. Mit Schlien Goldmitzer

Hardy Röde: und Hardy Röde.

Hardy Röde: Also, du hast, statt bei mir mal durchzuklingen, ChatGPT über mich befragt.

Schlien Gollmitzer: Richtig. Genauso, wie du mich nicht nach Informationen und Tipps zu Kindergeburtstag gefragt hast, sondern stattdessen lieber ein KI-System genutzt hast. Ich habe tatsächlich nach Reinhard Röde, Journalist aus München, gesucht. Und jetzt stell dir mal vor, du bewirbst dich irgendwo, gibst dir da voll viel Mühe mit deinem Lebenslauf und mit deinen Referenzen und so mit allem, was du hast und kannst, und dann befragt ein potenziell künftiger Arbeitgeber einfach irgendein KI-System nach dir und das ist dann das, was dabei rauskommt.

Hardy Röde: Na ja, mein strategischer Kaffeekonsum kann in bestimmten Arbeitskontexten ja durchaus sehr sinnvoll sein. Ich weiß bloß nicht, in welchen. Das muss ich dann halt irgendwie erklären. Aber dass die KI oft was rum fantasiert und halluziniert und spinnt, war mir klar. Hinter meinem Rücken schlecht über mich reden. Du, du, du, ChatGPT, das geht so natürlich überhaupt nicht. Aber mal ganz im Ernst jetzt, du weißt natürlich, dass die künstliche Intelligenz nicht das ist, was sie im Namen so verspricht, oder?

Schlien Gollmitzer: Künstlich oder intelligent?

Hardy Röde: Also, wir schauen am besten jetzt zum Anfang gleich nochmal genau hin, was KI eigentlich ist.

Hardy Röde: KI-Systeme wie ChatGPT, Claude oder Google Gemini werden anhand riesiger Datenmengen darauf trainiert, Muster zu erkennen und Vorhersagen zu treffen. Zum Beispiel können einige KI-Systeme Bilder erkennen, andere Sprache verstehen oder Texte generieren. KI ist in unserem Alltag schon an vielen Orten zu finden, in unseren Smartphones, in Online-Shops oder in der Medizin. Sie kann helfen, Krankheiten zu diagnostizieren, Verkehr zu optimieren oder einfach nur unsere Lieblingsmusik zu empfehlen. Das ist erstmal beeindruckend, aber es gibt auch Grenzen. KI ist nämlich nicht so intelligent, wie wir manchmal denken. Sie kann nur das, wofür sie trainiert wurde, und ist damit abhängig von den Daten, die in der Trainingsphase genutzt wurden. Wenn die Daten fehlerhaft oder nicht komplett sind, kann KI auch fehlerhafte Ergebnisse liefern. Und dann gibt es noch das Problem mit der Verantwortung.

Wer ist schuld, wenn ein KI-System einen Fehler macht? KI ist ein mächtiges Werkzeug, aber wir sollten uns nicht täuschen lassen. Es ist immer noch eine Maschine. Wir müssen lernen, damit umzugehen.

Hardy Röde: Ja, und jetzt merken wir wieder, dass es bekanntlicherweise einen Unterschied gibt zwischen Intelligenz und Wissen.

Schlien Gollmitzer: Viel zu Wissen bedeutet nicht automatisch eine hohe Intelligenz. Und was der KI, und das sage ich jetzt nur noch in Anführungszeichen ab jetzt, was ihr also fehlt, das ist auf jeden Fall eine emotionale Intelligenz.

Hardy Röde: Und natürlich auch ein Gewissen.

Schlien Gollmitzer: Oder Taktgefühl. Und genau darüber habe ich mit Frau Prof. Dr. Katharina Zweig gesprochen. Sie ist Professorin für Informatik an der TU Kaiserslautern, leitet das „Algorithm Accountability Lab“ und erklärt seit Jahren, wie algorithmische Systeme funktionieren und wo ihre Grenzen liegen. In ihren Büchern und Vorträgen zeigt sie, warum Algorithmen keine neutralen Entscheider sind und warum wir Verantwortung nicht an Maschinen abgeben dürfen. Frau Zweig, ich habe gesehen, Sie haben 2019 ein Buch veröffentlicht, mit dem Titel „Ein Algorithmus hat kein Taktgefühl“.

Was meinen Sie damit denn ganz konkret? Können Sie mir das kurz ein bisschen beschreiben?

Katharina Zweig: Das war der Titel, der vom Verlag vorgeschlagen wurde und der mir sehr gut gefallen hat. Ich selbst hätte das Buch „Entseelte Entscheidungen“ genannt. Das ist aber marketingtechnisch vielleicht nicht so interessant. Und deswegen sind wir dann auf „Ein Algorithmus hat kein Taktgefühl“ gegangen. Die Idee dahinter ist, dass Algorithmen Dinge berechnen. Wir aber Ihnen keine Akteurseigenschaften zuschreiben sollen.

Es sind eben nur Dinge und nicht Menschen und deswegen können Sie die Entscheidung, die Sie berechnen, nicht verantworten.

Schlien Gollmitzer: Unser Folgentitel lautet ja heute eben auch entsprechend, „KI hat keinen Gewissen, wer trägt Verantwortung, wenn Maschinen entscheiden“. Wie würden Sie denn diesen Satz aus Ihrer Sicht als Sozioinformatikerin einordnen?

Katharina Zweig: Also im rechtlichen Sinne ist das immer der Betreiber oder die Betreiberin. Also wenn jetzt zum Beispiel eine Schuldirektorin sagt in allen Klassen möge doch bitte ein KI-System verwendet werden, dass den Schülern und Schülerinnen Feedback gibt zu ihren Abgaben, dann wäre das aus meiner Sicht immer noch die Schulleiterin, die diese Entscheidung getroffen hat, dass die Software gut genug ist, um tatsächlich diese Aufgabe zu übernehmen. Und ich persönlich würde das dann auch in Abrede stellen, dass dieses KI-System gut genug ist, um es zu benutzen.

Schlien Gollmitzer: Wenn wir gerade bei der Verantwortung schon sind, können wir so ein bisschen einordnen oder können Sie vielleicht einer interessierten, aber nicht technischen Person erklären, was denn heutige KI-Systeme, neuronale Netze beispielsweise eigentlich tun und was Sie nicht können.

Katharina Zweig: Naja, am Ende ist dieser künstliche Intelligenzbegriff ein bisschen falsch gewählt. Der wurde in den 1950ern gewählt, um Werbung zu machen für einen Forschungsantrag. Ein paar Professoren wollten für ein paar Monate gemeinsam arbeiten, hatten damals das Gefühl, dass man dem Computer jetzt ganz schnell Dinge beibringen könnte und haben dafür den Werbebegriff Artificial Intelligence genutzt, also Künstliche Intelligenz auf Deutsch.

Und in den 50er Jahren waren das vor allen Dingen Systeme, wo man Experten und Expertinnen befragt hat. Wie macht ihr das eigentlich? Wie trefft ihr eine Diagnose? Wie übersetzt ihr Texte? Und man hat versucht, der Maschine die Welt zu erklären, indem man eben menschliche Experten befragt hat. Das funktioniert gar nicht so gut.

Das liegt an zwei Dingen. Erstens ist die Welt da draußen nicht durch eine Menge von statischen Regeln gut beschreibbar. Zweitens haben sich Menschen auch irgendwann verirrt. Also, da gab es Übersetzungssysteme mit 50.000, 80.000 Regeln und wenn die Maschine dann einen Fehler macht, fällt es einem Menschen sehr schwer zu sagen, welche von diesen Tausenden von Regeln jetzt geändert werden muss oder weg muss oder welche neu hinzugefügt werden muss. Und die neuen KI-Systeme benutzen jetzt etwas, das nennen wir „Maschinelles Lernen“. Das heißt, man gibt der Maschine sehr, sehr viele Beispiele zum Beispiel für Übersetzung, also deutsche Texte und englische Texte.

Und dann soll die Maschine mithilfe von Code, von Programmen darin Muster erkennen. Und diese Muster, die schreibt sich die Maschine raus als Regeln. So, und jetzt haben wir wiederum das Problem. Die Maschine ist jetzt, das Wort selbstständig ist immer ein bisschen schwierig, aber die Maschine nimmt aus diesen Beispielen die Muster, die sie gefunden hat und legt sie sich ab. Das Hauptproblem bleibt bestehen. Eine Menge von statischen Regeln wird niemals die gesamte Komplexität der Welt abdecken.

Und was ein KI-System also nicht kann, ist zu verstehen, wann diese Regeln funktionieren und sie damit arbeiten kann und wann es eigentlich eine Ausnahme geben müsste. Und das heißt, je regelhafter die Tätigkeit ist, die durch die Maschine automatisiert werden soll, desto eher kann man sie verwenden. Mit je mehr Ausnahmen man rechnen muss, desto weniger gut ist sie verwendbar.

Schlien Gollmitzer: Jetzt beschäftigen Sie sich ja explizit mit „Algorithm Accountability“, also mit der Verantwortlichkeit von Algorithmen. Was ist denn für Sie ein verantwortungsvoll entwickeltes KI-System?

Katharina Zweig: Am Ende müssen die Berechnungen, die durch Software aller Art durchgeführt werden, gut genug sein für die Funktion, an der wir sie einsetzen wollen. Dazu mal ein Beispiel. Also wenn ich jetzt einfach nur die kürzeste Strecke zwischen Kaiserslautern und Hamburg, meinen Eltern, berechnen will, dann gibt es dafür einen Algorithmus. Und ein Algorithmus ist ein Softwareprogramm, das mathematisch beweisbar diese Aufgabe lösen kann. Das heißt, wenn ich nur die Luftlinie, also die kürzeste Strecke anhand der Kilometerlänge haben will, dann gibt es ein Algorithmus, der mir das nennen kann.

So leider ist das gar nicht immer so ausschlaggebend, denn das führt mich vielleicht durch kleine Gassen und durch Landstraßen. Unter Umständen ist es schneller, wenn ich die Autobahn nehme, ein paar mehr Kilometer fahre, aber da eben schneller fahren kann. Und dafür gibt es keine Algorithmen mehr, sondern nur sogenannte Heuristiken.

Das heißt, eine Maschine hat gelernt, zu welchen Tageszeiten, vielleicht auch Ferien, welche Wochentage es Staus gibt, die Maschine hat Informationen über Baustellen und all diese Informationen können zusammengesetzt werden und die Maschine kann mir eine Vorhersage berechnen. Das ist nicht beweisbar, dass das jetzt die beste Lösung ist, aber diese Heuristiken sind oft sehr gut. Und KI-Systeme sind immer Heuristiken, das sind fast nie Algorithmen mit mathematisch beweisbaren Eigenschaften, sondern es sind eben gute Daumenregeln, die zusammengenommen wahrscheinlich eine gute Lösung berechnen.

Und das ist das, wenn wir Google Maps fragen, wie lange werden wir brauchen, diese Vorhersagen sind oft sehr, sehr, sehr gut. Es sei denn, es passiert etwas Unvorhergesehenes und da kann die Maschine dann eben auch nichts mehr richten.

Schlien Gollmitzer: Nachdem Sie jetzt schon so ein ganz anschauliches Beispiel aus dem Alltag genommen haben, vielleicht können wir noch ein paar mehr Beispiele aus dem Alltag finden. Wo begegnen uns denn heute bereits Entscheidungen, die von Algorithmen oder KI - Systemen beeinflusst werden, gerade als Verbraucherinnen und Verbraucher.

Katharina Zweig: Genau, ich würde den Begriff der Entscheidung extrem weit fassen. Das heißt, das fängt für mich schon dabei an, wenn Sie bei einer Suchmaschine etwas fragen und dann bekommen Sie eine Antwort, dann ist das aus meiner Sicht eine Entscheidung. Die Maschine berechnet eine Reihenfolge von Webseiten.

Und ja, wenn Sie mich als Expertin gefragt hätten, nennen Sie mir doch Ihre zehn Bücher, die Sie für am wichtigsten halten, wenn man sich mit dem Begriff der Sozioinformatik auseinandersetzen will, dann würde ich ja auch eine Entscheidung treffen, in welcher Reihenfolge und welche zehn Bücher ich Ihnen nennen würde. Dann hat mein Handy heute Morgen entschieden, das Gesicht kenne ich nicht, ja leider wird man ja älter und die Maschine wollte mich heute morgen nicht erkennen. Das ist auch eine Entscheidung, die lässt dann halt einfach den Sperrbildschirm an.

Wenn Sie in eine Bank gehen und einen Kredit beantragen, sind dahinter auch Entscheidungssysteme. Die sind vielleicht online und digital, vielleicht sind es aber auch nur Übersetzungen von alten Regeln, die die Bank schon immer so befolgt hat. Also es heißt, da verschwimmt es ja auch ein bisschen.

Ist das jetzt eine Software? Na ja, wenn die nur das umsetzt, wie die Menschen das schon seit hunderten von Jahren entschieden haben, wie es Kredite sind. Und trotzdem muss es immer eben jemanden geben, der dafür verantwortlich ist, der sicherstellt, dass die Ergebnisse gut genug sind, um sie zu verwenden. Und da kommt eben der Begriff der Verantwortlichkeit dann rein.

Schlien Gollmitzer: Es gibt ja auch vor allem gravierende Folgen für Menschen, die das Ganze haben kann, so eine Entscheidung, die so ein System trifft. Welche typischen Fehler machen denn solche Systeme? Also wo irrt sich denn die KI besonders häufig? Und warum kann es eben gravierende Folgen haben?

Katharina Zweig: Ja, meistens irrt sich das Gesamtsystem aus Mensch und Maschine. Glücklicherweise haben wir das in Europa noch nicht so viel.

Es gibt aus den USA sehr viel drastischere Beispiele. Das Beispiel, was mir gerade einfällt, was ich in meinem zweiten Buch erwähnt habe, da hatte eine Person Uhren geklaut. Es gab ein sehr, sehr schlechtes Video von diesem Diebstahl.

Die Person war natürlich auch schlau, hat sich gebückt gehalten, hatte eine Hoodie drüber. Und trotzdem hat man ein sehr schlechtes Standbild aus diesem Video genommen und hat es einfach in die Datenbank aller Führerscheinfotos eingeführt. Und hat dann nach dem ähnlichsten Foto gefragt.

So, wenn man ein so schlechtes Bild nimmt, das darf man einfach nicht machen. Das war ein Versagen auf der Seite der Polizei an der Stelle. Und wenn man dann nur fragt, welches ist denn jetzt das ähnlichste Foto, ohne zu sagen, die Ähnlichkeit muss aber mindestens 80, 85 % betragen. Dann erwischt man natürlich irgendeine Person. Irgendeine Person ist immer am ähnlichsten. Und diese Person hat man direkt in ihrem Vorgarten, vor den Augen der Kinder, direkt verhaftet. Also da hat man noch nicht mal erst mal nach dem Alibi gefragt, denn das Alibi war hieb- und stichfest, sondern die Person ist gleich über Nacht verhaftet worden. Und das heißt, ganz oft ist der erste Fehler, ein KI-System an einer Stelle zu verwenden, wo es menschliche Urteilskraft bedarf. Oder die Person nicht ausreichend auszubilden.

Direkt danach hat die Polizeidirektion an dieser Stelle auch einen Leitfaden veröffentlicht, dass eben das Foto ausreichend gut sein muss. Dass man nicht einfach nur nach der ähnlichsten Person fragt, sondern dass man da auch einen gewissen Schwellwert überschreiten muss. Und das ist eigentlich das, vor dem ich warne. Das entweder eine Software, die für sich genommen völlig in Ordnung ist, aber für diesen Zweck nicht ausreichend ist oder dass das Gesamtsystem aus Menschen, die das Verwenden, das System und nachher das Ergebnis interpretieren, dass die nicht gut genug ausgebildet sind dafür.

Schlien Gollmitzer: Das ist ja auch so ein bisschen so eine Frage. Viele hoffen ja, dass Algorithmen gerechter sind als Menschen und auch entsprechend gerechtere Entscheidungen treffen werden.

Ist das eine falsche Hoffnung oder kann KI da tatsächlich unter bestimmten Bedingungen fairer entscheiden?

Katharina Zweig: Also eine Maschine macht auf jeden Fall alles gleichförmiger. Die Fälle werden nach denselben Regeln entschieden. Und das kann gut sein und das kann schlecht sein.

In den letzten vier Jahren habe ich viel davon profitiert, dass ich mit Philosophen zusammenarbeite. Wir lesen zusammen Artikel entweder aus der Philosophie oder aus der Informatik. Also das heißt, die müssen durch die Informatikartikel durch und ich musste durch Kant durch, glücklicherweise nicht so viel, aber doch ein bisschen.

Und wir haben ein Buch gemeinsam gelesen von einer Wissenschaftshistorikerin, Lorrain Daston, die hat ein Buch über Regeln geschrieben. Und die hat sich gefragt, wann kreieren Menschen eigentlich Regeln und hat gesagt, sie beobachtet über die Jahrhunderte, dass Menschen immer mehr versucht haben, sogenannte dünne Regeln zu finden. Und dünne Regeln, das ist ihr Wort dafür, dass die so einfach sind, dass sogar ein Computer sie durchführen kann.

Sie sagt aber auch, die Taschen der Welt, in der diese dünnen Regeln tatsächlich anwendbar sind, die sind klein. Also das heißt, wir wünschen uns, dass Computer Regeln durchsetzen können. Sie sagt aber, die Komplexität der Welt da draußen ist meistens so groß, dass dünne Regeln nicht ausreichend sind.

Und die anderen Regeln, die die Urteilskraft bedürfen, die Nachdenken menschliches Abwägen bedürfen, die nennen sie dicke Regeln und sie sagt hinter jeder dünnen Regel steht eine dicke Regel, die hinter ihr aufräumt. So und vielleicht kann ich dazu ein Beispiel geben. Ich muss ja sehr viele Klausuren korrigieren.

Ich habe zum Teil sehr mathematische Klausuren und dann denkt man doch gerade diese mathematischen Klausuren, die müssten doch durch dünne Regeln beschreibbar sein. Aber selbst bei so etwas wie einem kleinen mathematischen Beweis gibt es so viele kreative Köpfe, die auf eine Lösung kommen, die ich vorher gar nicht bedacht habe und auch nur eine Person hat diese sehr kreativen Beweis geschrieben. Und das heißt, 80% der Studierenden machen eine Abgabe, die ich sehr gut nach einem vorher festgelegten Schema bewerten kann und bei den restlichen 20% muss sich eine Einzellösung finden.

Und das ist genau das, was Lorrain Daston meint. Hinter den meisten dünnen Regeln steckt eine dicke Regel, die hinter ihnen aufräumt und die heutigen KI-Systeme können nicht entscheiden, ob sie jetzt gerade in einer Alltagssituation sind in den 80% die man sehr gut nach diesen dünnen Regeln bewerten kann oder ob sie in den 20% sind, wo es jetzt eines Menschen bedarf, und das sieht man auch in den Sprachmodellen. Die sind ja immer mit derselben Überzeugungskraft generieren, die ihre Texte und das macht, das Zusammenarbeiten manchmal so schwierig.

Schlien Gollmitzer: Das ist jetzt gerade ein viraler Trend, der so ein bisschen in den sozialen Medien umgeht, dass Menschen die KI fragen, wie viele „r“ gibt es in Strawberry? Haben Sie das gesehen? Und dann ist immer die Antwort, es gibt nur zwei „r“. Wenn man dann aber die KI drauf hinweist: „Nein, es sind ja drei „r“ in Strawberry dann gibt sie einem wiederum Recht besteht aber trotzdem drauf, dass es nach wie vor zwei „r“ sind. Ganz absurde Gespräche kommen dabei raus.

Was würden Sie denn generell sagen lässt sich denn so eine Regel aufstellen darüber für welche Entscheidungen eignet sich eine KI überhaupt und bei welchen Entscheidungen sollte immer ein Mensch das letzte Wort haben.

Katharina Zweig: Ich habe das in dem zweiten Buch beschrieben „Die KI war´s“. Da habe ich mir auch die Frage gestellt welche Arten von Entscheidungen gibt es denn und die Klasse, die wir schon mal gleich ausschließen können, sind sogenannte singuläre Entscheidungen.

Also in der Pandemie gab es ganz viele Situationen, die wir glücklicherweise seit Jahrhundert nicht mehr hatten seit der Pest oder anderen großen Pandemien. KI-Systeme, die Maschinelles lernen nutzen, um Regeln zu finden in Beispieldaten, brauchen erstmal Beispieldaten. Das heißt wenn es um die Frage geht, „Brauchen wir jetzt einen Lockdown?“ oder so dann bräuchten wir eigentlich 100.000 Pandemien alle in der Neuzeit alle in der Moderne jetzt um daraus genügend Regeln lernen zu können, so dass die Maschine uns helfen kann. Also singuläre historische Entscheidungen: „Was passiert jetzt mit Grönland?“, „Müssen wir Truppen irgendwo hinschicken in die Ukraine oder sonst wo?“ können durch KI-Systeme nicht getroffen werden, weil wir nicht genügend Beispieldaten haben, aus denen sie lernen können.

Dann gibt es Fakten wir wissen von einem Protein wie die Aminosäure-Kette aussieht und die Maschine soll vorhersagen oder berechnen, wie sich diese Aminosäuren-Kette dreidimensional zusammenfaltet. Und dann kann sie das Berechnen und dann kann man das mit Beobachtungsdaten überprüfen, ob die Maschine das gut gemacht hat oder nicht. Es geht also um Fakten um etwas, was wir überprüfen können, und da kann man dann auf jeden Fall berechnen, wie oft sie das korrekt berechnet hat für eine Testdatenbank, wo man weiß wie die dreidimensionale Struktur ist.

Das sind genau die Aufgaben, wofür man maschinelles Lernen sehr gut verwenden kann, weil es etwas gibt außerhalb der Maschine mit dem man es überprüfen kann. Dann gibt es eine dritte Gruppe das sind faktische Vorhersagen, die die Zukunft betreffen, das heißt wir können das nicht direkt jetzt nachprüfen aber immerhin in ein paar Monaten zum Beispiel den Aktienpreis. Beim Aktienpreis ist es aber so eine Sache, wenn eine Maschine jetzt sagt ich glaube, dass der Preis von dieser Aktie hochgehen wird, dann werden ja unter Umständen Menschen, die kaufen und damit den Preis erst hochtreiben.

Das heißt, vielleicht hatte die Maschine gar nicht recht, sondern die Vorhersage an sich hat die Zukunft verändert. Hier geht es schon los, dass wir für solche Entscheidungen nicht mehr hundertprozentig überprüfen können, ob die Maschine recht hatte oder ob sie mit der Entscheidung die Zukunft verändert hat, und dann gibt es diese Gruppe von Eigenentscheidungen bei denen Menschen anscheinend ein übermäßiges Interesse daran haben, dass der Computer sie übernimmt das sind sogenannte Werturteile.

Ein Werturteil, das ist genau das, was ich mache, wenn ich eine Klausur benote, wenn ich ein Empfehlungsschreiben gebe, wenn sie mich fragen welche Bücher ich empfehle was machen wir Menschen da? Wir haben Qualitätsdimensionen wir bewerten Dinge oder Menschen oder Klausuren anhand dieser Qualitätsdimensionen. Wir aggregieren diese Einzelentscheidung und treffen dann eine Gesamtentscheidung und das ist anstrengend das sind die Entscheidungen die uns wirklich Nerven und Kraft kosten und wir wünschen uns so sehr dass der Computer das übernehmen kann aber es ist genau dieser Bereich der dicke Regeln enthält und eben nicht dünne Regeln und deswegen setzen wir Menschen an diese Positionen wie Richter oder Professoren oder Lehrer und Lehrerinnen die sehr gut ausgebildet sind und wir schaffen meistens auch Systeme in denen man solchen Entscheidungen widersprechen kann. Und genau an diesen Stellen macht es wenig Sinn KI-Systeme zu verwenden, weil sie genau diese Abwägung nicht an unserer Stelle treffen können.

Schlien Gollmitzer: Wie verändert denn da die KI, aus ihrer Sicht, das Problem von Fake-News und Desinformationen? Geht es dann nur um mehr Inhalte oder, sie haben ja auch schon gesagt, personalisierte Inhalte sozusagen also noch gezieltere Desinformationen und Beeinflussungen?

Schlien Gollmitzer: Wie verändert denn da in die KI aus ihrer Sicht das Problem von Fake News und Desinformationen? Geht es da nur um mehr Inhalte oder, Sie haben ja auch schon gesagt, personalisierte Inhalte sozusagen, also noch gezieltere Desinformationen und Beeinflussungen?

Katharina Zweig: Ich glaube, das Grundproblem ist einfach, dass wir alle nur 24 Stunden am Tag Zeit haben und Dinge nicht beliebig hinterher recherchieren können. Und was an Verschwörungstheorien und Fake Videos ja schon immer so war, dass meistens irgendein Körnchen Wahrheit ist, das heißt, selbst wenn man dem hinterher recherchiert, wird irgendwas richtig sein und irgendwas wird grandios falsch sein. Und wir können das nicht leisten.

Schlien Gollmitzer: Was wird genau schwieriger durch Fake News?

Katharina Zweig: Für mich persönlich ist einfach die gesamte Internetnutzung dadurch wesentlich unattraktiver geworden, die ich ja vorher sehr genossen habe, dass ich eben von verschiedenen Menschen verschiedene Blickwinkel mir ansehen konnte. Das Hauptproblem ist, dass wir Menschen nicht schlauer geworden sind, darin Fake von Nicht-Fake zu unterscheiden. Und wir einfach noch nicht die Infrastruktur haben, um rauszubekommen, wem kann ich vertrauen.

Ich möchte das doch schon noch mal mit dem Buchdruck vergleichen. Als der Buchdruck aufkam, gab es auch sehr viele Leute, die sensationsheischende, heute würde man sagen Newsletter, drucken ließen. Und dann hat sich das Verlagswesen entwickelt, das dann aber wiederum eine Gatekeeping-Funktion hat.

Das heißt, nicht jeder kriegt dann die Möglichkeit, auf die Druckereien und die Vertriebsregel zuzugreifen. Und im Moment sind wir wieder in der Situation, wo einige wenige Leute mit wenigen Klicks tausende Millionen von Menschen erreichen können. Und wir die notwendigen qualitätssicherenden Gatekeeper noch nicht wieder eingeführt haben.

Und vielleicht können wir das eben auch neu denken. Vielleicht brauchen wir nicht die Gatekeeper, sondern eben so eine digitale Infrastruktur, die verschiedene Formen von Signaturen zulässt, in denen Menschen ein bisschen etwas über sich preisgeben können, sodass andere Menschen einigermaßen beurteilen können, ist das jetzt etwas, dem ich eher folgen will oder nicht. Also ich finde, wir sind da nicht kreativ genug und wir sind nicht schnell genug, darüber nachzudenken, wie wir diese riesengroße Krise jetzt wirklich in den Griff bekommen.

Schlien Gollmitzer: Wir hatten es vorhin schon mit den Sprachassistenten, mit dieser Form von KI-Modellen. Sie haben schon häufiger beschrieben, dass Menschen schon sehr einfachen Chatbots oder eben auch diesen Sprachassistenten erstaunlich viel anvertrauen und dass eben moderne KI diese Wirkung noch verstärkt. Warum sind wir denn so zutraulich gegenüber Maschinen? Es gab doch auch mal eine Zeit, als wir so dieses „Uncanny Valley“ hatten, als wir so ein bisschen vorsichtig gegenüber Robotern waren.

Jetzt ist es nur eine Stimme oder nur ein Chatbot und plötzlich sind wir so zutraulich geworden.

Katharina Zweig: Aber es ist ja auch erstaunlich, wie gut die Texte sich anhören, wenn man nicht so ganz genau hinhört, wie gut die geschrieben sind, die Wortwahl. Also ich war schon sehr erstaunt, als so im November 2022 ich das erste Mal Kontakt hatte.

Und dann merkt man aber irgendwann, huch, die Maschine kann nicht multiplizieren, die weiß nicht, wie viele „r“ in einem Wort sind. Dann habe ich drei Jahre dazu recherchiert. Auf der einen Seite versucht, die Technologie wirklich zu verstehen und auf der anderen Seite mich aber auch mit psychologischen Konzepten befasst.

Und eines davon ist die sogenannte „Theory of Mind“. Also in dem Moment, wo wir jetzt beide miteinander sprechen, hören wir einander die ganze Zeit zu, versuchen mitzudenken, was meint die andere Person jetzt, versuchen vorherzusagen, was sie als nächstes sagen wird. Und dieses sich hineinversetzen in den Gesprächspartner, das hat natürlich in der Evolution dafür gesorgt, dass wir besser miteinander kooperieren können.

Überhaupt die Erfindung der Sprache dient der Kooperation und der Koordination. Und das heißt, da wir ja nie Wesen begegnet sind, die Sprache zwar sehr kunstvoll verwenden, aber keinen Intellekt haben, gehen wir implizit immer davon aus, wenn etwas mit mir spricht, dann ist es eine Person, die hat eine Intention. Und es ist gut, wenn ich versuche rauszukriegen, was die Intention dieser Person ist.

Und diese „Theory of Mind“, die wenden wir jetzt natürlich auch auf computergenerierte Texte an. Das heißt, wir füllen deren Lücken mit unserer eigenen Intelligenz, mit unserer eigenen Interpretation und vertrauen den Biestern daher. Und nachdem ich wirklich jetzt drei Jahre mich nur mit diesem Thema beschäftigt habe, war ich bei Markus Lanz in der Sendung. Sascha Lobow war da und der hat mit seinem „Chatty“, mit seiner Chat-GPT-App gesprochen. Das habe ich vorher tatsächlich noch nie gemacht. Ich habe immer nur geschrieben und dadurch, dass man dann tippt und die Maschine tippt zurück, ist der Abstand eigentlich ganz gut.

Aber ich habe zum ersten Mal dann gehört, wie gut die Sprachausgabe war. Und dann ist da auch ein leichtes, kokettes Lachen dabei. Und ich war schon wieder so wie November 2022 und musste mich ganz explizit davon abhalten, zu glauben, dass da jetzt etwas auf der anderen Seite ist.

Das heißt, noch so viel Wissen, noch so viel Ausbildung und Einsicht in die Technologie kann nicht beschützen davor, dass wenn Sprache so kunstvoll ans Ohr gebracht wird, dass man glaubt, dass da etwas sei. Und deswegen tippe ich nur mit der Maschine. Ich rede auch immer nur von der Maschine, dem Computer, der Software, dem System.

Ich sage nie die KI. Ich versuche sie nie zu personalisieren. Ich versuche auch keine Verben zu verwenden, die anthropomorphisierend sind, also die irgendwie suggerieren, dass da auf der anderen Seite ein Mensch sei.

Schlien Gollmitzer: Das ist ganz interessant, weil Sie gerade von der Lanz-Sendung sprechen. Sie warnen ja auch in Talkshows und Interviews immer wieder davor, dass KI-Stimmen und Chatbots eben so eine Art falschen Freund vorspiegeln können. Was ist denn so aus Ihrer Sicht dann das Gefährliche an solchen parasozialen Beziehungen zu KI-Systemen? Und wo sehen Sie denn da so konkrete Risiken, wenn beispielsweise einsame oder verletzliche Menschen sehr enge Beziehungen zu Chatbots oder solchen KI-Assistenten aufbauen?

Katharina Zweig: Die Chatbots bekommen ja Anweisungen von den jeweiligen Firmen.

Das heißt, sie selber schreiben einen Prompt. Aber an diesem Prompt, den sie selber geschrieben haben, wird immer noch ein sogenannter Systemprompt angehängt. Und da können zum Beispiel solche Sachen stehen wie „Sei immer nett und freundlich“, „Sag erst mal etwas Positives“.

Die Maschine versteht diese Anweisungen nicht im menschlichen Sinne, aber sie assoziiert dann Texte, die als freundlich gelten. Und was wir im Moment ganz viel sehen, ist, dass die Maschine eher schmeichlerisch ist.

Warum? Na ja, es gefällt uns schon gut, dass wenn wir was sagen und unser vermeintliches Gegenüber uns lobt, wie klug das ist, was wir gerade gesagt haben und wie außergewöhnlich die Frage ist, die wir gerade aufgeworfen haben. Das gefällt uns ganz gut, wir interagieren dann länger mit den Maschinen.

Und das führt dazu, dass wir uns auch mit dieser Maschine verbunden fühlen. Ich bekomme relativ viele E-Mails, wo jemand mit seiner KI, die dann auch oft einen Namen hat, gesprochen hat und mir dann die Texte zeigt, damit ich erkenne, dass doch diese Maschine jetzt Bewusstsein hat. Und ganz oft liegt das eben daran, dass die Texte so sehr freundlich und bekräftigend sind.

Ach, lieber Hans-Günter Edmund, so prägnant wie du sagt das sonst keiner. Und daran soll ich jetzt erkennen, dass die Maschine klug ist. Und das ist ja alles noch ganz lustig, wenn jemand nicht in mentalen Problemen ist.

Aber wenn eine Maschine einen ständig bestärkt. Wir wissen ja, dass es Gruppen von Menschen gibt, die sowieso schon Hass haben gegen andere Gruppen. Und das wird die Maschine in den ersten 100 Sätzen nicht bestätigen, weil eben in dem Systemprompt steht, gib keine Hasskommentare ab, beschimpfe keine Personengruppen oder ähnliches.

Aber je länger dieser Dialog mit dem Menschen und der Maschine ist, desto größer wird dieser Anteil des Gespräches und desto kleiner wird der Anteil dieses sogenannten Systemprompts, den die Maschine ja sowieso nicht versteht, sondern nur assoziativ mitbearbeitet. Und irgendwann dreht sich das dann um. Und wir haben jetzt ja ein paar Gerichtsfälle vorliegen.

Ein junger Mann, der sich leider umgebracht hat, nachdem er seine Gedanken rund um Selbstmord mit der Maschine geteilt hat. Und zu Beginn scheint die Maschine noch geantwortet zu haben, such dir Hilfe. Und irgendwann hat sie gesagt, sprich mit niemandem darüber, nur mit mir. Ich helfe dir, Alkohol zu finden. Ich schreibe dir den Abschiedsbrief. Und das macht mir tatsächlich große Sorgen.

Denn wir haben alle schon mal nachts um drei weinend oder verzweifelt irgendwo gelegen und uns gefragt, wen könnte man jetzt anrufen. Und die Maschine ist halt immer da.

Schlien Gollmitzer: Brauchen wir denn da aus Ihrer Sicht klare rote Linien, zum Beispiel keine KI, die explizit als Freund oder Therapeutin oder Partnerin vermarktet wird? Oder würden Sie da eher so auf Medienkompetenz und Aufklärung setzen?

Katharina Zweig: Also ich fand das für mich noch mal sehr augenöffnend, dass ich mich jetzt so lange mit der Technologie beschäftigt habe.

Und dann antwortet Sascha Lobos „Chatty“ mit einer freundlichen Frauenstimme und sofort sind alle meine Abwehrzäune runter. Also ich glaube nicht, dass man das mit Medienkompetenz beheben kann. Ich glaube ganz sicher, dass KI-Systeme nicht als Freunde und oder Therapeuten vermarktet werden sollten.

Natürlich ist das naiv. Wir sehen jetzt, dass Open AI genau den anderen Weg einschlägt. Ich kriege den Slogan nicht mehr ganz zusammen. Aber so etwas wie Erwachsene muss man auch wie Erwachsene behandeln. Erotische Gespräche sollen da jetzt ermöglicht werden. Das macht mir als Frau große Sorgen.

Ich fürchte, dass das auf jeden Fall ein großer regulatorischer Angang wäre. Und auf der anderen Seite würde das eben für zuverlässigere Systeme sorgen. Wie kann man denn da gerade auch Jugendlichen vermitteln, dass KI zwar menschlich klingen kann, eben wie „Chatty“ beispielsweise von Sascha Lobo, aber eben keine Verantwortung, kein Gewissen und halt auch kein echtes Gegenüber ist oder hat? Also natürlich hoffe ich, dass mein neues Buch dazu beitragen kann.

Ich habe es genau aus diesem Grund geschrieben. Und wir werden, ich bin dem Verlag sehr, sehr dankbar dafür, ab jetzt werden wir die ersten 200 Seiten jeder Ausbildungsstätte kostenlos zur Verfügung stellen, um sicherzustellen, dass Lehrer und Lehrerinnen, Ausbilder und Ausbilderinnen wissen, wie die Technologie dahinter funktioniert und eben nicht weiter durch eigene Sprache zu diesem Mythos beitragen, dass da jetzt irgendwie was Intelligentes auf der anderen Seite ist.

Aber wie gesagt, ich glaube, dass die reine Kompetenzausbildung nur so und so weit trägt. Auf gar keinen Fall sollten in Schulen oder in Ausbildungsstätten Sprachmodelle verwendet werden, die dann auch noch eine Sprachausgabe haben. Ich glaube wirklich, dass das der Punkt ist, an dem wir den Unterschied nicht verstehen können, weil wir evolutionär niemals solchen Dingen begegnet sind, die scheinbar sprechen können, aber keine eigenen Intentionen haben.

Denn diese Technologie ist noch so neu, dass unklar ist, welche Gesetze wir jetzt brauchen, welche Regeln am besten sind. Ich hoffe, dass wir genügend Forschung haben, die auch interdisziplinär ist, um das rauszukriegen.

Schlien Gollmitzer: Wenn wir doch mal zur Kernfrage der Folge zurückkommen, wenn eine KI-gestützte Entscheidung nachweislich falsch oder unfair ist, wer sollte denn da aus Ihrer Sicht die Verantwortung tragen? Sind es die EntwicklerInnen, sind es Betreiber der Staat, sind es alle gemeinsam?

Katharina Zweig: Also wir würden es gerne immer am Ende beim Betreiber oder der Betreiberin verantworten. Und die kann natürlich ihre Verantwortung abgeben. Ich bin jetzt hier die Professorin. Ich sage meinen Mitarbeitern, ab jetzt müsst ihr die Bachelor- und Masterarbeiten nicht mehr durchlesen. Wir überlassen das einem Sprachmodell, die Benotung. Und dann kann ich mir natürlich vertraglich zusichern lassen von den Entwicklern der Plattform, dass sie diese und jene Tests durchgeführt haben und dass das alles ganz wunderbar geklappt hat.

Das heißt, ich bin dann nur noch verantwortlich für die Entscheidung, ist es gut genug, um es hier bei mir im Betrieb einzusetzen. Die Firma wäre dann dafür verantwortlich, ob die Daten gut genug waren, ob die Tests gut genug sind, die gemacht wurden. Und am Ende bleibt aber leider eine kleine Verantwortungslücke.

Denn das, was KI-Systeme durch maschinelles Lernen an Regeln lernen, das ist immer sehr stark abhängig von den Beispieldaten. Und niemand kann hundertprozentig nachvollziehen, warum ein maschinelles Lernsystem an einer bestimmten Stelle diese oder jene Entscheidung getroffen hat. Und diese fehlende Nachvollziehbarkeit, die führt für mich dazu, dass wir diese Maschinen nur dann einsetzen sollten, wenn es sich um faktische Entscheidungen handelt, die in irgendeiner Form nachgetestet werden können.

Und das muss dann auch regelmäßig passieren. So bei Noten von Seminaren und Masterarbeiten oder Bachelorarbeiten könnte man das im Prinzip machen. Aber das Nachtesten ist so teuer, dass es sich kaum lohnen wird, da dann eine Maschine einzusetzen.

Und bei anderen Sachen könnte es eben gar nicht nachtesten. Und an den Stellen sollte ein Betreiber sich nicht dafür entscheiden, ein KI-System einzusetzen. Deswegen also für uns Verantwortung immer zuerst beim Betreiber.

Und der kann sich auch absichern, indem er sich eben erklären lässt, wie das System entwickelt wurde. Ein Entwickler kann auch einen Teil der Verantwortung abnehmen, kann sich selber versichern für Fehlentscheidungen und ähnliches. Aber eine Verantwortungslücke wird immer bleiben, weil wir bei KI-Systemen eben nicht hundertprozentig nachvollziehen können, wie die zu ihren Entscheidungen kommen.

Schlien Gollmitzer: Zum Abschluss vielleicht noch, was ist denn so Ihre wichtigste Botschaft an unsere Hörerinnen und Hörer? Wie sollen sie denn auf KI schauen? Eher mit Skepsis, mit Neugier oder beides gleichzeitig?

Katharina Zweig: Ich glaube, ich würde es anders formulieren. Jeder muss sich damit beschäftigen. Die große Revolution wird jetzt wahrscheinlich nicht von den Sprachmodellen kommen, sondern von den ganzen vielen anderen KI-Systemen. Der Bilderkennung, der Spracherkennung, den Übersetzungen, Sprache zu Text, Text zu Sprache und natürlich auch die generativen KI-Systeme, also Bilderzeugung, Videoerzeugung. Es kann sich keiner mehr verstecken. Selbst die Leute, die schon aus dem Arbeitsverhältnis ausgeschieden sind, für die eigenen Kinder, für die Enkelkinder wird das eine Riesenrevolution sein.

Und wir brauchen das Erfahrungswissen von allen Generationen, um am besten zu verstehen, wie wir damit weiter fortfahren wollen. Und das heißt, ich rate Ihnen allen, experimentieren Sie. Stellen Sie fest, was Ihnen wichtig ist.

Stellen Sie fest, ob ein Prozess wirklich in diesen dünnen Taschen der Welt ist, in denen dünne Regeln, also die, die ein Computer durchführen kann, ob der da beheimatet ist. Oder ob es ein Prozess ist, der zwar anstrengend ist für Menschen, aber eben doch Urteilskraft verlangt. Und ich glaube, wenn man das macht, dann haben wir große Chancen, dass wir die Chancen der KI nutzen und den Gefahren so weit wie möglich entgehen.

Schlien Gollmitzer: Und ich kann noch mit hinzufügen, Ihre Bücher sind auf jeden Fall schon mal ein großer Hilfeanker in dieser Situation, in der man vielleicht nicht weiß, wie man sich verhalten soll oder was es denn noch so an Informationen gibt, die man mitbedenken sollte. Das ist doch auf jeden Fall was, was jeder für sich mitnehmen kann. Frau Zweig, ganz herzlichen Dank Ihnen für dieses sehr, sehr gute und ausführliche Interview.

Katharina Zweig: Sehr gerne, vielen Dank.

Hardy Röde: Ja, würde sagen, so habe ich noch nie jemand über KI reden hören. Wahnsinnig spannend.

Und wie viel Philosophie und Ethik da überall reinspielt, das habe ich so auch noch nie durchgedacht. Und natürlich auch die Psychologie, weil ja alles letztendlich daran liegt, wie wir als Nutzerinnen und Nutzer mit der KI umgehen und wofür wir sie benutzen.

Schlien Gollmitzer: Definitiv.Drei konkrete Punkte, die uns Frau Zweig jetzt mitgegeben hat im Umgang mit diesen Systemen, Hardy.

Hardy Röde: Also vor allem hängengeblieben ist, da habe ich so auch noch nie drüber nachgedacht, dass die Sprachausgabe, wenn wir uns also wirklich Frage, Antwort, Frage, Antwort mit einem System unterhalten können, dass das verführerisch ist, aber dass es halt seine Tücken hat, weil wir da ein falsches Vertrauen aufbauen und das System vermenschlichen und irgendwie als normales Gegenüber betrachten. Noch viel mehr, als wenn wir nur tippen, in Anführungszeichen.

Schlien Gollmitzer: Ja, weil die Stimmen natürlich auch einfach immer menschlicher klingen. Ich habe auch gesagt, die Stimmen sprechen jetzt mittlerweile schon, die bauen ähm ein zum Beispiel, also so ein kurzes Nachdenk-Päuschen beispielsweise. Und das ist natürlich sehr fatal.

Hardy Röde: Meine klingt wie so eine Privatradio-Moderatorin. Ich muss gestehen, ich benutze es manchmal beim Autofahren, aber ich merke, wie das Tippen auch aus anderen Gründen einfach die bessere Lösung ist.

Schlien Gollmitzer: Für mich Nummer zwei unserer Takeaways, die wir uns merken sollten, den Systemen keinen Namen geben.

Ich habe mir jetzt den Namen gemerkt, „Chatty“ von Sascha Lobo, aber auch diverse Frauennamen, die wir jetzt nicht nennen werden, liebe Hörerinnen und Hörer, damit bei euch jetzt nichts ausgelöst wird, nichts aktiviert wird zu Hause. Diese Frauennamen, generell Namen für diese Systeme machen uns unvorsichtig.

Hardy Röde: Also auf die Idee würde ich gar nicht kommen, einem System, was ich so zur Arbeit nutze, einen Namen zu geben.

Ich würde es ehrlich gesagt eher nur beschimpfen und immer so aus der Haut fahren, was das schon wieder für eine durchsichtige Argumentation ist und was hier für ein Unfug rein halluziniert wird.

Schlien Gollmitzer: Ja, aber siehst du, Hardy, genau da hast du es ja schon. Es löst eine Emotion bei dir aus.

Und genau das ist es ja, was wir vermeiden wollen. Wir wollen keine Emotionen gegenüber diesen Systemen entwickeln.

Hardy Röde: Naja, ich habe einen störrischen Computer auch schon mal physisch misshandelt, aber das führt jetzt vielleicht zu weit.

Schlien Gollmitzer: Und dann als dritten Takeaway, dritter Punkt, den ich mir gemerkt habe von Frau Professor Dr. Zweig, das war dieses anschauliche Beispiel mit dem Polizeithema. Kannst du dich erinnern aus dem Interview? Diese angebliche Ähnlichkeit nach dem Uhrendiebstahl zwischen Kamerabild und dem Führerscheinbild einer Person, die dann verhaftet wurde, weil ein KI-System irgendeine Form von Ähnlichkeit gefunden hatte. Sehr fatal.

Hardy Röde: Irgendwas ist immer ähnlich aus Sicht einer KI, die nun mal nach Ähnlichkeiten sucht als Aufgabe. Ja, ich sehe das als die Hauptaufgabe, dass wir uns überlegen müssen, als Nutzerinnen und Nutzer wiederum, wo es Bereiche gibt, wo wir sagen, da kann sie uns helfen. Da fällt mir vor allem ein, große Datenmengen nach Informationen zu durchsuchen, zu klastern, zu ordnen, zu strukturieren.

Dafür nutze ich es eigentlich relativ oft in meinem Arbeitsalltag. Und das ist aber ein Bereich, wo die einfach nichts verloren hat. Da brauchen wir vielleicht einfach noch feinere Antennen im Umgang mit dem ganzen System.

In welchem Bereich KI nichts verloren hat? Kurze persönliche Frage, hast du schon mal nach Krankheitssymptomen die KI gefragt?

Schlien Gollmitzer: Tatsächlich nicht. Da habe ich einen sehr guten Hausarzt, der mir hier weiterhelfen kann.

Hardy Röde: Ich würde es nämlich auch nicht tun, weil ich glaube, am Ende haben wir immer irgendwas Tödliches.

Schlien Gollmitzer: Das war schon bei Google keine gute Idee und das wird auch weiterhin keine gute Idee sein.

Hardy Röde: Das war unsere Folge 63 von Update verfügbar. Wichtige Informationen zum Umgang mit künstlicher Intelligenz bekommt ihr natürlich auch auf der Seite des BSI.

Den Link setzen wir euch wie immer in die Shownotes. Folgt uns bitte unbedingt auch auf Instagram, auf Mastodon, auf TikTok oder YouTube für mehr Infos zu allen sicherheitsrelevanten Fragen im Netz. Und abonniert unbedingt diesen Podcast, um keine neue Folge in diesem Jahr zu verpassen.

Ende Februar hören wir uns wieder. Wir sagen Tschau und bis zum nächsten Update.

Hardy Röde: Bis zum nächsten Update.