00:00:04: Um
00:00:04: KI-Skeptizismus geht es heute.
00:00:07: Um kritisches Denken im KI-Zeitalter.
00:00:10: Ist KI eine Gefahr für die Bildung und die Wissenschaft?
00:00:16: Ja, warum?
00:00:17: Forscher, nämlich inzwischen auch vor dem Einsatz von KI-Wahnen.
00:00:21: Das ist unser heutiges Thema.
00:00:22: Anlass ist ein Positionspapier von achtzehn Wissenschaftlerinnen und Wissenschaftlern, die meisten sind aus den Niederlanden.
00:00:30: Einige aus Dänemark, aus den USA und auch aus Deutschland.
00:00:33: Das Spannende ist, es sind allesamt Informatiker, Kognitionsforscher und im weitesten eben KI-Forscher, die da vor KI warnen.
00:00:45: Ja, genau.
00:00:46: Und das sind alles tatsächlich Leute, die wissen, wovon sie sprechen, also Leute aus dem KI-Feld selber.
00:00:52: Und das Papier heißt Against the Uncritical Adoption of AI Technologies in Academia.
00:00:59: Also auf Deutsch gegen die unkritische Einführung oder Verwendung von KI-Technologien im Wissenschaftsbetrieb.
00:01:06: Darüber sprechen wir heute beim FAZ Podcast Wissen.
00:01:09: Mein Name ist Peter Heller.
00:01:11: Und ich bin Joachim Müller Jung.
00:01:14: Und ich würde sagen, bevor wir jetzt in die Details gehen, uns genau das Papier angucken, sag ich jetzt schon mal vorab, was die grobe Linie dieses Papiers ist.
00:01:25: Die Autoren sehen durch den zunehmenden Einsatz von KI eben nicht nur die akademische Freiheit und wissenschaftliche Integrität gefährdet, sondern die sagen, dieser Einsatz von KI untergräbt die Bildung selbst.
00:01:38: Und sie fordern Hochschulen und Wissenschaftler auf.
00:01:40: Zitat.
00:01:42: Die sollen ihre Rolle ernst nehmen und dem Marketing, dem Hype und den Schäden der Technologieindustrie entgegentreten.
00:01:50: Ja, da steckt viel Präsanztrennen, wie man hört.
00:01:53: Und ich meine, der Podcast beziehungsweise dieses Paper, über das wir auch intensiv sprechen, kommt meiner Meinung nach ja auch zu einem wichtigen und richtigen Zeitpunkt.
00:02:03: Denn im Moment ist, glaube ich, allgemein so die Stimmung, wir bauen eine Beziehung zur KI auf, welche Art auch immer das ist.
00:02:12: Und manches sind der Meinung, die ist sehr konstruktiv, die ist sehr positiv.
00:02:16: Und andere meinen, das ist eine perverse Beziehung.
00:02:19: Und das wollen wir heute alles im Podcast aufdrösen.
00:02:22: Ja, genau.
00:02:23: Und ich will auch noch sagen, der zweite wichtige Punkt, warum wir darüber sprechen sollten.
00:02:28: Gut, es ist ein Wissenschaftspodcast und du hast schon gesagt, es sind Experten auf dem Feld selbst.
00:02:32: Es gibt dem Gewicht, aber das andere ist... Dieser Aufruf, der richtet sich zwar an den Wissenschaftsbetrieb, aber diese ganze Debatte, die dahintersteckt, die betrifft uns alle.
00:02:42: Ja, das geht um die großen gesellschaftlichen Herausforderungen mit KI.
00:02:46: Da geht es um das Verlernen wichtiger Fähigkeiten.
00:02:48: Da geht es um die Abhängigkeit von Konzernen und auch so ein bisschen die Manipulation durch fehlerhafte, durch verzerrte Informationen.
00:02:55: Das steckt da alles drin und das ist eben auch außerhalb der Wissenschaft wichtig.
00:02:58: Ja, aber ich glaube, wir sollten auch erst mal beim Wissenschaftsbetrieb bleiben, denn das ist das Thema heute.
00:03:03: Deshalb bleiben wir mal dabei.
00:03:05: Was war denn Piotre der Ausleser für dieses Paper?
00:03:09: Ja, also die große Antwort ist natürlich, dass wir gerade diesen KI-Hype erleben.
00:03:12: Es fing, ich würde mal sagen, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November, im November Und kam damit in Berührung.
00:03:33: Und das hinterlässt natürlich bei jedem einzelnen Spuren, der man sowas gechattet hat, aber auch im Wissenschaftsbetrieb.
00:03:40: Und jetzt habe ich mal mit Barbara Müller gesprochen.
00:03:43: Das ist eine der Autorinnen dieses Papers.
00:03:45: Sie ist Professorin für Verhaltens- und Kommunikationsforschung an der Radbaut-Universität Niemagen in den Niederlanden.
00:03:53: Und sie hält eben diese Entwicklung für bedenklich.
00:03:56: Das hat sie mir im Interview gesagt.
00:03:59: Dass sie einfach gemerkt haben, dass das jetzt auf Suna... Art sich in die Wissenschaft und nicht nur Wissenschaft, sondern auch allgemein in die Lehre, also auch in Schulen reindrückt, dass man jetzt überall KI-Technologie benutzen soll und dass wir dadurch effizienter werden und schneller werden und dass eigentlich gar nicht mehr darüber nachgedacht wird von dem Moment, warum wollen wir denn jetzt Unterricht geben und was wollen wir denn lernen und was wollen wir denn leeren?
00:04:23: Das war der Punkt, wo sie sich gedacht haben, Sie müssen dieses Paper schreiben.
00:04:27: KI drängt in die Lehre, in den Wissenschaftsbetrieb, verspricht Effizienz.
00:04:32: Aber wir sollten uns fragen, ist diese Effizienz überhaupt das richtige Ziel hier?
00:04:37: Ja, die überzogenen Versprechungen der KI-Industrie.
00:04:41: Aber bleiben wir doch erst mal dabei, welche Rolle KI heute tatsächlich in Wissenschaft und Lehre spielt.
00:04:49: Machen wir also eine Bestandsaufnahme.
00:04:51: Also fangen wir an zuerst mal bei den Schülern und Studenten.
00:04:56: Was weiß man darüber?
00:04:57: Wie und wofür Schüler und Studenten KIs benutzen?
00:05:01: Ja, wir können es ja mal auf Deutschland konzentrieren und da gibt es eine Handvoll von Erhebungen.
00:05:06: Bei Schülern fand ich zum Beispiel eine Studie ganz interessant.
00:05:08: Das war ein Forscher der Universität Erlang-Nürnberg.
00:05:11: Die haben Gymnasiastengebieten Aufsätze über die Nutzung von KI zu schreiben.
00:05:15: Es gab hundertvierzig Teilnehmer.
00:05:16: Das ist nicht repräsentativ.
00:05:17: Also, das waren Leute, die sich da praktisch gemeldet haben und freiwillig mitgemacht haben.
00:05:23: Aber die Ergebnisse sind doch ein ganz interessanter Einblick.
00:05:25: Also, die Schüler, die nutzen es tatsächlich zu mogeln.
00:05:29: Die Hälfte gibt an, dass es verboten ist.
00:05:31: Aber viele sagen auch, dass sie es eben dennoch verwenden, obwohl es verboten ist.
00:05:35: Das weitere Interessante ist, Jeder vierte hat gesagt, dass es bei Ihnen an der Schule unter Bedingungen erlaubt ist.
00:05:41: Also was heißt das?
00:05:42: Das wird bereits jetzt in den Unterricht integriert, in welcher Form auch immer.
00:05:47: Und die Frage war auch, warum Sie es nutzen?
00:05:50: Und da haben Sie gesagt, Information, Inspiration, Verbesserung und Direktheit.
00:05:56: Also das ist so ein wichtiger Punkt.
00:05:57: Die Nutzung ist praktisch um die Art, wie Sie Aufsätze schreiben, Informationen zu bekommen.
00:06:04: um das zu verbessern, aber auch praktisch um sofortige Verfügbarkeit dieser Information zu haben.
00:06:11: Du musst ja praktisch nur ChatGPT nach was fragen und du kriegst sofort eine Antwort.
00:06:15: Dann will ich auch noch erwähnen, dass es eine repräsentative Bitkom-Umfrage gab.
00:06:19: Da hat knapp ein Viertel der Schüler gesagt, dass die Hausaufgaben vornehmlich mit KI machen.
00:06:24: Und wenn wir jetzt mal zu den Studenten kommen.
00:06:26: Das ist eine Umfrage von im Jahr- und-Zwanzig, also da würde ich sagen, da muss man bei allem noch ein bisschen was drauf rechnen.
00:06:33: Aber da sagt damals rund zwei Drittel sagten, dass sie es nutzen.
00:06:38: Wie gesagt, heute sind es bestimmt mehr.
00:06:40: Und das Interessante ist, da wurde auch gefragt, wofür die es nutzen.
00:06:43: Und die häufigste Antwort über fünfzig Prozent war zur Klärung von Verständnisverragen und zur Erläuterung fachspezifischer Konzepte.
00:06:52: dann zur Recherche und Literatursuche und als drittes zur Übersetzung.
00:06:56: Und da würde ich mir so ein bisschen deine Meinung interessieren.
00:06:58: Was hältst du eigentlich davon, dass von Studenten gerade KI verwendet wird, um sich Informationen zusammen... um sie praktisch verdaulich aufzubereiten und so dargestellt zu bekommen, dass der Einzelne sie diese Information versteht.
00:07:14: Ich glaube, das ist ja eine Fähigkeit, die Studenten, die auch braucht, den Schüler brauchen, Informationen zu sammeln, zu recherchieren, Wissen einzuordnen.
00:07:26: kann darin erstmal nicht schlechtes finden.
00:07:28: Ich finde dieses Deaskilling, also dieses gewissermaßen Verlernen von bestimmten Fähigkeiten und Kompetenzen, die man die Schüler brauchen und Studenten natürlich umso mehr, das kann ich... Darin erst mal gar nicht erkennen, also die Absichten finde ich erst mal ganz gut, aber die in dem Paper wird ja dann davon gesprochen, dass eben dadurch die Schüler und die Studenten auch in Fehler gelockt werden quasi, dass sie also bestimmte Fähigkeiten eben verlernen und an einem ja auch soziale Kompetenzen verlernen, weil sie das mit einer KI tun.
00:08:04: Also es hat Solche und solche Eigenschaften, dieses Ergebnis.
00:08:11: Aber ich glaube im Prinzip, die Absichten erst mal, finde ich nicht schlecht.
00:08:16: Die Absichten sind nicht schlecht.
00:08:17: Ich ergänze nochmal eine Sache, weil wir jetzt politisch über Schüler und Studenten gesprochen haben.
00:08:22: Ich sage nochmal kurz, was man so über den Wissenschaftsbetrieb an sich weiß, also nicht nur die Lehre.
00:08:28: Und da finde ich eben auch eine Studie ganz interessant.
00:08:30: Die hat eben gezeigt, dass in jeder siebten, mittlerweile in der siebten Biomedizinstudie, das kann man auf andere Fächer übertragen, wie man will, da muss man, kann man sich fragen, wie das da aussieht, aber in jeder siebten Biomedizinstudie ist es so, dass die mit Hilfe von KI verfasst wurde.
00:08:46: Da findet man ganz kleinen Abstract-Spuren.
00:08:49: die man sich eigentlich nur erklären kann, dass da ChatGPT oder andere Systeme das damit geschrieben haben, heimlich, weil es nicht offen gelegt wird.
00:08:58: Ich habe mit Wissenschaftlern gesprochen, im Zuge anderer Recherchen, die mir eben gesagt haben, dass die überschüttet werden mit Veröffentlichung, die offensichtlich KI geschrieben sind.
00:09:08: Ich kenne Wissenschaftler, die sagen, sie reichen was zum Peer-Review ein, also ihre eigene Arbeit, die sie selbst geschrieben haben, reichen sie ein und was zurückkommt, ist, eine offensichtlich mit KI bestellte Bewertung.
00:09:20: Und dann hat Judith Simon, auch im deutschen Ethikrat, Philosophin, hat hier in der FAZ mal gesagt, dass so ein praktisch vollständiger Zyklus der Sinnlosigkeit droht.
00:09:30: Also wir werden... ganz viele Veröffentlichungen haben, die keiner geschrieben hat, die wurden von KI geschrieben.
00:09:35: Und die liest am Ende auch keiner mehr, die werden einfach nur veröffentlicht.
00:09:39: Und das sieht dann gut aus in den Zahlen.
00:09:42: Also das ist der Wissenschaftsbetrieb die Gefahr, die da besteht.
00:09:44: Aber das lässt ja erkennen, dass der Wissenschaftsbetrieb an sich schon sehr stark mit dem Thema.
00:09:49: beschäftigt.
00:09:50: Also die Selbstreflexion im Wissenschaftsbetrieb ist ja da.
00:09:54: Auch die Studien, die Umfragen bei Schülern und Stündern, ich bin sicher auch im Unterricht, wird sowas inzwischen viel stärker reflektiert.
00:10:01: Also die Reflexion findet statt.
00:10:03: Deswegen müssen wir jetzt glaube ich mal auch auf dieses Positionspapier nochmal kommen.
00:10:07: Dieser Aufruf von diesen Wissenschaftlern und warum der nötig auch vielleicht ist, das kann man diskutieren.
00:10:15: Aber wir sollten mal über die Inhalte auch dieses Positionspapier jetzt mal sprechen.
00:10:19: Also gut, dann kommen wir erst mal zu dem Aspekt der Bildung.
00:10:22: Du hast gesagt, dieses Threeskilling findet eventuell, also du weißt nicht, ob das stattfindet, die Absichten sind gut, praktisch Informationen besser aufbereitet zu bekommen und so weiter.
00:10:33: Die Barbara Müller hat mir folgendes erzählt, das ist praktisch eine Beobachtung aus dem Alltag von jemandem, der Arbeiten von Studenten bewerten
00:10:42: muss.
00:10:43: Ich sehe auf jeden Fall in den Texten, wie ich das beurteile, das ist dann so... kramatikalisch richtige Sätze, die eigentlich aber nichts sagen, die leer sind.
00:10:51: Und dass man da halt auf jeden Fall mit Studenten eigentlich mehr schreiben muss und ihnen auch eben beibringen muss, ist es normal.
00:10:58: zu sitzen und nichts rauszubekommen und diese zwei Sätze zu schreiben für fünf Stunden und am nächsten Tag löscht man sie wieder, weil man nicht mehr happy damit ist.
00:11:06: Das ist halt schreiben.
00:11:07: Ja, das ist halt schreiben, aber und ich meine, wer wird's besser wissen als wir beide?
00:11:12: Schreiben ist schwierig, nur dadurch, dass man praktisch jetzt diese KI-Hilfe hat, dass man innerhalb von zwei Sekunden einen fertigen Text präsentiert bekommt, entsteht praktisch so ein Druck und auch so eine Erwartung an die Studenten, auch... praktisch supereffizient zu funktionieren.
00:11:28: Und das ist die Gefahr, weil sie dann eben darauf verzichten, selbst schreiben zu lernen, sich dieser Mühe aussetzen und praktisch im Zweifel eben eher zu ChatGPT greifen und sich was formulieren lassen und dadurch verlernen sie praktisch oder lernen das schreiben nicht.
00:11:41: Das ist die Gefahr, weil sie eben die Einfachheit aufsetzen.
00:11:46: Ja, einerseits ja natürlich, das ist die Einfachheit, andererseits muss man natürlich auch zugestehen.
00:11:54: dass wenn die KI diese Qualitäten mitbringt, die man von ihr fordert und die man vielleicht auch erwarten kann.
00:12:01: Man muss ja immer sagen, wir stehen ja am Anfang dieser Entwicklung, dann kann man ja auch behaupten, naja, wenn es diese Fähigkeiten eben gibt innerhalb dieses KI-Universums und... das Sammeln von Informationen durch die KI abgenommen wird und vielleicht noch viel systematischer, viel analytischer, ja dann brauchen wir doch in Zukunft die Sprachmodelle unbedingt, um besser zu werden, um Fortschritt zu erzeugen.
00:12:26: Ja und dann brauchen wir im Grunde auch diese Fähigkeiten nicht, die sie übernehmen, weil sie es praktisch können.
00:12:31: Ja gut, das ist... Das ist ein Argument, um zu sagen praktisch, ja, das ist nicht so schlimm, was da passiert, selbst wenn wir davon ausgehen, dass das Studenten eine gewisse Fähigkeit, das Schüler, dass wir gewisse Fähigkeiten verlernen.
00:12:45: Aber das ist unter der Prämisse, dass die KI gut funktioniert, dass sie so funktionieren wie sie soll.
00:12:49: Das wissen wir nicht.
00:12:51: Es gibt aber auch noch eine Gefahr, selbst wenn alles funktioniert, wie es sollte.
00:12:55: Hören wir noch mal Barbara Müller.
00:12:56: Im
00:12:56: Moment, dass wir nicht mehr lesen können, nicht mehr denken können, nicht mehr Informationen suchen können, sind wir abhängig von diesen Systemen.
00:13:03: Und in dem Moment, in dem die Systeme in falsche Hände geraten oder nicht mehr funktionieren.
00:13:08: haben wir ein Problem, weil dann können wir es nicht mehr.
00:13:10: Genau, wenn die Systeme in falscher Hände geraten und man könnte eigentlich soweit gehen, zu sagen, dass sie schon in falschen Händen sind.
00:13:16: Also das große Sprachmodell von Elon Musk, Grog, das ist in seinen Händen und es gibt eine New York Times Recherche, die gezeigt hat, das wird praktisch von Hand darauf getrimmt, ein bisschen konservativer zu sein.
00:13:29: Und tatsächlich ist es so, dass Sprachmodelle keine neutralen Informationsbeschaffer sind, sondern im Kern politisch.
00:13:36: Weil die geben dir eine Antwort.
00:13:37: Die sind gefärbt von der politischen Überzeugung der Leute, die sie trainieren, die sie entwickeln.
00:13:45: Was weiß ich?
00:13:45: Und die können das einstellen.
00:13:46: Bei Elon Musk haben wir es gesehen.
00:13:48: Wir haben bei Google, haben wir zum Beispiel auch den Fall, dass jetzt der Golf von Mexiko plötzlich Golf von Amerika heißt.
00:13:57: Das sind Sachen, die ... einfach so von Launen abhängen, von Tech-Konzernen und letztendlich von Politikern.
00:14:06: Und hinzukommt, dass wir noch, das sind praktisch gewollte Verzerrungen von den Machern der Systeme.
00:14:12: Wir haben noch ungewollte Verzerrungen, die zum Beispiel durch Halluzinationen reinkommen, dadurch, dass die Systeme auf viele Fragen faktisch falsche Antworten geben.
00:14:20: Also das ist letztendlich, diese Systeme sind das, wo wir praktisch unsere Fähigkeiten outsourcen wollen.
00:14:26: Und da sind die ganz... kritisch die die Autoren des Papers.
00:14:30: Ja, das steht für mich sogar im Mittelpunkt.
00:14:32: Ich meine, ich habe das Paper so wahrgenommen, dass es eigentlich keine Analyse ist, keine wissenschaftliche Analyse, sondern es ist eigentlich, man könnte fast sagen ein aktivistisches Paper.
00:14:43: Es ist ja ein Aufruf im Prinzip.
00:14:45: Da steckt er dahinter und die Analyse, die dazu kommt, die geht sehr viel auf genau diesen Punkt ein.
00:14:52: Also wir fallen als Akademik, als Akademik, als Intellektuelle, als denkende Menschen überhaupt, fallen auf Marketingfrasen rein und die neuen Geschäftsmodelle.
00:15:04: Und da tauchen ja auch so Begriffe auf wie Faschismus, also dieser Techno-Faschismus.
00:15:10: Der taucht da auch als Begriff im Prinzip auf.
00:15:13: Es wird immer wieder, werden Vergleiche angestellt, zu dem Agieren von Tapperkonzernen.
00:15:20: Also das Verführen.
00:15:22: das verführen durch mächtige Akteure in dieses neue Universum, das verführen KI zu nutzen, mit allen möglichen Mitteln und zwar unlauteren Mitteln.
00:15:34: Ansicht dieser Wissenschaftler, das führen sie auch sehr detailliert aus.
00:15:39: Finde ich sehr interessant auch die Beispiele, die da immer wieder gebracht werden.
00:15:43: Ja, es ist tatsächlich so.
00:15:45: Der Tabak-Vergleich, der ist insofern interessant, weil die damit praktisch einen Gegenargument ausheben gegen ihre Positionen.
00:15:51: Das Gegenargument könnte ja sein, ja gut, wir bewegen uns auf eine Welt zu, in der es eben diese KI-Technologien geben wird.
00:15:59: müssten wir dann nicht gerade diese KI-Technologien in die Schule, in die Universität bringen, um die jungen Menschen praktisch darauf vorzubereiten?
00:16:05: und deren Gegenargument ist, ja, gut, könnte sein, aber wir müssen die nicht benutzen lassen, weil wir können auch die Gefahren von Tabak-Konsum, die Gefahren von Rauchen vermitteln, ohne dass wir den Schülern beibringen, selbst Zigaretten zu drehen.
00:16:18: Es ist natürlich ein sehr plakativer Vergleich.
00:16:20: Und es gibt viele dieser plakativen Vergleiche.
00:16:22: Ich finde, durch so eine Extremposition machen sich die Wissenschaftler auch so ein bisschen angreifbar, weil sie wirklich eine sehr extreme Position einnehmen.
00:16:32: Aber gut, im Kern geht das Argument hier dann auch weiter.
00:16:35: Du hast das Techno-Faschistische angesprochen in die Richtung, dass sie sagen... Okay, nicht nur, dass praktisch die Fähigkeit zum Lesen abhanden kommt und die Fähigkeit, Informationen zu beschaffen.
00:16:46: Wenn man das mal zu Ende denkt, geht auch die Fähigkeit zu kritischem Denken abhanden, geht einem abhanden.
00:16:53: Und wenn das passiert, hat man eben auch keine, naja gut, ja, also kann man eben keine informierten Bürger haben, die kritisch was hinterfragen und den kann man dann im Endeffekt alles servieren.
00:17:05: Auch wiederum... KI-Lügen, hallucinierende Chatbots usw.
00:17:12: oder Sachen, die politisch gefärbt sind, das merkt man dann letztendlich nicht mehr.
00:17:16: Und gerade da wäre es aber wichtig, wenn wir in einer Welt voller KI-Systeme leben, dass man da kritisch das hinterfragen kann.
00:17:22: Ja, das ist der Begriff KI.
00:17:25: Kompetenz taucht dann irgendwann auf.
00:17:27: Und das erinnert mich natürlich an die Diskussion der letzten Jahre, was um digitale Kompetenz, um Medienkompetenz stärken.
00:17:35: Also wenn man in einem Medizinerkongress war, dann hat die Gesundheitsministerin in ihrem Vortrag von digitaler Kompetenz gesprochen und auch von Medienkompetenz, die Wissenschaftler sich aneignen müssen, die sie verbessern müssen, weil die Welt sich nämlich ändert.
00:17:50: Und das ist natürlich, das ist auch ein gutes Argument.
00:17:54: für kritisches Denken, das finde ich auch sehr überzeugend, daran kann man ja auch nicht rumäkeln.
00:18:00: Der Punkt ist natürlich die Empirie, die sie auch bringen, nämlich die Warngefahren.
00:18:09: Diese gefühlte Bedrohung, die in vielem, was da geschrieben wird, zum Ausdruck kommt, wird Im Prinzip untermauert durch bestimmte Empirien, du hast ja auch schon angedeutet, die Betrügereien, die Plagiate, der Begriff automatisierte Plagiate kommt dann auch vor.
00:18:24: Also es wird automatisiert.
00:18:26: Das ist überhaupt der große Schritt denn ja, die KI schaffen kann, Effizienzsteigerung durch Automatisierung.
00:18:32: Deswegen sollen ja Jobs überflüssig werden oder sollen Jobs... ersetzt werden oder sollen die Menschen in den Jobs effizienter werden, weil sie automatisiert werden.
00:18:43: Also und diese Automatisierung, die betrifft dann eben auch die negativen Seiten, nämlich eben auch Plagiate, auch Schwindeleien, auch natürlich Die schwindenden Schreibkompetenzen bei Schülern, bei Studenten, die also nicht mehr selbst schreiben und dann eben nicht mehr formulieren können.
00:19:02: Das, was die Wissenschaftlerin Frau Müller ja gesagt hat, im Prinzip auch diese Schreibkompetenzen quasi verlieren.
00:19:09: Ja, genau.
00:19:10: Und die schreiben ganz explizit, dass das Schreiben praktisch die Grundlage ist für kritisches Denken, weil man eben dadurch erst lernt sich gewisse Gedanken zu sortieren und so weiter.
00:19:20: Also das ist tatsächlich ein Problem, was sie da beschreiben.
00:19:24: Und die gehen sogar noch weiter mit diesem Plagiatzbegriff.
00:19:27: Das Argument ist ja nicht nur, dass du automatisch Plagiate erstellst, sondern dass diese Technologie per se eine Plagiatztechnologie ist.
00:19:36: In gewissem Sinne, weil sie ja mit... dem Internet, praktisch mit allen Veröffentlichungen, die man hat gelernt hat.
00:19:42: Und die Ergebnisse im Grunde so eine Art Plagiat sind von dem, was man da hat.
00:19:47: Also das wurde ja mit Artikeln, mit Studien und so weiter, wurde das gefüttert.
00:19:53: Die Urheber wurden da nicht wirklich entlohnt und so was.
00:19:55: Das ist eine gewisse Ausnutzung davon.
00:19:57: Ja, und deswegen haben die Wissenschaftler ein Konzept entwickelt, fünf Prinzipien, die sie in Spiel bringen, die wichtig sind, die natürlich, wenn man sie liest, du kannst vielleicht mal kurz darauf eingehen, weil du es natürlich genauer dir angeguckt hast, aber die mich natürlich ein bisschen auch in ihrer... allgemeinheit in ihrer abstraktion natürlich auch ein bisschen verstören.
00:20:20: in dem in dem punkt weil weil da geht es ein bisschen weg vom konkreten und von der gefahr von dem alarmismus den sie vermitteln wollen hin zu etwas ja konstruktiverem aber eben auch sehr viel abstraktam.
00:20:31: das können viele menschen ja gar nicht nachvollziehen.
00:20:34: ja genau das ist ich sage jetzt einfach mal die fünf prinzipien.
00:20:36: also das sind jetzt nicht prinzipien die sie sich ausgedacht haben sondern das ist der niederländische verhaltenskodex für wissenschaftliche integrität.
00:20:44: es gibt ganz viele von diesen Codeizisten.
00:20:46: Das ist jetzt praktisch einer und der hat halt diese fünf Prinzipien und die haben sie mal auf KI angewendet.
00:20:51: Und ich gehe jetzt einfach mal durch.
00:20:52: Da gibt es einmal Ehrlichkeit.
00:20:54: Also man sollte KI nicht heimlich verwenden.
00:20:57: Was schon mal nicht zutrifft, wenn wir uns die jede siebte Biomedizinstudie angucken, wo KI heimlich verwendet wurde.
00:21:04: Wir haben Gewissenhaftigkeit.
00:21:05: Nur KI verwenden deren Funktionalität gut beschrieben und validiert ist.
00:21:10: Jetzt kann man sich fragen, ist das bei Sprachmodellen, ist das so?
00:21:13: Ist die Funktionalität gut beschrieben?
00:21:16: Ich würde sagen nicht, wir wissen nicht wirklich, was dahinter steckt.
00:21:20: Es ist nicht mal die Macher dieser Systeme, können das mit absoluter Sicherheit sagen.
00:21:25: Was da genau automatisiert wird, ist nicht klar.
00:21:27: Also bei Sprachmodellen wäre ich da sehr skeptisch.
00:21:30: Transparenz, die KI-Technologie soll offen sein und ihre Ergebnisse reproduzierbar.
00:21:36: wenn ich ChatGPT von OpenAI benutze, ist da gar nichts offen.
00:21:40: Das muss man einfach so sagen, das ist ein geschlossener Algorithmen.
00:21:43: Unabhängigkeit von den Zielen der KI-Industrie, auch problematisch, würde ich sagen, weil wir uns, wie wir schon gesagt haben, diesen politisch gefärbten Systeme.
00:21:53: Also es war Unabhängigkeit.
00:21:54: und das letzte, die fünfte Punkt ist Verantwortung für die Folgen des Einsatzes von KI.
00:22:00: Da geht das um solche Dinge wie zum Beispiel die Umweltfolgen, ja, also hoher Energieverbrauch, hoher Wasserkonsum.
00:22:07: So, und jetzt, wie kriegt man das jetzt mal konkret?
00:22:09: Ja, diese fünf Prinzipien, wer die sagen, dass wenn wir uns die Sprachmodelle angucken.
00:22:14: Das habe ich jetzt auch gerade durchdekliniert.
00:22:16: Sind diese fünf Prinzipien eigentlich nicht vereinbar mit diesen Prinzipien?
00:22:20: Aber sie sagen auch und das muss man ihnen lassen.
00:22:24: Das es ja so Dinge gibt wie a narrow AI also nicht broad AI im Sinne von von breiter Anwendung wie ched gpt was ja praktisch auf jede frage antwortet sondern die die ganz enge AI mit einem mit einem ganz klaren ziel.
00:22:36: ich sage mal zum beispiel eine bilderkennung die auf bildern von teleskopen jetzt erkennt ist das eine spiral galaxy oder nicht und und schon mal vorsortiert da können alle diese punkte man kann angeben dass man das benutzt man kann das die die Funktionalität ist validiert dass man kann das ist ganz barren man kann selber programmieren und so weiter.
00:22:54: Also so eine KI ist schon okay.
00:22:57: Die wenden sich praktisch gegen diese ja alles umfassenden Sprachmodelle, wo sie sagen, das ist mit diesen fünf Prinzipien nicht vereinbar.
00:23:06: Ja, und man muss natürlich auch nach dem Realismus und nach der Verbindlichkeit dieser fünf Prinzipien fragen, denn das ist natürlich entscheidend.
00:23:15: Die Wissenschaftler machen ja in ihrem Paper keine Prognosen.
00:23:19: Sie sagen nicht, was wird die KI in Zukunft können?
00:23:23: Womit müssen wir rechnen?
00:23:24: Was ja immer wieder diskutiert wird und völlig zurecht diskutiert wird.
00:23:27: Wir müssen uns darüber Gedanken machen, wo führt das hin?
00:23:29: Wir wissen ja, Sprachmodelle gibt es erst seit drei Jahren im Prinzip.
00:23:33: So, und wo führt das hin?
00:23:35: Ich hätte erwartet, wenn ich ehrlich gesagt bin in diesem Paper, dass Sie sich darüber Gedanken machen, machen Sie aber nicht, weil Sie sich darauf tatsächlich versteifen.
00:23:46: die Sache zu demonisieren.
00:23:48: Ich sage jetzt mal überspitzt, demonisieren.
00:23:50: Das ist vielleicht etwas zu böse.
00:23:52: Aber es wird hier die KI demonisiert auf eine sehr konkrete, sehr zugespitzte Art.
00:23:57: Und das finde ich auch legitim, weil es die Diskussion um KI fördert.
00:24:02: Aber in dem Punkt, wo es eben konstruktiv ist, wo sie nach Lösungen suchen, wo sie überlegen, was kann man denn machen?
00:24:08: Wie können wir denn aus dem Weg gehen?
00:24:10: Der einzelne Satz, der mir dann am Ende besonders hängen geblieben ist, Lernen und Lehre lassen sich nicht automatisieren.
00:24:18: Ein schöner Satz.
00:24:19: Aber es ist natürlich genau darin liegt die große Chance auch, die viele sehen.
00:24:26: Und warum auch, und zwar nicht nur jetzt, weil sie indoktriniert werden von KI-Konzern, das wird man in der Tat, das werden wir alle täglich, auch durch Handynutzung und so weiter wissen wir.
00:24:36: Das muss man an anderer Stelle diskutieren.
00:24:38: Aber ich glaube, Die Verbindlichkeit zu erhöhen dieser heren Prinzipien, dieser heren fünf Prinzipien.
00:24:45: Das würde mich mal interessieren, wie hältst du das?
00:24:47: Hältst du es für realistisch, dass das umgesetzt wird?
00:24:51: Also praktisch, dass man, ja, was heißt umgesetzt wird?
00:24:54: So eine Art
00:24:54: Gebote entwickelt werden für die KI-Entwicklung?
00:24:57: Ja, gut.
00:24:58: Also, da muss man sich die einzelnen Punkte genauer angucken und picken uns jetzt einfach mal raus, dass man eben schülern und stränden ... Und das ist tatsächlich ein Wunsch, dass man ihn verbietet, KI zu verwenden.
00:25:13: Die Vergleichen ist mit Taschenrechnern, weil man die Grundrechenarten lernt, darf man ja auch nicht den Taschenrechner benutzen.
00:25:16: Und wenn man lesen und denken lernt, soll man eben keine KI verwenden dürfen.
00:25:21: Das Problem ist natürlich, die tun es jetzt schon alle.
00:25:25: Der Druck auf Lehrer und praktisch die Bildung ist natürlich auch sehr groß, da irgendwie mitzumachen.
00:25:32: Weil man sagt, klar, das wird die Welt sein, indem man es brauchen wird.
00:25:34: Und jetzt ist die Frage, kann man es schaffen, diese Entwicklung noch umzukehren.
00:25:39: Und ich glaube nicht.
00:25:42: Also ich glaube, das wird sehr schwer.
00:25:45: Ich glaube persönlich, man wird, und das ist auch so ein bisschen mein persönlicher Werdegang mit KI, ich versuche es zu verwenden für bestimmte Dinge und stoße dann auf Grenzen, wo ich sage, Okay, gut, das kannst du nicht.
00:25:56: Ja, als Recherche, Unterstützung zum Beispiel.
00:25:59: Und dann nehme ich praktisch wieder Abstand davon.
00:26:01: Ich glaube, das wird auch so gesellschaftlich passieren.
00:26:04: Man wird es verwenden, man wird sagen, okay, gut, wir haben gedacht, es könnte den, was weiß ich, Arzt wegautomatisieren, kann es doch nicht, weil wir entdecken, was der alles kann.
00:26:13: So, das ist das meine persönliche Meinung.
00:26:15: Die Wissenschaftler, also die Autoren, die das Paper sagen, Man kann sich sehr wohl abwenden von dieser Technologie.
00:26:22: Und wir haben auch Beispiele dafür.
00:26:24: Und dann nennen die drei Beispiele der acht Stunden Arbeitstag.
00:26:27: Das ist praktisch etwas, wir hatten eine Industrialisierung, technologischer Fortschritt.
00:26:32: Die Leute mussten praktisch immer länger arbeiten letztendlich.
00:26:35: Und man hat es aber durch die Arbeiterbewegung geschafft, das umzukehren.
00:26:38: Dann das Autoverbot in Amsterdam.
00:26:41: Also wir hatten einen technologischen Fortschritt, Schienen in die Richtung zu gehen, dass man mehr Autos hat und dass das Auto die Zukunft ist.
00:26:48: Aber Amsterdam hat es geschafft, das aus der Innenstadt zu verbannen, das Auto.
00:26:51: Und dann nennen die doch das FCKW-Verbot praktisch, also ein Kühlmittel.
00:26:55: Wir haben gesehen, dieses Kühlmittel hat schlechte Folgen und man hat es geschafft, das die Produktion zu verbieten.
00:27:03: Wobei ich sagen muss, alle... Diese drei Vergleiche hinten ein wenig.
00:27:08: Es geht praktisch um eine Substanz, es geht um eine Stadt, es geht um eine klare Forderung von der Arbeiterbewegung.
00:27:13: Und das ist hier alles bei KI, das ist so vielschichtig.
00:27:17: Das stecken so viele politische wirtschaftliche Interessen drin, dass man diese Abkehr nicht schaffen wird, meiner Meinung
00:27:23: nach.
00:27:24: Ja, das ist ja ganz evident bei diesem Paper, dass Es steckt eine politische Forderung drin, nämlich die politische Forderung.
00:27:31: Das ist ja deswegen diese Vergleiche zum FCKW-Verbot oder zum Autoverbot in Amsterdam, dass es machbar ist, dass wir müssen handeln.
00:27:39: Wir müssen ins Handeln kommen, wie das im politischen Jaguar ja heute oft heißt.
00:27:44: Wenn es darum geht, etwas konkret untersehen, eigentlich steckt ein politisches Statement drin.
00:27:49: Es wird aber nicht so ausformuliert.
00:27:51: Also was erhoffen sich dann die Wissenschaftler?
00:27:53: Genau, es steckt das politische Statement drin.
00:27:55: Gut, es ist auch gewissermaßen ausformuliert, wenn Sie auch sagen, Sie richten sich praktisch an den Einzelnen, an die Wissenschaftler und an die Universitäten und sagen, die sollen Ihrer Verantwortung gerecht werden.
00:28:05: Ja, klar.
00:28:06: Sie wollen aber noch was Zweites.
00:28:08: Ich würde sagen, es fühlt sich an wie das kleinere Ziel, aber es könnte auch ähnlich wichtig sein.
00:28:14: Hören wir nochmal Barbara Müller, was sie zu ihrem Ziel sagt.
00:28:18: Kollegen zu inspirieren und... Kollegen auch anzumutigen, um darüber nachzudenken von, hey, warum bist du Wissenschaftler geworden?
00:28:25: Aus meiner eigenen Erfahrung weiß ich, dass es ganz viele Leute gibt, die eigentlich gar nicht so diesem KI-Hype outspringen, die zum Beispiel noch immer in Lesung sagen, ich habe das noch nie benutzt, chapter, hab ich was verpasst, muss ich das jetzt?
00:28:36: Ich fühle mich unsicher, mein Chef sagt schon, ich soll und bla, den Leuten ein bisschen Mut besprechen und sagen, unsere Zukunft ist nicht vorgeschrieben.
00:28:44: Das ist Kratsch.
00:28:45: Ja, klingt vielleicht ein bisschen cheesy, aber wir sind halt die Veränderung, die wir gerne wollen.
00:28:51: Ja, und ich finde, das ist ein wichtiger Punkt, weil, wenn man sich diesen KI-Hype anguckt, das ist tatsächlich, man hat das Gefühl, man müsste aufspringen.
00:28:59: Aber wenn man genauer hinschaut, gibt es tatsächlich Leute, die es einfach nicht wollen, die nicht mitmachen.
00:29:05: Und noch eine interessante Zahl aus dieser Witkom-Umfrage zu den Schülern.
00:29:11: Da haben über fünfzig Prozent gesagt, sie würden sich wünschen, dass das in der Schule verboten wäre, dass man das eben nicht nutzen darf.
00:29:19: Also ich finde, es gibt schon fast eine Art kritische Masse, die sich gegen diese technologische Entwicklung stemmen möchte und die, ich glaube, das haben die Autoren erkannt.
00:29:32: dieses Papers und die wollen, dass praktisch, ja, so eine Art Gefühl geben, ja Leute, ihr seid nicht allein.
00:29:40: So lese ich das und so höre ich das, wenn ich mir diese Motivation angucke.
00:29:45: Ja, das glaube ich auch in der Tat.
00:29:47: Das ist ein wichtiger Punkt, dass man ist vielleicht auch das Positive, das in diesem Paper auch steckt.
00:29:54: Nicht nur, dass es zum Nachdenken... über die Nutzung, über die eigene Nutzung auch von KI anspricht, sondern dass es eben auch wirklich so Handlungsoptionen quasi lässt.
00:30:06: Und zwar auch vielleicht die Option nicht auszusteigen, aber auch gewissermaßen... die KI mal nicht zu nutzen, auch wenn man sie nutzen könnte, es zu lassen und vielleicht den eigenen Verstand selber einzusetzen.
00:30:19: Also die Selbstermächtigung, die Selbstwirksamkeit, also Dinge, die natürlich für Akademiker, also für gebildete Menschen, auch für Schüler auch schon sehr nützlich sind.
00:30:30: Also weil sie es eigentlich auch wirklich brauchen, weil sie eigentlich existenziell sind.
00:30:34: Es sind ja existenzielle Fragen eigentlich, die hier angesprochen werden durch die Akademiker, nämlich existenzielle Fragen im akademischen Betrieb, auch in der Lehre.
00:30:42: Und deswegen glaube ich, ist diese Idee, die du jetzt gerade entwickelt hast, aufgrund dieser Umfragen, dass sich da etwas bewegt in diese Richtung, also mehr Abstand zu gewinnen, finde ich positiv, weil es auch gegen diese Art, der Begriff taucht auch auf in diesem Paper, gegen diese Art von Lobbyismus, geht, den wir Tag für Tag erleben.
00:31:04: Also wir werden lobbyiert als Konsumenten, als Verbraucher und als Nutzer.
00:31:11: von einer neuen, mächtigen Industrie und die dabei ist, eben wirklich Türen zu öffnen, die wir
00:31:22: ja
00:31:23: wirklich in den dreißigvierzig Jahren, in denen wir jetzt Computer nutzen und das Internet nutzen und Google nutzen und so weiter, gar nicht für möglich gehalten haben.
00:31:29: Nämlich wirklich quasi auch das Tor öffnen für ... naja, für ... Pseudointelligenzen, die auch Pseudo-Wissenschaft plötzlich betreiben und propagieren und salonfähig machen und auch die Leute damit überzeugen.
00:31:47: Also diese Manipulation, diese Manipulative, das eben auch in diesem ganzen, in dieser ganzen Entwicklung steckt, die, glaube ich, ist ganz gut erkannt worden und deswegen gefällt mir das und ich weiß nicht, wie es dir geht, aber ich glaube, wir sollten unsere Leser vielleicht in dem Fall ganz besonders nochmal tun wir immer, wenn es um digitale Themen geht, aber nochmal ermuntern auch diese Dinge gerne mit uns auch zu diskutieren.
00:32:12: Ja, genau, absolut.
00:32:13: Ich finde dein Punkt mit dieser Selbstermächtigung, der hat... Das ist eigentlich ein gutes Wort, weil das zeigt so zwei Seiten.
00:32:21: Also die Selbstermächtigung erstens mal zu sagen, ich möchte das nicht.
00:32:24: Ich mache diese Aufgabe jetzt alleine.
00:32:26: Ich übersetze diesen Text alleine oder ich schreibe diese E-Mail alleine und so weiter.
00:32:30: Das ist eine Selbstermächtigung praktisch im Kleinen, aber im Großen bedeutet das ja, dass man sich gerade diese Fähigkeiten, kritisches Denken, Informationen und so weiter, erhält in dieser Welt, die du skizziert hast, in dieser Welt von automatisierter, sondern automatisierter Propaganda.
00:32:47: absolute Wissenschaft und so weiter.
00:32:48: Ja, und auf jeden Fall würde ich gerne hören oder lesen, was unsere Hörer dazu zu sagen haben.
00:32:56: Man kann ganz leicht mit uns in Kontakt treten, und zwar am besten per E-Mail, an wissenschaftetfrz.de und da würde uns wirklich sehr interessieren, was Ihre Meinung dazu ist, welche Erfahrungen Sie gemacht haben und ob Sie auch schon auf manche KI-Hilfe Verzichten.
00:33:15: Und wenn Sie uns schreiben, dann schreiben Sie uns aber bitte selbst und nicht, lassen Sie es nicht, ChatGPTV vorschreiben.
00:33:20: Ja, wäre es natürlich auch witzig wäre, aber dann bitte transparent bitte bleiben.
00:33:25: Ja.
00:33:26: Das wäre die Voraussetzung.
00:33:27: Ja, und natürlich, wenn wir das alles, was wir jetzt besprochen haben, das dreht sich ja um ein bestimmtes Paper, das wir natürlich dann auch in Show Notes nochmal verlinken, da kann jeder das auch im Auto lesen und sich einen Urteil bilden.
00:33:42: Und ich würde sagen, an der Stelle sollten wir jetzt einfach mal neugierig sein, Piatra, und warten, was kommt.
00:33:50: Und in unserer nächsten Ausgabe können wir das eventuell auch auflösen.
00:33:55: Vielleicht in dem Fall besonders interessant, ob es da Stimmen dazu gibt.
00:33:59: Kritisches Denken und dazu unser heutiger Aufruf.
00:34:04: Und ich glaube, wir verabschieden uns und sagen bis zum nächsten Mal.
00:34:08: Tschüss.
00:34:08: Ja, bis dann.
00:34:09: Tschüss.