Kommentar zu „Falling in love with ChatGPT?“
Michael Siegel und Oliver Janoschka haben im HDF-Blog unlängst einen akzentuierten Beitrag zu ChatGPT veröffentlicht. „Falling in love with ChatGPT? Warum wir soziale Phänomene der Mensch-Maschine Interaktion und die Gestaltung von Hochschulen als innovative Lernorte und Blended Universities mit KI neu denken sollten.“ Sie stellen darin, am Beispiel von Interaktionsmöglichkeiten mit ChatGPT, ihre Sichtweise auf die Möglichkeiten der KI dar, die Hochschule hier und heute weiter zu entwickeln. Mit dem hier dokumentierten Kommentar habe ich den Faden aufgenommen und mit meinen Überlegungen weiter gesponnen. Der Beitrag weist IMHO in die falsche Richtung.
Vielen Dank für Eure Irritation!
Ich halte es thesenartig:
ChatGPT ist ein faszinierendes Tool und die Diskussionen, die es ausgelöst hat, sind wichtig und lehrreich. Es ist eine unglaublich interessante Zeit!
Ich habe aber den Eindruck, es herrscht Verwirrung zwischen Phänomenen, Ursachen und Lösungen. Wenn das Phänomen auftritt, das ein Gespräch mit einem Chatbot als angenehmer und attraktiver empfunden wird als mit einem Menschen, dann stellt sich mir doch eher die Frage, was das über die Qualität der Kommunikation von Ärzt*innen (oder ggf. Lehrenden) aussagt. Der Grund für das schlechte Abschneiden der Menschen könnte zum Beispiel eine effizienzorientierte, bürokratische Ausrichtung sein, anstelle einer an humanen Aspekten orientierten.
Der Chatbot macht also zunächst mal ein bestehendes Problem deutlich. Er mag dann auch Symptome lindern helfen, aber eben nicht die Ursachen angehen, lenkt vielleicht sogar davon ab. Die eigentliche Frage ist also, wieso sind Hochschulen nicht in der Lage, den „freien und gleichberechtigten“ Dialog zwischen Studierenden und Lehrenden zu gewährleisten? Was hindert daran?
Und natürlich: Technologie kann unter bestimmten Bedingungen dabei helfen, Chancengleichheit und Bildungsgerechtigkeit zu erhöhen. Aber diese Bedingungen sind komplex und können auch so sein, dass neue Ungerechtigkeiten entstehen und die alten stabilisiert werden. Wird es versäumt, das permanent im Blick zu behalten, ist dann nicht die Gefahr groß, dass die neuen Technologien nur die alten Ungleichheiten reproduzieren?
Zum Beispiel: Gerade die eingeforderte gerechte Zugänglichkeit der Werkzeuge und die notwendigen objektiven und subjektiven Ressourcen, um diese gut zu nutzen, werden absehbar NICHT realisiert werden können. Unter den Bedingungen der kommerziellen Verwertung der Nutzer*innendaten entstehen die armen „Free Plan“-Nutzerinnen und die priveligierte „Plus Plan“-Nutzer*innen. Die Versuchung wird daher groß sein, diese „Randbedingung“ wg. Alternativlosigkeit stillschweigend zu akzeptieren.
ChatGPT / AI konturiert die Problemlagen an den Hochschulen neu und schafft neue Möglichkeiten, die wir ja gerade ausloten. Aber die Diskussion ist, so meine ich, noch zu wenig mit den benannten Problemlagen verbunden und es ist m.E. daher zu schnell gedacht, das diese Tools dafür Lösungen bereit stellen. Damit gerät die Diskussion in eine ungute Nähe zu solutionistischen Haltungen. Zumindest wird damit unwahrscheinlicher, dass aus der jetzigen, guten Diskussion transformative Impulse entstehen können.
In die richtige Richtung gehen meiner Meinung nach die Ansätze, eine wirklich „soziale“, d.h. gemeinschaftliche, transparente, im gesellschaftlichen Raum verortete und angewendete KI zu betreiben, die dabei unterstützen kann, soziale Beziehungen zu stärken.
Beitragsfoto von Kelly Sikkema auf Unsplash
My 2 cents:
Ich kann dieser Richtung bislang auch wenig abgewinnen; mit einem Chatbot zu interagieren, weil ich die Interaktionsqualität dort besser finde (wenn dem so wäre)…reizt mich noch nicht einmal. Ich will (immer wieder) Gründe hinter den Interaktionen (hermeneutisch) verstehen oder zumindest versuchen zu verstehen, warum die Kommunikation scheitert.
Ich erinnere mich an eine schöne Keynote auf der GMW16 von Ulrike Lucke zu Gefühle und Computer, die vielleicht in dem Kontext auch wichtig wäre https://timovantreeck.de/tagungsrundumschlag-rueckblicke-auf-doss16-jfmh16-gmw16-ein-bisserl-zu-dghd16-dghd17 bzw. direkt: https://youtu.be/VNQZD2RZpB0
Die Frage, wie KI blinde Flecken aufzeigen kann, könnte ggf. interessant sein, habe ich aber noch nicht weiter verfolgen können: https://twitter.com/livia_roessler/status/1635987611431890944
Immer wieder scheint mir die Diskussion zu sehr auf den Ist-Zustand von Hochschulbildung abzuzielen, anstatt einen Soll-Zustand (und sei es als ein theoretisches Ziel) zum Gegenstand der Weiterentwicklung / angepriesenen Transformation zu machen.
In jedem Fall: Danke, Jörg.
Lieber Jörg,
danke für den überaus spannenden, zeitgemäßen und zur Diskussion anregenden Beitrag. Ich teile durchaus den Grundtenor, dass wir genauer hinzusehen sollten, wenn es um die MMK [HCI] mit der KI [AI] geht. Allerdings lese ich in Deiner Argumentation auch zwischen den Zeilen das Argument, dass die MMK an sich die wertvollere Form ist weil … ja warum eigentlich? Dies bleibt im Dunkeln. Insofern möchte ich an dieser Stelle auf die Ergebnisse empirisch-psychologischer Forschung (die übrigens gar nicht so neu ist) hinsichtlich mediengestützter Kommunikation und Medienrezeption verweisen. Aus dieser Forschung ist gut bekannt, dass diese mediengestützten Kommunikations- (oder teils eben auch Interaktions-) Formen psychologisch gut funktionieren, weil sie unsere Bedürfnisse passgenau bedienen, sei es in Form einer parasozialen Interaktion oder eben auch einer durch Computer vermittelten Kommunikation. Dies ist aber keinerlei Hinweis darauf, dass diese ein dysfunktionaler Ersatz sind. Vielmehr erfüllen diese im täglichen Miteinander einer Mediengesellschaft wichtige Funktionen für das soziale Zusammengehen – und stellen jetzt eben auch (und das scheint wirklich neu) hybride Welten für das Zusammenleben mit den auf Künstlicher Intelligenz basierten Mediensystemen bereit. Und während ich dies schreibe sehe ich aus dem Flugzeugfenster die in immer neuen Wellen auftauchenden Lichter von Guangzhou und bin wie immer bei derartigen Ausblicken verwundert über den globalen Einfluss von uns Menschen – hier wird der Begriff des Anthropozän für mich sehr konkret. Zurück zum Thema: die Technologiebasiertheit unseres Zusammenlebens lässt sich nicht auf ChatGPT und KI also die virtuell-mediale Dimension reduzieren. Vielmehr handelt es sich dabei um die Grundlage einer ganzen Epoche menschlicher Existenz. Diese vielfältigen Technologien (Telekommunikation, Verkehrssysteme, Siedlungen) verbinden uns als Menschen untereinander, aber auch mit den Maschinen um und zwischen uns.
Herzlich Thomas