Interview Dotzler


Interview with Prof. Bernhard Dotzler
November 20, 2024
1.) Sudmann: Die Frage der Anwendung von KI speziell die Nutzung von KI für die akademische Forschung scheint immer mehr an Relevanz zu gewinnen. Als Medienwissenschaftler ist Dir die Kritik der künstlichen Intelligenz, vielleicht auch hier besser mit großem KI geschrieben, ein wichtiges Anliegen. Was bedeutet diese Programmatik eigentlich für die Auseinandersetzung mit angewandter KI und dies speziell im Kontext der akademischen Forschung?
Dotzler: Also, bei angewandter KI fällt mir als erstes das Beispiel der Proteinfaltung ein, das in jüngerer Zeit ja einige öffentliche Aufmerksamkeit auf sich gezogen hat. Nicht, dass ich von der Molekularbiologie viel verstünde. Aber wie dieses Problem in den letzten 20 Jahren erforscht wurde, ist doch eine faszinierende Geschichte. Ich meine, mich zu erinnern, dass Werner Herzog in seiner Doku Lo And Behold: Reveries of the Connected World (Wovon träumt das Internet?) darüber berichtet, weil es ein wichtiges Beispiel dafür ist, wie man das Internet nutzen kann, um Lösungen durch Crowdsourcing und verteiltes Rechnen zu finden bzw. finden zu lassen. Da gibt es seit 2000 das Projekt „Folding@home“, dann gab es „POEM@home“, „Rosetta@home“ ist noch am Laufen, ebenso das Online-Spiel „Folding“, bei dem zudem das Moment der Gamification am deutlichsten hervortritt.
Seit kurzem hat nun aber auch „AlphaFold“ die Szene betreten, eine KI, der Proteinstrukturvorhersagen in einer Präzision und Geschwindigkeit gelingen, die bisher undenkbar war. Und das ist doch ein fast schon ironischer Vorgang. Man versucht es zuerst mit einer ‒ von Schwarmintelligenz will ich nicht reden ‒ kollektiven Anstrengung, dann leistet eine KI den Job, und leistet ihn besser. Aber diese KI ist ihrerseits nicht etwa eine für sich bestehende Entität, kein irgendwie kluges Ding, sondern Ergebnis und fortgesetzte Funktionalität derselben Infrastruktur wie die der Crowdsourcing-Projekte. Alle heutige KI, also die des Machine Learning, der Künstlichen Neuronalen Netze, beruht auf hochvernetzten Big Data-Systemen. Zugespitzt könnte man sagen: Alle heutige KI ist Plattform-gestützte und deshalb diese Plattformen stützende KI. Im Falle von „AlphaFold“ ist das eine nützliche Sache. Deshalb fiel mir als erstes dieses Beispiel ein, und es gäbe, gerade in der Medizin, aber auch in der Materialforschung, in den Digital Humanities usw., zahlreiche weitere Beispielen für diesen Aspekt: angewandte KI, die der Forschung hilft und deren Entwicklung selber ein grundlegender Forschungsgegenstand ist.
2.) Der KI-Forscher Hebert A. Simon hat 1968 mit Sciences of the Artificial eines seiner bekanntesten und relevantesten Werke geschrieben. Obwohl es in dem Buch, zumindest in der ersten Auflage, quasi gar nicht um KI geht, sondern allgemein um künstliche Systeme, die von Menschenhand geschaffen wurden, um bestimmte Ziele wie die Lösung komplexer Probleme zu erreichen, ist KI doch in der Tat wesentlich eine engineering science und damit buchstäblich eine science of the artificial wie Simon sie definiert. Später wird Simon von KI als empirical science sprechen. Die Frage lautet nun, was, denkst Du, können wir von Simon lernen, wenn es darum geht, aus medienwissenschaftlicher Perspektive die Forschung mit KI selbst zum Gegenstand der Forschung zu machen?
Zu Herbert A. Simon kann ich, so aus dem Stand heraus, nicht viel sagen. Soweit ich mich erinnere, gehörte er zu jenen, die den Ausdruck „artificial intelligence“ nicht sehr schätzten. Er hätte wohl lieber von einer Simulation kognitiver Prozesse gesprochen. Weil der Terminus „artificial“ für die simulierte Intelligenz aber schon etabliert war, übernahm er ihn und betitelte dann auch sein Buch dementsprechend. Die darin entfaltete, sehr nüchterne Sichtweise auf den Computer als Artefakt könnte demnach nützlich sein, auch die heutigen Vorstellungen von KI so nüchtern zu halten, wie es viele Informatiker*innen ja auch vorschlagen: dass man besser von statistischen Systemen, von Mustererkennung oder schlicht von Automatisierung spricht ‒ wobei die KI-Besonderheit ist, dass zur Automatisierung die Autonomisierung hinzukommt: KI besteht ja darin, dass das System selbständig Unterscheidungen und Entscheidungen trifft. Simon hat außerdem stark gemacht, dass es neben einer abstrakten Computerwissenschaft alias Mathematik auch eine empirische Computerwissenschaft nicht nur geben kann oder schlicht gibt, sondern dass es sie auch geben muss.
Komplexe Systeme, sagt er sinngemäß, kann man nicht zuerst rein theoretisch entwerfen, und braucht dann den Entwurf nur noch zu realisieren in der Erwartung, dass alles wie geplant funktioniert. Vielmehr muss man sie bauen und dann beobachten, wie sie sich verhalten. Theorie und Experiment (also Empirie) müssen Hand in Hand gehen. Allerdings ging Simon davon aus, dass das Experiment der Theorie im Sinne einer Modellbildung hilft. Die experimentelle Arbeit soll nicht nur etwas zum Laufen bringen, sondern dazu beitragen, dass man auch versteht, dass man erklären kann, was da wie läuft. Und genau da hapert es bekanntlich bei den heutigen komplexen KI-Systemen. Maschinelles Lernen ist eben ein Training, kein Experimentieren (was nicht heißt, dass man nicht mit trainierten Systemen wunderbar experimentieren kann, um zu sehen, wie sie sich verhalten). Es ergibt keinerlei Theorie des Gelernten: Ein Large Language Model beispielsweise stellt zweifellos das Ergebnis einer Form von Sprachanalyse dar (der durch das Training aufgebaute Vektorraum) und befähigt eine KI sicherlich wunderbar, einfach drauflos zu quatschen; diese KI vermag aber dennoch in keiner Weise, irgendein sprachtheoretisches Ergebnis als solches zu erbringen oder auch nur ihren Entwickler*innen tiefere Einsichten in das Wesen der Sprache zu vermitteln. Wenn das aber schon bei der Entwicklung und Erforschung von KI gilt, dürfte die Forschung mit KI als ähnlich prekär einzuschätzen sein.
3.) Weil Du jetzt gerade die Large Language Models erwähnst. Vor kurzem haben wir gemeinsam ein Buch über ChatGPT herausgegeben. Ein Kerninteresse dieser Publikation bestand darin, die Heterogenität dieses Quatschens mit den Sprachmodellen zu dokumentieren. Zu diesem Zweck hatten wir seinerzeit Wissenschaftler*innen, Künstler*innen sowie zahlreiche andere Expert*innen, die beruflich mit KI zu tun haben, gebeten, über ihre ersten Begegnungen mit LLMs wie insbesondere ChatGPT zu berichten. Über die Dokumentation dieser ersten Erfahrungen hinaus, sollten die Beitragenden aber auch diese Erfahrung noch einmal kommentieren und reflektieren. Erwartungsgemäß ging es in vielen Texten dann auch um die spielerische Auslotung der (epistemischen) Grenzen der Sprachmodelle, speziell natürlich um die sogenannten Halluzinationen von Fakten. Was ist eigentlich für Dich, bald zwei Jahre nach der Veröffentlichung von ChatGPT, eine wichtige Zwischenbilanz. Hat ChatGPT zu einer Über- oder Unterschätzung entsprechender Modelle geführt?
Schwer zu sagen. Jedenfalls kann ich da nicht als sogenannter Experte (eine Apostrophierung, auf die ich ohnehin eher allergisch reagiere) und auch nicht aus medienwissenschaftlichen Überlegungen heraus antworten. Subjektiv, wie man so sagt, also soweit ich persönlich ‚was mitkriege, denke ich, dass beides der Fall ist, auf verschiedenen Ebenen. Auf der einen Ebene lässt sich schon in diesen zwei Jahren eine Art Pragmatisierung des Umgangs mit ChatGPT & Co beobachten. Diese Konsumenten-KI, wie ich sie vorhin nannte, ist eben nun da, und sie wird genutzt ‒ und darin könnte eine Unterschätzung liegen: eine Unterschätzung nicht ihrer Intelligenz (die wird dabei vielleicht sogar zu sehr unterstellt), aber der Effekte einer massenhaften Nutzung solcher Apps. Auf einer anderen Ebene wurde und wird diese KI wohl eher überschätzt. Wenn Geoffrey Hinton gerade jetzt, in seinem jüngsten Spiegel-Interview (14.9.24), allen Ernstes Sätze raushaut wie den, er sei sich beim Auftauchen „dieser Chatbots“ der (ich zitiere, glaube ich, wörtlich:) „unmittelbaren Bedrohung für die Menschheit“ bewusst geworden – nun ja. Aber eine Überschätzung liegt, entschuldige, wenn ich das sage, vielleicht auch schon in Deiner Frage, wenn sie von „rasanten Entwicklungen“ ausgeht.
Sicher, die Sprachmodelle wachsen, und die auf ihnen basierende KI kann immer mehr, und es kommen tatsächlich in kurzer Taktung neue Versionen und Varianten heraus, GPT4 Omni etwa, dann SearchGPT. Doch handelt es sich hier nur um Steigerungen, Optimierungen. Die grundlegenden Prinzipien haben eine doch etwas längere Geschichte hinter sich. Backpropagation geht zurück bis mindestens in die 1970er, auch wenn erst Geoffrey Hinton und David Rumelhart dem Konzept seinen Siegeszug bescherten, das aber auch schon in den 1980ern; ebenfalls in den 1980ern erschienen Convolutional Networks auf dem Plan; wichtige Aspekte der Transformer-Architektur brachte Jürgen Schmidhuber in den sehr frühen 1990ern ins Spiel. Das alles ereignete sich einfach nur unterm Radar der Öffentlichkeit, mehr oder weniger unbemerkt, im Elfenbeinturm der Forschung. Der Eindruck, seit zwei Jahren geschehe nun alles mit explosionsartiger Geschwindigkeit, geht daher wohl eher auf den coup de foudre der allgemeinen ChatGPT-Freigabe zurück. Auf die Verbreitung von Konsumenten-KI unter den Leuten trifft dieser Eindruck ja auch zu. Aber dass auch die KI als solche oder auch nur die Großen Sprachmodelle sich mit solcher Geschwindigkeit entwickelten, halte ich für Marktgeschrei, wie man es von der alljährlichen IFA kennt.
4.) Du hast eben auch erwähnt, dass die Forschung mit KI als prekär eingeschätzt werden muss. Was meinst Du damit genau und inwiefern hängt der prekäre Status auch mit dem gerade von Dir kritisierten Hype zusammen?
Ich meine damit, dass sich das Verhältnis von irgendwie erlangtem Wissen und wirklich begriffenen Zusammenhängen, Gesetzmäßigkeiten verschiebt. Nehmen wir an, wir hätten die Keplerschen Gesetze und Newtons Mechanik noch nicht, aber wir hätten Abertausende von Himmelsaufnahmen. Dann ließe sich gewiss eine KI trainieren, die ich fragen könnte, wo auf ihren Bahnen sich die Planeten zu diesem oder jenem Zeitpunkt befinden. Nur, die KI lernt und verwendet die Regelmäßigkeit, kennt und liefert aber nicht die Regel. Und die Astronomie würde vielleicht auch nach keiner Regel fragen, weil sie ja schon ein Instrument besitzt, mit dem sie voraussagen kann, dass Mars, Jupiter, Uranus, Neptun, Venus und Saturn am 25. Januar 2025 eine sogenannte Planetenkonstellation ergeben werden. Ob KI gehypt wird oder nicht, spielt da grundsätzlich keine Rolle. Der KI-Hype könnte sich nur insofern negativ auswirken, dass KI-Tool-Entwicklungen mehr gefördert werden als good old old-fashioned science.
5.) Besonders das 20. Jahrhundert hat ja verschiedene Disziplinen und Forschungsfelder hervorgebracht, in denen bzw. auf denen es darum geht, Wissenschaft, Technologie und Forschung selbst zum Gegenstand der Forschung zu machen, die Techniksoziologie, die STS, die Historische Epistemologie oder die Wissenschaftsphilosophie. Wie, würdest Du sagen, hat sich speziell der medienwissenschaftliche Blick auf Wissenschaft und Technologie in den letzten Jahren und Jahrzehnten verändert?
Na ja, ich würde sagen, die Analyse von Medien als Technologien und ihrer Rolle nicht nur ‒ trivialerweise ‒ für die Distribution, sondern auch schon die Produktion und Prozesse der Reorganisation von Wissen, genau das ist die Veränderung des medienwissenschaftlichen Blicks in den letzten 40 Jahren. Harold Innis hat da zwar bereits um die Mitte des letzten Jahrhunderts entscheidende Impulse gesetzt, ein Roland Barthes hat für das Medium Literatur die Einsicht entwickelt, diesem eigne die Kraft einer Mathesis, eines Wissens, doch bis in die 1980er Jahre hinein gab es die von Dir angesprochene Medienwissenchaft ja noch so gut wie gar nicht. Man hielt die Medien nicht für Akteure in Wissensprozessen, sondern, bei notorischer Verwechslung ‚der Medien‘‚ mit ihren Inhalten, für eine (mit Enzensberger) „Bewußtseinsindustrie“.
Und so gab es zwar schon eine Fülle an Literatur über die Theorie und Geschichte der Photographie, des Films, des Rundfunks, aber diese behandelte deren Technikgeschichte einerseits und andererseits ihre Programmgeschichte ziemlich getrennt voneinander ‒ „Programm“ hier wie im Wort „Fernsehprogramm“. Das hat sich erst mit der im heute geläufigen Sinn programmierbaren, der informationsverarbeitenden Maschine Computer geändert, mit dessen flächendeckender Verbreitung und dessen allmählicher Wahrnehmung als seinerseits ein Medium. Ab da rückten Wissenschaft und Technologie als Felder, die es auch aus medienwissenschaftlicher Perspektive zu analysieren lohnt, in den Blick, einhergehend mit entsprechenden Veränderungen des Medienbegriffs, unter den sich ja nun auch Laborinstrumente, bildgebende Verfahren und dergleichen mehr subsumieren lassen.
6.) Aber meine Frage zielt eben doch auf die jüngeren Veränderungen des Blicks der Medienwissenschaft(en) auf Wissenschaft und Technologie. Zum Beispiel würde mich interessieren, wie Du das gewachsene Interesse der Medienwissenschaft an Medienpraktiken einschätzt?
Das hängt sehr davon ab, welche Praxeologie da zur Anwendung kommt. Die Akteur-Netzwerk-Theorie zum Beispiel hat sich als sehr fruchtbar erwiesen. Teilweise bin ich aber doch auch skeptisch, weil sich über den Begriff der Praxis oder der Praktiken doch allzu leicht wieder eine anthropozentrische Sichtweise einschleicht (oder sogar wieder eingeführt werden soll), die alte Mär vom Umgang mit den Medien – vom user –, als für die Auswirkungen eines Mediums verantwortlich. Ich bleibe da old school-McLuhanesk: Die Medien machen ihre Nutzerinnen und Nutzer, nicht umgekehrt. Wenn man Medienpraktiken darauf hin beobachtet, gerne!
7.) Wie in vielen anderen wissenschaftlichen Disziplinen auch, hat sich die Medienwissenschaft vor dem gegenwärtigen Boom der KI kaum mit dem Phänomen Künstlicher Neuronaler Netzwerke oder Maschineller Lernverfahren beschäftigt. Auch Du selbst hast ja in Deinen Büchern trotz der vielen Bezüge zur KI maschinelles Lernen und KNN unthematisiert gelassen. Würdest Du das im Nachhinein als Versäumnis sehen? 1994 erscheint ja Computer als Medium, in der Einleitung stellt ja immerhin Bolz durchaus euphorisiert die Besonderheit der subsymbolischen KI heraus. Allein auf die Medienwissenschaft der nachfolgenden Zeit scheint das keinen besonderen Eindruck zu machen. Was war da los? Wurde das Buch nicht gelesen? Auch Kittler hat sich durch Bolz‘ Perspektive ja offenkundig kaum anstecken lassen.
Die KI des heutigen Machine Learning und der konnektionistischen Systeme habe ich in der Tat bis vor kurzem kaum angesprochen. Da gibt es höchstens da und dort mal eine Rezension von mir wie die über ein Buch von 1993, das Neuronale Netze: Die nächste Computer-Revolution hieß und heißt. Das immerhin zeigt: Das Thema ist mir also durchaus präsent, seit es ‚im Kommen‘ war, und natürlich habe ich es auch in Bolz‘ Einleitung zu Computer als Medium registriert (der Band erschien übrigens bereits Ende 1993, wurde aber im Impressum auf 94 vordatiert, um länger rezensierbar zu sein).
Aber mein eigener Beitrag in diesem Band macht eigentlich schon klar, warum ich nicht weiter darauf einging: Es ist ein historiographischer Aufsatz. Auch solche Forschung hat zwar den Anspruch, einem Begreifen der Gegenwart („und Zukunft“, wie es im Titel meines Aufsatzes heißt) zu dienen, aber eben dazu geht sie gewissermaßen etwas ‚auf Abstand‘ zur Aktualität. Anders gesagt, mein Interesse war immer ein technik-, medien-, wissensarchäologisches. Mich beschäftigt, warum sich die KI-Frage überhaupt stellt, zum einen von der technischen Seite und den Technikdiskursen her wie zum anderen von der begrifflichen Seite her ‒ beide Seiten zusammen ergeben die (mit Trenn- und Bindestrich geschrieben) techno-logische Dimension dieses Feldes namens KI.
Und wenn nun aufgrund der durchaus erstaunlichen Machine Learning- und KNN-Erfolge ein fast schon irrwitziger KI-Hype zu konstatieren ist, gilt es zweierlei zu sehen: Erstens, ob die neue KI auch neu diskutiert wird, oder ob sich die KI-Debatte nicht in einer Art Wiederholungszwang verfangen oder gar eingerichtet hat, und zweitens scheint mir doch wichtig zu betonen, dass die materielle Basis auch dieser neuen KI die inzwischen althergebrachte Schaltintelligenz des Mikroprozessors ist und bleibt. Wir leben nicht in einer postdigitalen, sondern ganz im Gegenteil in einer turbo- oder hyperdigitalen Welt.
8.) Seit Ihren Anfängen wurde KI mit Blick auf ihr radikales transformatives Potential befragt oder ein solches gar unterstellt. Mitte der 1960er Jahre ging ja z.B. der bereits erwähnte Herbert Simon davon aus, dass Maschinen bald in der Lage sein werden, alle Arbeiten zu erledigen, die ein Mensch erledigen kann. Aber nicht erst angesichts des aktuellen KI-Diskurses ist wohl eine andere Prämisse oder Spekulation viel relevanter, nämlich die übermenschlichen Fähigkeiten der KI zentral zu stellen, die ja schon mit Blick auf die Schaltungsintelligenz der KI im Zweiten Weltkrieg, um auf einen bekannten Aufsatz von Kittler anzuspielen, sichtbar und wirkungsmächtig wurden. Welche Erkenntnisse gewinnen wir denn von Turing für die aktuellen Fragen nach dem transformativen Potential der KI, soweit es speziell die Sphäre der Wissenschaften betrifft?
Übermenschliche Fähigkeiten? Das ist doch (fast) immer der Zweck von Technik. Windmühlen, PKWs und Flugzeuge, Kraftwerke, Taschenrechner, das Telefonnetz (seit die berüchtigten Fräuleins vom Amt arbeitslos wurden), sie alle haben übermenschliche Fähigkeiten. Spezifisch an der KI ist lediglich, dass man diesen Menschenvergleich so hartnäckig an sie heranträgt ‒ und dass er gerade hier in die Irre führt. In den sämtlichen Gründungsdokumenten der Kybernetik steht, dass sie, also jedwede nach ihren Prinzipien ersonnene Maschine, den Menschen ersetzen soll. Nur gedanklich scheint man diese Ersetzung nicht vornehmen zu wollen, obwohl doch Turing (wenn Du ihn schon einmal mehr bemühst) genau diese Operation in dem Spiel, das jetzt Turing-Test genannt wird, vorgenommen hat: Wir denken uns ein Gespräch zwischen Menschen und ersetzen dann einen davon durch eine Maschine und schauen, ob man einen Unterschied merkt.
Diese Ersetzung findet nun auch in der KI-Entwicklung selber statt, beim sogenannten unüberwachten Lernen, mit dem Folgeproblem, das ich, als wir über Herbert A. Simon sprachen, schon berührt habe: Die Entscheidungen einer KI (ihre internen Abläufe wie ihr Output, ihr Verhalten) sind für niemand mehr nachvollziehbar. Wiederum schon Turing hat übrigens auf die Möglichkeit hingewiesen, dass es eines Tages gelingen könnte, eine „funktionstüchtige Maschine“ (so seine Formulierung, aber im Kontext ist eine KI gemeint) auf eher experimentellem Wege zu konstruieren, ohne dass die Konstrukteure am Ende noch deren Operationsweise genau beschreiben könnten. KIs also lösen Probleme, aber liefern nicht die Theorie dahinter. Und wie die Informatik betrifft das allgemein die Wissenschaften, wo sie KI einsetzen.
Man kann damit manche Dinge unglaublich beschleunigen, siehe Proteinfaltung. Aber was lernen wir als Wissenschaftler*innen von den Maschinen, die gelernt haben, bestimmte Dinge zu tun? Eine KI kann für mich Muster in großen Datensätzen entdecken, die ich allein niemals gefunden hätte, oder nur durch Zufall (aber Zufall bleibt es eigentlich ja auch bei der KI, nur dass sie den Zufall soviele Millionen Male herausfordert, dass ihr der Sechser im Lotto quasi sicher ist). Das ist ein Gewinn (sorry, den Kalauer wollt‘ ich jetzt gar nicht), damit kann ich weiter arbeiten. Aber in welche Richtung? Wenn mich die Arbeitserleichterung durch die KI im Kopf so frei macht, dass ich die ausgetretenen Pfade verlassen kann, prima! Die KI-Resultate selbst jedoch können im Prinzip nur auf ausgetretenen Pfaden entstehen. Streng wissenschaftlich gesehen, produziert statistisch-prädiktive KI letztlich triviale Ergebnisse, auch wenn sie wichtig sein können wie die Ergebnisse eines SFB. Dieser Vergleich fällt mir deshalb ein, weil ich einmal in einem Gespräch zweier Physiker, das ich zufällig mitanhörte, die boshafte Bemerkung aufschnappte: Wenn die DFG einen SFB für ein Thema bewilligt, sei das ein sicheres Indiz dafür, dass dieses Thema uninteressant geworden ist.
9.) Vielleicht kannst Du deine Kritik am Menschenvergleich, der immer wieder an KI herangetragen wird, noch einmal etwas ausführlicher erläutern. Mit Blick auf die Diskursgeschichte der KI ist es ja auch nicht gerade wahrscheinlich, dass dieser von Dir kritisierte Vergleich in der Zukunft überwunden werden könnte. Im Übrigen zielte meine Frage auf einen bestimmten und derzeit wieder intensiv diskutierten Aspekt ab, nämlich, dass die übermenschlichen Fähigkeiten der KI sich eben nicht auf einen bestimmten Aspekt beschränken, sondern diese eben, der Möglichkeit nach, unspezifisch oder allgemein ausgerichtet sind. Worauf ich also implizit anspielte, sind die aktuellen Diskussionen um die zeitnahe Realisierbarkeit einer Artificial General Intelligence, die ja zuletzt, durch die Konjunktur der großen Sprachmodelle, noch einmal erheblich befeuert wurden. Wenn man einerseits Deine Einschätzung ernst nimmt, die den Output einer bestimmten Form der KI, die Du jetzt als „statistisch-prädiktiv“ beschrieben hast, als „trivial“ kennzeichnet, andererseits aber eine beträchtliche Anzahl von Expert*innen es für sehr wahrscheinlich halten, dass wir in den nächsten Jahren KI-Systeme auf AGI-Niveau (was auch immer das im Detail heißt) erwarten dürfen, so haben wir es ja dann doch hier mit einer recht erheblichen Kluft in der Wahrnehmung der (epistemischen) Leistungen eben solcher Modelle oder Systeme zu tun. Und eine Frage, die sich dann eigentlich auch für die Medienwissenschaft stellt, wäre ja, diese Kluft irgendwie zu erklären. Dieser Aufgaben müssten sich dann vielleicht andere widmen, als jene, die hier sozusagen klar Position beziehen, dennoch würde ich diese Frage nach der Erläuterung dieser Kluft auch Dir gerne stellen.
Aus medienwissenschaftlicher Sicht scheint mir diese AGI vorab eine Aufmerksamkeitsmaschine zu sein. Das A und das I könnten auch für „allgemeines Interesse“ stehen: Das soll aufrechterhalten werden, nachdem es endlich wieder gewonnen wurde, und die Fördergelder sollen weiterfließen. Und wenn ich vorhin von der KI-Debatte im Wiederholungszwang gesprochen habe, meinte ich vor allem diesen Aspekt einer KI, die von den Anfängen bis heute immer nur verheißen wurde. Sogar ein mögliches Bewusstsein der Maschinen wird wieder diskutiert. Auch das Schema des permanenten Leistungsabgleichs: Was die Maschine jetzt schon alles kann und was sie immer noch nicht kann, aber bald können wird – auch das wiederholt sich.
Viel mehr kann ich zur AGI seriös nicht erläutern. Ich kenne ja auch nur die Konsumenten-KI einerseits, einige Sachbücher von Raymond Kurzweil, Nick Bostrom, Manuela Lenzen & Co andererseits. Mit wirklich beinhart-informatischen papers zur AGI bin ich nicht vertraut – gibt es da welche? Es kommt also auch darauf an, welche Expertise Du im Sinn hast, wenn Du von den Expert*innen sprichst, die uns eine AGI als bald erreicht in Aussicht stellen, genauso wie es eben sehr und nicht nur nebenbei darauf ankommt, was AGI-Niveau im Detail heißen soll. Durch Kombinationen von auf spezifische Leistungen trainierten KNNs mag man sich dem annähern, was Herbert A. Simon und Allen Newell als General Problem Solver einst vorschwebte. Auffällig aber ist, dass man jetzt, wie Du in Deiner Frage, so gern von den epistemischen Leistungen der Systeme spricht und nicht mehr von kognitiven Systemen (außer in einem sehr schwachen Sinn, der wenig mit dem zu tun hat, was Kognition für uns Menschen bedeutet). Vielleicht ist das ja wenigstens ein kleiner Schritt in Richtung eines Denkens, das nicht immer „die KI“ wie „den Menschen“ haben will.
10.) Als eine Art Zwischenfazit gehen wir in unserer Forschungsgruppe davon aus, dass ein wesentliches epistemisches Potential der subsymbolischen KI darin liegt, wie sie Probleme der Unschärfe und Unsicherheit zu adressieren und zu bewältigen erlaubt. Um nur ein Beispiel zu geben, weil ich gerade die Sprachmodelle erwähnte. Die großen Modelle können mittlerweile sehr gut mit Problemen der sprachlichen Mehrdeutigkeit umgehen (textuelle Unschärfe), um auf dieser Basis das nächste Token vorherzusagen (Bewältigung und Reduzierung von Unsicherheit). Die entsprechenden Thesen und Überlegungen haben wir unlängst in unserem Band Beyond Quantity erwähnt. Wie würdest Du selbst diese These beurteilen?
Zunächst einmal ist mir Deine Frage eine Mahnung, Euer Buch endlich genauer zu studieren. Wie Du sie eben formuliertest erscheint mir die These jedenfalls sehr bedenkenswert, und wäre es nur, dass man ihr wiederum als Frage begegnet, also weniger gleich davon ausgeht, dass Unsicherheit oder Unschärfe nun bewältigt sind, als vielmehr neu reflektiert: Was verraten uns die aktuellen komplexen KI-Systeme über diese Begriffe, Unschärfe und Unsicherheit?
Die sogenannte „Fuzzy Logic“ war ja schon einmal ein Versuch, damit umzugehen, der vor 30, 40 Jahren auch einige feuilletonistische Aufmerksamkeit bekam. In den heutigen Erörterungen der neuen KI ist mir dieses Stichwort noch kaum begegnet, Euer Buch ist da eine rühmenswerte Ausnahme. Fuzzy Logic, hieß es damals, überwinde die strikte Zweiwertigkeit der herkömmlichen Logik oder auch Booleschen Algebra: wahr/falsch, ja/nein, 1/0, on/off. Aber natürlich war das nicht so einfach der Fall, weil man die stattdessen in Anschlag gebrachten Zwischenzustände ja doch wieder vereindeutigen und für technische Lösungen in On/Off-Schaltungen transponieren musste bzw. mittels der Fuzzy Set-Theorie eben entsprechend formalisieren konnte.
Und Vergleichbares ist wohl bei den Großen Sprachmodellen und ihren angeblichen semantischen Fähigkeiten im Spiel. Ein einzelnes Wort wie „Schloss“ mag mehrdeutig sein. Aber in Kontexten, also syntagmatischen Zusammenhängen wie „hinter Schloss und Riegel“ oder „das Schloss der Königin“, ist die Bedeutung sofort klar, und Große Sprachmodelle werden nun eben mittels solcher Syntagmen gebaut. Eines ihrer Funktionsgeheimnisse ist ein Vektrorraum, der als Semantischer Raum bezeichnet wird. Aber ich zweifle nach wie vor an irgendwelchen semantischen Fähigkeiten elektronischer Schaltungen. Kurioser ‒ durchaus mit allen Konnotationen der guten alten curiositas ‒ finde ich eher, wie weit man es allein mit Syntax bringen kann.
11.) Der Schwerpunkt unserer Forschungsgruppe gilt nicht unbedingt der Frage, wie dank KI neue Erkenntnisse ermöglicht werden, sondern wie Technologien des maschinellen Lernens und speziell KNN die Arbeitsweisen und Methoden der Wissenschaften (potentiell) unter neue Bedingungen stellen. Du bist nun jemand, der ausschließlich über und nicht mit KI forscht, aber wie würdest Du gleichsam von außen betrachtet, die Veränderung der Wissenschaften durch KI in dieser Hinsicht wahrnehmen — so selektiv und subjektiv diese Eindrücke hier vielleicht auch sein mögen?
Dazu könnte ich jetzt mein – ich ergänze bei dieser Gelegenheit: bloß aus dem Ärmel geschütteltes, arg simplifizierendes – Beispiel mit den Keplerschen Gesetzen wiederholen, soll heißen: Dazu kann ich denn auch nur sagen, was unter dem Schlagwort vom „Ende der Theorie“ schon seit geraumer Weile teils diskutiert, teils schon wie ein fait accompli einfach ausposaunt wird. Eine KI ist ja keine Wissenschaftlerin, die selber forscht und denkt. Das Gros heutiger KIs operiert strikt „datengetrieben“. Also ist davon auszugehen, dass Forschung mit KI eher „data-driven science“ als „knowledge-driven science“ befördert. Man wird Korrelationen und Muster für Erklärungen nehmen, statt nach der Erklärbarkeit des Beobachtbaren bzw. Beobachteten, also nach Kausalität, zu suchen.
„Science“ heißt eigentlich: Beschreiben ‒ erklären ‒ vorhersagen. KI, die prädiktiv arbeitet, ist nun unschlagbar gut im Vorhersagen, eben der Prädiktion. Sie überspringt dabei nur das Erklären. Sicher (aber nein, das ist jetzt nur eine schalkhafte Phantasie) ist irgendwo schon das Projekt im Gang, eine KI daraufhin zu trainieren, sogenannte Scheinkorrelationen von wirklich aussagekräftigen, belastbaren Korrelationen (die einen Kausalzusammenhang plausibel vermuten lassen, ohne ihn deshalb schon zu liefern) zu unterscheiden. Im Englischen ‒ das hab‘ ich zufällig vor Kurzem erst gegoogelt ‒ wurde der Begriff der „spurious correlation“ übrigens von (schon wieder:) Herbert A. Simon etabliert.
12.) Im Verein mit der Frage nach ihren epistemischen Potentialen stellt sich auch die Frage, wie weit man mit modernen KI-Technologien eigentlich die Automatisierung der Wissenschaft wird treiben können? Wie auch immer man die Beschränkungen der gegenwärtigen Sprachmodelle beurteilt, werden diesseits und jenseits der Wissenschaften inzwischen unzählige Texte allein von KIs produziert, Tendenz steigend. Das beinhaltet auch umfassende Fähigkeiten, Texte zu analysieren, zu vergleichen usw. Zu Beginn wurde an den Hochschulen viel darüber diskutiert, wie KI die Lehre verändert, wie Prüfungen angesichts KI-generierter Hausarbeiten usw. angepasst werden müssen. Aber in Zukunft werden wohl auch immer mehr Forschunganträge mit KI geschrieben werden. Was bedeutet all das für die Regulierung von KI?
Da gibt es mehrere Ebenen. Zum einen könnte es noch spannend werden zu sehen, wie sich die KI-Systeme und mit ihnen ganze Bereiche im Internet selber regulieren. Derzeit scheint das eher in Richtung „A.I. pollution“ zu laufen, welche bekanntlich zu einem „Modellkollaps“ führen kann, und dann dürfte es problematisch werden, sich Hausarbeiten oder Forschungsanträge schreiben zu lassen. Zum anderen, ja, man wird da Regeln aushandeln müssen, Regeln im Sinne explizierter Ge- und Verbote, aber auch Benimmregeln in der Art der allmählich sich herausbildenden Netikette. All das hat ja auch schon längst begonnen.
Aber all das ist, ehrlich gesagt, kein Thema, für das ich mich zuständig fühle. Mir liegt da eher an dem Hinweis, dass Regulierung nur begrenzt möglich und wirksam ist und sein wird. Mit Blick auf die Datenschutzfrage habe ich einmal geschrieben, dass es aufgrund der faktischen Funktionsweise der Datenströme in der vernetzten Computerwelt nur logisch ist, wenn beispielsweise die Geheimdienste, aber auch Google, Facebook und die ganze Werbebranche ebendiese Datenströme nutzen. Was aus je individueller Sicht als Datenmissbrauch erscheinen mag, ist vom Netz her betrachtet schlicht ihr bestimmungsgemäßer Gebrauch, und Analoges gilt für KI. Wir müssen im Auge behalten, was rein technologisch die Bestimmung von KI ist. Man kann nicht KI entwickeln und dann hoffen, dass sie doch nicht tut, was sie tun soll.
Lieber Bernhard, vielen Dank für das interessante Gespräch.