Generative KI hat bewiesen, dass sie kein schnell verpuffender Hype ist. Trotzdem sind zentrale Probleme ungelöst. Wie wollen wir mit dieser Technik leben?
API, Agent, PEFT,
LLM, RAG und GPT,
NLP, Dall-E und STT,
GenKI, Diffusion – ojemine
MKG – mit künstlichen Grüßen,
die Welt liegt uns zu Füßen, denn wir stehen drauf.
Wir prompten für ein Leben voller Schall und Rauch
Und wenn die Tokens nicht reichen, stocken wir eben auf.
(Garantiert ohne KI-Einsatz umgedichtetes Stück der Fantastischen 4)
Die Erde rast mit einer Geschwindigkeit von 30 Kilometern pro Sekunde um die Sonne. Und trotzdem bekommen wir davon nichts mit. Wenn wir auf einer Sommerwiese liegen, herrscht Ruhe, nichts scheint sich zu bewegen. Schauen wir dann zum Himmel, sehen wir, wie die Sonne untergeht. Wie sie sich auf den Horizont zubewegt. Doch sie steht in Wirklichkeit still – zumindest in Relation zu unserer Erde.
Die moderne KI-Technik ist Erde und Sonne zugleich. Vermeintlicher Stillstand bei schneller Bewegung – und umgekehrt. So gut wie jede Woche wird ein neues Sprachmodell oder die nächste Version eines vorhandenen veröffentlicht. Das Entwicklungstempo scheint halsbrecherisch.

Und doch stehen wir in vielerlei Hinsicht noch am selben Punkt wie vor knapp drei Jahren, als die ganze Welt sich zum ersten Mal über ein ChatGPT-Eingabefenster beugte. Noch immer kommt es vor, dass die generative KI einfach Unsinn raushaut. Es ist immer noch nicht geklärt, womit die Modelle gefüttert und trainiert werden dürfen – und wer dafür wie zu entschädigen ist. Und noch immer werden Hände gerungen und Haare gerauft, wenn es um die Frage geht, ob KI zu riesigen Produktivitätsgewinnen oder zu Massenarbeitslosigkeit führen wird. Oder zu beidem – nur für jeweils andere Gruppen.
Auf der anderen Seite wäre es albern, so zu tun, als hätte die Zeit seit November 2022 stillgestanden. Die Modelle sind nicht nur vielfältiger geworden, sondern außerdem allesamt besser. Statt geschriebenem Text können sie inzwischen Gesprochenes, Bilder und Videos nicht nur ausgeben, sondern auch erkennen und verarbeiten. Man hat ihnen beigebracht, hinter den Kulissen unauffällig die Technik zu wechseln, wenn sie rechnen oder programmieren sollen. Und in den meisten Fällen wurden sie so verändert, dass ihr Energiebedarf, der anfangs Anlass zur Sorge gab, zumindest im normalen Betrieb nicht mehr allzu hoch ist. Das Trainieren der KI ist noch mal ein anderes Thema, aber auch hier gibt es Verbesserungen.
Die Entwicklung generativer KI schreitet also in riesigen Schritten voran – und kommt in vielen Fragen nicht weiter. Das ist der Grund dafür, dass sich zwei Lager zusehends unversöhnlicher gegenüberstehen: auf der einen Seite diejenigen, die davon ausgehen, dass KI unsere Welt neu formen wird, und die dabei ganz vorne mitwirken möchten. Ein Beispiel bietet dieser Post aus dem Bluesky-Netzwerk: „🎯 Dein Netzwerk + KI = endlose Möglichkeiten! Bereit für die nächste Stufe? 🚀“. Für Bedenken hat diese Gruppe kein Verständnis.
Die andere Seite negiert alle positiven Aspekte von KI und hält jene, die darauf setzen, für vernebelt. Beispielpost, ebenfalls von Bluesky: „KI ist seelenloser Müll, und jeder, der damit arbeitet, sollte in einen Vulkan geworfen werden.“
Wie sehr sich der Diskurs verhärtet hat, merkt man auch daran, dass einer der klügsten und ausgewogensten KI-Experten, Ethan Mollick, sich nicht mehr so gern beteiligt. Er werde weiterhin in Netzwerken wie Bluesky posten, so Mollick, der Professor für Management an der Wharton-Universität in Philadelphia ist und mit „One Useful Thing“ eines der profundesten KI-Blogs betreibt. Aber er werde sich eben nicht mehr so oft zu Wort melden. Weil die Reaktionen auf seine Beiträge oft sehr feindselig seien und eine produktive Diskussion erschwerten.
Jede Seite sieht nur, was sie sehen will
KI ähnelt einem Rorschachtest: Alle erkennen darin das, was sie sehen wollen. Das reicht von der magischen Kreativitätsmaschine bis hin zum Untergang des Abendlandes. Für jede Sichtweise gibt es täglich neue Artikel, Studien und Umfragen, die sie belegen sollen.
— Apple-Forscher wollen herausgefunden haben, dass selbst die fortschrittlichen sogenannten Reasoning-Modelle nicht wirklich denken, sondern ebenfalls nur sprachliche Wahrscheinlichkeiten berechnen.
— Ein anderer Artikel rechnet vor, wie viel schneller dank KI inzwischen Krankheiten diagnostiziert und Medikamente entwickelt werden können.
— Die »New York Times« porträtiert Menschen, die von Chatbots in Wahnvorstellungen getrieben wurden, tragische Todesfälle inklusive.
— Immer wieder wird berichtet, dass Unternehmen ihre KI-Investitionen reduzierten. Die erhofften Effizienzgewinne seien ausgeblieben.
— Gleichzeitig wird beklagt, dass die KI-Anbieter ihren Großkunden nicht genug Denkleistung zur Verfügung stellen.
— Youtube kündigt an, Maßnahmen gegen die Unmengen „massenproduzierter“ und „repetitiver“ KI-Videos zu ergreifen, die das Videonetzwerk fluten.
— Meta-Chef Mark Zuckerberg bietet KI-Koryphäen 100 Millionen Dollar Jahresgehalt, um im Wettrennen der großen KI-Konzerne konkurrenzfähig zu bleiben.
— Grok 4 wiederum, das neueste KI-Modell von Elon Musks Firma xAI, wurde von Fachleuten dabei erwischt, wie es zuerst die Haltung von Musk herauszufinden versuchte, bevor es auf Fragen etwa zum Nahostkonflikt antwortete.
— Immer wieder wird entlarvt, dass ein Teil der KI-Arbeit ausbeuterisch im globalen Süden verrichtet wird. Sei es dadurch, dass schlecht bezahlte Klickworker die Systeme durch Verschlagwortung oder Moderation trainieren. Oder sei es dadurch, dass – wie angeblich im Fall von Builder.ai – nicht allein KI den Kunden bei der App-Entwicklung half, sondern ein Team von echten Programmiererinnen und Programmierern in Indien.
— Im „Future of Jobs“-Report des Weltwirtschaftsforums ist derweil zu lesen, dass in den kommenden fünf Jahren neun Millionen Jobs durch KI ersetzt würden. Und an anderer Stelle im selben Report, dass im selben Zeitraum elf Millionen neue Jobs durch KI entstünden.
Ein ewiges Einerseits, Andererseits.
Feiyu Xu hat eher die optimistische Brille auf. „Wir stehen erst ganz am Anfang der KI-Entwicklung“, sagt die vielfach ausgezeichnete Forscherin und ehemalige KI-Chefin von SAP. „Die ersten großen KI-Modelle sind Sprachmodelle. Sprache ist ein mächtiges Werkzeug, aber unser menschliches und gesellschaftliches Wissen besteht aus so viel mehr. Wir verarbeiten auch Gerüche, wir arbeiten mit Haptik, haben Gefühle.“ Das alles könne die KI noch nicht. „KI versteht noch nicht, wie die Naturgesetze funktionieren oder wie sie adäquat mit ihrer Umgebung interagieren kann. Aber da wird noch sehr viel passieren.“
Arvind Narayanan und Sayash Kapoor sind die Autoren des Buchs „AI Snake Oil“. Der Titel lässt erahnen, dass sie nicht zu der Gruppe der grenzenlos Begeisterten zählen. Sie sind aber auch keine wütenden Maschinenstürmer, die jeden Nutzen von KI leugnen. Stattdessen plädieren sie in einem Aufsatz dafür, KI als normale Technik zu begreifen. KI werde ihre Wirkung nicht über Nacht entfalten, so die Autoren. Ähnlich wie bei der Elektrizität oder dem Internet werde sich künstliche Intelligenz über Jahrzehnte hinweg entwickeln. Das liege daran, dass selbst großartige Werkzeuge lange Zeit bräuchten, bis sie wirklich in allen Gesellschaftsbereichen, Organisationen und in allen Infrastrukturen Einzug halten. „Das Umfeld der KI erlegt ihr ein Tempolimit auf“, schreiben die Autoren.
Weiterlesen auf brandeins.de …
Text & Foto: Christoph Koch




