Grok, ChatGPT und die dreiste Logik der KI-Branche: Wenn Abschreiben als Innovation verkauft wird | Brandaktuell - Nachrichten aus allen Bereichen

Grok, ChatGPT und die dreiste Logik der KI-Branche: Wenn Abschreiben als Innovation verkauft wird

0 46

Ausgerechnet Elon Musk, der sich gern als Kämpfer gegen die Monopole der Tech-Welt inszeniert, steht nun mit seinem eigenen KI-Unternehmen xAI im Verdacht, genau jene Maschine gefüttert zu haben, gegen die er seit Jahren lautstark austeilt: ChatGPT. Der Vorwurf lautet nicht einfach inspiriert. Es geht um ein umstrittenes Verfahren namens Destillation. Vereinfacht gesagt: Ein Modell wird mit Antworten eines anderen Modells trainiert, um dessen Fähigkeiten möglichst billig nachzubauen. Im Streit mit OpenAI ist das kein Nebenthema, sondern der Kern der Sache.

Und genau hier beginnt die unangenehme Wahrheit über die KI-Branche: Ein großer Teil der öffentlichen Debatte über Bahnbrechung, Disruption und Transformation klingt glamourös, ist aber oft nur ein Wettlauf um Abkürzungen. Wer kein sauberes Produkt hat, kauft sich Zeit mit Hype. Wer keine breite eigene Wissensbasis aufbaut, zapft die anderer an. Wer Effizienz predigt, meint nicht selten: möglichst wenig Aufwand für möglichst viel Marktauftritt. Das ist im Kern keine Innovationsgeschichte, sondern eine Managementgeschichte mit glänzender Oberfläche.

Dass xAI überhaupt in diesen Verdacht gerät, passt zur Ökonomie der generativen KI. Training großer Modelle kostet enorm viel Geld. Für GPT-4 schätzte die US-Competition-Behörde FTC bereits 2024, dass allein das Training eines Frontier-Modells schnell in die Hunderte Millionen Dollar gehen kann; je nach Annahmen werden in der Branche sogar Beträge jenseits von 100 Millionen US-Dollar genannt. Das erklärt den Drang, Ergebnisse anderer Systeme mitzunehmen, statt selbst monatelang zu entwickeln. Die Versuchung ist banal, aber die Folgen sind politisch: Wenn wenige Konzerne die teuersten Modelle kontrollieren, entsteht ein Markt, in dem Nachahmung fast so attraktiv wird wie echte Forschung.

Besonders heikel ist dabei die soziale Seite dieser Abkürzungen. KI wird gern als Werkzeug verkauft, das Produktivität für alle steigert. In der Praxis verschiebt sie aber oft Macht nach oben: zu jenen, die Daten, Rechenleistung und juristische Feuerkraft besitzen. Die Stanford-Studie AI Index Report 2024 zeigt, wie stark sich die Fronten konzentrieren: 2023 entstanden 65,9 Prozent der bedeutenden KI-Modelle aus den USA und nur ein kleiner Teil aus Europa. Das ist nicht bloß ein geopolitischer Befund. Es bedeutet auch, dass die Regeln für Arbeit, Sprache und digitale Öffentlichkeit immer stärker von einer Handvoll Firmen mitgeschrieben werden. Ein reichlich elitärer Fortschritt, wenn man ihn beim Namen nennt.

Die Verteidigung von xAI dürfte lauten: So funktioniert die Branche nun einmal. Große Modelle lernen nicht im luftleeren Raum. Auch Menschen übernehmen Stil, Struktur und Wissen, ohne bei jeder Idee eine Lizenzgebühr zu zahlen. Das Argument ist nicht völlig falsch. KI-Forschung lebt seit Jahren vom Transfer, von Benchmarking und von der Frage, wie sich Systeme vergleichen lassen. Auch Destillation ist technisch nicht automatisch Betrug. In manchen Fällen ist sie sogar sinnvoll, etwa um Modelle kleiner, schneller und günstiger zu machen. Der Widerspruch liegt also nicht darin, dass KI voneinander lernt. Der Widerspruch liegt darin, dass Konzerne Einfallslosigkeit als Ingenieurskunst verkaufen, sobald das Ergebnis in der eigenen Bilanz landet.

Genau deshalb ist der Fall größer als der Streit zwischen zwei Milliardären. Wenn ein Unternehmen öffentlich den Kampf um offene oder menschenfreundliche KI predigt, intern aber auf das Wissen eines Konkurrenten zugreift, dann ist das kein kleiner Stilfehler. Es zeigt, wie dünn der moralische Lack in einer Branche ist, die gern mit Missionen hantiert, aber sehr pragmatisch an ihren Kosten spart. Die Ironie ist fast zu sauber: Ausgerechnet diejenigen, die am lautesten vor fremder Macht warnen, sind offenbar nicht abgeneigt, fremde Arbeit zu verwenden, wenn es das eigene Produkt schneller macht.

Ein zweiter, weniger offensichtlicher Punkt ist dabei noch wichtiger: Destillation verändert nicht nur den Wettbewerb, sondern auch die Qualität öffentlicher Information. Wenn Firmen Modelle bauen, die andere Modelle imitieren, entsteht ein Markt, in dem sich Fehler, Verzerrungen und Vorlieben potenziell vervielfachen. Ein Modell, das von einem anderen Modell lernt, wird nicht automatisch klüger; es kann auch nur dessen blinde Flecken besser auswendig können. In einer Zeit, in der KIs immer häufiger als Suchmaschine, Schreibassistent und Alltagserklärer genutzt werden, ist das sozial relevant. Denn wer die Antwortmaschinen kontrolliert, beeinflusst auch, was für plausibel, normal oder professionell gilt.

Das führt zu einer unbequemen, aber notwendigen Einordnung: Der eigentliche Skandal ist nicht nur möglicher Ideendiebstahl. Der eigentliche Skandal ist, dass die KI-Industrie ihre eigene Abhängigkeit von fremder Arbeit mit einer Sprache überdeckt, die nach Zukunft klingt, aber oft bloß Kostenoptimierung meint. Die Debatte um Elon Musks Grok und ChatGPT zeigt deshalb auch, wie schief das Narrativ vom genialen Einzelunternehmer geworden ist. Hinter dem Wort Innovation steckt allzu oft ein sehr alter Reflex: nehmen, was verfügbar ist, und es anschließend als Vision verkaufen. Das ist nicht nur unromantisch. Es ist der Grund, warum die Gesellschaft bei der KI nicht bloß über technische Leistung, sondern über Macht, Eigentum und Fairness reden muss. Wer davon spricht, die Zukunft zu bauen, sollte zumindest nicht so tun, als sei Abschreiben ein Geschäftsmodell mit Ethikabzeichen.

Weiterführende Links

Hinterlasse eine Antwort

Deine Email-Adresse wird nicht veröffentlicht.