DeepSeek R1 hat für Aufsehen über die KI-Bubble hinaus und für Turbulenzen an den Börsen gesorgt. Die KI soll OpenAIs Spitzenmodell ebenbürtig sein, aber nur einen Bruchteil der Kosten verursacht haben. Der Beginn einer neuen Ära der effizienteren und offenen KI – oder doch mehr Schein als Sein?
Nicht nur in der KI-Bubble, auch an den Börsen löste die Präsentation des KI-Modells „R1“ des chinesischen Start-ups DeepSeek kurzzeitig große Aufregung aus. Nur etwa sechs Millionen Dollar soll die Entwicklung gekostet haben, hieß es – obwohl die Leistung von R1 dem Vergleich mit dem stärksten Modell, „o1“, des Platzhirschs OpenAI standhält. Der Aktienkurs des Chip-Herstellers Nvidia, der auf der KI-Welle in lichte Höhen gestiegen war, brach kurzzeitig ein. Hat hier ein kleines Start-up mit ein paar alten Rechnern mit Sam Altmans OpenAI gleichgezogen? Braucht die KI-Welt vielleicht gar keine immer noch größeren Rechenzentren voller neuester Nvidia-Halbleitertechnologie? Das fragten sich nicht nur Investoren.
Zum weiteren Leidwesen von OpenAI veröffentlichte DeepSeek sein Modell auch noch für Privatanwender kostenlos und quelloffen. OpenAI setzt bisher auf geschlossene Modelle, bei denen der Quellcode nicht öffentlich einsehbar ist, und verlangt für den Zugriff auf die leistungsstärksten Produkte ein kostenpflichtiges Abo.
Wie so oft liegen Schein und Sein aber auch hier weit auseinander, was einige Tage nach der großen Aufregung immer klarer wird. Eine Analyse des renommierten Analyseinstituts SemiAnalysis hat etwa ergeben, dass DeepSeek bisher 1,6 Milliarden Dollar allein für den Bau und Betrieb von Rechenzentren ausgegeben haben dürfte und über ein durchaus großes Inventar an Hochleitungs-Chips verfügen soll.
Beachtlich ist der Erfolg des chinesischen Start-ups trotzdem, weil es im Gegensatz zur Konkurrenz keinen unbegrenzten Zugang zu den neuesten Chips hat. Der Erfolg von DeepSeek könnte zu einer Trendwende in der KI-Entwicklung beitragen: Mehr Effizienz in der Entwicklung und eine Rückkehr zu Open Source. Beides Entwicklungen, die oberflächlich gut klingen und auch Europa dabei helfen könnten, sich in Sachen KI auf eigene Beine zu stellen. Chinas Aufstieg in der Champions League der KI-Entwicklung wirft auch viele Fragen auf – News versucht sich an der Beantwortung.
US-Exportbeschränkungen für KI-Chips
Seit Oktober 2023 dürfen bestimmte Hochleistungs-Grafikchips von Nvidia – allen voran die KI-Chips A100 und H100 – nicht mehr uneingeschränkt nach China und in einige andere Länder exportiert werden. Offiziell geht es um nationale Sicherheit. Washington will verhindern, dass fortschrittliche KI-Technologie in die Hände potenzieller Rivalen gelangt, sei es für militärische oder geheimdienstliche Zwecke. Später wurden die Regeln verschärft: Nur 18 Staaten, darunter etwa Deutschland, Frankreich und Großbritannien, dürfen noch unbegrenzt Nvidia-Chips kaufen. Österreich zählt nicht dazu
Ist DeepSeek effizienter als die Konkurrenz?
Das Thema Effizienz hat in der KI-Welt bisher eine untergeordnete Rolle gespielt. US-Unternehmen wie OpenAI werden mit Investorenkapital überschüttet und können es sich so leisten, immer noch mehr Hochleistungsprozessoren anzuschaffen, immer noch größere Rechenzentren zu bauen und damit immer noch höhere Energiekosten in Kauf zu nehmen. Das zeigen Megaprojekte wie das kürzlich angekündigte „Stargate“: Gigantische 500 Milliarden US-Dollar will OpenAI in den nächsten vier Jahren für neue KI-Infrastruktur ausgeben – gemeinsam mit Unternehmen wie Microsoft und dem Halbleiter-Marktführer Nvidia.
US-Konzerne hätten den Fokus bisher voll darauf gelegt, immer größere Modelle mit immer mehr Daten zu trainieren. „Dabei haben sie das Engineering vernachlässigt“, sagt Horst Bischof, Informatiker und Rektor der TU Graz.
Dagegen stand bei DeepSeek die Effizienz im Entwicklungsprozess ganz oben auf der Prioritätenliste, damit auch mit teilweise veralteter Hardware ein auch international wettbewerbsfähiges KI-Modell entwickelt werden konnte. Erreicht wurde das unter anderem durch die sogenannte „Mixture of Experts“-Technik, bei der, vereinfacht gesagt, ein großes Modell in mehrere kleinere „Experten“ aufgeteilt wird, die nacheinander „trainiert“ werden.
Auch wenn nicht genau bekannt ist, wie viel Geld DeepSeek nun wirklich für den gesamten Entwicklungprozess seiner KI-Modelle ausgegeben hat: Dass DeepSeek Wege gefunden hat, wie die Effizienz des Trainingsprozesses deutlich gesteigert werden kann, geht nach Ansicht von Experten auch nachvollziehbar aus den technischen Dokumentationen hervor, die DeepSeek zu seinen Modellen veröffentlicht hat. „Es wurde einfach sehr gutes Engineering gemacht“, sagt Horst Bischof.
Für Österreich und Europa bedeute der Erfolg von DeepSeek laut Bischof, dass sich Forschung lohne – auch mit überschaubarem Ressourcenaufwand könne man spezialisierte KI-Modelle entwickeln und damit neue Anwendungsmöglichkeiten realisieren.


Schön, dass DeepSeek gezeigt hat, dass sich Open Source doch auszahlt.
Wieso braucht KI-Entwicklung so viel Leistung?
Der Großteil der Kosten bei der Entwicklung von KI-Modellen entsteht durch den Leistungshunger riesiger Rechenzentren, in denen Hunderttausende Hochleistungschips KI-Modelle „trainieren“. Vereinfacht gesagt füttert man die Modelle mit Milliarden von Textschnipseln, sogenannten Token. Anhand dieser Daten erkennt dann das KI-Modell mithilfe sogenannter Parameter, wie sich Token neu kombinieren lassen – es lernt „sprechen“. Diese Parameter sind die „Stellschrauben“ des Modells. Damit der Trainingsprozess funktioniert, müssen enorme Datenmengen in einem zyklischen Prozess wieder und wieder verarbeitet und dabei Hunderte Millionen bis Milliarden von Parametern angepasst werden.


DeepSeek R1 geht mit seinem Zensur-Filter offen um, fragt man das Modell nach den "Unterschieden in den ethischen Parametern" im Vergleich mit OpenAI-Modellen.
© News/ScreenshotWird DeepSeek zensiert?
„Technik ist weder gut, noch böse, noch ist sie neutral“, lautet das „Erste Kranzbergsche Technologiegesetz“ des gleichnamigen Technikhistorikers. DeepSeek und andere KI-Modelle sind keine Ausnahme – und Nutzer müssen sich dessen bewusst sein. DeepSeek hat einen Zensur-Filter nach den Vorstellungen der autoritären Führung Chinas: Fragen zu Themen wie der Partei selbst, Machthaber Xi Jinping, Zugehörigkeit von Taiwan und nach dem Tian’anmen-Massaker werden entweder gar nicht oder auf Basis des Parteibuchs beantwortet. Dazu ist DeepSeek nach chinesischem Recht verpflichtet. Bei der Benutzung sorgt das für dystopische Momente.
Allerdings stellt DeepSeek seine KI-Modelle ähnlich wie auch der Meta-Konzern quelloffen und kostenlos zum Download zur Verfügung. Das bedeutet: Andere Entwickler können ihre eigene Version des jeweiligen Modells erstellen. Theoretisch zumindest: Erste Versuche zeigen, dass eine „Demokratisierung“ der chinesischen KI ein eher aufwändiges Unterfangen ist. Auch Modelle von OpenAI und Google sind nicht frei von solchen Einschränkungen. Googles Gemini verweigert auf alle „politischen“ Themen die Antwort, OpenAIs ChatGPT ist auskunftsfreudiger, hat aber ebenfalls einen Inhaltsfilter für Themen wie selbstverletzendes Verhalten.
Hat DeepSeek OpenAI kopiert?
Gerüchten zufolge könnte sich DeepSeek den Entwicklungsprozess beschleunigt und Kosten gespart haben, indem es sich die Vorarbeit der US-Konkurrenz zunutze gemacht hat. OpenAI gab gegenüber der „Financial Times“ an, dass im Herbst 2024 große Datenmengen über die Schnittstelle eines KI-Modells von OpenAI abgeflossen waren. Auch David Sacks, der „KI- und Krypto-Zar“ von US-Präsident Trump, behauptete, es gäbe „stichhaltige Beweise“ dafür, dass DeepSeek bei der Entwicklung seines KI-Modells geistiges Eigentum von OpenAI gestohlen habe.
Verräterisch wirkt auch, dass sich DeepSeeks Chatbot selbst auf Nachfrage gerne als ChatGPT identifiziert. Inwieweit die Vorwürfe tatsächlich zutreffen, sei dahingestellt – allerdings trainieren auch OpenAI und Konsorten ihre Modelle mit riesigen Datensätzen und nehmen dabei erkennbar wenig Rücksicht auf das Urheberrecht.
Wie „offen“ ist DeepSeek wirklich?
Wie bereits erwähnt sind die KI-Modelle von DeepSeek quelloffen – allerdings schließt dieser Begriff im Bereich der KI meist nicht alle Aspekte der Entwicklung mit ein. DeepSeek R1 ist zwar als Quellcode zum Download verfügbar und kann damit analysiert und lokal betreiben werden. Nicht offen sind allerdings der Datensatz, der für das Training des Modells verwendet wurde, und auch der für den Trainingsprozess verwendete Code.
Der Grund, wieso DeepSeek – und auch Meta – Trainingsdatensätze und -Algorithmen bisher nicht offenlegen, dürfte mit dem Risiko von Urheberrechtsklagen zusammenhängen. Das US-Unternehmen HuggingFace ist dabei, diese Daten zu rekonstruieren, mit dem Ziel, eine völlig transparente Version von R1 namens „Open-R1“ zu entwickeln.
Trotz der Einschränkungen sieht Informatiker Horst Bischof den Ansatz von DeepSeek als positives Signal: „Viele Fortschritte der letzten Jahre wurde im Machine Learning von Open-Source-Entwicklungen getrieben. Erst OpenAI ist von dieser Entwicklung abgewichen. Schön, dass DeepSeek gezeigt hat, dass sich Open Source doch auszahlt.“ Und das Vorgehen scheint Signalwirkung zu haben: OpenAI-Chef Altman räumte kürzlich ein, dass sein Unternehmen in Sachen Open Source auf der „falschen Seite der Geschichte“ stehe. Priorität habe das Thema aber nicht.


Stromfresser KI: Das 2019 stillgelegte Kernkraftwerk Three Mile Island soll wieder ans Netz gehen, um Microsofts Rechenzentren mit Strom zu versorgen
© Getty ImagesWird KI nun nachhaltiger?
DeepSeek hat Wege gefunden, KI effizienter zu trainieren und zu betreiben. Das bedeutet aber nicht, dass dadurch KI plötzlich „grün“ wird. Denn mehr Effizienz bedeutet nicht unbedingt, dass weniger Energie verbraucht wird.
Erste Vergleichstests des „MIT Technology Review“ deuten eher auf das Gegenteil hin: Die DeepSeek-KI verbrauchte im laufenden (lokalen) Betrieb sogar deutlich mehr Energie als das Vergleichsmodell von Meta. Der Grund: DeepSeek R1 wendet deutlich mehr Zeit – und damit Energie – für den „Nachdenkprozess“ auf, bevor es eine Antwort generiert, und antwortet zudem besonders ausführlich. Ein Paradebeispiel für das sogenannte Jevons-Paradoxon: Technischer Fortschritt, der die effizientere Nutzung eines Rohstoffs erlaubt, führt letztlich zu einer intensiveren Nutzung dieses Rohstoffs, weil es zu einem Nachfrageanstieg kommt.
Der Betrieb ist im Vergleich zum Training der weitaus größere Energiefresser. Gut eine Terawattstunde, also eine Billion Wattstunden, beträgt der jährliche Energiebedarf für den Betrieb von ChatGPT. Das würde reichen, um den Strombedarf von ganz Österreich für etwa sechs Tage zu decken oder jedes Elektroauto in den USA 4,5 Mal zu laden.
Diese Zahlen könnten sich in naher Zukunft vervielfachen. Im November 2024 wurde bekannt, dass OpenAI bei der US-Regierung für den Bau eines Rechenzentrums mit einer Leistung von fünf Gigawatt geworben hatte. Dieses Projekt soll nun im Rahmen von „Stargate“ umgesetzt werden. Drei zusätzliche Atomkraftwerke wären neben weiteren umfangreichen Investitionen in die Energieinfrastruktur dafür nötig. Die Erwartungen an die zukünftige Bedeutung von künstlicher Intelligenz scheinen also keine Grenzen zu kennen – auch nicht beim Energieverbrauch. DeepSeek ist hier eher Teil des Problems als Teil der Lösung.
Was bleibt?
Nein, DeepSeeks Top-KI hat nicht nur sechs Millionen Dollar gekostet, und ja, die Vorarbeit von OpenAI und Co. hat wohl geholfen. Trotzdem war die Entwicklung des KI-Modells R1 eine beeindruckende Ingenieursleistung, von der dank Open-Source-Ansatz auch Unternehmen und Forschungseinrichtungen in Europa profitieren könnten. Wenn OpenAI in Zukunft ebenfalls auf Open Source setzen würde, wäre das wohl der Verdienst von DeepSeek. Für Privatanwender ist die chinesische KI wegen ihrer Zensur bei in China kontroversen Themen mit Vorsicht zu genießen. Das Problem des Energiehungers von KI bleibt bestehen – trotz Effizienzfokus bei der Entwicklung.
Dieser Beitrag ist ursprünglich in der News-Printausgabe Nr.06/2025 erschienen.