top of page
Strip.png

Exklusive KI-Community,  8 Präsenz-Events mit führenden KI-Experten,  Kuratiertes KI-Wissen on-demand...

Intensives 48-Stunden-Training,  Praxisnahes Lernen mit Experten,  Zertifizierung & Zugang zu Premium-Tools...

DeepSeek: Ein chinesisches Start-up fordert OpenAI heraus

  • 15. Dez. 2025
  • 3 Min. Lesezeit

Das chinesische KI-Startup DeepSeek hat ein Sprachmodell vorgestellt, das mit GPT-5 von OpenAI mithalten soll – und das als Open Source. DeepSeek-V3.2 verspricht eine vergleichbare Leistung bei gleichzeitig deutlich geringeren Kosten. 


Gut, versprechen kann man viel. Das Besondere hier ist allerdings, dass DeepSeek verrät, wie sie das geschafft haben. Das komplette Modell ist Open Source und der technische Bericht liegt ebenfalls vor, in Form eines 23-seitigen PDFs.


Das Dilemma der offenen KI


In den letzten Monaten schien sich ein Trend zu verfestigen: Während geschlossene Modelle wie GPT und Gemini immer neue Leistungsrekorde aufstellen, haben es Open-Source-Alternativen schwer, da mitzuhalten. Die Entwickler von DeepSeek-AI sehen dafür drei Hauptgründe: veraltete Architekturen, die bei langen Texten ineffizient werden, zu wenig Investition in das Nachtraining der Modelle und Schwächen bei der autonomen Nutzung von Software-Werkzeugen.


DeepSeek-AI will diese Lücke nun schließen – nicht mit purer Rechenkraft, sondern mit einer intelligenten Architektur. Ihr neues Modell DeepSeek-V3.2 erreiche eine ähnliche Leistung wie GPT-5, in manchen Bereichen überträfe es sogar Googles Gemini-3.0-Pro. 


Schneller, schlauer und besser


Die Forscher lösten laut eigenen Angaben drei zentrale Probleme bisheriger Open-Source-Modelle:


  1. Der Turbo für lange Dokumente

DeepSeek Sparse Attention (DSA) reduziere die Rechenkosten bei langen Texten dramatisch, indem das System nur die relevantesten Informationen verarbeitet – wie ein intelligenter Filter, der unwichtige Details ausblendet. 


Stellen Sie sich vor, Sie lesen ein Dokument mit 100 Seiten. Müssen Sie am Ende wirklich jedes einzelne Wort im Kopf behalten, wenn Sie auf Seite 80 eine Frage beantworten wollen? Vermutlich nicht. Sie erinnern sich wohl eher an die wichtigen Stellen und blättern notfalls zurück. Genau das macht DeepSeek-V3.2. 


Während herkömmliche Modelle bei jedem Begriff alle vorherigen Wörter berücksichtigen, wählt DeepSeek gezielter aus. Ein sogenannter „Lightning Indexer" markiert blitzschnell die wichtigen Passagen im Text und das Modell konzentriert sich dann darauf. Bei einem Text mit wenigen Wörtern macht das nicht wirklich viel aus, bei einem Text mit 100.000 Wörtern spart das jedoch immens viel Rechenleistung – und somit auch Kosten. Für Unternehmen, die täglich Hunderte Dokumente analysieren, macht das einen spürbaren Unterschied.


  1. Gute Leistung wird belohnt

„Wenn Du Dich anstrengst und Deine Sache gut machst, bekommst Du eine Belohnung“ – funktioniert nicht nur bei Menschen, sondern auch bei Künstlicher Intelligenz. Das sogenannte „Reinforcement Learning" ist eine Methode, bei der die KI Belohnungen für gute Ergebnisse erhält. Das Modell generiert mehrere Antworten auf eine Frage, vergleicht sie und lernt aus den Unterschieden.


DeepSeek lässt dafür einiges springen. Nach eigenen Angaben investiert das Start-up mehr als zehn Prozent der ursprünglichen Trainingskosten in diese spezielle Feinschliff-Phase. Das ist deutlich mehr als bei den meisten Open-Source-Projekten sonst üblich.


  1. Digitale Tools

Die dritte Innovation betrifft die Fähigkeit, digitale Tools zu verwenden. Die Entwickler trainierten das Modell mit über 85.000 verschiedenen Aufgaben – von automatisch generierten Szenarien bis zu realen Programmier- und Recherche-Tasks. 


Eine moderne KI soll schließlich nicht nur chatten, sondern auch als autonomer „Agent“ agieren, der Werkzeuge wie Websuche oder Code-Interpreter nutzt. 


Beispiel: Das System sollte eine dreitägige Reise durch China planen, mit allem Drum und Dran: von Hotels über Restaurants bis zu Sehenswürdigkeiten. Es muss dabei mehrere Tools auf einmal nutzen wie zum Beispiel Hotel-Datenbanken, Restaurant-Bewertungen und Wetterdaten. Solche komplexen Szenarien trainieren die KI, in echten Workflows zu funktionieren.


Leistungsdaten


DeepSeek-AI vergleicht sein Modell mit den Branchengrößen. Bei mathematischen Wettbewerben wie der AIME 2025 erreiche die Standard-Version 93,1 Prozent Genauigkeit – GPT-5 liege bei 94,6 Prozent, der Unterschied ist demnach minimal. Bei Agent-Aufgaben, wo das Modell eigenständig Tools verwenden muss, überträfe es teilweise sogar die Konkurrenz. Die aufwändige Variante „Speciale", die längere Denkzeiten nutze, komme sogar auf 96 Prozent. 


Einziger Haken: DeepSeek-V3.2 brauche deutlich mehr Tokens als die Konkurrenz. Bei der AIME generiere Gemini-3.0-Pro durchschnittlich 15.000 Tokens pro Aufgabe, DeepSeek-V3.2-Speciale hingegen stattliche 23.000.


Was das für Ihr Unternehmen bedeutet


Interessant wird das Modell vor allem für automatisierte Workflows. Die Kombination aus Denkprozess und Werkzeugnutzung ermöglicht komplexe Aufgaben: Code schreiben und testen, Datenbanken abfragen und Ergebnisse analysieren, im Web recherchieren und Berichte erstellen – alles in einem Durchgang. Allerdings erfordert der Eigenbetrieb eine entsprechende Hardware und das nötige Know-how. 


Fazit: Die Lücke wird kleiner


DeepSeek-V3.2 zeigt: Open-Source-Modelle holen auf. Zwar liege das Wissensfundament noch unter dem der großen Modelle, aber bei spezifischen Aufgaben wie zum Beispiel Mathematik, Programmierung und strukturierten Analysen spiele es bereits in derselben Liga.


Unternehmen sind nicht mehr zwingend auf OpenAI oder Google angewiesen. Ob DeepSeek-V3.2 allerdings im Praxiseinsatz hält, was die Benchmarks versprechen, werden die nächsten Monate zeigen.


Quelle: DeepSeek-AI: „DeepSeek-V3.2: Pushing the Frontier of Open Large Language Models" – Technical Report, Dezember 2024



Glossar


  • Open Source: Software, deren Quellcode öffentlich zugänglich und frei nutzbar ist.

  • Sparse Attention: Effiziente Technik, bei der das Modell nur auf ausgewählte Textteile achtet statt auf alle.

  • Reinforcement Learning: Lernverfahren, bei dem ein System durch Trial-and-Error mit Belohnungssignalen lernt.

  • Benchmark: Standardisierter Test zum Vergleich von KI-Modellen

  • Token: Texteinheit, die ein KI-Modell verarbeitet – meist Wortteile oder einzelne Wörter.

bottom of page