Exklusive KI-Community, 8 Präsenz-Events mit führenden KI-Experten, Kuratiertes KI-Wissen on-demand...

Exklusive KI-Community, 8 Präsenz-Events mit führenden KI-Experten, Kuratiertes KI-Wissen on-demand...
Intensives 48-Stunden-Training, Praxisnahes Lernen mit Experten, Zertifizierung & Zugang zu Premium-Tools...
HyperRAG Tech
Wie HyperRAG technisch aufgebaut ist, wie Sie es betreiben und in Ihre Infrastruktur integrieren.
Wie funktioniert HyperRAG?
HyperRAG ist ein Enterprise-Recherche-System, das Vektorsuche, klassische Suche und strukturierte Daten in einer gemeinsamen Engine vereint.
Es läuft vollständig in Ihrer Infrastruktur und nutzt eine modulare Architektur aus API-Server, Vektor-Datenbank, relationaler Datenbank und Job-Queue.
Retrieval-Engine & Deep Research
Die Retrieval-Engine von HyperRAG ist darauf ausgelegt, nicht nur „ähnliche Passagen“ zu finden, sondern vollständige Antworten auf fachliche Fragen zu liefern.
Query-Pfade
HyperRAG nutzt sechs kombinierbare Query-Pfade, um pro Anfrage den bestmöglichen Weg zur Antwort zu wählen.
Semantische Suche:
Bedeutungsbasierte Suche über Vektoren
Metadata-Filter: Einschränkung nach Typ, Datum, Autor, Tags etc.
Keyword/BM25: Klassische Volltextsuche für exakte Begriffe
Dokument-Level-Retrieval: Direkte Auswahl kompletter Dokumente
Hybrid: Kombination aus Semantik und Keywords
SQL für Tabellendaten: Abfragen auf strukturierten Daten (DataCard 2.0)
Auto-Routing wählt auf Wunsch automatisch die passende Kombination dieser Pfade pro Frage.
Kombiniert semantische Vektorsuche, Keyword-Suche und SQL in einer Retrieval-Engine
Läuft on-premise oder in Ihrer EU-Cloud – ohne Pflicht zu externen SaaS-Diensten
Skaliert Input, Suche und Automatisierung unabhängig voneinander
Unterstützt sowohl klassische Suchanwendungen als auch agentenbasierte Deep-Research-Szenarien auf derselben Plattform.
4-Vektor-AQE
Statt eines einzelnen Embeddings speichert HyperRAG pro Textsegment vier Vektoren.
Content:
Bedeutung des Originaltexts
Summary:
komprimierte Kernaussagen
Literal Questions:
Fragen, die dieser Abschnitt direkt beantwortet
Conceptual Questions: übergeordnete Fragestellungen, zu denen der Abschnitt relevant ist
Dadurch können Fragen je nach Typ gegen die passende Repräsentation gematcht werden – etwa direkte Fragen gegen „Literal Questions“, explorative Fragestellungen eher gegen „Conceptual“.
Deep Research
Mit Deep Research führt HyperRAG mehrstufige Recherchen aus, die mehrere Dokumente und Datensätze einbeziehen.
Zerlegt komplexe Fragen in Teilfragen und führt mehrere Such- und Analyse-Hops aus
Liefert strukturierte Reports mit Zitaten und Finding-Typen
Drei Modi steuern Tiefe und Laufzeit:
Quick (ca. 30 sek), Standard (ca. 2 min) und Deep (ca. 5 min)
Nutzt Text- und Tabellendaten gemeinsam in einem Research-Lauf
So erhalten Sie nicht nur Antworten, sondern vollständige Recherche-Reports, die Zusammenhänge über Dokumentgrenzen hinweg aufdecken und Ihre Entscheidungsgrundlage systematisch verbessern.
Strukturierte Daten mit DataCard 2.0
DataCard 2.0 macht Ihre Tabellen zu einem vollwertigen Teil der Recherche-Engine
Erkennt automatisch Tabellen in Excel-, CSV- und JSON-Dateien und legt dafür SQL-Tabellen in PostgreSQL an
Wird von Deep Research automatisch genutzt, wenn eine Frage besser über Aggregationen/Filter als über Fließtext beantwortet wird
Unterstützt direkte SQL-Abfragen und Abfragen in natürlicher Sprache, die intern in SQL übersetzt werden
Beispiel: „Vergleich Zugfestigkeit über alle Q3 2025 Testchargen“ – HyperRAG greift dafür direkt auf die entsprechenden Testdaten-Tabellen zu
Systemarchitektur &
Deployment-Optionen
HyperRAG setzt auf eine robuste Architektur mit Standardkomponenten, die sich gut in bestehende IT-Landschaften einfügt.
Komponenten
HyperRAG Server: REST-API, Worker und Admin-Webkonsole
NATS JetStream: Job-Queue für asynchrone Verarbeitung
PostgreSQL: Metadaten, Jobs, Kostenlogs, Audit-Trail, DataCard-Tabellen
getMD: Dienst für die Konvertierung von Office-, PDF- und Bildformaten nach Markdown
Qdrant: Vektorspeicher für die semantische Suche
Charon: Authentifizierungs-Gateway (JWT, API Keys, Service-to-Service)
Deployment-Modelle
Managed in Ihrer Umgebung:
vAudience betreibt HyperRAG in Ihrer Infrastruktur oder EU-Cloud
POC/Consulting: Gemeinsame Evaluierung mit Ihren realen Dokumenten
Self-hosted: Sie betreiben HyperRAG selbst, wir liefern Setup, Best Practices und Support
Service-Modi
HyperRAG kann in getrennten Modi laufen, damit Sie nur das skalieren, was Last hat:
ingestion: Verarbeitet und indexiert Dokumente. Ideal für hohe Ingest-Last,
z. B. nächtliche Re-Indexierung.
gathering: Holt Inhalte aus Filesystemen, Web und Remote-Speichern und schiebt sie per API ins System.
retrieval: Beantwortet Suchanfragen und Deep-Research-Jobs. Ideal, wenn viele Nutzer parallel suchen und analysieren.
So können Sie Verarbeitung, Suche und Datensammlung unabhängig voneinander betreiben und skalieren.
Sicherheit, Authentifizierung & Compliance
Ausgelegt für regulierte Umgebungen mit klarem Authentifizierungs- und Berechtigungsmodell.
Authentication & Authorization
Integration über Charon mit vier Auth-Modi: Gateway-JWT, Service-to-Service-Tokens, API Keys, Dev-Modus
Rollenmodell mit Owner, Editor, Viewer auf Corpus- und Dokumentebene
Strikte Mandanten- und Organisationsisolation
Audit & Logging
Vollständiger Audit-Trail für Ingestion, Queries, Berechtigungsänderungen und Kosten
Export der Logs in PostgreSQL, zentrale Logsysteme und Webhooks möglich
GDPR & Data Residency
Betrieb vollständig in Ihrer Infrastruktur oder in EU-Regionen
Unterstützung von Löschkonzepten (TTL, Right to Erasure), Export (Data Portability) und Datenminimierung über Konfiguration
Audit-Trail als Nachweis gegenüber Prüfern
KI-Anbieter & Kostenkontrolle
HyperRAG trennt bewusst die Retrieval-Logik von den zugrunde liegenden AI-Modellen und macht Kosten transparent.
KI-Anbieter
Draco (self-hosted vLLM): Modelle in Ihrem Netzwerk, keine Datenabflüsse
Vertex AI (Google, EU-Region):
Für Organisationen mit GCP-Setup
OpenAI (optional):
Für weniger sensible Datensätze
Pro Corpus können unterschiedliche Provider gewählt werden – etwa interne Modelle für vertrauliche Verträge oder externe Modelle für öffentliche Dokumente.
Kosten-Tracking & Budgets
Erfasst jede LLM- und Embedding-Operation pro Token und pro Operationstyp (Ingestion, Query, Research, Annotation)
Ordnet Kosten einzelnen Nutzern, Organisationen, Corpora und Jobtypen zu
Unterstützt Budgets und Alerts
(z. B. bei 80/90/100 % Verbrauch) sowie Forecasting auf Basis historischer Nutzung
So behalten Sie die Kosten von AI-Operationen auf Euro-Basis im Griff.
Integration & APIs
Problemlose Integration über standardisierte Schnittstellen in bestehende Systeme.
Interfaces
REST API: 130+ Endpoints, OpenAPI/Swagger dokumentiert,
JSON-Requests und -Responses
CLI (dpr): Skriptbare Steuerung von Ingestion, Konfiguration, Queries und Research
Web Console: Admin-UI für Corpora, Jobs, Gatherer, Kosten und Systemstatus (kein Endnutzer-Frontend)
Ingestion & Automatisierung
Ingestion via REST, Batch/JSONL, CLI
Gatherer für automatisierte Sammlung aus Filesystemen, Webseiten und Remote-Filesystemen
Webhooks für Events wie „Job abgeschlossen“, „Gatherer-Lauf fertig“, „Budget-Alert erreicht“
Damit binden Sie HyperRAG in DMS, CRM, Ticket-Systeme oder interne Portale ein, ohne proprietäre SDKs zu benötigen.
Betriebsreife & Monitoring
HyperRAG ist als dauerhafter Bestandteil Ihrer Infrastruktur gedacht – mit Fokus auf Stabilität und Beobachtbarkeit.
Deep Research
Mit Deep Research führt HyperRAG mehrstufige Recherchen aus, die mehrere Dokumente und Datensätze einbeziehen.
Umfangreiche Testabdeckung und End-to-End-Tests
(HTTP, AI, Conversion, Benchmarks)
Health-Checks: Liveness- und Readiness-Probes für orchestrierte Umgebungen (z. B. Kubernetes)
Monitoring: Prometheus-Metriken für Embeddings, Query-Latenzen, Job-Durchsatz, Circuit-Breaker-Status
Resilienzmechanismen: Circuit Breaker pro AI-Provider, Retry mit Backoff, Dead-Letter-Queues und Orphan-Recovery für Jobs
Damit fügt sich HyperRAG nahtlos in bestehende Monitoring- und Ops-Prozesse ein.