Plattform
ScaiWave ScaiGrid ScaiCore ScaiBot ScaiDrive ScaiKey Modelle Tools & Services
Lösungen
Organisationen Entwickler Internet Service Provider Managed Service Provider AI-in-a-Box
Ressourcen
Support Dokumentation Blog Downloads
Unternehmen
Über uns Forschung Karriere Investieren Kontakt
Warum

Warum wir eigene Modelle bauen

Die meisten KI-Plattformen sind Wiederverkäufer - sie leiten Ihre Anfragen an fremde Modelle weiter und fügen eine Verwaltungsschicht hinzu. ScaiLabs macht das auch, aber wir bauen auch unsere eigenen Modelle.

Warum? Weil echte Unabhängigkeit erfordert, den gesamten Stack zu besitzen. Wenn Sie bei Inferenz von OpenAI oder Anthropic abhängig sind, hängen Sie von deren Preisen, Verfügbarkeit, Content-Richtlinien und Roadmap ab. Poolnoodle gibt unseren Kunden eine echte Alternative - Modelle, die auf eigener Hardware laufen, auf eigenen Daten fine-tuned werden und ohne externe Abhängigkeit betrieben werden können.

Die Familie

Poolnoodle Produktionsmodelle

Drei Modelle, jeweils optimiert für unterschiedliche Workloads und Hardware-Einschränkungen.

Poolnoodle Mini

Unser kleinstes und schnellstes Modell. Läuft auf leichter Hardware einschließlich Laptops und Edge-Geräten. Ideal für schnelle Aufgaben: Klassifizierung, Zusammenfassung, einfache Q&A und Hochdurchsatz-Szenarien.

Poolnoodle Turbo

Ein fortschrittliches Mixture-of-Experts (MoE) Modell, das pro Anfrage nur die relevanten Expertennetzwerke aktiviert. Liefert die Reasoning-Qualität eines viel größeren Modells zu einem Bruchteil der Compute-Kosten. Das Arbeitstier für die meisten Geschäftsanwendungen.

Poolnoodle Omni

Ein großes omnimodales Modell, das Text, Bilder, Audio und Code in einer einzigen Architektur verarbeitet. Für komplexe Aufgaben, die modellübergreifendes Verständnis erfordern: Dokumentenanalyse mit Bildern, multimodales RAG und fortgeschrittenes Reasoning.

FixerNoodle

Intelligenter Router, der eingehende Anfragen analysiert und an die optimale Poolnoodle-Variante weiterleitet. Omni-Qualität wo nötig, Mini-Geschwindigkeit wo möglich.

EmbedNoodle

Zweckgebautes Embedding-Modell für ScaiMatrix. Mehrsprachig, optimiert für Retrieval und semantische Suche auf der gesamten Plattform.

Technologie

MOSAIC: 1M Kontext auf Consumer-Hardware

Mixed-Order Sparsity with Attention-Informed Compression - unsere Durchbruchstechnologie, die mittlere und große LLMs mit 1M Token Kontextfenstern auf Consumer-Hardware wie dem NVIDIA DGX Spark ermöglicht.

MOSAIC komprimiert Modellgewichte dynamisch basierend auf Aufmerksamkeitsmustern und weist Präzision dort zu, wo es am wichtigsten ist. Das Ergebnis: nahezu verlustfreie Qualität bei einem Bruchteil des Speicherbedarfs.

Ökosystem

Zusammenarbeit

Poolnoodle ist nicht nur eine Sammlung unabhängiger Modelle - es ist ein kollaboratives System. FixerNoodle analysiert jede Anfrage und routet zum richtigen Modell: Mini für schnelle, einfache Aufgaben; Turbo für komplexes Reasoning zu effizienten Kosten; Omni wenn multimodales Verständnis gefragt ist. EmbedNoodle treibt die semantische Suchschicht an.

Die gesamte Familie arbeitet auch mit externen Modellen zusammen. ScaiGrid routet transparent zwischen Poolnoodle, Open-Source-Modellen und kommerziellen APIs.

Über Poolnoodle hinaus

Modellflexibilität

Open-Source-Modelle

Betreiben Sie Llama, Mistral, Qwen und andere offene Modelle über ScaiGrid mit demselben Routing, Abrechnung und Management.

Kommerzielle APIs

Routen Sie zu OpenAI, Anthropic, Google und anderen Anbietern. Einheitliche Abrechnung, Logging und Fallback.

Custom Fine-Tunes

Fine-Tuning jedes Modells auf Ihren eigenen Daten über ScaiMind. Domänenspezifische KI, die wirklich Ihnen gehört.

Interesse an Poolnoodle?

Verfügbar über ScaiGrid Cloud, On-Premises oder AI-in-a-Box.

Kontakt aufnehmen