Zum Hauptinhalt springen

Verfügbare Modelle

Wir bieten aktuell die nachfolgenden Modelle an, die sich im Laufe der Zeit ändern oder erweitern können. Diese werden beschrieben und modellspezifische Parameter aufgeführt.

ModellnameTypModalitätenContext (Tokens)Lizenz
gpt-oss-120bChat + ReasoningText, Tool-Calling131.072Apache 2.0
Ministral-3-14B-Instruct-2512Chat + VisionText, Bild, Tool-Calling262.144Apache 2.0
Devstral-Small-2-24B-Instruct-2512ChatText, Bild, Tool-Calling262.144Apache 2.0
Qwen3-Embedding-8BEmbeddingText → Vektor32.768Apache 2.0
whisper-large-v3-turboSpeech-to-TextAudio → Textn/a (Audio-basiert)MIT
Qwen3.5-122B-A10B-FP8Chat + Reasoning + VisionText, Bild, Tool-Calling245.760Apache 2.0
Qwen3.6-35B-A3B-FP8Chat + Reasoning + VisionText, Bild, Tool-Calling256.000Apache 2.0

Modellauswahl

  • Beginne mit Ministral-3-14B-Instruct-2512 für breite, skalierbare, kostenbewusste Chat- und einfache multimodale Workflows (Text + Bild).
  • Wechsle zu Devstral-Small-2-24B-Instruct-2512 für anspruchsvolle, nuancierte, geschäftskritische Aufgaben, bei denen höchste Antwortqualität, agentische Workflows und Bildverständnis entscheidend sind.
  • Verwende gpt-oss-120b für komplexe textbasierte Workloads und fortgeschrittene Automatisierungen, die eine hohe Präzision und umfangreiches Wissen erfordern.
  • Wähle Qwen3-Embedding-8B für alle Anwendungsfälle mit Suche, Empfehlung, Clustering oder Knowledge-Graph-Aufbau.
  • Setze whisper-large-v3-turbo für alle Transkriptions- oder Sprachbefehl-Anforderungen ein.
  • Verwende Qwen3.5-122B-A10B-FP8 für umfangreiche Reasoning- und Vision-Aufgaben, bei denen hohe Modellkapazität erforderlich ist.
  • Verwende Qwen3.6-35B-A3B-FP8 für Workloads, die lange Kontextfenster mit Reasoning- und Vision-Unterstützung bei niedrigeren Kosten erfordern.

Auf den nachfolgenden Seiten erhältst du weitere Informationen zu diesen Modellen: