Zum Inhalt

LLMs

KARLI-gehostete Chat-Modelle sind ein Provider neben den übrigen (OpenAI, Anthropic usw.) und in jeder modell-fähigen Komponente auswählbar — am häufigsten in Language Model und Agent.

Technisch spricht der KARLI-Provider eine OpenAI-kompatible API: Komponenten wählen ein KARLI-Modell genauso wie ein OpenAI-Modell, aber die Requests gehen an den KARLI-Endpoint.

Verfügbare Modelle

Modell Hinweise
karli/KARLI-MoE-latest KARLI-Standard-Chat-Modell; unterstützt Tool Calling.

Ein KARLI-Modell auswählen

Jede modell-fähige Komponente (z. B. Language Model oder Agent) öffnen, als Provider KARLI wählen und ein Modell aus dem Dropdown picken. Der Provider blendet die in der Modelle-Übersicht beschriebenen Zugangsdaten KARLI_API_KEY / KARLI_BASE_URL ein.

agent-component-karli-llm-select.png

Provider-Filterung

Einzelne Agentlab-Dropdowns sind auf einen bestimmten Provider eingegrenzt — zum Beispiel ist der Modell-Selector für die Extraktion in der Read-File-Komponente ausschließlich auf KARLI gefiltert (siehe Datenextraktion). Weitergehende, deployment-weite Provider-Filterung (etwa für Datensouveränität oder Compliance) wird nicht von Agentlab, sondern von der umgebenden Karli-Studio-Plattform durchgesetzt.