OpenAI Compatible
Mitgeliefertvon TypeWhisper
Über
OpenAI Compatible ist ein universaler Adapter, der TypeWhisper mit jedem Dienst verbindet, der eine OpenAI-kompatible API bietet. Nutze es mit Ollama, LM Studio, vLLM oder jedem anderen kompatiblen Server fuer lokale LLM-Prompt-Verarbeitung. Server, die auch OpenAI-kompatible Audio-Endpunkte implementieren, koennen fuer Transkription genutzt werden. Modelle werden dynamisch vom /v1/models-Endpunkt des Servers geladen oder koennen manuell eingegeben werden.
Features
- Funktioniert mit jeder OpenAI-kompatiblen API (Ollama, LM Studio, vLLM usw.)
- Transkription und LLM-Unterstützung
- Übersetzungsunterstützung
- Über 99 Sprachen (abhängig vom Modell)
- Dynamische Modellerkennung via
/v1/models-Endpunkt - Manuelle Modelleingabe möglich
- Verbindungstest-Funktion
- Kein Vendor-Lock-in
Transkriptions- & LLM-Modelle
Modelle werden dynamisch vom verbundenen Server geladen. Du kannst Modellnamen auch manuell eingeben.
Konfiguration
- Server-URL - Die Basis-URL deines OpenAI-kompatiblen Servers (z.B.
http://localhost:11434/v1für Ollama) - API-Schlüssel - Optional, abhängig vom Server
Schnelle Einrichtung
- Starte deinen OpenAI-kompatiblen Server (z.B. Ollama, LM Studio)
- Öffne TypeWhisper Einstellungen > Plugins
- Finde das OpenAI Compatible-Plugin und klicke auf Konfigurieren
- Gib deine Server-URL ein
- Nutze “Verbindung testen”, um die Verbindung zu prüfen
- Wähle OpenAI Compatible als Transkriptions-Engine oder LLM-Anbieter
Ollama fuer lokale LLM-Prompts nutzen
Ollama stellt eine OpenAI-kompatible API unter http://localhost:11434/v1 bereit. TypeWhisper kann diesen Endpunkt fuer Workflows und Prompt-Verarbeitung nutzen, ohne dass dasselbe lokale LLM ein zweites Mal geladen werden muss.
- Installiere und starte Ollama.
- Lade ein Modell, zum Beispiel
ollama pull llama3.2. - Oeffne in TypeWhisper Einstellungen > Plugins > OpenAI Compatible.
- Setze Server-URL auf
http://localhost:11434/v1. - Lasse API-Schluessel leer.
- Klicke auf Verbindung testen.
- Aktualisiere die Modelle und waehle das Ollama-Modell fuer LLM-Aufgaben aus.
Siehe die offiziellen Ollama OpenAI-Kompatibilitaetsdocs fuer die unterstuetzten /v1/*-Endpunkte.
LM Studio fuer lokale LLM-Prompts nutzen
LM Studio bietet einen OpenAI-kompatiblen lokalen Server, haeufig unter http://localhost:1234/v1.
- Oeffne LM Studio und lade ein Chat-Modell.
- Starte den lokalen Server in LM Studio.
- Oeffne in TypeWhisper Einstellungen > Plugins > OpenAI Compatible.
- Setze Server-URL auf
http://localhost:1234/v1. - Lasse API-Schluessel leer, sofern dein LM-Studio-Server keinen verlangt.
- Klicke auf Verbindung testen.
- Aktualisiere die Modelle und waehle das geladene LM-Studio-Modell fuer LLM-Aufgaben aus.
Siehe die offiziellen LM Studio OpenAI-Kompatibilitaetsdocs fuer die unterstuetzten Endpunkte.
Hinweise zur Transkription
Ollama und LM Studio sind LLM-Server. Sie unterstuetzen OpenAI-kompatible Text-Endpunkte wie /v1/models und /v1/chat/completions, die TypeWhisper fuer Prompt-Verarbeitung nutzt.
Um OpenAI Compatible als Transkriptions-Engine zu verwenden, muss der Server auch OpenAI-kompatible Audio-Endpunkte wie /v1/audio/transcriptions implementieren. Wenn dein Server nur Chat Completions unterstuetzt, nutze OpenAI Compatible fuer LLM-Workflows und waehle fuer Speech-to-Text eine dedizierte TypeWhisper-Transkriptions-Engine.
Fehlerbehebung
- Wenn Verbindung testen fehlschlaegt, pruefe, ob der Server laeuft und ob die URL mit
/v1endet. - Wenn keine Modelle erscheinen, gib den Modellnamen manuell exakt so ein, wie der Server ihn meldet.
- Wenn LLM-Workflows funktionieren, aber Transkription fehlschlaegt, implementiert der Server wahrscheinlich keine OpenAI-kompatiblen Audio-Transkriptionsendpunkte.