Apple Speech nutzt Apples natives Speech-Framework für vollständig lokale Spracherkennung auf dem Gerät. Es bietet Echtzeit-Streaming mit Zwischenergebnissen und verwaltet automatisch den Download von Sprachmodellen. Erfordert macOS 26.0 oder neuer.
Features
Apples natives Speech-Framework
Vollständig lokale Verarbeitung auf dem Gerät
Echtzeit-Streaming mit Zwischenergebnissen
Automatischer Sprachmodell-Download
Kein API-Schlüssel oder Cloud-Konto nötig
Transkriptionsmodelle
Modelle werden automatisch vom System verwaltet - ein Modell pro Sprache, bei Bedarf heruntergeladen.
Konfiguration
Kein API-Schlüssel erforderlich. Apple Speech läuft vollständig auf dem Gerät.
Einrichtung
Stelle sicher, dass du macOS 26.0 oder neuer verwendest
Öffne TypeWhisper Einstellungen > Plugins
Finde das Apple Speech-Plugin und aktiviere es
Sprachmodelle werden bei Bedarf automatisch heruntergeladen
Wähle Apple Speech als Transkriptions-Engine in den Einstellungen oder in einem Profil