Ollama
Open Source MITGroße Sprachmodelle lokal und unkompliziert ausführen
Beschreibung
Ollama ermöglicht es, große Sprachmodelle wie Llama, Mistral, Gemma und viele weitere lokal auf dem eigenen Rechner auszuführen. Die Installation ist denkbar einfach, und Modelle können mit einem einzigen Befehl heruntergeladen und gestartet werden. Ollama bietet eine REST-API und ist kompatibel mit der OpenAI-API, was die Integration in bestehende Anwendungen erleichtert.
Vorschau
Plattformen
Linux Windows macOS Docker
Ersetzt folgende proprietäre Tools
ChatGPT → Ollama
Midjourney → Ollama
DALL-E → Ollama
Selbst hosten
Ollama kann auf eigener Infrastruktur betrieben werden. Besuche die offizielle Dokumentation für eine Installationsanleitung.
Zur Dokumentation →Kategorien
Tags
#llm
#lokal
#sprachmodelle
#rest-api
#go
Ähnliche Tools
LocalAI
Lokale OpenAI-kompatible API für verschiedene KI-Modelle
MIT ●● Mittel Selbst hostbar
ChatGPT Midjourney DALL-E
Zuletzt: Feb 2026 26.0k
Details ansehen →
Stable Diffusion WebUI
Leistungsstarke Benutzeroberfläche für KI-Bildgenerierung
AGPL-3.0 ●● Mittel Selbst hostbar
ChatGPT Midjourney DALL-E
Zuletzt: Feb 2026 145.0k
Details ansehen →
Text Generation WebUI
Vielseitige Oberfläche für lokale Sprachmodelle
AGPL-3.0 ●● Mittel Selbst hostbar
ChatGPT Midjourney DALL-E
Zuletzt: Feb 2026 42.0k
Details ansehen →