Ollama

Ollama

Open Source MIT

Große Sprachmodelle lokal und unkompliziert ausführen

Website
ollama.com
Schwierigkeit
● Einfach
Letzte Prüfung
2026-02-26

Beschreibung

Ollama ermöglicht es, große Sprachmodelle wie Llama, Mistral, Gemma und viele weitere lokal auf dem eigenen Rechner auszuführen. Die Installation ist denkbar einfach, und Modelle können mit einem einzigen Befehl heruntergeladen und gestartet werden. Ollama bietet eine REST-API und ist kompatibel mit der OpenAI-API, was die Integration in bestehende Anwendungen erleichtert.

Vorschau

Ollama Preview

Plattformen

Linux Windows macOS Docker

Ersetzt folgende proprietäre Tools

ChatGPT Ollama
Midjourney Ollama
DALL-E Ollama

Selbst hosten

Ollama kann auf eigener Infrastruktur betrieben werden. Besuche die offizielle Dokumentation für eine Installationsanleitung.

Zur Dokumentation →

Tags

#llm #lokal #sprachmodelle #rest-api #go
← Zurück zu KI & Machine Learning