ChatGPT, Claude, Gemini – wir alle nutzen mittlerweile KI-Assistenten im Alltag. Doch wer sensible Daten verarbeitet oder einfach seine Privatsphäre schätzt, stellt sich die Frage: Muss ich meine Texte, Code-Snippets und Dokumente wirklich in die Cloud schicken?
Die Antwort: Nein. Mit OllamaDeploy habe ich ein Open-Source-Tool entwickelt, das die Installation eines vollständigen KI-Systems auf dem Mac automatisiert – in weniger als 10 Minuten.
Was ist OllamaDeploy?
OllamaDeploy ist ein Installationsskript, das drei Komponenten zusammenbringt:
- Ollama – die Basis-Plattform für lokale Large Language Models (LLMs)
- Docker Desktop – für die Container-Isolation
- Open WebUI – eine ChatGPT-ähnliche Weboberfläche
Nach der Installation läuft ein komplettes KI-System lokal auf dem Mac. Keine Internetverbindung erforderlich, keine Daten verlassen den Rechner.
Warum lokal?
Die Vorteile einer lokalen KI-Installation sind vielfältig:
- Datenschutz – Vertrauliche Dokumente, Code und persönliche Daten bleiben auf dem eigenen Gerät
- Keine Abokosten – Einmal installiert, fallen keine monatlichen Gebühren an
- Offline-Betrieb – Perfekt für unterwegs oder in Umgebungen ohne Internetzugang
- Flexibilität – Verschiedene KI-Modelle parallel nutzbar, je nach Aufgabe
Welche Modelle stehen zur Verfügung?
OllamaDeploy unterstützt alle Modelle aus dem Ollama-Katalog:
- LLaMA 3.1/3.3 (Meta) – Der Allrounder für die meisten Aufgaben
- DeepSeek-R1 – Besonders stark bei Programmieraufgaben
- Gemma 3 (Google) – Kompakt und schnell
- Mistral – Gute Balance aus Geschwindigkeit und Qualität
Systemanforderungen
OllamaDeploy ist optimiert für Macs mit Apple Silicon:
- Mac mit M1, M2, M3 oder M4 Prozessor
- Mindestens 16 GB RAM (32 GB empfohlen)
- 50 GB freier Speicherplatz
- macOS 11 Big Sur oder neuer
Installation in 3 Schritten
Die Installation ist bewusst einfach gehalten:
# 1. ZIP herunterladen und entpacken
# Download: https://juergenkoller.software/downloads/OllamaDeploy.zip
cd OllamaDeploy
# 2. Interaktives Menü starten
./start.sh
# 3. "Vollautomatische Installation" wählen
Nach etwa 10 Minuten öffnet sich die Weboberfläche unter http://localhost:3000.
Für wen ist OllamaDeploy geeignet?
Das Tool richtet sich an:
- Entwickler – Code-Reviews, Debugging, Dokumentation
- Content Creator – Texte schreiben, Brainstorming, Übersetzungen
- Unternehmen – Sensible Daten lokal verarbeiten
- Privatanwender – KI nutzen ohne Datenweitergabe
Download
OllamaDeploy steht als kostenloser Download zur Verfügung. Das Projekt basiert auf bewährten Open-Source-Komponenten (Ollama, Open WebUI) und kann frei verwendet werden.
OllamaDeploy herunterladen (ZIP, 46 KB)
Basierend auf: heise.de – Mac als lokales KI-System: So geht's
Fazit
Wer KI nutzen möchte, ohne seine Daten an Cloud-Dienste zu übermitteln, findet in OllamaDeploy eine unkomplizierte Lösung. Die Installation ist automatisiert, die Bedienung über die Weboberfläche intuitiv, und die Modellauswahl deckt die meisten Anwendungsfälle ab.
Probiert es aus und gebt mir Feedback – gerne per Kontaktformular oder E-Mail.