← Zurück zum Blog

OllamaDeploy: Lokale KI auf dem Mac
privat, offline, kostenlos

ChatGPT, Claude, Gemini – wir alle nutzen mittlerweile KI-Assistenten im Alltag. Doch wer sensible Daten verarbeitet oder einfach seine Privatsphäre schätzt, stellt sich die Frage: Muss ich meine Texte, Code-Snippets und Dokumente wirklich in die Cloud schicken?

Die Antwort: Nein. Mit OllamaDeploy habe ich ein Open-Source-Tool entwickelt, das die Installation eines vollständigen KI-Systems auf dem Mac automatisiert – in weniger als 10 Minuten.

Was ist OllamaDeploy?

OllamaDeploy ist ein Installationsskript, das drei Komponenten zusammenbringt:

  • Ollama – die Basis-Plattform für lokale Large Language Models (LLMs)
  • Docker Desktop – für die Container-Isolation
  • Open WebUI – eine ChatGPT-ähnliche Weboberfläche

Nach der Installation läuft ein komplettes KI-System lokal auf dem Mac. Keine Internetverbindung erforderlich, keine Daten verlassen den Rechner.

Warum lokal?

Die Vorteile einer lokalen KI-Installation sind vielfältig:

  • Datenschutz – Vertrauliche Dokumente, Code und persönliche Daten bleiben auf dem eigenen Gerät
  • Keine Abokosten – Einmal installiert, fallen keine monatlichen Gebühren an
  • Offline-Betrieb – Perfekt für unterwegs oder in Umgebungen ohne Internetzugang
  • Flexibilität – Verschiedene KI-Modelle parallel nutzbar, je nach Aufgabe
Cloud vs. lokale KI: Datenschutz durch lokale Verarbeitung
Links: Daten fließen zur Cloud. Rechts: Lokale Verarbeitung mit Datenschutz.

Welche Modelle stehen zur Verfügung?

OllamaDeploy unterstützt alle Modelle aus dem Ollama-Katalog:

  • LLaMA 3.1/3.3 (Meta) – Der Allrounder für die meisten Aufgaben
  • DeepSeek-R1 – Besonders stark bei Programmieraufgaben
  • Gemma 3 (Google) – Kompakt und schnell
  • Mistral – Gute Balance aus Geschwindigkeit und Qualität

Systemanforderungen

OllamaDeploy ist optimiert für Macs mit Apple Silicon:

  • Mac mit M1, M2, M3 oder M4 Prozessor
  • Mindestens 16 GB RAM (32 GB empfohlen)
  • 50 GB freier Speicherplatz
  • macOS 11 Big Sur oder neuer

Installation in 3 Schritten

Die Installation ist bewusst einfach gehalten:

# 1. ZIP herunterladen und entpacken
# Download: https://juergenkoller.software/downloads/OllamaDeploy.zip
cd OllamaDeploy

# 2. Interaktives Menü starten
./start.sh

# 3. "Vollautomatische Installation" wählen

Nach etwa 10 Minuten öffnet sich die Weboberfläche unter http://localhost:3000.

Für wen ist OllamaDeploy geeignet?

Das Tool richtet sich an:

  • Entwickler – Code-Reviews, Debugging, Dokumentation
  • Content Creator – Texte schreiben, Brainstorming, Übersetzungen
  • Unternehmen – Sensible Daten lokal verarbeiten
  • Privatanwender – KI nutzen ohne Datenweitergabe

Download

OllamaDeploy steht als kostenloser Download zur Verfügung. Das Projekt basiert auf bewährten Open-Source-Komponenten (Ollama, Open WebUI) und kann frei verwendet werden.

OllamaDeploy herunterladen (ZIP, 46 KB)

Basierend auf: heise.de – Mac als lokales KI-System: So geht's

Fazit

Wer KI nutzen möchte, ohne seine Daten an Cloud-Dienste zu übermitteln, findet in OllamaDeploy eine unkomplizierte Lösung. Die Installation ist automatisiert, die Bedienung über die Weboberfläche intuitiv, und die Modellauswahl deckt die meisten Anwendungsfälle ab.

Probiert es aus und gebt mir Feedback – gerne per Kontaktformular oder E-Mail.

Unser macOS-Tool für PDF-Suche

PDF Content Search – Entwickelt für Profis. Jetzt 30 Tage testen