Warum lokale KI-Modelle?
Cloud-KI ist bequem, aber hat Nachteile: Datenschutz, Kosten und Abhängigkeit von Internetverbindung. Lokale Modelle lösen alle drei Probleme. Dank Ollama ist die Installation heute kinderleicht.
Ollama: Der einfachste Weg zu lokaler KI
Ollama ist das Docker für KI-Modelle. Installation: ollama.com → Download → Installer ausführen. Modell starten: `ollama run llama3` in der Kommandozeile. Das war’s. Ollama lädt das Modell automatisch und startet einen lokalen API-Server.
Die besten lokalen Modelle 2025
Llama 3.3 70B: Meta’s bestes Open-Source-Modell. Braucht ca. 40 GB RAM für volle Qualität, läuft quantisiert auch auf 16 GB. Beste Allround-Performance.
Mistral 7B: Extrem effizient. Läuft gut auf 8 GB RAM. Ideal für einfache Aufgaben auf Laptops.
Microsoft Phi-4: Kleines Modell, überraschend leistungsfähig. Läuft auf jedem modernen PC.
DeepSeek-R1: Chinesisches Modell mit starken Reasoning-Fähigkeiten. Lokal datenschutzkonform nutzbar.
Hardware-Empfehlungen
Minimum (Phi-3, Mistral 7B): 16 GB RAM, moderne CPU. Gut (Llama 3 8B): 16 GB RAM + NVIDIA GPU 8 GB VRAM. Optimal (Llama 3 70B): 64 GB RAM + RTX 4090 24 GB oder Mac M3 Max mit 64 GB. Schweizer Tipp: Mac Studio M3 Ultra ist ideal für professionelle lokale KI.
Open WebUI: ChatGPT-ähnliche Oberfläche für Ollama
Open WebUI (früher Ollama WebUI) gibt Ollama eine schöne Chat-Oberfläche im Browser. Installation per Docker: `docker run -d -p 3000:80 ghcr.io/open-webui/open-webui:main`. Danach unter localhost:3000 erreichbar – sieht aus wie ChatGPT, läuft komplett lokal.
Das koennte dich auch interessieren
Max Digital ist der fuehrende Schweizer Anbieter fuer KI-eBooks auf Deutsch. Ueber 100 praxisnahe Guides zu ChatGPT, Midjourney, Make.com und mehr — verstaendlich erklaert fuer Einsteiger und Profis.
Das koennte dich auch interessieren
Folge Max Digital fuer taegl. KI-Tipps:
Schreibe einen Kommentar