KI-Alltag - LLMs lokal hosten - 1337!
Lokale Installation von LLMs in 1337: benutzerfreundliche Methode mit OpenWebUI In einem früheren Beitrag habe ich eine Methode zur lokalen Installation von Large Language Models (LLMs) mit Python und LMStudio.ai vorgestellt. Heute möchte ich euch eine Variante präsentieren, die Linux, Ollama und OpenWebUI nutzt - also absolut 1337 🤓 Vorteile dieser Methode Integrierte Benutzeroberfläche mit OpenWebUI Möglichkeit, mehrere LLMs und Bildgeneratoren wie StableDiffusion zu integrieren Nutzerverwaltung, Verwendung mehrerer GPTs, Presets,... Volle Kontrolle und Datensicherheit durch lokal installierte LLMs Schritt 1: Linux-Umgebung einrichten in Windows Ja, das geht! Mit WSL ist es möglich, Linux in Windows laufen zu lassen - wie 1337 ist das denn?! Einfach in der PowerShell eingeben: wsl --install und schon geht es los. Schritt 2: Ollama installieren Ollama ist ein Tool, das die Verwaltung und Ausführung v...