Open WebUI: Kostenlose KI-Modelle via OpenRouter oder Ollama Cloud
Achtung: Die Daten gelangen dabei in die Cloud auf fremde Server im Ausland. FĂŒr sensible Personendaten ist das keine gute Idee. Zudem ist in den meisten FĂ€llen auch unzulĂ€ssig, wie privatim, die Konferenz der schweizerischen Datenschutzbeauftragten, in der [Resolution vom 24.11.2025] festhĂ€lt.
FĂŒr Tests und anonyme Daten ist das beschriebene Vorgehen eher unbedenklich.
Lokaler Ollama-Server
Die Installation des Servers ist hier beschrieben:
Ollama Cloud Modelle
VerfĂŒgbare Modelle können so angezeigt werden:
https://ollama.com/search?c=cloud

Die Bereitstellung fĂŒr ein Cloud-Modell dauert nur einige Sekunden, da dieses nicht heruntergeladen werden muss. Hier ein 'glm-4.7-Modell' welches offenbar mit 327 Milliarden Parametern lĂ€uft. Es gibt aktuell vermutlich wenige Anwender, die so ein Modell auf der eigenen Hardware brauchbar zum Laufen bringen.
pp@MacStudio2025 ~ >ollama run glm-4.7:cloud
pulling manifest
pulling 1ccd7f5afbf8: 100% ââââââââââââââââââââ 327 B
verifying sha256 digest
writing manifest
success
Connecting to 'glm-4.7' on 'ollama.com' âĄ
>>> Send a message (/? for help)YouTube-Video
Die Installation von Open WebUI habe ich hier vorgestellt:
[OpenRouter] habe ich bisher vor allem mit Goose verwendet, wenn mĂ€chtige Modelle fĂŒr die Programmierung nötig waren:
Im Video wird Open WebUI im Zusammenspiel mit OpenRouter vorgestellt.
Die Zusammenfassung wurde mithilfe von KIâTools erstellt. Web ClipperâŻ>âŻObsidianâŻ>âŻCopilot, unter lokaler Verwendung von gptâoss:120b auf einem Mac Studio.
Weitere BeitrÀge zum Thema KI:

Zusammenfassung mit dem Obsidian Copilot Plugin und gpt-oss:120b
So erstellst du deinen eigenen KI-Chatbot mit allen KI-Modellen von allen Anbietern
- Vorstellung eines lokalen Chatbots, der alle Modelle aller Anbieter nutzt, inkl. GPTâ5âŻPro.
- SchrittâfĂŒrâSchritt Anleitung zur Installation und Konfiguration.
- Ziel: einfache, nichtâraketenwissenschaftliche Einrichtung.
OpenWebUI als OberflĂ€che fĂŒr den Chatbot installieren
- OpenWebUI ist ein OpenâSourceâProjekt, Download ĂŒber GitHub.
- Dokumentation bietet Quickstart fĂŒr private Nutzung.
- Adminâ und Userverwaltung vorhanden, kann aber fĂŒr Einzelnutzer vereinfacht werden.
Docker verwenden, um OpenWebUI einfach zu installieren
- Empfohlene Installationsmethode: Docker (alternativ Python/Kubernetes).
- Hinweis auf schrittweise Anleitung fĂŒr Einsteiger.
Docker installieren
- Download von docker.com fĂŒr macOS, Windows und Linux.
- Installation erfolgt wie jede andere Anwendung.
- Nach dem Start erscheint die DockerâOberflĂ€che mit SignâInâOption.
OpenWebUI ĂŒber das Docker Terminal herunterladen
- Image via
docker pullaus GitHub holen. - Nutzung des integrierten DockerâTerminals zum AusfĂŒhren des Befehls.
- Download kann je nach Verbindung einige Zeit dauern.
OpenWebUI als Docker Container installieren im Single User Modus
- Container starten und im âSingle User Modeâ ohne Login betreiben.
- Anpassungen nur nötig, wenn bereits eine Instanz existiert.
- Erfolgreicher Start wird in Docker angezeigt.
Unseren Docker Container ohne Terminal stoppen und starten
- Container kann ĂŒber die DockerâGUI gestoppt und gestartet werden.
- Ressourcen des PCs werden bei Stopp freigegeben.
Unsere OpenWebUI OberflÀche im Browser öffnen
- Zugriff ĂŒber
http://localhost:3000. - Ăffnet lokale WeboberflĂ€che, die wie ein normaler Chatbot wirkt.
Ăbersicht ĂŒber die OpenWebUI OberflĂ€che
- StandardâChatâInterface, zunĂ€chst nur das âArena Modelâ aktiv.
- Ziel: spĂ€ter alle gewĂŒnschten Modelle integrieren.
KI-Modelle ĂŒber OpenRouter einbinden
- Registrierung bei openrouter.com und APIâKey erstellen.
- APIâKey mit optionalem Ausgabenlimit sichern.
Einen API-Key fĂŒr OpenRouter erstellen
- SchlĂŒssel im Profil unter âKeysâ erzeugen, Namen und Limit festlegen.
- SchlĂŒssel muss nach Erstellung kopiert werden (einmalig einsehbar).
OpenRouter API in OpenWebUI verknĂŒpfen
- In OpenWebUI Einstellungen â Verbindung â OpenAIâAPI neuen Eintrag anlegen.
- APIâKey und BasisâURL (
https://openrouter.ai/api/v1) eingeben, speichern.
Die neuen Modelle in der Modellauswahl von OpenWebUI
- Nach VerknĂŒpfung erscheinen alle ĂŒber OpenRouter verfĂŒgbaren Modelle.
- Beispiele: GPTâ5âŻPro, GeminiâŻ2.5âŻPro, Anthropic, XAI usw.
- Auswahl und Test einer Modellantwort im Chat.
Spezielle Funktionen unseres OpenWebUI Chatbots: Mehrere Modelle nutzen, Antworten zusammenfĂŒhren
- Parallelabfrage mehrerer Modelle möglich.
- Kombinierte Antwort aus den einzelnen Modellausgaben generieren lassen.
- Nutzung kostenloser Modelle ĂŒber OpenRouter ebenfalls unterstĂŒtzt.
Verwaltung von Modellen in den Einstellungen
- Modellliste zeigt ca. 343 verfĂŒgbare Modelle.
- Modelle umbenennen, Bild hinzufĂŒgen, PromptâVorschlĂ€ge und Wissensdatenbanken definieren.
- Aktivierung/Deaktivierung einzelner Modelle zur Ăbersichtlichkeit.
Verlauf unserer Unterhaltungen in OpenWebUI
- Chatverlauf wird lokal gespeichert und ist jederzeit einsehbar.
- Nutzung fĂŒr Kurse und persönliche Projekte möglich.
Kostenkontrolle bei OpenRouter und kostenlose Modelle nutzen
- Credits im OpenRouterâKonto verwalten, Ausgaben pro Modell nachverfolgen.
- GratisâModelle identifizieren und aktivieren, um Kosten zu vermeiden.
- Vergleich von kostenpflichtigen TopâModellen vs. kostenlosen Alternativen.
Unser Fazit zur Kombination aus OpenWebUI und OpenRouter
- Lokale Installation ermöglicht Nutzung aller TopâModelle ohne teure Abos.
- Geringe monatliche Kosten trotz intensiver Nutzung.
- Ausblick: mögliche Integration lokaler Modelle in Zukunft.
