AionUI kannst du selbst installieren — die meisten verlieren trotzdem Stunden an falschen Modellen und kaputten Configs. Dieser Guide zeigt dir welche Fehler du vermeiden solltest und welche Modelle wirklich performen. Kostenlos.
✓ Kein Download·✓ Keine PDF·✓ E-Mail bestätigen → sofort Zugang
✓ Fast geschafft — E-Mail bestätigen!Wir haben dir gerade eine Bestätigungsmail geschickt. Klicke auf den Link in der Mail — dann erhältst du sofort Zugang zum Guide.
Was du nach diesem Guide kannst
4 Probleme. 4 Lösungen.
01
Weg vom Cloud-Zwang
AionUI läuft lokal auf deinem Rechner. Keine Cloud, kein Abo, kein Vendor Lock-in — in unter 5 Minuten.
02
Jedes Modell, deine Wahl
Ollama, LM Studio oder eigener vLLM-Server. Du entscheidest — nicht Anthropic. Kein API-Key nötig.
03
DSGVO-sauber arbeiten
Daten verlassen nie deinen Rechner. Eigener Custom Assistant per Markdown-File — in 10 Minuten.
04
KI überall verfügbar
MCP einmal einrichten — KI-Zugriff in Telegram, Discord und allen Agents. Einmal konfiguriert, überall.
23K+
GitHub Stars
Apache 2.0
Open Source
3 OS
macOS · Win · Linux
Minuten
bis zum fertigen Setup
Für wen ist das?
Ehrlich gesagt.
✅Du hast DSGVO-Pflichten und brauchst lokale KI — ohne US-Server
✅Du willst nicht nur Claude — andere Modelle (Ollama, LM Studio) auch
✅Du willst KI in Telegram, Discord oder Slack einbinden
✅Du suchst eine cloudfreie Open-Source-Alternative ohne Abo-Zwang
❌Du willst nur einen einfachen ChatGPT-Klon ohne eigene Kontrolle
❌Du hast keinen API-Key und kein Modell zur Hand
❌Du nutzt AionUI bereits produktiv seit Monaten
Dein Guide
Los geht's — Kapitel für Kapitel.
1
AionUI installieren
macOS · Windows · Linux — in 5 Minuten
AionUI ist eine Open-Source Alternative zu Anthropic Cowork — läuft lokal auf deinem Rechner, keine Cloud, keine Datenweitergabe. Es gibt drei Installationswege:
Nach dem Start öffnet sich AionUI automatisch unter http://localhost:3000. Beim ersten Start wirst du nach deinem ersten KI-Modell gefragt.
2
KI-Modell anbinden
Ollama · LM Studio · eigener vLLM-Server
AionUI unterstützt jedes OpenAI-kompatible API. Das bedeutet: du kannst Ollama (lokal), LM Studio (lokal) oder einen eigenen vLLM-Server (Hetzner / Trooper.AI) anbinden.
In AionUI: Einstellungen → Modelle → Neues Modell hinzufügen → Base URL: http://localhost:11434/v1
3
Custom Assistant bauen
Eigener KI-Assistent per Markdown-File
Ein AionUI-Assistant ist eine Markdown-Datei mit Regeln, Persönlichkeit und Modell-Zuweisung. Erstelle eine neue Datei ASSISTANT.md:
ASSISTANT.md — TEMPLATE
---
name: Mein Assistent
model: qwen3:8b
temperature: 0.7
---
# Identität
Du bist ein hilfreicher Assistent für [Dein Thema].
Antworte immer auf Deutsch.
# Regeln
- Kurze, präzise Antworten
- Code-Beispiele wo sinnvoll
- Niemals erfundene Fakten
4
MCP einrichten
Model Context Protocol — einmal, überall
MCP (Model Context Protocol) ermöglicht deinen KI-Agents den Zugriff auf externe Tools — Dateisystem, Browser, APIs, Datenbanken. Einmal konfiguriert, steht es allen Assistants zur Verfügung.