Nextcloud LLM lokal betreiben: Nextcloud KI mit HaRP (AppAPI) auf einem System
Wer Nextcloud produktiv betreibt, will bei „KI-Funktionen“ oft zwei Dinge gleichzeitig: einen echten Mehrwert für Anwender und möglichst wenig Abhängigkeit von externen Cloud-Diensten. Genau an der Stelle wird es interessant, wenn Sie Nextcloud KI mit einem lokal installierten LLM kombinieren – also ein Nextcloud LLM-Setup, bei dem das Modell (oder zumindest der Inference-Server) in Ihrem eigenen Netz läuft. Technisch hängt das in aktuellen Nextcloud-Versionen stark an AppAPI und den sogenannten …