Lokale KI-Modelle direkt in Obsidian nutzen
Das letzte lange Maiwochenende habe ich unter anderem dazu genutzt, um endlich mal KI-Modelle lokal auf meinem Mac auszuprobieren. Zu diesem Zweck habe ich Ollama samt zweier Large Language Models installiert. Und natürlich war ich primär daran interessiert, ob und wie man diese lokalen LLMs auch in Obsidian nutzen kann.