Die praktische Werkzeugleiste, die von PopClip unter macOS als zusätzliches Kontextmenü angeboten wird, habe ich hier im Blog schon das eine oder andere Mal erwähnt. Kürzlich bin ich eher zufällig drauf gestoßen, dass man damit auch gleich direkt in Obsidian mit einem KI-Modell chatten kann – und zwar ganz ohne zusätzliches Plug-In.
Grundsätzlich können Large Language Models (LLMs) in Obsidian sowohl über Online‑Dienste als auch über lokal installierte Modelle (z. B. Ollama) genutzt werden. Aber es funktioniert auch ohne zusätzliches Plugin – jedenfalls unter macOS in Verbindung mit PopClip. Das ist eine macOS‑App, die bei jeder Textauswahl ein kleines, konfigurierbares Kontextmenü neben dem Cursor anzeigt. Neben nützlichen Funktionen wie Formatieren der markierten Textstelle, sofortiges Kopieren und Einfügen sowie dem Zugriff auf Aktionen wie Suchen oder Rechtschreibprüfung lässt sich das Menü mit einer Vielzahl an Extensions erweitern, die über die PopClip-Website heruntergeladen und installiert werden können.
Vier dieser Extensions binden LLM-Modelle in PopClip ein. Es gibt zwei Extensions für ChatGPT bzw. den OpenAI Chat und je eine für Ollama und Perplexity. Ich habe mir die Extension für den OpenAI Chat und jene für Ollama installiert und ausprobiert. Die Extension für Ollama funktioniert hervorragend und ist mein Favorit. Sie kann entweder lokal gespeicherte Modelle nutzen, oder die noch recht neuen Cloud-Modelle, die Ollama zur Verfügung stellt. Ich habe primär mit dem Modell gpt-oss:120b-cloud getestet und das hat sowohl flott als auch vom Ergebnis her zufriedenstellend geklappt.

Die Vorgangsweise ist denkbar einfach. Man schreibt in einer Notiz in Obsidian ein Prompt, markiert dieses mit der Maus oder dem Trackpad und klickt dann auf das Ollama-Icon im PopClip-Menü. Sobald ein Ergebnis vom LLM vorliegt, wird dieses direkt unterhalb im Text der Notiz eingetragen und kann dort nahtlos weiter bearbeitet werden. Diese Vorgehensweise macht ein separates Obsidian‑Plugin für KI‑Funktionen überflüssig und funktioniert zudem in jeder anderen macOS‑Anwendung, in der Text bearbeitet wird. So lässt sich KI‑gestützte Textverarbeitung schnell und nahtlos integrieren.
