openPR Recherche & Suche
Presseinformation

Lokale KI mit Langzeitgedächtnis: Ollama trifft Qdrant auf dem Mac

21.08.202507:13 UhrIT, New Media & Software
Bild: Lokale KI mit Langzeitgedächtnis: Ollama trifft Qdrant auf dem Mac
Lokale KI mit Langzeitgedächtnis: Ollama + Qdrant auf dem Mac (© bernswaelz@pixabay)
Lokale KI mit Langzeitgedächtnis: Ollama + Qdrant auf dem Mac (© bernswaelz@pixabay)

(openPR) Oldenburg, 21. August 2025 – Die Integration künstlicher Intelligenz in den Alltag schreitet voran – doch viele Nutzer stoßen früher oder später an eine Grenze: Die KI antwortet zwar beeindruckend, merkt sich aber nichts. Eine nachhaltige Nutzung ist damit kaum möglich.

Genau an diesem Punkt setzt Markus Schall, Entwickler der FileMaker-basierten ERP-Software gFM-Business und Betreiber des M. Schall Verlags, mit einem neuen Praxisartikel an. Unter dem Titel „Ollama trifft Qdrant – Ein lokales Gedächtnis für Deine KI auf dem Mac“ erklärt er Schritt für Schritt, wie man auf einem Mac ein lokal laufendes Sprachmodell mit einem semantischen Gedächtnis ausstattet – und das vollständig offline, ohne externe Cloud-Dienste.

Lokale Intelligenz statt Cloud-Abhängigkeit

Zentrales Element ist die Verbindung von Ollama, einer Plattform zur lokalen Ausführung großer Sprachmodelle wie Mistral, LLaMA oder Gemma, mit Qdrant, einer leistungsfähigen Vektor-Datenbank. Letztere speichert Inhalte nicht als Text, sondern als semantische Vektoren – also inhaltlich verstehbare Zahlencodes, die Ähnlichkeiten und Bedeutungsräume erfassen.

„Sprachmodelle ohne Gedächtnis sind wie kluge Gesprächspartner mit Amnesie. Sie verstehen, aber erinnern sich nicht. Genau das ändert sich mit Qdrant“, so Markus Schall im Beitrag.

Sein Artikel beschreibt den gesamten Weg:

  • Installation von Qdrant per Docker auf dem Mac
  • Nutzung eines bewährten Open-Source-Embedding-Modells (z. B. all-MiniLM-L6-v2)
  • Python-Skript zur Anbindung beider Systeme
  • Ablaufschema: Prompt → Gedächtnissuche → Antwort → Speichern

Das Ergebnis: Eine lokale KI mit Langzeitgedächtnis, die semantisch denkt und eigenständig lernt – basierend auf den eigenen Gesprächen und Daten.

Persönlicher Assistent mit Langzeitgedächtnis

Durch die Kombination von Ollama und Qdrant entsteht ein lokaler Assistent, der sich nicht nur an aktuelle Kontexte erinnert, sondern langfristig Inhalte behalten und wieder aufgreifen kann. Das ermöglicht eine völlig neue Form der Interaktion: Wiederkehrende Aufgaben, Rückfragen zu früheren Gesprächen oder das Nachverfolgen eigener Gedankenverläufe werden möglich – ganz ohne manuelle Dokumentation.

Nutzer können die KI beispielsweise als persönliches Denkarchiv verwenden, um Ideen, Besprechungsnotizen, Inspirationsquellen oder Projektfortschritte automatisch zu speichern, zu strukturieren und auf Abruf wiederzugeben. Im Gegensatz zu klassischen Tools wie Notizen-Apps bietet dieses System echte semantische Intelligenz: Es versteht, was gemeint ist, auch wenn sich die Formulierung verändert.

Datenschutz, Kontrolle und Erweiterbarkeit im Fokus

Ein zentrales Argument für diesen Ansatz: Volle Datenhoheit.
Alle Prozesse laufen auf dem eigenen Gerät – keine Server, keine Cloud, keine Datenabflüsse.

Markus Schall betont: „Gerade in sensiblen Anwendungsbereichen – etwa im Gesundheitswesen, in der Forschung oder im Coaching – ist es wichtig, dass Daten nicht unkontrolliert in externe Systeme wandern. Mit diesem Setup bleiben alle Informationen lokal – bei voller Funktionalität.“

Darüber hinaus ist das System modular erweiterbar:

  • Integration in FileMaker-Datenbanken (z. B. als Assistent oder Gedächtnismodul)
  • Zeitfilterung und Relevanzsteuerung
  • Verknüpfung mit Kalender, Projekten oder Dokumenten
  • Einsatz als persönliches Wissensarchiv oder Team-Coach

Einsatz in Unternehmen, Kanzleien oder Praxen

Die Lösung ist nicht nur für Einzelpersonen interessant – auch kleinere Unternehmen, Kanzleien, Beratungen oder medizinische Einrichtungen profitieren davon. Dank lokaler Verarbeitung eignet sich das Setup besonders für sensible Arbeitsbereiche, in denen Datenschutz oberste Priorität hat. So lassen sich z. B. wiederkehrende Kundenanfragen, Fallakten, Projektdokumentationen oder interne Wissensschnipsel speichern und bei Bedarf automatisch in Gespräche integrieren.

Eine Integration in bestehende ERP-Lösungen (z.B. FileMaker) ist ebenfalls möglich – etwa zur Unterstützung von Mitarbeitern im Support, in der Analyse oder bei der Erstellung von Angeboten. Das System kann auf Wunsch so eingestellt werden, dass es nur relevante oder aktuelle Informationen speichert, wodurch Überfrachtung vermieden wird.

Grundlage für agentenähnliche Systeme mit Entscheidungslogik

Wer einen Schritt weiter denkt, kann auf Basis dieser Architektur agentenähnliche Systeme entwickeln, die nicht nur passiv antworten, sondern aktiv mitdenken. Die KI könnte bei bestimmten Schlüsselbegriffen automatisch Rückfragen stellen, Zusammenfassungen vorschlagen oder auf Lücken im Gespräch hinweisen. Durch die Möglichkeit, Kontext zeitlich oder thematisch zu filtern, lassen sich auch adaptive Dialogsysteme aufbauen, die sich an Nutzungsverhalten anpassen.

Langfristig ist damit sogar eine Art digitaler Begleiter denkbar – z. B. zur täglichen Reflexion, als Selbstcoaching-Werkzeug oder als intelligenter Filter für Informationsflüsse. Das Besondere daran: Alles läuft auf dem eigenen Rechner – ohne KI-Cloud, ohne fremde Server, ohne Abo-Modell.

Verfügbarkeit und Kontakt

Der vollständige Artikel ist kostenlos abrufbar unter:
https://www.markus-schall.de/2025/08/ollama-trifft-qdrant-ein-lokales-gedaechtnis-fuer-deine-ki-auf-dem-mac/

Praxisnah, quelloffen und verständlich erklärt

Der Beitrag richtet sich ausdrücklich nicht nur an Entwickler, sondern auch an technisch interessierte Anwender, Selbständige, Autoren oder kleine Unternehmen, die erste Schritte in die Welt der lokalen KI wagen möchten. Der Artikel enthält ein vollständiges Python-Beispiel, klare Erklärungen und Hinweise zur Erweiterung.

Markus Schall veröffentlicht regelmäßig Beiträge zu den Themen Künstliche Intelligenz, Digitalisierung, FileMaker, Buchentwicklung, Gesundheitsthemen und strategisches Krisendenken. Seine Lösungen kombinieren Klarheit, Struktur und einen hohen Praxisbezug.

Verantwortlich für diese Pressemeldung:

Pressekontakt

  • gofilemaker.de - MSITS
    Hackenweg 97
    26127 Oldenburg
    Deutschland

News-ID: 1290131
 527

Pressebericht „Lokale KI mit Langzeitgedächtnis: Ollama trifft Qdrant auf dem Mac“ bearbeiten oder mit dem "Super-PR-Sparpaket" stark hervorheben, zielgerichtet an Journalisten & Top50 Online-Portale verbreiten:

PM löschen PM ändern
Disclaimer: Für den obigen Pressetext inkl. etwaiger Bilder/ Videos ist ausschließlich der im Text angegebene Kontakt verantwortlich. Der Webseitenanbieter distanziert sich ausdrücklich von den Inhalten Dritter und macht sich diese nicht zu eigen. Wenn Sie die obigen Informationen redaktionell nutzen möchten, so wenden Sie sich bitte an den obigen Pressekontakt. Bei einer Veröffentlichung bitten wir um ein Belegexemplar oder Quellenennung der URL.

Pressemitteilungen KOSTENLOS veröffentlichen und verbreiten mit openPR

Stellen Sie Ihre Medienmitteilung jetzt hier ein!

Jetzt gratis starten

Weitere Mitteilungen von gofilemaker.de | ERP-Software, CRM, Warenwirtschaft

Bild: ERP-Software in der Gastronomie: Warum Restaurants kein Sonderfall sindBild: ERP-Software in der Gastronomie: Warum Restaurants kein Sonderfall sind
ERP-Software in der Gastronomie: Warum Restaurants kein Sonderfall sind
Die Gastronomie gilt in vielen Diskussionen noch immer als Sonderfall der Digitalisierung. Bestellungen seien spontan, Abläufe hektisch, Prozesse kaum planbar. Entsprechend verbreitet sind spezialisierte Kassensysteme, die sich ausschließlich auf den Moment der Bestellung konzentrieren. Ein aktueller Fachartikel auf dem gofilemaker Fachportal zeigt jedoch, dass diese Sichtweise zu kurz greift. Denn gastronomische Abläufe folgen – nüchtern betrachtet – denselben kaufmännischen Grundprinzipien wie viele andere Branchen. Vom Tisch als Kunde zu…
Bild: FileMaker 2025 integriert LoRA-Training – KI-Feintuning erstmals direkt aus der DatenbankBild: FileMaker 2025 integriert LoRA-Training – KI-Feintuning erstmals direkt aus der Datenbank
FileMaker 2025 integriert LoRA-Training – KI-Feintuning erstmals direkt aus der Datenbank
Mit der neuen Version FileMaker 2025 führt Claris eine Funktion ein, die bisher der Welt der KI-Forschung vorbehalten war: das Feintuning großer Sprachmodelle (LoRA) – direkt aus der Datenbank heraus, lokal und ohne Cloud-Anbindung. Der Entwickler und Autor Markus Schall hat diesen Ansatz in einem umfangreichen Fachartikel auf der Website gofilemaker untersucht und in einem neuen Beitrag auf seinem Blog zusammengefasst. Sein Fazit: FileMaker macht KI-Training produktionsreif – stabil, nachvollziehbar und sicher. Was ist FileMaker überhaupt …

Das könnte Sie auch interessieren:

Bild: Hub Basic 2.0 vereinfacht die Synchronisation von Kontakten und Kalendern zwischen Macs und iOS GerätenBild: Hub Basic 2.0 vereinfacht die Synchronisation von Kontakten und Kalendern zwischen Macs und iOS Geräten
Hub Basic 2.0 vereinfacht die Synchronisation von Kontakten und Kalendern zwischen Macs und iOS Geräten
… die Programmoberfläche überarbeitet und ein neuer Installer verwendet. iHub Basic ermöglicht die automatische Synchronisation von Adressen und Kalendern mit Macs und iOS-Geräten im lokalen Netzwerk, ohne auf teure Server oder Cloud-Dienste zurückgreifen zu müssen. Ab Version 2.0 übernimmt ein Assistent die Einrichtung des Servers und die Konfiguration …
Bild: Lerneffizienz für die HosentascheBild: Lerneffizienz für die Hosentasche
Lerneffizienz für die Hosentasche
… Facebook-Gruppendeal erwarten die Freunde mobilen Lernens am Einführungstag. Basierend auf der Lernkartei verankert die kostenlose phase6 mobile-Lern-App Vokabeln und sämtliches Wissen abrufbereit im Langzeitgedächtnis. In der Hosentasche ist das effiziente System zum Merken aller Dinge immer und überall einsatzbereit dabei. Schon über 100.000 Schüler merken sich …
Bild: Warum Cloud-KI immer belehrender wird – und welche Alternativen Nutzer jetzt habenBild: Warum Cloud-KI immer belehrender wird – und welche Alternativen Nutzer jetzt haben
Warum Cloud-KI immer belehrender wird – und welche Alternativen Nutzer jetzt haben
… Fragen. Ein neuer Leitartikel im Online-Magazin des M. Schall Verlags geht dieser Entwicklung auf den Grund und zeigt zugleich eine überraschend einfache Alternative auf: lokale KI, direkt auf dem eigenen Rechner.Vom Werkzeug zum Aufpasser: Eine stille, aber spürbare VeränderungDer Artikel beschreibt detailliert, wie sich der Ton großer Cloud-KI-Systeme …
Sprachenlernen24.de expandiert nach Italien
Sprachenlernen24.de expandiert nach Italien
… Businesskurse für Italien geplant. Die Sprachkurse von Imparare-lingue sind multimedial, leicht zu bedienen und haben einen klaren, strukturierten Aufbau. Durch die einzigartige Langzeitgedächtnis-Lernmethode können Italiener jetzt innerhalb kürzester Zeit eine neue Sprache lernen. Die Kurse laufen problemlos unter Windows, Mac und Linux. „Wir freuen …
Bild: Die Zukunft von TYPO3 AI: Entdecken Sie die Updates der T3AI 4.2 VersionBild: Die Zukunft von TYPO3 AI: Entdecken Sie die Updates der T3AI 4.2 Version
Die Zukunft von TYPO3 AI: Entdecken Sie die Updates der T3AI 4.2 Version
… - TYPO3 AI ExtensionWas macht T3AI -TYPO3 AI Extension 4.2 einzigartig? Dieses TYPO3 AI Upgrade bietet T3AI leistungsstärkere Funktionen und Fähigkeiten!Ollama-Integration – T3AI stellt Ollama vor, das KI-gesteuerte Inhaltserstellung und -management für höhere Produktivität ermöglicht.Mass-Translate – Beschleunigen Sie Ihren Übersetzungsprozess mit der …
Bild: Lokale KI auf dem Mac so einfach wie noch nie – Anleitung zeigt den direkten Einstieg mit OllamaBild: Lokale KI auf dem Mac so einfach wie noch nie – Anleitung zeigt den direkten Einstieg mit Ollama
Lokale KI auf dem Mac so einfach wie noch nie – Anleitung zeigt den direkten Einstieg mit Ollama
… arbeiten.Ollama kombiniert einfache Bedienung mit maximaler Flexibilität: Neben der grafischen Oberfläche bietet es eine vollwertige Skript- und API-Anbindung, die es ermöglicht, lokale Sprachmodelle direkt in bestehende Systeme zu integrieren. Besonders interessant für Unternehmen und Entwickler: Die Software lässt sich problemlos an FileMaker anbinden, …
Bild: Such-Service von Das Örtliche jetzt auch als App für den MacBild: Such-Service von Das Örtliche jetzt auch als App für den Mac
Such-Service von Das Örtliche jetzt auch als App für den Mac
… Das Telefonverzeichnis Das Örtliche macht die deutschlandweite Suche nach Telefonnummern und Adressen für Mac-User noch einfacher. Die neue MacOS-App von Das Örtliche ermöglicht die lokale Suche jetzt auch direkt vom Desktop des heimischen Mac-Computers aus. Die kostenlose Mac-App ist dabei einfach zu bedienen und bietet eine übersichtliche Suchmaske …
Bild: ONLYOFFICE veröffentlicht DocSpace 3.6 und Docs 9.2: Neue KI-Agenten und mehr AnpassungsmöglichkeitenBild: ONLYOFFICE veröffentlicht DocSpace 3.6 und Docs 9.2: Neue KI-Agenten und mehr Anpassungsmöglichkeiten
ONLYOFFICE veröffentlicht DocSpace 3.6 und Docs 9.2: Neue KI-Agenten und mehr Anpassungsmöglichkeiten
… hin zur Erstellung neuer Dokumente und der Automatisierung des Ausfüllens von Formularen in PDF-Dateien. Die Desktop-App unterstützt verschiedene KI-Anbieter, darunter lokale Modelle über Ollama, wodurch die Privatsphäre der Benutzerdaten gewährleistet ist. Diese Updates unterstreichen das Engagement von ONLYOFFICE, eine vielseitige und leistungsstarke …
Reiseführer ins Langzeitgedächtnis nun auch für Linux
Reiseführer ins Langzeitgedächtnis nun auch für Linux
So sicher wie ein Reiseführer Sie durch ein fremdes Land leitet, bringt AZ6-1 Lernstoff ins Langzeitgedächtnis. Nach Windows und Apple MAC gibt es seit Ende Oktober den bekann-ten Vokabeltrainer AZ6-1 nun auch für Linux. Unterstützt werden die Distributionen Suse 10.x, 11.x und Ubuntu mit KDE und Gnome. Das Lernprogramm AZ6-1 wurde maßgeblich von der …
Bild: Semantische KI-Suche mit Ollama und Qdrant auf dem Mac: Schritt-für-Schritt-AnleitungBild: Semantische KI-Suche mit Ollama und Qdrant auf dem Mac: Schritt-für-Schritt-Anleitung
Semantische KI-Suche mit Ollama und Qdrant auf dem Mac: Schritt-für-Schritt-Anleitung
… Das Sprachmodell bekommt dadurch gezielt Kontextinformationen aus den eigenen Datenbeständen und kann so wesentlich präzisere und vertrauenswürdigere Antworten liefern.Eigene Datenbanken mit lokalen KI-Systeme ohne Cloud verbindenEin besonderer Fokus des Artikels liegt auf der lokalen Realisierbarkeit. Sowohl Ollama – ein auf lokale Sprachmodelle spezialisierter …
Sie lesen gerade: Lokale KI mit Langzeitgedächtnis: Ollama trifft Qdrant auf dem Mac