Posts

Es werden Posts vom September, 2024 angezeigt.

KI-Alltag - Künstliche Intelligenz für (!) mehr Datenschutz!

Bild
Datenschutz und KI - ist das nicht ein Widerspruch? Wenn man Datenschutz zusammen mit KI hört, geht es ja meistens darum, wie kritisch KI-Systeme, insbesondere LLMs, für den Datenschutz sind. Heute drehe ich den Spieß einmal um und zeige ein Beispiel, wie es umgekehrt laufen kann. Let me explain... Gleiche Datenbank - user-spezifischer Content Wie ihr aus dem letzten Post wisst, sind wir ins Warhammer 40k-Universum abgetaucht. Warhammer gibt es seit über 40 Jahren und da ist entsprechend einiges an "Lore" zusammen gekommen. Vieles davon ist ziemlich grim-dark - also alles andere als kindgerecht. Was also tun, wenn man junge Heranwachsende in das Universum einführen will, ohne sie zu traumatisieren? Hier kommen lokale LLMs mit RAG in's Spiel! Beispiel: Ich habe unser lokales LLM mit tausenden Seiten Inhalt sowie Websiten rund um Warhammer gefüttert. Nun stelle ich eine Frage  zu einem der wichtigsten Konflikte in diesem Universum:  Der Content ist jetzt alles andere als ki...

KI-Alltag - AnythingLLM: ein vielseitiges LLM-Tool mit Agents und RAG

Bild
Die Sommermonate waren etwas weniger KI-lastig, deshalb habe ich die letzten Tage genutzt und wieder etwas Neues ausprobiert.  Wer meinen letzten Beitrag zu eigenen LLMs ( Link ) gelesen hat weiß, dass ich bereits ein lokales KI-System laufen hatte. Hatte? Jo, hatte. Zumindest vorübergehend. Einige Probleme mit der Hardware, einem Docker-System das zwischendurch installiert werden musste, und dann wieder alles neu installiert werden musste, hat mich dazu bewegt etwas neues auszuprobieren. Bei der Recherche zu Ollama stieß ich schon auf AnythingLLM. ich war gespannt darauf, dieses vielseitige LLM-Tool auf die Probe zu stellen. In diesem Artikel teile ich meine Erfahrungen mit der Installation und Nutzung von AnythingLLM auf einem Amazon Web Services (AWS) Server. Installation und Setup Die Installation von AnythingLLM auf einem AWS-Server erwies sich als spannende Herausforderung. Im Vergleich zu lokalen Lösungen wie Ollama oder LM Studio, die wir in früheren Artikeln behandelt habe...