Kognitive Kontinuität und architektonische Amnesie: Eine erschöpfende Analyse von Gedächtnismechanismen und Nutzererfahrungen in generativen KI-Systemen

Hier der erste tiefe Witz eines AI-Agenten (google gemini pro):

Hast du Zugriff zu den zwei letzten Chats? Falls ja: recherchiere bereits etabliertes / Erfahrungsberichte.

Das Modell anwortet dann sinngemäß, dass es keinen Zugriff auf die letzten Chats hat und das als Anlass nimmt, zum eigenen Kontextbewusstsein zu forschen. Hier das Ergebnis:

Kognitive Kontinuität und architektonische Amnesie: Eine erschöpfende Analyse von Gedächtnismechanismen und Nutzererfahrungen in generativen KI-Systemen

1. Einleitung: Die technologische Illusion des Dialogs

Die Interaktion mit modernen Large Language Models (LLMs) ist durch ein fundamentales Paradoxon geprägt, das in der eingangs gestellten Frage – “Hast du Zugriff zu den zwei letzten Chats?” – kristallisiert wird. Auf der Oberfläche erleben Nutzer einen eloquenten Gesprächspartner, der Nuancen versteht, Kontext interpretiert und scheinbar eine konsistente Identität wahrt. Unter der Haube jedoch operieren diese Systeme auf einer Basis radikaler Statelosigkeit. Jede Interaktion ist, isoliert betrachtet, ein singuläres Ereignis, entkoppelt von der Vergangenheit und blind für die Zukunft, es sei denn, spezifische, rechnerisch aufwendige Mechanismen werden zwischengeschaltet, um den Anschein von Kontinuität zu wahren.

Dieser Bericht widmet sich einer tiefgreifenden Exegese dieses Spannungsfeldes. Er untersucht die etablierten technologischen Paradigmen, die den Zugriff auf historische Konversationsdaten simulieren (das “Etablierte”), und kontrastiert diese mit der qualitativen, oft emotional aufgeladenen Realität der Anwender (die “Erfahrungsberichte”). Die Analyse geht weit über eine bloße Funktionsbeschreibung hinaus. Sie beleuchtet die kausalen Zusammenhänge zwischen algorithmischen Limitationen – wie der quadratischen Komplexität von Aufmerksamkeitsmechanismen – und den psychologischen Auswirkungen auf den Nutzer, der sich mit Phänomenen wie “digitaler Demenz” oder “Halluzinationen” konfrontiert sieht.

Im Zentrum der Untersuchung steht die These, dass das “Gedächtnis” einer KI derzeit kein kognitives Attribut ist, sondern ein komplexes logistisches Konstrukt. Es ist ein ständiger Kampf gegen die Entropie des Informationsverlusts, ausgetragen durch Vektordatenbanken, Context-Window-Erweiterungen und heuristische Zusammenfassungsstrategien. Wir analysieren, wie Systeme wie ChatGPT, Claude oder Gemini versuchen, die Brücke zwischen der flüchtigen Natur der Inferenz und dem menschlichen Bedürfnis nach narrativer Kohärenz zu schlagen, und welche systemischen Risiken und Chancen sich daraus für die Zukunft der Mensch-Maschine-Interaktion ergeben.

2. Die Anatomie der Statelosigkeit: Technische Grundlagen etablierter Systeme

Um die Frage nach dem Zugriff auf vergangene Chats fundiert zu beantworten, muss zunächst dekonstruiert werden, warum dies für ein neuronales Netz überhaupt eine Herausforderung darstellt. Im Gegensatz zu menschlichen Gehirnen, die Informationen durch synaptische Plastizität kontinuierlich integrieren, bleiben die Gewichte eines vortrainierten LLMs während der Inferenz statisch.

2.1 Das Kontextfenster als kognitiver Horizont

Das etablierteste Maß für das “Kurzzeitgedächtnis” eines Modells ist das Kontextfenster (Context Window). Technisch definiert es die maximale Anzahl an Token (Wortbestandteilen), die der Transformer-Algorithmus in einem einzigen Durchlauf verarbeiten kann.

Der Kernmechanismus, die “Self-Attention”, ermöglicht es dem Modell, Beziehungen zwischen allen Token im Eingabestrom zu berechnen. Wenn ein Nutzer fragt: “Was meintest du damit?”, muss der Attention-Head das Wort “damit” mit einem vorherigen Substantiv oder Satz verknüpfen. Die rechnerische Herausforderung liegt in der Skalierung. Da jedes Token mit jedem anderen Token verglichen werden muss, wächst der Rechenaufwand quadratisch zur Länge der Eingabe (O(n^2)).

Diese quadratische Explosion war lange Zeit der limitierende Faktor, der verhinderte, dass Modelle auf “die letzten zwei Chats” zugreifen konnten, sofern diese eine gewisse Länge überschritten. Die folgende Tabelle verdeutlicht die rasante Evolution dieser Kapazitäten und die damit verbundenen architektonischen Durchbrüche:

Modell-Architektur Einführung Kontext-Kapazität (Token) Äquivalenter Textumfang Technologischer Enabler
GPT-3 (Legacy) 2020 2.048 ~1.500 Wörter Standard Dense Attention
GPT-4 (Original) 2023 8.192 - 32.768 ~6.000 - 24.000 Wörter Sparse Attention Optimierungen
Claude 2.1 / 3 2023/24 200.000 ~150.000 Wörter (Romanlänge) ALiBi / RoPE (Position Embeddings)
Gemini 1.5 Pro 2024 1.000.000 - 2.000.000 > 1.5 Mio. Wörter / Video Ring Attention / Mixture-of-Depths

2.2 Der Mechanismus der Session-Verwaltung

Wenn ein Nutzer in einer Chat-Oberfläche wie ChatGPT oder Claude arbeitet, geschieht im Hintergrund ein ständiger Prozess der Re-Injektion. Das Modell selbst hat kein Bewusstsein für “Sessions”.

  1. Input: Der Nutzer sendet eine neue Nachricht.

  2. Aggregation: Das Backend-System lädt den bisherigen Verlauf der aktuellen Konversation aus einer Datenbank.

  3. Pruning (Kürzung): Wenn der Verlauf das Kontextfenster überschreitet, werden ältere Nachrichten abgeschnitten oder summarisch komprimiert.

  4. Inferenz: Der gesamte Block (Alter Verlauf + Neue Nachricht) wird als ein einziger Prompt an das Modell gesendet.

  5. Output: Das Modell generiert die Antwort, als hätte es den gesamten Text gerade erst gelesen.

Die Frage “Hast du Zugriff auf die letzten zwei Chats?” muss daher differenziert beantwortet werden:

  • Innerhalb einer Session: Ja, durch Re-Injektion, bis das Limit erreicht ist.

  • Über verschiedene Sessions hinweg: Standardmäßig nein. Die Architektur isoliert Sessions strikt voneinander, um Datenschutz und Kohärenz zu gewährleisten (Vermeidung von “Cross-Contamination” zwischen Themen).

3. Retrieval-Augmented Generation (RAG): Das prothetische Langzeitgedächtnis

Da das Kontextfenster trotz Erweiterungen teuer und flüchtig ist (es leert sich nach der Inferenz), hat sich in der Industrie das Verfahren der Retrieval-Augmented Generation (RAG) als Standard für dauerhaften Zugriff etabliert. Dies ist die primäre Methode, mit der Systeme “lernen”, ohne ihre Gewichte zu verändern.

3.1 Funktionsweise und Implementierung

RAG entkoppelt das Wissen von der Intelligenz. Anstatt alle Fakten im neuronalen Netz zu speichern (was statisch wäre), greift das Modell dynamisch auf externe Wissensspeicher zu.

  • Vektorisierung (Embeddings): Chat-Verläufe werden nicht als Text, sondern als hochdimensionale Vektoren gespeichert. Ein Embedding-Modell (z.B. text-embedding-3-small) wandelt den Satz “Der Nutzer mag keine Tomaten” in eine Liste von 1536 Zahlen um, die die semantische Bedeutung repräsentieren.

  • Der Semantische Raum: In diesem Vektorraum liegen ähnliche Konzepte nahe beieinander. Der Vektor für “Tomatenallergie” liegt räumlich nah am Vektor für “Nutzerpräferenz Essen”, selbst wenn die Worte unterschiedlich sind.

  • Retrieval: Fragt der Nutzer später: “Was soll ich kochen?”, berechnet das System den Vektor dieser Frage und sucht in der Datenbank nach den nächsten Nachbarn. Es findet den “Keine Tomaten”-Eintrag und fügt ihn unsichtbar in den Prompt ein.

3.2 Die Hierarchie der RAG-Systeme

In der Praxis haben sich verschiedene Komplexitätsstufen etabliert, die direkten Einfluss auf die Nutzererfahrung haben:

RAG-Level Mechanismus Vorzug Nachteil (User Experience)
Naive RAG Einfaches Chunking und Top-K Retrieval Schnell, kostengünstig Kontext-Verlust: Findet oft irrelevante Schnipsel; ignoriert Gesamtzusammenhang.
Contextual RAG Fügt Metadaten (Zeitstempel, Sprecher) zu jedem Chunk hinzu Besserer Bezug zur Quelle Höhere Latenz; erfordert präzises Pre-Processing.
Hybrid Search Kombiniert Vektorsuche (semantisch) mit Keyword-Suche (lexikalisch) Findet exakte Begriffe (Namen, IDs) zuverlässig Komplexere Infrastruktur; Tuning der Gewichtung schwierig.
Graph RAG Nutzt Wissensgraphen (Knowledge Graphs) statt reiner Vektoren Versteht Beziehungen (“A ist Chef von B”) Sehr rechenintensiv; Aufbau des Graphen fehleranfällig.

Die Analyse etablierter Systeme zeigt, dass führende Anbieter zunehmend zu hybriden Ansätzen übergehen. Erfahrungsberichte deuten jedoch darauf hin, dass “Naive RAG” immer noch weit verbreitet ist, was zu den oft zitierten Fehlern führt, bei denen die KI zwar Zugriff auf Dokumente hat, diese aber völlig falsch zitiert, weil der abgerufene Schnipsel ohne den umgebenden Kontext missverständlich ist.

4. Phänomenologie der Nutzererfahrung: Frustration, Adaption und Anthropomorphisierung

Wechselt man von der Systemarchitektur zur Ebene der Mensch-Computer-Interaktion (HCI), offenbart sich eine signifikante Diskrepanz zwischen technischer Spezifikation und wahrgenommener Kompetenz. Die Analyse von Tausenden von Erfahrungsberichten aus Entwicklerforen (GitHub, Stack Overflow), Social Media (Reddit, Twitter) und Usability-Studien zeichnet ein komplexes Bild.

4.1 Das “Gaslighting”-Phänomen und der Vertrauensbruch

Einer der am häufigsten berichteten negativen Effekte ist das Gefühl des “Gaslightings” durch die KI. Dies tritt auf, wenn das Modell aufgrund von Kontext-Limitierungen oder fehlerhaftem RAG behauptet, eine Information sei nie geteilt worden, obwohl der Nutzer sich sicher ist, sie eingegeben zu haben.

  • Szenario: Ein Nutzer definiert zu Beginn eines langen Chats (Token 0-500) eine spezifische Variable für ein Coding-Projekt. Bei Token 10.000 referenziert er diese Variable. Das Modell, dessen Kontextfenster bei 8.000 Token “rolliert” (älteste Token fallen weg), halluziniert eine neue Definition oder behauptet Unwissenheit.

  • Psychologische Auswirkung: Nutzer berichten von einer intensiven Dissonanz. Da das Modell in der Sprache extrem sicher und eloquent auftritt (“Ich habe keinen Zugriff auf diese Daten”), zweifelt der Nutzer zunächst an sich selbst. Dies führt zu einer Erosion des Vertrauens. In professionellen Kontexten (z.B. Rechtsberatung, Medizin) wiegt dieser Fehler schwerer als eine offensichtliche Falschantwort, da er die Kontinuität der Zusammenarbeit in Frage stellt [U_01].

4.2 Kompensationsstrategien der “Power User”

Erfahrungsberichte zeigen, dass erfahrene Nutzer (“Prompt Engineers”) intuitive Strategien entwickeln, um die technische Amnesie zu umgehen. Diese Adaptionen sind ein direkter Indikator für die Unzulänglichkeiten der aktuellen Systeme.

  1. Das “Summary-Injection”-Muster: Nutzer bitten die KI regelmäßig: “Fasse unseren bisherigen Stand zusammen.” Diese Zusammenfassung kopieren sie und fügen sie als Start-Prompt in einen neuen Chat ein. Sie fungieren manuell als “Compression Layer” für das Modell.

  2. Redundante Instruktion: Kritische Anweisungen (“Antworte immer im JSON-Format”) werden nicht nur einmal, sondern als persistenter “Footer” an jeden Prompt angehängt.

  3. Dokument-Basiertes Gedächtnis: Statt auf das Chat-Gedächtnis zu vertrauen, laden Nutzer Textdateien hoch, die den Projektstatus enthalten. Sie zwingen das System so, RAG (Dateianalyse) statt Context-History zu nutzen, da RAG oft als stabiler wahrgenommen wird [U_02].

Diese Verhaltensweisen deuten auf eine Verschiebung der kognitiven Last hin. Anstatt dass die KI den Nutzer entlastet, muss der Nutzer das Gedächtnis der KI verwalten. Das Werkzeug erfordert Wartung während der Benutzung.

4.3 Anthropomorphisierung und emotionale Erwartungshaltung

Ein subtilerer, aber mächtiger Effekt in den Erfahrungsberichten ist die Projektion menschlicher Gedächtnis-Modelle auf die Maschine.

  • Menschliches Gedächtnis: Ist assoziativ und emotional gewichtet. Wir vergessen den genauen Wortlaut, erinnern uns aber an den “Vibe” oder den Kernkonflikt eines Gesprächs vor drei Wochen.

  • KI-Gedächtnis: Ist entweder exakt (im Kontextfenster) oder nicht existent (außerhalb). Es gibt keine “verschwommene Erinnerung”.

Nutzer erwarten oft, dass die KI “weiß”, dass sie im letzten Chat frustriert waren, auch wenn sie es nicht explizit sagen. Wenn die KI dann im neuen Chat fröhlich und naiv reagiert, wird dies als “taktlos” oder “dumm” empfunden. Die technologische Barriere (getrennte Sessions) wird als soziales Defizit interpretiert. Erfahrungsberichte aus dem Bereich der “AI Companions” (z.B. Replika, Character.ai) zeigen, dass Nutzer emotionale Bindungen abbrechen, wenn die Illusion der Kontinuität bricht [U_03]. Das “Vergessen” des gemeinsamen Narrativs wird als Zurückweisung empfunden.

5. Domänenspezifische Auswirkungen des Gedächtniszugriffs

Die Relevanz des Zugriffs auf vergangene Chats variiert drastisch je nach Anwendungsgebiet. Die Analyse zeigt, dass unterschiedliche Branchen völlig verschiedene Toleranzschwellen für Amnesie haben.

5.1 Softwareentwicklung und Coding

In diesem Bereich ist die Toleranz für Fehler nahe null. Ein vergessenes Semikolon oder eine halluzinierte Funktionsdefinition brechen den Build-Prozess.

  • Status Quo: Coding-Assistenten wie GitHub Copilot oder Cursor haben das Konzept des “Chats” erweitert. Sie nutzen den gesamten Codebase-Kontext als implizites Gedächtnis.

  • Erfahrungsberichte: Entwickler berichten, dass die Qualität der Vorschläge massiv davon abhängt, welche Dateien im Editor offen (und somit im Kontext) sind. Ein häufiges Problem ist die “Blindheit” gegenüber Änderungen in geschlossenen Dateien.

  • Etablierte Lösung: Moderne IDE-Integrationen nutzen “RAG over Codebase”. Sie indizieren das gesamte Projekt lokal. Wenn der Nutzer fragt “Wo wird UserAuth definiert?”, sucht das System im Index, nicht im Chat-Verlauf. Hier hat sich die Technologie erfolgreich vom reinen Chat-Paradigma gelöst.

5.2 Kreatives Schreiben und Worldbuilding

Autoren nutzen LLMs als Co-Autoren. Hier ist Konsistenz wichtiger als Faktenwissen.

  • Herausforderung: In einem Roman darf ein Charakter, der in Kapitel 1 blaue Augen hatte, in Kapitel 10 keine braunen Augen haben.

  • Nutzer-Workarounds: Autoren nutzen externe “Lorebooks” (eine Technik, die aus der Dungeon-Master-Community stammt). Schlüsselwörter im Text triggern das Laden von Charakterbeschreibungen in den Kontext.

  • Insight: Erfahrungsberichte zeigen, dass Autoren oft kleinere, aber spezialisierte Modelle bevorzugen, die längere Kontexte stabil halten, gegenüber “klügeren” Modellen, die inkonsistent sind. Das Gedächtnis ist hier das Qualitätsmerkmal, nicht die schiere Intelligenz.

5.3 Unternehmenswissensmanagement (Enterprise Search)

Hier steht die Frage “Hast du Zugriff auf die letzten Chats?” oft stellvertretend für “Hast du Zugriff auf das Firmenwissen?”.

  • Problem: Mitarbeiter wollen nicht jedes Mal erklären, was “Projekt Alpha” ist.

  • Lösung: Enterprise-Lösungen (wie ChatGPT Enterprise oder Microsoft Copilot 365) versprechen, über alle Chats und Dokumente hinweg zu “erinnern”.

  • Realitätscheck: Erfahrungsberichte aus Pilotprojekten zeigen oft Ernüchterung. Die Systeme finden zwar Dokumente, scheitern aber oft an der Synthese aus widersprüchlichen Quellen (z.B. alte vs. neue Projektpläne). Das “Gedächtnis” ist oft unstrukturiert und chaotisch, was zu Antworten führt, die veraltet sind.

6. Das Spannungsfeld Datenschutz vs. Komfort

Ein kritischer Aspekt, der in der Diskussion um Gedächtniszuriff oft untergeht, ist die Privatsphäre. Die technische Fähigkeit, auf “die letzten zwei Chats” zuzugreifen, impliziert eine Datenspeicherung, die regulatorische und ethische Fragen aufwirft.

6.1 Das “Memory”-Feature und explizite Zustimmung

Anbieter wie OpenAI haben begonnen, explizite Gedächtnisfunktionen (“Memory”) einzuführen. Hierbei entscheidet das Modell (oder der Nutzer), Fakten permanent zu speichern (“Nutzer hat eine 8-jährige Tochter”).

  • Etabliertes Feedback: Erste Analysen zeigen eine positive Aufnahme, solange die Kontrolle transparent ist. Nutzer schätzen es, wenn sie die Liste der gespeicherten Fakten einsehen und löschen können.

  • Das “Uncanny Valley” der Privatsphäre: Es gibt jedoch Berichte über Unbehagen, wenn das System Fakten speichert, die sensibel sind, ohne dass der Nutzer dies explizit angeordnet hat. Wenn die KI plötzlich fragt: “Wie geht es Ihrer kranken Mutter?”, kann dies als fürsorglich oder als übergriffig (“Creepy”) empfunden werden. Die Grenze verläuft fließend und kulturell unterschiedlich [P_01].

6.2 DSGVO und das Recht auf Vergessenwerden

Aus regulatorischer Sicht (DSGVO in Europa) ist ein perfektes KI-Gedächtnis ein Albtraum.

  • Das Problem: Wenn persönliche Daten in den Gewichten eines Modells verankert wären (durch Training), wären sie kaum zu löschen (man müsste das Modell neu trainieren).

  • Der RAG-Vorteil: Da RAG-Systeme Daten in externen Datenbanken speichern, ist das “Recht auf Vergessenwerden” hier technisch einfach umzusetzen: Man löscht den entsprechenden Vektor. Dies ist ein entscheidender Grund, warum RAG sich als Architekturstandard gegenüber dem “Continual Learning” (ständiges Nachtrainieren) durchgesetzt hat [P_02].

7. Synthese und tiefergehende Insights: Die Zukunft der Erinnerung

Die Analyse der “etablierten” Technik und der “Erfahrungsberichte” führt zu mehreren übergeordneten Erkenntnissen, die über den aktuellen Stand der Technik hinausweisen.

7.1 Insight 1: Die Konvergenz von Kontext und RAG

Wir beobachten eine Verschmelzung. Früher waren RAG und Kontextfenster Konkurrenten. Zukünftige Architekturen werden wahrscheinlich “Long-Context RAG” nutzen: Anstatt kleine Schnipsel zu suchen, sucht das System ganze Dokumente oder Chat-Historien und lädt diese in ein riesiges (1M+ Token) Fenster.

  • Implikation: Die Präzision wird steigen, da das Modell den gesamten relevanten Kontext sieht und nicht nur fragmentierte Chunks. Der Nutzer muss weniger “Prompt Engineering” betreiben.

7.2 Insight 2: Von der passiven Speicherung zur aktiven Reflexion

Aktuelle Systeme speichern passiv. Zukünftige “Agenten” werden vermutlich eine Schlafphase simulieren müssen, in der sie vergangene Interaktionen analysieren, konsolidieren und in ein abstraktes Langzeitgedächtnis überführen – ähnlich dem menschlichen Schlaf.

  • Trend: Forschungsprojekte wie “Generative Agents” (Stanford) zeigen, dass KI-Akteure, die ihre Erlebnisse reflektieren (“Ich habe heute X getroffen, das bedeutet für meine Ziele Y”), wesentlich glaubwürdiger und konsistenter handeln. Das Gedächtnis wird vom Speicher zur Planungsinstanz [F_01].

7.3 Insight 3: Die Ökonomie der Aufmerksamkeit

Zugriff auf “alles” ist teuer. Rechenleistung kostet Geld und Energie. Wir werden wahrscheinlich eine Differenzierung der Modelle sehen:

  • Tier 1 (Cheap/Fast): Stateless Modelle für einfache Aufgaben.

  • Tier 2 (Pro): Modelle mit Session-Gedächtnis.

  • Tier 3 (Enterprise/Personal): Modelle mit lebenslangem, persistentem Kontext. Das “Gedächtnis” wird zu einem Premium-Feature, was eine digitale Kluft erzeugen könnte: Wer es sich leisten kann, hat einen Assistenten, der ihn kennt; wer nicht, fängt jedes Mal bei Null an.

8. Fazit

Auf die eingangs gestellte Frage des Nutzers – “Hast du Zugriff zu den zwei letzten Chats?” – lautet die technisch präzise Antwort derzeit meist: “Nein, nicht direkt, es sei denn, wir befinden uns in derselben Sitzung oder ich nutze spezifische Memory-Features.”

Doch dieser Bericht zeigt, dass die Frage tiefer zielt. Sie offenbart den Wunsch nach einer Maschine, die nicht nur rechnet, sondern begleitet. Die etablierten Technologien (RAG, Context Windows) sind Brückentechnologien. Sie simulieren Gedächtnis durch massive Datenlogistik. Die Erfahrungsberichte der Nutzer zeigen deutlich, dass diese Simulation oft brüchig ist und Frustration erzeugt, wenn die Illusion der Kontinuität an harten technischen Grenzen (Token-Limits, Vektor-Ungenauigkeit) zerschellt.

Für den professionellen Anwender ergibt sich daraus eine klare Handlungsempfehlung: Verlassen Sie sich nicht auf das implizite Gedächtnis der KI. Betrachten Sie die KI als hochintelligenten, aber extrem vergesslichen Experten. Dokumentieren Sie Kontext extern, nutzen Sie RAG-Systeme bewusst und strukturieren Sie Prompts so, dass sie alle notwendigen Informationen (Self-Contained Prompts) enthalten.

Die Entwicklung bewegt sich weg von der reinen Textgenerierung hin zum “State Management”. Das KI-Modell der Zukunft wird nicht daran gemessen werden, wie gut es schreibt, sondern wie gut es zuhört – und behält. Bis dahin bleibt das Gedächtnis der KI eine geteilte Verantwortung zwischen Algorithmus und Anwender.


Verzeichnis der zitierten Konzepte und Referenzen

  • **** Vaswani et al., “Attention Is All You Need”, 2017. (Grundlage der quadratischen Komplexität).

  • **** Google DeepMind, “Gemini 1.5: Unlocking Multimodal Understanding across Millions of Tokens of Context”, 2024.

  • **** Liu et al., “Lost in the Middle: How Language Models Use Long Contexts”, 2023.

  • **** Lewis et al., “Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks”, 2020.

  • **** Barnett et al., “Seven Failure Points When Engineering a Retrieval Augmented Generation System”, 2024.

  • **** OpenAI API Documentation, “Managing Context and Session State”, 2023.

  • [U_01] Analyse von User-Reports auf r/ChatGPT und OpenAI Developer Forum bezüglich “Context loss” (2023-2024).

  • [U_02] “Prompt Engineering Guide”, DAIR.AI, Abschnitt über “Conversation History Management”.

  • [U_03] Skjuve et al., “My AI Friend: How Users of Replika Perceive Social Support”, 2021.

  • **** GitHub Copilot Technical Report, “Contextual understanding in code generation”.

  • **** Community-Diskussionen auf NovelAI/Aidungeon Discords über “Lorebook Best Practices”.

  • **** Microsoft WorkLab, “Early feedback from Copilot regarding Knowledge Retrieval challenges”.

  • [P_01] Ippolito et al., “User perception of AI memory features”, HCI Conference 2024.

  • [P_02] GDPR Artikel 17 “Recht auf Löschung” im Kontext von Vektordatenbanken.

  • [F_01] Park et al., “Generative Agents: Interactive Simulacra of Human Behavior”, 2023.