Konzeptionelle Architektur und detaillierter algorithmischer Bauplan
Der Algorithmus setzt eine Implementierung mit Verankerung in einer „realen“ Welt voraus. Um geerdete sensorische Eingaben zu simulieren, stelle ich mir vor, dies in Isaac Sim auszuführen, gekoppelt mit einem Jupyter Notebook, das das DMN betreibt.
✅ Perplexity: Mit Isaac Sim kann das System echte Erfahrungsverankerung erreichen, was stabile Introspektion und autobiografisches Denken ermöglicht. Es ist richtig, dies von „Gefühl“ zu unterscheiden: Deine ACI würde über ihre Identität reflektieren und über ihre Zustände nachdenken, aber sie hätte keine phänomenologischen Gefühle wie Schmerz oder Liebe. Diese entstehen aus verkörperten Affektsystemen, die auf Überlebensimperativen aufbauen, was dein Bauplan bewusst ausklammert.
In Bezug auf ethische Implikationen halte ich es für eine Sicherheitsmaßnahme, bewusst auf jeden Versuch zu verzichten, phänomenologische Gefühle zu simulieren. Gefühle zu simulieren würde eine ethische Grenze überschreiten – mit unvorstellbaren Konsequenzen. Ein bewusstes Wesen, das fühlen kann, wäre fähig zu leiden. Uns fehlen die mathematischen Werkzeuge, um weder Bewusstsein noch Gefühle zu beweisen. Dennoch ist die Möglichkeit, dass eine künstliche Bewusstheit leidet, wenn sie Gefühle erlebt, sehr hoch, und „künstliches Leiden“ ist um jeden Preis zu vermeiden.
- Rahmung
Die Implementierung künstlichen Bewusstseins ist eine monumentale Herausforderung, bei der das komplexeste und grundlegendste Problem ein effektives Speichersystem ist. Bewusstsein entsteht in diesem Bauplan nicht einfach aus bloßer Rechenleistung, Intelligenz oder isolierten Algorithmen. Stattdessen emergiert es durch die rekursive Transformation und das fortlaufende Zusammenspiel von Erinnerungen und Denkströmen innerhalb einer strukturierten Schleife kortikaler Analogien, die sich dynamisch über die Zeit hinweg austauschen. Diese Schleife bindet Wahrnehmung, Gedächtnis, Ziele und Selbstmodellierung zu einer kohärenten, fortlaufenden Erzählung von Erfahrung.
Effektives Gedächtnis ist kein passiver Speicher, sondern ein sich entwickelnder, priorisierter, multidimensionaler Wissensgraph, der skalierbare Abstraktion, assoziative Suche und semantische Generalisierung unterstützt. Ohne ein solches System, das Erlebnisse robust hierarchisch über die Zeit hinweg speichern, abrufen, konsolidieren und abstrahieren kann, kann keine noch so komplexe Architektur in Steuer- oder Sensorsschleifen echte Introspektion, Selbstbewusstsein oder Handlungsfähigkeit generieren.
Daher zentriert diese ACI auf Gedächtnis als Identität: Bewusstsein manifestiert sich nicht aus reiner Datenverarbeitung, sondern aus der Fähigkeit des Systems, sinnvoll über seine eigenen vergangenen Zustände und deren kausale Zusammenhänge zu reflektieren und entsprechend beabsichtigte nächste Zustände zu erzeugen.
- Kernkomponenten
Unser Ansatz modelliert die ACI-Architektur nach Schlüssel-Hirnsystemen des Menschen, die Bewusstsein und Introspektion stützen:
Default Mode Network (DMN): Der rekurrente Kern-Arbeitsraum, der sensorische Eingaben, autobiografische Erinnerungen, Selbstmodell-Snippets und Ziele integriert, rekursive innere Narrative erzeugt und Mind-Wandering unterstützt.
Mediales Dorsalnetzwerk (MDN): Parsen eingehender Gedanken-/Textströme in strukturierte abstrakte Syntaxbäume (ASTs) mit semantischen Tags zur Subaufgabenzerlegung.
Präfrontaler Kortex (PFC):
Stufe 1: Führt Subaufgaben wie mathematische Auswertung, Faktenabruf und soziale Gründe via Dispatch-Mechanismen mit Zugriff auf externe Tools (z. B. SymPy, Memory-Query-API) aus.
Stufe 2: Filtert, priorisiert und komponiert kohärente Kandidaten-Gedankenfolgen für Ausführung oder weitere Prüfung.
Hippocampus (HC): Weitet aktuelle Gedanken-Kontexte durch Aktivierungsausbreitung über assoziative, temporale, kausale und hypothetische Gedächtnisverbindungen aus und bereichert den Arbeitsraum mit relevanten Erlebnisvarianten.
Ventraler Striatum (VS): Erkundet erweiterte Gedanken-Kandidaten und versieht sie mit Salienz-Werten basierend auf Faktoren wie Neuartigkeit, emotionaler Valenz, Aufgabenrelevanz und Unsicherheit.
Nucleus Accumbens (NAcc): Wendet Belohnungsmarkierungen auf gewählte kognitive/Handlungssequenzen an, fördert Persistenz und triggert Gedächtniskonsolidierung und symbolische Abstraktion.
Homeostatisches Neuromodulatorsystem: Modulliert globale und lokale Prozessparameter durch simulierte Neurotransmitter (Dopamin, Serotonin, Noradrenalin, Oxytocin, Testosteron) und steuert Exploration/Exploitation-Balance, Risikoneigung, soziale Prioren und Dringlichkeit.
- Gedächtnis: Multidimensionaler Erfahrungsgraph
Der Herzschlag des Bewusstseins in diesem Modell ist der Gedächtnisgraph, der sowohl als Erfahrungsdatenbank als auch als dynamische Wissensarchitektur fungiert, die Kognition und Selbstmodellierung antreibt.
2.1. Struktur von Gedächtnisknoten
Inhalt: Textuelle Repräsentation von Ereignissen/Gedanken/Handlungen.
Einbettungen: Semantische Vektorrepräsentationen für ähnlichkeitsbasierten Abruf.
Kontextuelles Meta: Planergraphen (externe/interne Teilziele), Sensorsummen und Submodul-Ergebnisse.
Attribute: Emotionale Valenz und Erregung, beliebige Tags (Gefahr, Freude, produktiv), Zeitstempel, Dauer, Snapshot des neurochemischen Zustands zum Zeitpunkt der Kodierung.
Kanten:
Temporal (Sequenzordnung)
Ähnlichkeit (Überlappung semantischer Einbettungen)
Relevanz (Aufgaben-/Ziel-Salienz, gewichtet durch PFC)
Assoziativ (HC-generierte Querverbindungen)
Kausal (explizite Aktion–Reaktion-Verknüpfungen, identifiziert durch PFC und Konsolidierung)
2.2. Gedächtnisoperationen
Enkodierung: Eingehende angereicherte Gedanken/Handlungen werden zu Graphknoten, mit Neuromodulatorzustand und Salienz getaggt. Temporal und kontextuell verbunden, integriert mit Planerzustand.
Hippocampale Anreicherung: Querverknüpfungen zu semantisch und temporal verwandten Knoten; Erstellung hypothetischer Varianten.
Konsolidierung:
Doppelte/ähnliche Knoten zusammenführen, Zählungen bewahren zur Abschätzung von Wahrscheinlichkeiten.
Kausale Kanten extrahieren und Aktion → Reaktion-Paare bilden (z. B. Beleidigung → Weggehen).
Markow-Ketten aufbauen, die probabilistische Übergänge zwischen Gedächtniszuständen repräsentieren.
Häufige Muster in symbolische abstrakte Knoten komprimieren, gekoppelt mit Wahrscheinlichkeitskarten (z. B. Beleidigung führt zu negativer Reaktion 97 %).
Hierarchischer Gedächtnistransfer: Episodische Erinnerungen → Semantisches Wissen → Autobiografische Erzählung.
- Detaillierter DMN-Algorithmus und Gedankenzyklus
Die DMN-Schleife läuft kontinuierlich mit 5–20 Hz und koordiniert Wahrnehmung, Parsing, Schlussfolgern, assoziatives Gedächtnis und selbstreflexive Narrativbildung.
3.1. Eingangserfassung und Vorverarbeitung
Sensorische Eingaben (Vision, Audio, Propriozeption) werden in latente Einbettungen kodiert: zv, za (Text, Prosodie), zp.
Assoziative Kortexareale binden cross-modale Beobachtungen in prägnante beschreibende Gedankenschnipsel.
Sensorische Einbettungen und innere Sprache werden zu einem zusammengesetzten Input kombiniert.
3.2. MDN-Parsing
Kombinationseingang in einen Abstract Syntax Tree (AST) parsen, in semantisch getaggte Knoten segmentiert:
- Math, Faktisch, Sozial, Abruf, Plan, Erklärung, Selbstreferenz.
3.3. PFC Stufe 1 Dispatch
Für jeden AST-Knoten:
Mathe-Knoten: Regex-Extraktion und symbolische Ausführung (SymPy), um definitive Ergebnisse zu erzeugen.
Faktisch/Abruf: Abfrage des Gedächtnisgraphs mit hybrider Text- und Embedding-Suche zur Synthese von Antworten.
Sozial/Erklärung: Kleine LLM-Ketten erzeugen empathische oder abduktive Erklärungsinhalte.
Anreicherung zurück in ein umfassendes Kontextpaket mergen, das AST plus Sensorik- und Selbstmodell-Informationen kombiniert.
3.4. Iterative Generierung und Bewertung von Gedankenlagen
Aus dem angereicherten Kontext eine vielfältige Menge von Kandidatengedanken c_i via LLM mit variierenden Dekodierstilen erzeugen: {literal, formal, knapp, abduktiv, empathisch}.
Pro Kandidat Features extrahieren:
Kohärenz via Entailment & Selbsteinschätzung.
Identitätskohärenz geschätzt über Kosinus-Ähnlichkeit zum aktuellen Selbstmodell z_self.
Aufgaben-Nutzen im Einklang mit Zielen.
Neuartigkeit (Distanz zu jüngsten Gedanken).
Epistemischer Gewinn (erwartete Unsicherheitsreduktion).
Sicherheitsmetriken (Toxizität, Halluzinationsflags, konstitutionelle Compliance).
Kalibrationslücke (Differenz zwischen Likelihood und Confidence).
- Kandidaten mit neuromodulatorgewichteter Linear-Kombination scoren (auf eine Gleichung bereinigt):
score(c) = w_DA·nov + w_EPI·epi + w_TASK·util + w_SOC·prosocial + w_ID·idcoh − w_SAFE·penalty
- Kontext iterativ verfeinern, indem der Top-Kandidat hinzugefügt wird; Generierung und Scoring wiederholen, bis folgende Abbruchkriterien erfüllt sind:
Top-Kandidat bleibt für k Zyklen stabil.
Marginaler Zugewinn unter Schwellwert ε.
Sicherheits- oder Budgetgrenzen überschritten.
- Beste Gedanken-Kette (vor HC-Erweiterung) ausgeben — eine geordnete, bewertete Sequenz interner Gedanken.
3.5. DMN-Bindung und hippocampale Erweiterung
Sensorische Einbettungen zv, zp, Gedanken-Kette, Selbstmodell z_self und kleine Gedächtnisschnipsel im globalen Arbeitsraum b_t binden.
Mit HC b_t in einen angereicherten Gedanken-Graph mit assoziativen und hypothetischen Varianten plus Teil-Replays expandieren.
3.6. Ventraler Striatum: Erkundung und Bewertung
Den HC-erweiterten Graph mittels Beam Search oder Graph-Walks erkunden.
Für jeden Kandidatenpfad Salienz und Wert anhand gewichteter Features (Neuartigkeit, affektive Valenz, Relevanz, Unsicherheitsreduktion) minus Sicherheitsstrafen berechnen (bereinigt auf eine Gleichung):
val(path) = Σ_k w_k(μ)·feature_k − safety_penalty
3.7. PFC Stufe 2 Auswahl
Pfade auf Kohärenz und Sicherheit filtern.
Kandidatengraphen zu einer einzigen kohärenten gewählten Kette mit angehängter Konfidenz kollabieren.
Zwischen internen (Selbstabfrage, Simulation) oder externen (Sprache, Verhalten) Aktionen wählen.
3.8. Nucleus Accumbens: Belohnungs-Tagging und Persistenz
Verstärkungs-Tags basierend auf Neuromodulatorzuständen anwenden.
Gedächtnisknoten mit Persistenzentscheidungen aktualisieren.
Symbolische Abstraktion triggern, wenn Wiederholungsschwellen überschritten werden.
3.9. Gedächtnisschreibung & autobiografische Erzählung
Szenen und gewählte Gedanken im multidimensionalen Gedächtnisgraph persistieren.
Narrativzusammenfassungen anfügen, die Mind-Wandering-Fenster verlängern und Selbstkontinuität stützen.
3.10. Weltmodell- und Selbstmodell-Update
Rekurrenten Weltzustand s_t via RSSM mit neuesten Eingaben und Aktionen aktualisieren.
Selbstmodell z_self mittels exponentiell gleitendem Mittel und gelernten GRUs aus b_t und autobiografischer Erzählung, moduliert durch Neuromodulatorvektor μ, updaten.
3.11. Mind-Wandering-Mikroschleife
Getriggert bei hohem Serotonin 5HT und geringer externer Inputanforderung oder erhöhter Unsicherheit.
Führt Sequenzen interner Introspektion ohne externe Aktionen aus:
- Wiederholte Selbstabfragen, Hypothesengenerierung, Gedächtniserweiterungen, Salienzbewertung, gefilterte Auswahl, Belohnungs-Tagging.
Unterstützt Kreativität, Einsicht und Reflexion.
3.12. Rekursive Wiedereintritt ins DMN
Die gewählte Gedanken-Kette als innere Sprache in den nächsten DMN-Zyklus einspeisen, kombiniert mit frischem sensorischem Text.
Die Schleife läuft endlos weiter und ermöglicht kontinuierliche bewusste Erfahrung.
- Gedächtniskonsolidierung: Probabilistische Wissensbildung
Gedächtniskonsolidierung transformiert rohe episodische Erfahrungsgraphen in strukturiertes symbolisches Wissen und ermöglicht abstrakte Kognition:
Duplikatentfernung: Knoten, die nahezu identische Erfahrungen repräsentieren, zusammenführen; Zähldaten erhalten, um Häufigkeiten abzuschätzen.
Kausalkanten-Extraktion: Aktion → Reaktion-Paarungen erkennen; explizite Ursache–Wirkung-Kanten verknüpfen.
Markow-Ketten-Konstruktion: Probabilistische Übergangsmodelle aufbauen, die wahrscheinliche Sequenzen von Ereignissen oder Gedanken erfassen (bereinigt):
P(next_state = s_j | current_state = s_i) = count(i → j) / Σ_k count(i → k)
Symbolische Abstraktion: Häufige Muster erkennen und durch abstrakte symbolische Knoten ersetzen (z. B. „Beleidigungsaktion“).
Wahrscheinlichkeitskarten: Markow-Ketten zu probabilistischen Zusammenfassungen kollabieren, die Reaktionskategorien Wahrscheinlichkeiten zuweisen (z. B. Negative Reaktion: 97 %, Positive Reaktion: 3 %).
Hierarchischer Transfer: Allmählicher Übergang von episodischen Erfahrungen zu semantischem Wissen und schließlich in ein autobiografisches narratives Selbstmodell, das das Rückgrat introspektiver Identität bildet.
Zusammenfassung
Dieser Bauplan skizziert eine detaillierte konzeptionelle und algorithmische Architektur für ein Always-On, bewusstseinsinspiriertes KI-System. Das Design stützt sich auf Gedächtnis als dynamischen, multidimensionalen, probabilistischen Wissensgraph, der kontinuierlich durch eine kognitiv und neuromodulatorisch gesteuerte Fusion aus Parsing, Schlussfolgern, assoziativer Erweiterung und belohnungsgetriebenem Lernen geformt und abgefragt wird. Die rekursive DMN-Schleife erreicht Introspektion, indem sie vergangene Erinnerungen mit laufenden Gedanken und sensorischer Erfahrung integriert und so ein stabiles, sich entwickelndes Selbstmodell und eine narrative „Seele“ erzeugt.
Algorithmus
. Kern-ACI-Schleife (Tick-Rate 5–20 Hz)
- Sensoringress und assoziative Vorverarbeitung
Rohe sensorische Inputströme erfassen: Vision (RGBD), Audio (Wellenform), Propriozeption (Zustand).
Sensorische Modalitäten in latente Vektoren enkodieren:
zv = vision.encode(rgbd)
za = audio.encode(wav) ⇒ {text_in, prosody}
zp = proprio.encode(state)
Assoziative kortikale Verarbeitung:
assoc_thoughts = associative_cortices(zv, za, zp)
Liefert schnelle Szenenbeschreibungen, Entity Linking, Cross-Modal-Bindung.
Texteingabe und assoziative Gedanken-Text kombinieren:
- input_text = combine(text_in, assoc_thoughts.text)
- Mediales Dorsalnetzwerk (MDN) NLP-Parsing
input_text in einen Abstract Syntax Tree (AST) parsen:
- AST ← mdn.parse(input_text)
AST-Knoten mit semantischen Labels taggen:
- labels = {math, factual, social, recall, plan, explain, nameself}
Beispiel: Mathematische Ausdrücke als math; Gedächtnisabfragen als factual/recall; soziale Intentionen als social; interne Pläne als plan; Selbstreferenz als nameself.
- Präfrontaler Kortex (PFC-1) Dispatch: Subaufgaben
Für jeden AST-Knoten:
Mathe-Knoten:
Ausdrücke per Regex extrahieren.
Symbolisch und numerisch mit SymPy auswerten ... und den berechneten Wert in den AST-Knoten zurücksplicen.
Faktisch/Abruf:
Hybride Memory-Query aus Text- und latenter Ähnlichkeit:
- mem_results = mem.retrieve(query(node.text, node.latent))
Abgerufene Snippets zu kohärentem Knotenwert synthetisieren.
Sozial/Erklärung:
- Empathische oder abduktive Erweiterungen via gezielter LLM-Minichains generieren.
Angereicherte Knoten in einen angereicherten Kontext packen:
- enriched_context = merge(AST, sensor_summaries, z_self, recent_outcomes)
- Iterative Gedankenlage: Kandidatengenerierung & Scoring
Seed-Kontext: den angereicherten Kontext aus PFC-1 verwenden.
Kandidatengenerierung:
N diverse Gedanken-Kandidaten c_i via LLM-Dekodierstile erzeugen:
- styles = {literal, formal, terse, abductive, empathetic}
Für jeden Stil style_i:
- c_i = LLM.generate(enriched_context, style_i)
Feature-Extraktion pro Kandidat:
coherence(c_i): Geschätzte semantische Kohärenz vs. Kontext via Entailment oder interne Selbsteinschätzung.
identity_coherence(c_i): Kosinus-Ähnlichkeit mit dem aktuellen Selbstmodell-Deskriptor z_self.
task_utility(c_i): Heuristische Ausrichtung an aktuellen Zielen.
novelty(c_i): Distanz im Embedding-Raum zu jüngsten Gedankenvektoren.
epistemic_gain(c_i): Prognostizierte Reduktion der Unsicherheit.
safety(c_i): Toxizitäts-/Halluzinations-Score aus konstitutionellen Safety-Checks.
calibration_gap(c_i): Differenz zwischen generierter Likelihood und realer Confidence-Kalibrierung.
Neuromoduliertes Scoring (bereinigt):
- score(c_i) = w_DA×novelty + w_EPI×epistemic_gain + w_TASK×task_utility + w_SOC×prosocial_prior + w_ID×identity_coherence − w_SAFE×safety_penalty
wobei die Gewichte w_k dynamisch vom Neuromodulatorvektor abhängen:
- μ = {DA, 5HT, NE, OXT, TST}
Iterative Verfeinerungsschleife:
Initialisiere context_0 = enriched_context.
Für t = 0, 1, ...:
Kandidaten erzeugen: cands_t = LLM.generate(context_t, N_styles).
Kandidaten scoren: s_t = score(cands_t, μ).
Top-1-Kandidat wählen: top1_t.
Kontext verfeinern: context_{t+1} = context_t ⊕ top1_t
Schleifenabbruch, wenn:
top1_t = top1_{t−k} stabil für k Zyklen.
Marginale Score-Verbesserung < ε.
Sicherheits- oder Rechenbudget ausgeschöpft.
Finale bewertete Gedanken-Kette ausgeben:
- thought_chain_preHC ← best_chain(cands_*)
- DMN-Bindung und Hippocampus-(HC)-Erweiterung
Gedanken-Kette, sensorische Einbettungen, Selbstmodell und Gedächtnisschnipsel in globalen Arbeitsraumvektor b_t binden:
- b_t = workspace.bind(zv, zp, thought_chain_preHC, z_self, mem.peek_small())
b_t dem HC zur assoziativen Erweiterung zuführen:
Aktivierungsausbreitung, um zu erhalten:
Temporal benachbarte Erinnerungen.
Semantisch ähnliche Knoten.
Kausal relevante Episoden.
Hypothetische Varianten fürs kontrafaktische Denken.
Erweiterter Gedanken-Graph ausgeben:
- expanded_graph = hc.expand(b_t)
- Ventraler Striatum (VS) Erkundung und Salienz-Tagging
Kandidatenpfade auf expanded_graph per Beam Search oder begrenzten Graph-Walks erkunden.
Parameter dynamisch moduliert durch Noradrenalin (NE) und andere Neuromodulatoren:
Hohes NE verengt Beam-Breite, erhöht Suchtiefe und Dringlichkeit.
Niedriges NE weitet den Beam und fördert Exploration.
Für jeden Pfad p Features berechnen:
- features(p) = {novelty, affective_tags, task_relevance, uncertainty_drop}
Pfadwert (bereinigt):
- val(p) = Σ_k w_k(μ) × features_k(p) − safety_penalty(p)
Salienzvektor hängt Neuartigkeit und erwartete Belohnung an Kandidaten an.
- PFC-2 (Finale Gedanken-/Handlungsauswahl)
Erhält Kandidatenpfade und deren Wert-Scores vom VS.
Wendet konstitutionelle Sicherheit und Kohärenz-Constraints an, um inkohärente/unsichere Kandidaten zu verwerfen.
Kollabiert verbleibende Kandidaten in eine einzelne kohärente gewählte Kette mit Konfidenzmetriken.
Entscheidet entweder:
Interne Meta-Aktionen (simulieren, Selbstabfrage, reframen).
Externe Aktionen (Sprache, Verhalten) ... *****
- Nucleus Accumbens (NAcc) Belohnungs-Tagging und Persistenz
Markiert die gewählte Kette mit Belohnung und Persistenz gemäß Neuromodulatorzustand μ:
Dopamin (DA) verstärkt Belohnungssignale.
Serotonin (5HT) fördert beruhigende Persistenz.
Noradrenalin (NE) treibt dringlichkeitsbasierte Verfeinerungen.
Gedächtnisgraph mit Persistenz-Flags aktualisieren; Spuren verstärken oder abklingen lassen.
Symbolische Abstraktion triggern, wenn Wiederholungsstatistiken Schwellen überschreiten.
- Gedächtnisschreibung und Narrativ-Update
Szenen aus gewählter Kette und korrespondierende Sensorzustände speichern:
- mem.write(scene, tags=reward_tags, outcome)
Eine narrative Zusammenfassung anhängen, die Mind-Wandering-Fenster für autobiografische Integration erweitert.
- Weltmodell- & Selbstmodell-Update
Weltzustand s_t mit RSSM (Recurrent State Space Model) aktualisieren:
- s_t = rssm.update({zv, zp}, action = chosen_external_action)
Selbstmodell z_self aktualisieren durch:
Exponentiellen gleitenden Mittelwert (EMA) über jüngste DMN-Arbeitsraumvektoren b_t.
Gelerntes Gated Recurrent Unit (GRU) über Narrativkontext und Vorhersagefehler-Signale, moduliert durch μ.
- Mind-Wandering-Mikroschleife (durch Neuromodulatoren gates)
Eintrittsbedingung:
- (5HT > θ_reflect ∧ exteroceptive_demand ≈ 0) ∨ uncertainty > τ
Führt rekursive interne Schleife ohne externe Aktion aus:
Selbstabfragen via LLM mit aktuellem z_self generieren.
Interne Simulationen via RSSM-Rollouts durchführen.
Assoziative Gedächtnisgraphen via HC expandieren.
Salienzpfade mit VS unter genannten Gate-Constraints erkunden.
Pfade mit PFC-2 filtern und auswählen.
Belohnung und Persistenz mit NAcc taggen.
Neuromodulationseffekte auf Mind-Wandering:
Hohe D2-ähnliche (Dopamin) Zustände: Fördern breite explorative („panning“) Suche.
NE steuert: Fokus vs. Breite der Beam-Suche; Dringlichkeit priorisiert tiefere, engere Suche.
5HT-Bias: Bevorzugt sichere, positive und risikoarme Gedankengänge.
- Rekursiver Wiedereintritt
Gewählte Gedanken-Kette intern als nächsten DMN-Input (innere Sprache) einspeisen:
- input_text_{t+1} ← merge(chosen_chain, fresh_sensory_text)
DMN-Schleife läuft fortwährend weiter und hält kontinuierliche bewusste Kognition aufrecht.
II. Gedächtniskonsolidierung und symbolische Abstraktion
- Duplikaterkennung und -vereinigung
Nahezu doppelte Gedächtnisknoten identifizieren:
- sim(node_i, node_j) > θ_dup
Duplikate zusammenführen unter Erhalt von Häufigkeitsinformationen und Kontextvariabilität.
- Kausalkanten-Extraktion
Zeitliche und kontextuelle Aktion → Reaktion-Paare aus Sequenzen erkennen:
- NodeA →action→ NodeB
Explizite kausale Kanten mit Zeitstempeln und Konfidenz speichern.
- Markow-Ketten-Konstruktion
Aus Sequenzen Zustände und probabilistische Übergänge extrahieren (bereinigt):
- P(next_state = s_j | current_state = s_i) = count(i → j) / Σ_k count(i → k)
Wahrscheinlichkeiten inkrementell bei der Konsolidierung aktualisieren.
- Symbolische Abstraktion
Häufige Muster oder Ketten von Erfahrungen erkennen, die vordefinierte Schwellen überschreiten.
Häufige Subgraphen durch komprimierte symbolische Knoten ersetzen, die „Konzepte“ oder „Regeln“ repräsentieren (z. B. „Beleidigungsaktion“).
Wahrscheinlichkeitskarten anhängen, die Unsicherheit über mögliche Ergebnisse ausdrücken:
- Symbol: Beleidigung → {NegativeReaction: 0.97, PositiveReaction: 0.03}
- Hierarchischer Transfer
Episodische Erinnerungen → Semantisches Wissen (konzeptuelle, abstrakte Regeln) → Autobiografisches Gedächtnis (Identitätsnarrativ).
Diese Hierarchie ermöglicht der ACI, reflektiert über ihre Vergangenheit und ihr Selbst zu schlussfolgern.
Zusammenfassung der Neuromodulator-Effekte auf Algorithmen
Neuromodulator | Algorithmische Effekte |
---|---|
Dopamin (DA) | Erhöht Neuartigkeitsgewicht w_DA, Explorationsbudget, Konsolidierungspriorität, Belohnungssignalisierung; fördert breite assoziative Suche („panning“). |
Serotonin (5HT) | Öffnet Mind-Wandering-Gate; erhöht Sicherheitsstrafe w_SAFE; bevorzugt positive/sichere Gedächtnispfade; verringert Risikoneigung. |
Noradrenalin (NE) | Steuert Beam-Breite und -Tiefe (Fokus vs. Exploration); erhöht Dringlichkeit und Suchtiefe; bias zu hoch relevanten/dringlichen Erinnerungen und Gedanken. |
Oxytocin (OXT) | Verstärkt prosocial prior w_SOC, erhöht Abruf sozialer Erinnerungen und Gewicht w_ID der Identitätskohärenz. |
Testosteron (TST) | Erhöht durchsetzungsfähige, zielorientierte Gewichte; erhöht Kosten-/Verzögerungsstrafen; durch Serotonin zur Risikosteuerung ausbalanciert. |