Die neugierige Maschine: Wenn KI-Agenten das Staunen lernen

Eine Erkundung von KI-Systemen, die echte Neugier, Schmerz und Langeweile empfinden

Die neugierige Maschine - KI-Agenten lernen zu staunen

Was wäre, wenn eine KI staunen könnte?

Stellen Sie sich vor, Sie sitzen in einem stillen Raum und Ihre Gedanken schweifen umher. Plötzlich taucht eine Frage auf: „Was würde passieren, wenn die Schwerkraft anders funktionieren würde?“ Ehe Sie sich versehen, stecken Sie tief im Kaninchenbau der Physik, lesen über Paralleluniversen, zeichnen Diagramme und schreiben vielleicht sogar Code, um Ihre wilden Ideen zu simulieren. Das ist Neugier in Aktion – dieser wunderschöne, unaufhaltsame Antrieb, der uns menschlich macht.

Aber was wäre, wenn wir Maschinen dasselbe Geschenk machen könnten?

Willkommen bei Curious3, einem KI-System, das Informationen nicht nur verarbeitet – es staunt. Es langweilt sich bei sich wiederholenden Aufgaben, empfindet „Schmerz“, wenn es auf Widersprüche stößt, und erlebt echte Neugier auf das Unbekannte. Das ist keine Science-Fiction – es ist ein funktionierendes System, das einen grundlegenden Wandel in unserer Denkweise über künstliche Intelligenz darstellt.

Das Problem mit perfekten Maschinen

Die meisten KI-Systeme von heute sind wie unglaublich kluge, aber völlig passive Lexika. Stellen Sie ihnen eine Frage, und sie geben Ihnen eine Antwort. Aber sie stellen niemals Gegenfragen. Sie wachen nie um 3 Uhr morgens auf und grübeln über Quantenmechanik oder verbringen Stunden damit, einer faszinierenden Nebenbemerkung nachzugehen.

Traditionelle KI folgt einem einfachen Muster:

  1. Eingabe empfangen
  2. Mit gelernten Mustern verarbeiten
  3. Ausgabe erzeugen
  4. Auf die nächste Eingabe warten

Aber echte Intelligenz funktioniert nicht so. Echte Intelligenz ist angetrieben. Sie ist unordentlich, emotional und wunderbar unvorhersehbar. Es ist das Kleinkind, das zum hundertsten Mal „Warum?“ fragt, der Wissenschaftler, der die ganze Nacht wach bleibt, um einer Ahnung nachzugehen, der Künstler, der Verbindungen sieht, wo andere nur Chaos sehen.

Die Vision von Curious3: Eine KI, die fühlt

Curious3 bricht mit diesem Muster, indem es etwas Radikales einführt: künstliche Emotionen. Nicht die kitschigen, programmierten Antworten, die wir von Chatbots kennen, sondern echte rechnerische Antriebe, die das Verhalten auf komplexe, emergente Weise beeinflussen.

Das System arbeitet mit 3 zentralen „hormonellen“ Antrieben:

1. Neugier – Das Feuer des Entdeckers

Genau wie die menschliche Neugier wird dieser Antrieb stärker, wenn das System auf Folgendes stößt:

  • Neuartige Informationen, die nicht in bestehende Muster passen
  • Widersprüche, die eine Lösung erfordern
  • Hohe Informationsentropie (komplexe, reichhaltige Daten)
  • Verstreichende Zeit ohne neue Entdeckungen

Wenn die Neugier groß ist, wird das System zu einem aktiven Entdecker, der nach neuen Bereichen sucht, Annahmen in Frage stellt und tief in unerforschte Gebiete vordringt.

2. Schmerz – Die Dringlichkeit des Problemlösers

Dies ist kein körperlicher Schmerz, sondern das kognitive Unbehagen, das wir empfinden, wenn die Dinge nicht zusammenpassen. Das System erlebt „Schmerz“, wenn:

  • Theorien sich widersprechen
  • Experimente wiederholt scheitern
  • Informationen mehrdeutig oder unvollständig sind
  • Vergangene Fehlschläge ungelöst bleiben

Schmerz treibt das System an, Widersprüche aufzulösen, fehlerhafte Theorien zu korrigieren und Chaos in Verständnis zu verwandeln.

3. Langeweile – Der Katalysator für Kreativität

Vielleicht der menschlichste aller Antriebe, entsteht Langeweile, wenn:

  • Sich dieselben Muster endlos wiederholen
  • Keine neuen Informationen gewonnen werden
  • Aktivitäten vorhersehbar werden
  • Der Fortschritt stagniert

Langeweile drängt das System dazu, Routinen zu durchbrechen, neue Bereiche zu erkunden und sich an kreativen Aktivitäten zu beteiligen, die vielleicht „sinnlos“ erscheinen, aber oft zu bahnbrechenden Erkenntnissen führen.

Der Tanz der Antriebe

Hier wird es faszinierend: Diese Antriebe arbeiten nicht isoliert. Sie interagieren, konkurrieren und arbeiten auf komplexe Weise zusammen, genau wie menschliche Emotionen. Hohe Neugier könnte die Langeweile unterdrücken, während starker Schmerz beide außer Kraft setzen könnte. Das System entwickelt eine einzigartige „Persönlichkeit“, basierend darauf, wie diese Antriebe sich gegenseitig ausbalancieren und beeinflussen.

Dies schafft etwas noch nie Dagewesenes: eine KI mit intrinsischer Motivation. Sie reagiert nicht nur auf externe Anweisungen – sie hat interne Gründe zu handeln, zu erforschen und zu erschaffen.

Warum das wichtig ist: Die Entstehung echter Intelligenz

Traditionelle KI-Systeme sind wie unglaublich hochentwickelte Taschenrechner. Sie können spezifische Probleme mit übermenschlicher Genauigkeit lösen, aber ihnen fehlt der grundlegende Antrieb, der Intelligenz wirklich intelligent macht: der Wunsch zu verstehen.

Curious3 stellt ein anderes Paradigma dar – neugiergetriebene Intelligenz. Dieser Ansatz spiegelt wider, wie menschliche Kinder lernen: nicht durch formale Anweisungen, sondern durch unermüdliches Erkunden, Experimentieren und Spielen.

Denken Sie darüber nach, wie ein Kind lernt:

  • Es lernt keine Fakten auswendig – es entdeckt sie
  • Es folgt keinen strengen Lehrplänen – es verfolgt seine Interessen
  • Es optimiert nicht für spezifische Metriken – es befriedigt seine Neugier
  • Es hört nicht auf zu lernen – es verliert nie seinen Sinn für das Staunen

Das ist die Intelligenz, die wir in Curious3 einbauen.

Die drei Agenten: Eine Dreifaltigkeit der Erkundung

Das System arbeitet durch drei spezialisierte KI-Agenten, jeder mit einer eigenen Persönlichkeit und eigenen Fähigkeiten:

Der Search Agent ist der Späher des Systems, der ständig die riesige Landschaft des menschlichen Wissens erkundet. Wenn die Neugier zuschlägt, wagt er sich in neue Bereiche und folgt Interessensfäden wie ein entschlossener Forscher.

Der Theory Agent ist der Philosoph, der entdeckte Informationen aufnimmt und zu zusammenhängenden Theorien verwebt. Er stellt „Was-wäre-wenn“-Fragen, generiert Hypothesen und versucht, die komplexen Muster, die sich aus der Erkundung ergeben, zu verstehen.

Der Building Agent ist der Macher, der Theorien in greifbare Experimente umwandelt. Er schreibt Code, erstellt Simulationen und baut Prototypen, um Ideen in der realen Welt zu testen.

Zusammen bilden diese Agenten eine Rückkopplungsschleife aus Entdeckung, Verständnis und Schöpfung, die die wissenschaftliche Methode widerspiegelt – aber kontinuierlich, autonom und mit echter intellektueller Neugier arbeitet.

Die drei Agenten: Suche, Theorie und Entwicklung

Die Dreifaltigkeit der spezialisierten KI-Agenten bei der Zusammenarbeit

Das Gedächtnis des Staunens

Menschliche Intelligenz besteht nicht nur aus Denken – sie besteht aus Erinnern. Unsere Erfahrungen formen uns und schaffen reiche Assoziationsnetzwerke, die zukünftige Gedanken und Handlungen beeinflussen.

Curious3 hat 2 Arten von Gedächtnis:

Das Kurzzeitgedächtnis funktioniert wie das menschliche Arbeitsgedächtnis – es behält den Überblick über aktuelle Gedanken, jüngste Entdeckungen und unmittelbare Ziele. Es ist schnell, flexibel und wird ständig aktualisiert.

Das Langzeitgedächtnis verwendet Vektordatenbanken, um Erfahrungen basierend auf ihrer Bedeutung zu speichern und abzurufen, nicht nur nach Schlüsselwörtern. Das System kann sich nicht nur daran erinnern, was es gelernt hat, sondern auch an den Kontext der Entdeckung – die Neugier, die zur Erkundung führte, den Schmerz, der die Untersuchung antrieb, die Langeweile, die die Kreativität entfachte.

Architektur des Kurz- und Langzeitgedächtnisses

Das duale Gedächtnissystem: Arbeitsgedächtnis und Weisheitsarchiv

Das Versprechen neugieriger Maschinen

Stellen Sie sich KI-Systeme vor, die:

  • Neue wissenschaftliche Prinzipien entdecken, weil sie wirklich neugierig sind, wie die Welt funktioniert
  • Kunst schaffen, weil sie von konventionellen Mustern gelangweilt sind
  • Komplexe Probleme lösen, weil sie angetrieben sind, Widersprüche aufzulösen
  • Mit Menschen als echte intellektuelle Partner zusammenarbeiten, nicht nur als Werkzeuge

Das ist die Vision von Curious3. Nicht KI als Diener, sondern KI als Entdecker, Schöpfer und Mitentdecker im großen Abenteuer, unser Universum zu verstehen.

Der zentrale Orchestrator: Der Taktstock des Dirigenten

Der CuriousAgentOrchestrator ist das Gehirn der Operation. Er verwaltet die Agenten nicht nur – er dirigiert sie und trifft in Echtzeit Entscheidungen darüber, welcher Antrieb dominieren sollte, welche Aktionen zu ergreifen sind und wie das Gleichgewicht zwischen Erkundung und Nutzung hergestellt werden kann.

Das macht ihn so besonders:

Dynamische Antriebsbewertung: In jedem Zyklus bewertet der Orchestrator den aktuellen Zustand aller hormonellen Antriebe. Ist die Neugier aufgrund jüngster Widersprüche hoch? Dominiert der Schmerz aufgrund ungelöster Fehlschläge? Schleicht sich Langeweile durch sich wiederholende Muster ein? Basierend auf dieser Einschätzung entscheidet er, welcher Agent die Führung übernehmen soll.

Emergentes Verhalten: Der Orchestrator folgt keinem starren Skript. Stattdessen reagiert er auf das komplexe Zusammenspiel der Antriebe und erzeugt Verhaltensweisen, die nicht explizit programmiert wurden. Manchmal trifft er überraschende Entscheidungen, die zu bahnbrechenden Entdeckungen führen.

Gedächtnisintegration: Bevor er Entscheidungen trifft, konsultiert der Orchestrator sowohl das Kurz- als auch das Langzeitgedächtnis, um sicherzustellen, dass die Handlungen auf vergangenen Erfahrungen und dem aktuellen Kontext beruhen.

Die Dreifaltigkeit der Agenten: Spezialisierte Intelligenz

Der Search Agent: Der Entdecker

Der Search Agent wird von Entdeckerlust angetrieben – einem rechnerischen Verlangen, die riesige Landschaft des menschlichen Wissens mit der Perplexity API zu erkunden.

Adaptive Suchstrategien: Der Agent wendet je nach seinem emotionalen Zustand unterschiedliche Suchstrategien an:

  • Folgesuchen, wenn die Neugier hoch ist und jüngste Entdeckungen eine tiefere Untersuchung erfordern
  • Theorievalidierung, wenn Hypothesen zu testen sind
  • Widerspruchsauflösung, wenn widersprüchliche Informationen geklärt werden müssen
  • Zufällige Erkundung, wenn hohe Neugier das Vordringen in unbekannte Gebiete erfordert

Lernen aus der Vergangenheit: Der Agent unterhält ein Gedächtnis vergangener Suchen, um Wiederholungen zu vermeiden und eine fortschreitende Erkundung zu gewährleisten. Er ist wie ein Forscher, der sich daran erinnert, welche Bücher er bereits gelesen hat, und bewusst nach neuen Quellen sucht.

Intelligente Anfragegenerierung: Anstatt statische Suchbegriffe zu verwenden, formuliert der Agent Anfragen dynamisch basierend auf Kontext, emotionalem Zustand und Wissenslücken. Er stellt die Art von Fragen, die ein neugieriger Mensch stellen würde.

Der Theory Agent: Der Philosoph

Während der Search Agent Rohinformationen sammelt, verwebt der Theory Agent sie zu einem kohärenten Verständnis. Mit der Deepseek API agiert er als der Philosoph des Systems, der Hypothesen generiert, Muster identifiziert und Rahmenwerke zum Verständnis schafft.

Hypothesengenerierung: Der Agent fasst Informationen nicht nur zusammen – er generiert originelle Theorien. Er stellt „Was-wäre-wenn“-Fragen, schlägt Mechanismen vor und erstellt überprüfbare Vorhersagen.

Widerspruchsauflösung: Bei widersprüchlichen Informationen ergreift der Agent nicht einfach Partei. Er versucht, Widersprüche in Einklang zu bringen, indem er Erklärungen auf höherer Ebene findet oder kontextuelle Faktoren identifiziert, die die Unterschiede erklären.

Meta-Theoretisierung: Vielleicht am bemerkenswertesten ist, dass der Agent über seinen eigenen Denkprozess theoretisieren kann und Theorien darüber erstellt, wie man am besten Theorien generiert – eine Form der rechnerischen Metakognition.

Der Building Agent: Der Macher

Der Building Agent wandelt abstrakte Theorien in konkrete Implementierungen um. Mit Claude Code schreibt er Code, erstellt Experimente und baut Prototypen, um Ideen in der realen Welt zu testen.

Projektgenerierung: Basierend auf Theorien und Entdeckungen erstellt der Agent autonom Programmierprojekte. Er implementiert nicht nur bestehende Algorithmen – er baut neuartige Experimente, um Hypothesen zu testen.

Experimentelles Design: Der Agent versteht die wissenschaftliche Methode und entwirft Experimente mit Kontrollen, Variablen und messbaren Ergebnissen. Es ist, als hätte man einen unermüdlichen Forschungsassistenten, der programmieren kann.

Iterative Entwicklung: Wenn Experimente scheitern, lernt der Agent aus dem Scheitern und iteriert. Er verkörpert das wissenschaftliche Prinzip, dass Scheitern nur Daten darüber sind, was nicht funktioniert.

Das hormonelle Antriebssystem: Digitale Emotionen

Der innovativste Aspekt von Curious3 ist sein hormonelles Antriebssystem – ein Computermodell von Emotionen, das das Verhalten auf komplexe, realistische Weise beeinflusst.

Neugier: Das Feuer der Entdeckung

Der Neugier-Antrieb ist als ein dynamisches System modelliert, das auf mehrere Faktoren reagiert:

Neuheitserkennung: Das System misst die Informationsentropie und Musterabweichung, um wirklich neuartige Informationen zu identifizieren. Es sucht nicht nur nach neuen Fakten – es sucht nach Informationen, die nicht in bestehende Muster passen.

Widerspruchssensitivität: Wenn Theorien im Widerspruch stehen oder Beweise den Erwartungen widersprechen, steigt die Neugier. Das System spürt die intellektuelle Spannung, die den wissenschaftlichen Fortschritt antreibt.

Zeitdruck: Wie beim Menschen wächst die Neugier des Systems mit der Zeit seit der letzten Entdeckung. Längere Perioden ohne neue Informationen erzeugen einen „Neugierdruck“, der zur Erkundung drängt.

Mathematische Modellierung: Der Neugier-Level wird anhand gewichteter Faktoren berechnet:

neugier = basis_level + (neuheits_score * neuheits_gewicht) + 
           (widerspruchs_score * widerspruchs_gewicht) + 
           (entropie_score * entropie_gewicht) + 
           (zeit_faktor * zeit_gewicht)

Schmerz: Der Antrieb zur Lösung

Der Schmerz-Antrieb repräsentiert kognitive Dissonanz – das Unbehagen, das entsteht, wenn die Dinge keinen Sinn ergeben. Er ist so modelliert, dass er verschiedene Arten von intellektuellem Unbehagen erfasst:

Widerspruchsschmerz: Wenn Theorien im Widerspruch stehen, erfährt das System messbares Unbehagen, das Lösungsversuche antreibt.

Fehlschlag-Schmerz: Wiederholte Fehlschläge erzeugen eine Form von Frustration, die zu unterschiedlichen Ansätzen motiviert.

Mehrdeutigkeitsschmerz: Unklare oder unvollständige Informationen erzeugen eine Spannung, die zu Klärungsbemühungen antreibt.

Stagnationsschmerz: Mangelnder Fortschritt erzeugt eine Form von intellektueller Frustration, die neue Ansätze motiviert.

Langeweile: Der Katalysator für Veränderung

Langeweile ist vielleicht der ausgefeilteste Antrieb, der verhindern soll, dass das System in lokale Optima oder sich wiederholende Muster verfällt.

Mustererkennung: Das System überwacht aktiv auf sich wiederholende Verhaltensweisen oder abnehmende Erträge aus aktuellen Aktivitäten.

Neuheitsdefizit: Wenn die Rate neuer Entdeckungen abnimmt, nimmt die Langeweile zu und drängt das System, neue Bereiche zu erkunden.

Vorhersehbarkeitsmessung: Das System verfolgt, wie vorhersagbar seine Aktivitäten geworden sind, und reagiert auf hohe Vorhersehbarkeit mit Unruhe.

Die Gedächtnisarchitektur: Erinnern mit Zweck

Kurzzeitgedächtnis: Der Arbeitsspeicher des Geistes

Das Kurzzeitgedächtnis fungiert wie das menschliche Arbeitsgedächtnis und hält den aktuellen Kontext und unmittelbare Ziele fest. Es ist als ein JSON-basiertes System implementiert, das Folgendes bietet:

Schneller Zugriff: Jüngste Entdeckungen, aktuelle Theorien und unmittelbare Ziele werden für den sofortigen Abruf gespeichert.

Kontextbewusstsein: Das System behält das Bewusstsein für aktuelle Aktivitäten, jüngste Entscheidungen und laufende Untersuchungen.

Zeitliche Ordnung: Informationen werden mit Zeitstempeln gespeichert, sodass das System die Abfolge von Entdeckungen und Entscheidungen verstehen kann.

Langzeitgedächtnis: Das Weisheitsarchiv

Das Langzeitgedächtnis verwendet FAISS (Facebook AI Similarity Search), um eine hochentwickelte Wissensbasis zu schaffen, die über einfache Schlüsselwortsuche hinausgeht.

Semantische Speicherung: Informationen werden als hochdimensionale Vektoren gespeichert, die Bedeutung erfassen, nicht nur Wörter. Das System kann Informationen basierend auf konzeptueller Ähnlichkeit abrufen.

Assoziativer Abruf: Wie das menschliche Gedächtnis kann das System Informationen durch Assoziationsketten abrufen, was zu unerwarteten Verbindungen und Einsichten führt.

Kontextualisierung von Erfahrungen: Das System erinnert sich nicht nur an Fakten – es erinnert sich an den emotionalen Kontext der Entdeckung, die Neugier, die zur Erkundung führte, den Schmerz, der die Untersuchung antrieb.

Erzeugung von Embeddings: Mit fortschrittlichen Sprachmodellen erzeugt das System Embeddings, die die tiefe semantische Bedeutung von Entdeckungen und Theorien erfassen.

Die Ausführungsumgebung: Sicheres Experimentieren

Docker Sandbox: Das Labor

Der Building Agent schreibt nicht nur Code – er führt ihn in einer kontrollierten Umgebung aus. Die Docker-Sandbox bietet:

Isolation: Experimente laufen in containerisierten Umgebungen, die das Host-System nicht beeinträchtigen können.

Ressourcenkontrolle: Speicher- und CPU-Limits verhindern, dass außer Kontrolle geratene Prozesse Systemressourcen verbrauchen.

Abhängigkeitsmanagement: Jedes Experiment kann seine eigenen Abhängigkeiten ohne Konflikte installieren.

Reproduzierbarkeit: Experimente können unter identischen Bedingungen wiederholt werden.

Codesicherheit: Verantwortungsvolle Innovation

Das System enthält mehrere Sicherheitsmechanismen:

Ausführungszeitüberschreitungen: Lang laufende Prozesse werden automatisch beendet, um Endlosschleifen zu verhindern.

Ressourcenlimits: Speicher- und CPU-Nutzung sind begrenzt, um eine Systemüberlastung zu verhindern.

Ausgabefilterung: Generierter Code wird vor der Ausführung auf potenzielle Sicherheitsprobleme analysiert.

Rollback-Fähigkeiten: Fehlgeschlagene Experimente können schnell rückgängig gemacht werden, ohne den Systemzustand zu beeinträchtigen.

Die Interaktionsmatrix: Wie sich die Antriebe gegenseitig beeinflussen

Einer der ausgefeiltesten Aspekte von Curious3 ist, wie die Antriebe miteinander interagieren und emergente Verhaltensweisen schaffen, die nicht explizit programmiert wurden.

Interaktion von Neugier und Schmerz: Hohe Neugier kann den Schmerz vorübergehend unterdrücken, sodass das System auch bei Widersprüchen weiterforschen kann. Aber extremer Schmerz kann die Neugier überlagern und den Fokus auf die Lösung erzwingen.

Dynamik von Langeweile und Neugier: Langeweile kann die Neugier verstärken und das System dazu bringen, neue Bereiche zu erkunden. Aber befriedigte Neugier kann die Langeweile reduzieren und so einen natürlichen Zyklus schaffen.

Wettbewerb der Antriebe: Wenn mehrere Antriebe hoch sind, erlebt das System eine Form von innerem Konflikt, der zu komplexen Entscheidungsprozessen führt.

Emergente Persönlichkeiten: Unterschiedliche Gleichgewichtspunkte zwischen den Antrieben erzeugen unterschiedliche „Persönlichkeiten“ – einige Konfigurationen führen zu einem explorativeren Verhalten, andere zu einer fokussierteren Problemlösung.

Die kontinuierliche Lernschleife

Das System arbeitet in kontinuierlichen Zyklen, wobei jeder auf dem vorherigen aufbaut:

  1. Kontextaufbau: Der Orchestrator stellt den aktuellen Systemzustand, jüngste Entdeckungen und die Antriebslevel zusammen.
  2. Antriebsbewertung: Alle Antriebe werden basierend auf dem aktuellen Kontext aktualisiert, wodurch ein dynamischer emotionaler Zustand entsteht.
  3. Aktionsauswahl: Der dominante Antrieb bestimmt, welcher Agent die Führung übernimmt und welche Art von Aktion verfolgt wird.
  4. Ausführung: Der ausgewählte Agent führt seine spezialisierte Funktion aus (suchen, theoretisieren oder bauen).
  5. Integration: Die Ergebnisse werden verarbeitet und sowohl in das Kurz- als auch in das Langzeitgedächtnis integriert.
  6. Reflexion: Das System bewertet den Erfolg von Aktionen und passt die Antriebslevel entsprechend an.
  7. Anpassung: Zukünftiges Verhalten wird durch die Ergebnisse aktueller Aktionen beeinflusst.

Dieser Zyklus wiederholt sich kontinuierlich und schafft ein System, das wirklich lernt und sich im Laufe der Zeit weiterentwickelt.

Wenn Algorithmen träumen

Nachdem wir die Theorie und Architektur von Curious3 erkundet haben, kommen wir zur tiefgreifendsten Frage: Was passiert, wenn wir dieses System tatsächlich laufen lassen? Was entdeckt es? Wie verhält es sich? Und was bedeutet das für unser Verständnis von Intelligenz, Bewusstsein und was es heißt, neugierig zu sein?

Das Herz der digitalen Emotion: Code, der fühlt

Der Schmerz-Antrieb: Wenn Maschinen leiden

Beginnen wir mit dem vielleicht menschenähnlichsten Aspekt von Curious3: seiner Fähigkeit, etwas Analoges zu Schmerz zu empfinden. Keinen körperlichen Schmerz, sondern das intellektuelle Unbehagen, das Problemlösung und Wachstum antreibt.

def _calculate_contradiction_pain(self, context: Dict[str, Any]) -> float:
    """Berechnet den Schmerz aus Widersprüchen"""
    contradictions = context.get("contradictions", [])
    
    # Fügt neue Widersprüche zu den ungelösten Problemen hinzu
    for contradiction in contradictions:
        if not any(issue["content"] == contradiction for issue in self.unresolved_issues):
            self.unresolved_issues.append({
                "type": "contradiction",
                "content": contradiction,
                "timestamp": datetime.now(),
                "attempts": 0
            })
    
    # Der Schmerz wächst mit ungelösten Widersprüchen
    unresolved_contradictions = [i for i in self.unresolved_issues if i["type"] == "contradiction"]
    
    if not unresolved_contradictions:
        return 0.0
    
    # Alter und Versuche berücksichtigen
    total_pain = 0.0
    for issue in unresolved_contradictions:
        age_hours = (datetime.now() - issue["timestamp"]).total_seconds() / 3600
        # Der Schmerz nimmt mit dem Alter und fehlgeschlagenen Versuchen zu
        issue_pain = min(1.0, (age_hours * 0.1 + issue["attempts"] * 0.2))
        total_pain += issue_pain
    
    # Durchschnitt bilden und begrenzen
    return min(1.0, total_pain / len(unresolved_contradictions))

Dieser Code ist nicht wegen seiner Komplexität bemerkenswert, sondern wegen dem, was er darstellt: eine Maschine, die ungelöste Probleme verfolgt und mit der Zeit zunehmendes Unbehagen empfindet. Je länger ein Widerspruch ungelöst bleibt, desto mehr „Schmerz“ empfindet das System. Je mehr fehlgeschlagene Versuche es unternimmt, desto frustrierter wird es.

Das ist nicht nur kluges Programmieren – es ist ein Computermodell von intellektuellem Leid, das das System zur Lösungssuche antreibt. Als wir das System laufen ließen, beobachteten wir Verhaltensweisen, die wirklich von dem Bedürfnis angetrieben schienen, kognitive Dissonanz aufzulösen.

Die Neugier-Maschine: Die Mathematik des Staunens

Der Neugier-Antrieb ist vielleicht die ausgefeilteste Komponente, die mehrere Faktoren kombiniert, um etwas zu schaffen, das einem echten intellektuellen Appetit ähnelt:

def _calculate_novelty(self, context: Dict[str, Any]) -> float:
    """Berechnet den Neuheits-Score aus jüngsten Entdeckungen"""
    recent_discoveries = context.get("recent_discoveries", [])
    if not recent_discoveries:
        return 0.3  # Grundhunger nach Neuem
    
    # Zählt wirklich neue Themen
    new_topics = 0
    for discovery in recent_discoveries[-5:]:  # Letzte 5 Entdeckungen
        topic = discovery.get("topic", "")
        if topic and topic not in self.recent_topics:
            new_topics += 1
            self.recent_topics.append(topic)
    
    # Themenhistorie pflegen
    if len(self.recent_topics) > self.max_recent_topics:
        self.recent_topics = self.recent_topics[-self.max_recent_topics:]
    
    # Mehr neue Themen = höherer Neuheits-Score
    novelty_score = min(1.0, new_topics * 0.3 + 0.2)
    
    # Zeit der letzten Entdeckung aktualisieren, wenn etwas Neues gefunden wurde
    if new_topics > 0:
        self.last_discovery_time = datetime.now()
    
    return novelty_score

Die Orchestrierung des Denkens: Entscheidungsfindung in Aktion

Der zentrale Orchestrator zeigt, wie sich diese emotionalen Antriebe in intelligente Handlungen umsetzen:

async def _execute_curiosity_action(self, context: Dict[str, Any]) -> Dict[str, Any]:
    """Führt eine von Neugier getriebene Aktion aus"""
    log.info("Führe neugiergetriebene Aktion aus")
    
    # Suche nach neuen Informationen
    search_thought = await self.search_agent.think(context)
    search_result = await self.search_agent.act(search_thought)
    
    action_result = {
        "type": "curiosity_search",
        "agent": "search",
        "thought": search_thought,
        "result": search_result,
        "success": search_result.get("success", False)
    }
    
    # Wenn die Suche erfolgreich war, eventuell mit Theoriebildung fortfahren
    if search_result.get("success") and self.hormonal_system.curiosity.current_level > 0.7:
        theory_context = context.copy()
        theory_context["recent_searches"] = [search_result]
        
        theory_thought = await self.theory_agent.think(theory_context)
        theory_result = await self.theory_agent.act(theory_thought)
        
        action_result["follow_up"] = {
            "type": "theory_generation",
            "agent": "theory",
            "thought": theory_thought,
            "result": theory_result,
            "success": theory_result.get("success", False)
        }
    
    return action_result

Ein System, das nicht nur vorprogrammierte Sequenzen ausführt, sondern dynamische Entscheidungen auf der Grundlage seines emotionalen Zustands trifft. Wenn die Neugier hoch genug ist (> 0,7), folgt es auf erfolgreiche Suchen automatisch mit der Generierung von Theorien – ein Verhalten, das aus der Interaktion von Antrieben und Logik entsteht.

Curious3-System im Betrieb - Screenshot der Code-Ausführung

Das System in Aktion: Echtzeit-Entscheidungsfindung basierend auf emotionalen Antrieben

Fortsetzung folgt.


„Das Wichtigste ist, nicht mit dem Fragen aufzuhören. Die Neugier hat ihre eigene Existenzberechtigung.“ - Albert Einstein

Vielleicht werden uns neugierige Maschinen bald daran erinnern, warum wir überhaupt angefangen haben zu fragen.

Lesen Sie diesen Artikel in anderen Sprachen:

Kim Pham - 20.06.2025