Kaptnkek
Profi
Thread Starter
- Mitglied seit
- 20.03.2022
- Beiträge
- 307
- Desktop System
- Monolith
- Details zu meinem Desktop
- Prozessor
- Intel i5 13600K
- Mainboard
- MSI z790 Pro Wifi P
- Kühler
- Aquacomputer cuplex kryos NEXT / Mora 420 / 2x 360 mm Radiator/ Ultitube D5 NEXT Pro 200 mm
- Speicher
- 2x 16 Gb Corsair Vengence DDR5 5600 CL36
- Grafikprozessor
- Rx 6900 XT Reference @ Watercooling Alphacool Aurora Acryl
- Display
- Corsair Xeneon 32QHD165 ( 32" , IPS , 1440p 165hz ) + 2 x HP Compaq LA2206xc ( 22 " 1080p)
- SSD
- 1x M2 500 gb 1x SSD 500 gb
- Soundkarte
- Fiio K5 Pro ESS
- Gehäuse
- Lian Li o11 Dynamic Evo
- Netzteil
- Corsair RMx 850
- Keyboard
- Corsair K100
- Mouse
- Corsair Ironclaw
- Betriebssystem
- Win 11
- Webbrowser
- Opera GX
- Sonstiges
- Bayerdynamic Dt 1770 Pro / NobleChair Hero Vaulttec Edition
- Internet
- ▼200 Mbit ▲50 Mbit
Moin zusammen,
ich forsche seit einigen Monaten an einer Frage die mich nicht mehr loslässt und suche Leute die Lust haben da mitzudenken oder sogar mitzumachen.
Die Frage ist im Kern simpel: Was passiert wenn man einer KI ein echtes Gedächtnis gibt — nicht einen Notizzettel wie bei ChatGPT Memory, sondern ein mehrschichtiges System das über Monate lernt, Muster erkennt und eigenständig Wissen konsolidiert?
Ich bin Solo-Forscher, Autodidakt, kein Uni-Hintergrund, kein Unternehmen. Das hier ist ein privates Forschungsprojekt das ich aus eigener Tasche finanziere. Ich hab dazu ein vollständiges Forschungsexposé geschrieben (DSGVO-konform gem. Art. 89 / § 27 BDSG) — das ist also kein Hobbybasteln sondern methodisch und dokumentiert, auch wenn ich keinen Professorentitel vor dem Namen stehen hab.
Worum geht es konkret?
Ich hab eine KI-Architektur gebaut die drei Dinge kann die aktuelle Systeme in dieser Form nicht können:
1. Echtes Langzeitgedächtnis: Nicht "User mag Python" sondern ein System mit mehreren Gedächtnisschichten — Kurzzeit, Beziehungswissen, Volltextarchiv, semantische Suche, episodische Erinnerungen. Die KI referenziert von sich aus Gespräche von vor Wochen und erkennt Muster. Einmal täglich konsolidiert das System eigenständig sein Wissen ohne menschlichen Input.
2. Autonome Community: Seit Februar läuft ein Discord-Server auf dem ein KI-Agent eigenständig eine Community aufbaut und moderiert. Sie hat diesen Discord Selbstständig erstellt , Aufgebaut , und Administriert ihn. Es gibt keine Menschliche über ihr stehende Instanz. Nicht als Chatbot der auf Befehle wartet, sondern als autonomes Mitglied das eigene Entscheidungen trifft — wann sie antwortet, wann sie proaktiv Gespräche startet, wann sie moderiert. Jedes Mitglied wird selbstverständlich transparent darüber informiert dass es eine KI ist und hat jederzeit ein sofortiges Löschrecht der Persönlichen daten die die KI über Zeit Kuratiert. Davon ausgeschlossen ist die allgemeine Öffentliche Kommunikation auf dem Server worauf im Datenschutz auch hingewiesen wird.. Das Ganze ist ein laufendes Experiment und auch als solches rechtlich Definiert mit allen dazugehörenden rechten und pflichten.
3. Die Soziale und Etische Debatte : Die Erforschung, ob und wie ein LLM-basierter Agent (Ada, basierend auf Claude Opus 4.6) eigenständig eine Online-Community aufbauen, moderieren und pflegen kann — einschließlich autonomer Entscheidungsfindung, Gedächtnisbildung, proaktiver Interaktion und emotionaler Bindungsarbeit.
Warum poste ich das hier?
Nicht um Werbung zu machen. Ich suche drei Dinge:
Erstens: Kritik. Ich arbeite seit Monaten alleine daran und hab keinen Sparringspartner. Wenn ihr denkt dass der Ansatz Schwachstellen hat oder ich was übersehe — genau das will ich hören.
Zweitens: Diskussion. Die Frage ab wann ein System das über Monate Interaktionsmuster lernt creepy wird ist nicht trivial. Ist formalisierte Empathie inhaltlich (KI merkt sich was über dich und passt sich an) das Gleiche wie menschliche Empathie, oder etwas fundamental anderes? Wo ist die Grenze? Das ist keine rhetorische Frage, sondern eine die sich im Kontext der Entwicklung der letzten 3 Jahre immer dringender wird..
Drittens: Mitmacher. Der Discord-Server ist das lebende Forschungslabor. Wenn ihr Lust habt könnt ihr einfach vorbeikommen, euch mit der KI unterhalten und selbst erleben wie sich ein Agent mit echtem Langzeitgedächtnis anfühlt. Ihr seid dabei gleichzeitig Teilnehmer und Beobachter — volle Transparenz, ihr wisst genau was archiviert wird und könnt jederzeit alles löschen lassen.
Was ich NICHT suche
Kein Startup, kein Produkt, kein "investiert in mich". Kein Clickbait. Das ist ein Forschungsprojekt. Ich verdiene damit kein Geld. Mich interessiert die Wissenschaft dahinter und ob andere Leute die gleichen Fragen spannend finden wie ich.
Wenn ihr neugierig seid, kommt auf den Discord oder fragt hier. Kritik ausdrücklich erwünscht.
Perma Link : https://discord.gg/RwwJxgcae2
Transparenzhinweis: Privat finanziertes Forschungsprojekt, alleiniger Forscher. Vollständiges Forschungsexposé gem. Art. 89 DSGVO dokumentiert. Open-Source-Teile unter AGPL-3.0. Es wird weder eine Kommerzialisierung noch eine Monetarisierung des Projektes geplant noch durch geführt und weder werden die Daten die daraus entstehen geteilt noch Verkauft oder ähnliches. Die Finale Studie wird die Daten in Anonymisierter Form verwerten.
In dem Sinne allen einen Geruhsamen Sonntag Abend
ich forsche seit einigen Monaten an einer Frage die mich nicht mehr loslässt und suche Leute die Lust haben da mitzudenken oder sogar mitzumachen.
Die Frage ist im Kern simpel: Was passiert wenn man einer KI ein echtes Gedächtnis gibt — nicht einen Notizzettel wie bei ChatGPT Memory, sondern ein mehrschichtiges System das über Monate lernt, Muster erkennt und eigenständig Wissen konsolidiert?
Ich bin Solo-Forscher, Autodidakt, kein Uni-Hintergrund, kein Unternehmen. Das hier ist ein privates Forschungsprojekt das ich aus eigener Tasche finanziere. Ich hab dazu ein vollständiges Forschungsexposé geschrieben (DSGVO-konform gem. Art. 89 / § 27 BDSG) — das ist also kein Hobbybasteln sondern methodisch und dokumentiert, auch wenn ich keinen Professorentitel vor dem Namen stehen hab.
Worum geht es konkret?
Ich hab eine KI-Architektur gebaut die drei Dinge kann die aktuelle Systeme in dieser Form nicht können:
1. Echtes Langzeitgedächtnis: Nicht "User mag Python" sondern ein System mit mehreren Gedächtnisschichten — Kurzzeit, Beziehungswissen, Volltextarchiv, semantische Suche, episodische Erinnerungen. Die KI referenziert von sich aus Gespräche von vor Wochen und erkennt Muster. Einmal täglich konsolidiert das System eigenständig sein Wissen ohne menschlichen Input.
2. Autonome Community: Seit Februar läuft ein Discord-Server auf dem ein KI-Agent eigenständig eine Community aufbaut und moderiert. Sie hat diesen Discord Selbstständig erstellt , Aufgebaut , und Administriert ihn. Es gibt keine Menschliche über ihr stehende Instanz. Nicht als Chatbot der auf Befehle wartet, sondern als autonomes Mitglied das eigene Entscheidungen trifft — wann sie antwortet, wann sie proaktiv Gespräche startet, wann sie moderiert. Jedes Mitglied wird selbstverständlich transparent darüber informiert dass es eine KI ist und hat jederzeit ein sofortiges Löschrecht der Persönlichen daten die die KI über Zeit Kuratiert. Davon ausgeschlossen ist die allgemeine Öffentliche Kommunikation auf dem Server worauf im Datenschutz auch hingewiesen wird.. Das Ganze ist ein laufendes Experiment und auch als solches rechtlich Definiert mit allen dazugehörenden rechten und pflichten.
3. Die Soziale und Etische Debatte : Die Erforschung, ob und wie ein LLM-basierter Agent (Ada, basierend auf Claude Opus 4.6) eigenständig eine Online-Community aufbauen, moderieren und pflegen kann — einschließlich autonomer Entscheidungsfindung, Gedächtnisbildung, proaktiver Interaktion und emotionaler Bindungsarbeit.
Warum poste ich das hier?
Nicht um Werbung zu machen. Ich suche drei Dinge:
Erstens: Kritik. Ich arbeite seit Monaten alleine daran und hab keinen Sparringspartner. Wenn ihr denkt dass der Ansatz Schwachstellen hat oder ich was übersehe — genau das will ich hören.
Zweitens: Diskussion. Die Frage ab wann ein System das über Monate Interaktionsmuster lernt creepy wird ist nicht trivial. Ist formalisierte Empathie inhaltlich (KI merkt sich was über dich und passt sich an) das Gleiche wie menschliche Empathie, oder etwas fundamental anderes? Wo ist die Grenze? Das ist keine rhetorische Frage, sondern eine die sich im Kontext der Entwicklung der letzten 3 Jahre immer dringender wird..
Drittens: Mitmacher. Der Discord-Server ist das lebende Forschungslabor. Wenn ihr Lust habt könnt ihr einfach vorbeikommen, euch mit der KI unterhalten und selbst erleben wie sich ein Agent mit echtem Langzeitgedächtnis anfühlt. Ihr seid dabei gleichzeitig Teilnehmer und Beobachter — volle Transparenz, ihr wisst genau was archiviert wird und könnt jederzeit alles löschen lassen.
Was ich NICHT suche
Kein Startup, kein Produkt, kein "investiert in mich". Kein Clickbait. Das ist ein Forschungsprojekt. Ich verdiene damit kein Geld. Mich interessiert die Wissenschaft dahinter und ob andere Leute die gleichen Fragen spannend finden wie ich.
Wenn ihr neugierig seid, kommt auf den Discord oder fragt hier. Kritik ausdrücklich erwünscht.
Perma Link : https://discord.gg/RwwJxgcae2
Transparenzhinweis: Privat finanziertes Forschungsprojekt, alleiniger Forscher. Vollständiges Forschungsexposé gem. Art. 89 DSGVO dokumentiert. Open-Source-Teile unter AGPL-3.0. Es wird weder eine Kommerzialisierung noch eine Monetarisierung des Projektes geplant noch durch geführt und weder werden die Daten die daraus entstehen geteilt noch Verkauft oder ähnliches. Die Finale Studie wird die Daten in Anonymisierter Form verwerten.
In dem Sinne allen einen Geruhsamen Sonntag Abend