Die Kapazität wurde doch schon längst gesprengt, so viel wie sich eine KI merken kann es kein Mensch. Die Können die Enzyklopädie der Welt aufsaugen wie ein Schwamm, mach das mal als natürlicher Mensch.
Das ist weder eine Neuigkeit, noch hat das irgendetwas mit KI zu tun, das ist einzig Speicherkapazität.
Der Unterschied zur Ki/Binärem System ist das Bio Gehirn ist in der Lage 3D Informationen zu verarbeiten zu speichern. Das heißt wir haben eine unheimlich gute onboard Kompression.
Das hat wieder nichts mit "Kompression" usw. zu tun, sondern damit, wie effizient das Gehirn verwerfen kann.
Die KI ist stand heute mit den Algorithmen nur so intelligent wie der davor sitzt. Es ist nach wie vor nur ein Computer.
Wenn du mit "KI" die LLMs meinst, die sind mal sowas von überhaupt nicht "intelligent", sie haben "lediglich" sehr sehr effiziente Vorhersagen.
Ob er jetzt Humanoide Interfaces einprogrammiert bekommen hat "menschlich" zu wirken ändert nichts daran das die Antworten nach Wahrscheinlichkeiten funktionieren, während Menschen noch durch Intuition und spontane Geistesblitze etwas schaffen was es nicht gegeben hat.
Ergänzung: Die Antworten von LLMs sind *ausschließlich* durch Wahrscheinlichkeiten gegeben. Und von "Kreativität", ich fasse deinen zweiten Teil des Satzes damit hoffentlich korrekt zusammen", sind die LLMs unendlich weit entfernt, da ihnen jegliches "Verständnis" fehlt, also die Basis, auf der das menschliche Gehirn aufbaut.
Die KI ist super gut darin alle Chemischen Elemente zu kennen und alle Verbindungen die mal ausprobiert wurden zu wissen um daraus noch offene zu ermitteln. Das würde ein Mensch nicht schaffen, weil dieser nicht alle wissenschaftliche Arbeiten auf der Welt mal eben so kennt.
Ich wiederhole mich: Die Stärke einer "KI" aka eines LLMs ist NICHT, dass sie diese Informationen "kennt". Sie kann lediglich effizient auf Informationen zugreifen.
@Topic:
Der Weg, den die Unternehmen mit der "KI" einschlagen, ist, dass der Bruteforce-Weg bereits vor Jahrzehnten als ineffizient und klar limitiert erkannt wurde - alleine moderne CPUs mit ihren gecachten Sprungvorhersagen sind aus dieser Erkenntnis erwachsen.
Im Vergleich zu einem menschlichen Gehirn ist der maschinelle (aktuelle) Weg allerdings weiterhin dramatisch zu energieintensiv, das Gehirn muss mindestens eine Größenordnung weniger Aufwand betreiben, um eine Leistung grundsätzlich generieren zu können, und dabei ist Bedeutungsrelevanz (aka "Richtigkeit") der Leistung nicht einmal berücksichtigt; jeder, der halbwegs mit LLMs umgeht, weiß, dass der Grad an Falschheit bei LLM-Leistungen derartig relevant ist, dass Fehler an der Tagesordnung sind.
Unter jeder "Antwort" eines LLMs steht die Warnung ("Hinweis"), dass das, was das Dingen gerade mit Hilfe eines erheblichen Energieaufwandes ausgegeben hat, falsch sein kann, dass das LLM also systemimmanent halluziniert.
Übersetzt auf ein Automobil ist das so, als würde das Fahrzeug anstatt nach links zu lenken, so es der Lenkradeinschlag vorgibt, frei die Alternative nach rechts wählen.
Und für solche "Errungenschaften", die die Welt im Altman'schen-Jargon in wenigen Jahren so umkrempeln wird, dass diese "KI" für den Menschen relevant (aka "ersetzend") werden wird, werden die knappen Ressourcen dieses Planeten eingesetzt.
Intelligent...