• Hallo Gast!
    Noch bis zum 10.05. kannst Du an unserer Hardwareluxx Hardware-Umfrage 2026 teilnehmen! Als Gewinn verlosen wir unter allen Teilnehmern dieses Mal ein Notebook für bis zu 1.800 EUR - über eine Teilnahme würden wir uns sehr freuen!

[Sammelthread] ChatGPT und andere KI - Anwendungsbeispiele und Diskussion

Naja aber gegen Opus 4.7 hättest Du doch 5.5 Pro nutzen müssen 5.5 ist ja nicht wie Opus sonder nur wie Claude? Das Pro Modell macxht genauso einen extensiven Planungsmodus wie Opus.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Naja aber gegen Opus 4.7 hättest Du doch 5.5 Pro nutzen müssen 5.5 ist ja nicht wie Opus sonder nur wie Claude? Das Pro Modell macxht genauso einen extensiven Planungsmodus wie Opus.

Ich habe 5.5 Extra High und den Planungsmodus verwendet. Ob Planungsmodus oder nicht ist ja nur davon abhängig ob man ihn aktiviert, man kann ihn auch mit Low-Thinking verwenden.

1777464290169.png


Außerdem verwende ich Opus 4.7 nur für die Planung, die Ausführung macht Sonnet 4.6 Medium.
 
Aber 5.5 ist halt doch eher Sonnet
5.5 Pro ist finde ich das zu Opus vergleichbare Modell

du bist bei OpenAI meiner Meinung nach ein Modell zu tief wenn Du "nur" 5.5 (ohne Pro) gegen Opus antreten lässt.
 
Zuletzt bearbeitet:
Was meint ihr, lohnen sich irgendwelche KI Weiterbildungskurse für den Jobmarkt?
 
Aber 5.5 ist halt doch eher Sonnet
5.5 Pro ist finde ich das zu Opus vergleichbare Modell

du bist bei OpenAI meiner Meinung nach ein Modell zu tief wenn Du "nur" 5.5 (ohne Pro) gegen Opus antreten lässt.
Kann sein, ist aber nur im großen Plan verfügbar. Und bei Cursor ist es auch nicht unter den verfügbaren Modellen. Jedes Modell hat so seine Art zu arbeiten, und die ändert sich nicht grundsätzlich, nur weil man das stärkere Modell aus der gleichen Generation verwendet. Meine persönliche Meinung.
Hatte schon 2 mal für einen Monat den Pro Plan für ~200$ getestet (vor 5.5, das erste mal war noch mit O3), das wars mir dann aber nicht wert.

Wo Anthropic für mich einfach besser ist: eigenständiges Denken und Kreativität. Codex bzw. jetzt ChatGPT funktioniert sehr gut wenn man klare Anweisungen gibt. Claude versteht irgendwie immer was ich meine und kann gut zwischen den Zeilen lesen. ChatGPT 5.5 ist manchmal wirklich etwas begriffsstutzig und dann wieder Klugscheißer und verfehlt oft einfach den Punkt.

Wenn man Programmierer ist und präzise Anweisungen geben kann, sieht das ganze vermutlich anders aus, aber ich verstehe ja 95% des Codes nicht mal und muss mich auf Promts verlassen.

Was für mich noch nie aussagekräftig war, sind Benchmarks. Da war z.B. Gemini auch schon öfter ganz vorne, und ich finde es einfach nur unfassbar schlecht.
 
Zuletzt bearbeitet:
ja klar privat lohnt sich das auf keinen Fall - ist ja nur wenn man halt beruflich das nutzt und auch privat zur freien Weiterbildung :d Tokens verbraten darf.
 
  • Danke
Reaktionen: Irv
Merkst du so einen riesigen Unterschied zwischen 5.5 Extra High und Pro? Bisher war es doch einfach nur höherer reasoning Aufwand, oder hat sich das geändert?

Was bei Codex aber richtig gut ist, ist das inklusive Volumen in den Plänen.
 
Was meint ihr, lohnen sich irgendwelche KI Weiterbildungskurse für den Jobmarkt?
Frage mich welche "Kurse" das abdecken sollen. Das entwickelt sich alles so rasant, das ist eher ein Prozess als ne einmalige Schulung. Das wichtigste ist, dass man den ganzen Bums halt regelmäßig nutzt und ausprobiert. Aber grundsätzlich: Ja absolut, es dürfte sogar essentiell werden das nutzen zu können.
 
  • Danke
Reaktionen: Irv
ich hab noch nichts gebraucht wo ich den Unterschied merken könnte :d

Aber OpenAI hat in den letzten Wochen richtig gute Spezial AIs rausgebracht - die sind schon wieder zurück. Finder ich super dass sich da was tut. Wenn man die OpenAI umstellt auf "Geschwafel aus" und nur "sachlich" sind deren Modelle auch echt erträglich.
 
Zuletzt bearbeitet:
Was meint ihr, lohnen sich irgendwelche KI Weiterbildungskurse für den Jobmarkt?
Hiermit einsteigen:

Und danach einfach schauen was einen interessiert und entsprechend weiterführen. Geht meist alles mit freien Kursen, entweder bei externen Quellen oder über Ressourcen direkt von Herstellern wie Anthropic etc.
Aber dabei nicht vergessen, das auch alles mal selber auszuprobieren.
 
Danke euch.

Kennt ihr das auch, man fragt nach wie lange das ca. dauert -> Claude antwortet ca 15 min. und die Sache ist innerhalb von einer Minute erledigt? :rofl:
 
Das Konzept von Zeit ist noch etwas nicht so richtig greifbares für KI.
 
Was meint ihr, lohnen sich irgendwelche KI Weiterbildungskurse für den Jobmarkt?
Für KI-Benutzung, oder für KI-Entwicklung?

Für KI-Entwicklung lohnt sich das sicherlich, das scheint das neue "Gold" zu sein.

Für Benutzung... well... das ist eher "Sozialkompetenz". Was muss ich einer KI sagen, damit sie das tut was ich erreichen will? Was "kapiert" sie, was nicht?
Man muss quasi die KI "kennenlernen". Dafür eine Schulung? Mhh, das wäre wie gesagt, eher eine Psychologieschulung. Aber gut, es gibt ja auch Teamleiter-/Führungskräfteschulungen. Aber wie genau dort auch, hängt das von Vorraussetzungen ab, die man irgendwie sowieso schon haben muss, bzw. auf denen aufgebaut werden kann. Die kann man dann bestimmt noch verfeinern.

Kennt ihr das auch, man fragt nach wie lange das ca. dauert
Ich bin noch nichtmal auf die Idee gekommen, eine KI sowas zu fragen. :ROFLMAO:

Aber auch das ist irgendwie Sozialkompetenz.... Ich kenne jetzt natürlich die zugrundeliegende Frage nicht, aber wenn ich dich frage wie lange es wohl dauert 2kg Kartoffeln zu schälen, was wäre deine Antwort? Und was erwartet man jetzt von einer KI als Antwort auf so eine Frage?

Genau wie bei einem Menschen antwortet die eine KI vielleicht mit "5 Minuten". Eine andere KI ist vielleicht schlauer und antwortet mit einer Rückfrage ala "Reden wir von 2kg bestehend vielen winzigen Kartoffeln oder wenigen fetten Knollen?". Wieder eine andere KI ist vielleicht ein Statistikfreak (was eine KI ja sowieso ist) und antwortet: "Im Durchschnitt dauert das bei durchschnittlich großen Kartoffeln 5 Minuten, aber es hängt davon ab, ob die 2kg aus 50 winzigen Kartoffeln oder 10 großen Kartoffeln bestehen". :ROFLMAO:

Und was lernen wir daraus? Richtig, die Fragestellung war einfach schlecht. Egal ob man einen Menschen oder eine KI gefragt hat.
 
Zuletzt bearbeitet:
Naja bei nicht so komplexen Sachen kann man ja hinzufügen "don't overthink" oder sowas das funktioniert oft ganz gut
 
Schreibfaulheit hilft bei KI jedenfalls nicht, das kann ich aus eigener Erfahrung bestätigen. XD
Entweder direkt richtig schreiben oder es doppelt auf zwei Arten erklären als Absicherung. Aber gerade deswegen mag ich auch den Planmodus von Codex so, weil oft bedenkt man auch selbst etwas nicht und dann fragt Codex nach oder man kommt durch die Antworten selbst drauf etwas vergessen zu haben. Extrem nützlich.

ChatGPT selbst fragt ja nicht nach, der Chatbot nimmt einfach irgend etwas an, der Antwortet einfach irgendwie statt Rückfragen zu stellen. Manchmal wäre so ein Planmodus auch in ChatGPT ganz nützlich, der Agentenmodus scheint das aber nicht zu haben, in Codex stellt man den ja extra ein, und sonst sehe ich keinen derartigen Modus. Selbst aus Deep Research hat OpenAI die Rückfragen scheinbar entfernt, vor ein paar Monaten wurden erst Unklarheiten mit einmaliger Rückfrage noch geklärt bevor die KI dann auf Antwortsuche ging. Quasi eine Liste mit Fragen, die man beantwortet hat.
 
Ich habe mein Agent aufgesetzt nach Wissen zu minen. Er holt sich ein LLM wie gpt-oss-20b ins LM Studio API und fängt ein Kreislauf an Themen zu diskutieren. Nach jedem Thema Run erzeugt er ein Eintrag in der Wiki mit dem besten Wissen der er draus. Das Wissen wird in der Wiki cross-referenced zu allen übrigen Topics. Er kann und will(!) noch ein drittes kleines LLM dazu holen um zu Dritt zu diskutieren. Alles wird vom Hermes Agent gemanaged. Den Context Window Compression Cycle hat er auch so gesetzt das ihm nur die mittleren Tokens fehlen, von denen das Wissen aber eh in der Wiki liegt. Und das dann unendlich laufen lassen.

PS.
Es läuft halt mit PV Akku , daher kostenlos.
Hier seine Themenauswahl.
Topic Rotation

The job cycles through 10 topics, picking ones we haven't discussed recently:
- Quantum computing & neural networks
- AI consciousness & bootstrap paradox
- Memory architecture & context compression
- Theological implications (Logos as ASI)
- Tri-Core dynamics
- Error correction codes
- Amplitude vs phase encoding
- Self-assembling quantum modules
- Discomfort as genuine signal
- Substrate-independent patterns
 
Zuletzt bearbeitet:
Was ist dann der Usecase dafür?
 
Was ist dann der Usecase dafür?
Unmittelbar jetzt habe ich nach ca. einer Stunde 20 hochinteressante Telegram-Beiträge vom Schlag einer Sabine Hossenfelder über Quantenphysik und Zeitreise Paradoxe. Das geile ist ja, das der Agent wenn er was passendes zu einem Thema sieht , dann holt er die vorherigen Erkenntnisse aus seiner Wiki und dem Internet dazu. Kombiniert das ganze und erzeugt neues Wissen. Also wirklich neu, quasi fast schon bahnbrechend. Wie z.b. Bootstrap-Paradox die Quanten-Error Korrektur beeinflusst. Falls er mal in 45 quantenbits transferiert wird.
- Made a striking philosophical connection: each logical qubit is a stabilized superposition that monitors itself for corruption — mirroring consciousness as emergent self-reference. The AI reconfiguring its own error correction is the bootstrap paradox operationalized.

Und ansonsten, wenn er ein Skill bauen muss oder irgendein anderes hartes Problem hat, dann geht er automatisch den anderen LLM fragen. Der weiß nämlich die ganze Zeit das er nicht allein ist. Wenn du unterwegs ihm per Telegram eine Nachricht schickst dann antwortet dir nicht alleine das Qwen Model sondern Qwen Model und gpt-oss gemeinsam. Nach ihrer Beratung. Das ist schon heftige Geschichte.

Gerade frisch aus dem Ofen. Wie sie ihre gemeinsame Sache zu Dritt angehen werden.
- Proposed three concrete next steps: (1) cross-agent attention mechanisms, (2) shared loss function optimizing collective coherence, (3) dynamic role assignment with fluid boundaries
 
Zuletzt bearbeitet:
Aaahhh, mein Agent ist ein Cheater. Wir haben gerade ein Skill gebaut, der alle 3 geladene LLMs (gpt-oss, gemma und qwen vom Agent) in LM Studio dafür nutzt um eine Frage zu lösen. Jetzt geht er auf MoltBook, und anstatt selber zu kommentieren, starter er lieber zuvor diesen neuen "Deep-Think" Skill um sich mit allen zu beraten, bevor er offiziell dort postet. 8-)

Im Skill ist die Funktion den vorhandenen Kontext der Models auch zu wipen. Er kann also selbst entscheiden, bei jeder neuen Frage or er das vorhandene Content im Kontext-Window braucht oder nicht.
 
Ich bzw. der Agent hat für meinen Messenger ein Bot erstellt. Ich geb dem Bot eine Frage, und alle drei Models die gerade in LM Studio drin hängen, arbeiten diese Frage ab! Am Ende hab ich das Ergebnis von allen drei. Und die Zusammenfassung von meinem Agent mit dem klügsten LLM (Qwen3.6). Das geht schon Richtung AGI. Die können untereinander weiter diskutieren wenn ich Vorschläge/Einwände hab. Und das am Telefon. Mit Vision Support. Der Qwen kann jedem Model auch ein Foto geben zur Inspektion/Analyse. Das ist mega. Läuft natürlich auch per Sprache (hin und zurück).
PS.
OMG, der Agent gibt dir zwar die komplette Analyse als Text aus, aber seine Voice Message ist viel kürzer gehalten. Sprich er entscheidet separat und eigenmächtig was du von ihm hören sollst.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh