Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
[Sammelthread]ChatGPT und andere KI - Anwendungsbeispiele und Diskussion
ich hab ja quasi null mit Ki und dem ganzen zu tun, dachte mir aber "komm testest du mal"
Hab chatGPT nach zufalls-lottozahlen gefragt:
- kein Zugriff auf die Datenbank der bereits gezogenen Kombinationen
- habe ein System beim eingeben in den Tippschein erkannt
so finde ich das total unnütz =/
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
OpenAI hat ja heute zwei Open Weight Modelle veröffentlicht, die man offline auf dem eigenen PC ausführen kann, aber holly, noch nie so ein zensiertes lokales Modell gesehen. XD
Kommt z.B. nicht auf die Idee die Modelle nach einer Idee für eine Stargate Folge zu fragen. Warum? Abgelehnt wegen Copyright.
Aber die Architektur (MoE basiert) ist durchaus spannend, weil es die Modelle echt ziemlich schnell macht (rein CPU ist trotzdem langsam, bevor Jemand jubelt ).
Hm, ein Anderer hat angeblich ein Oneshot Snake Clone damit erstellt. Aber keine Ahnung. Beim Coden hab ich null Probleme da auf eine Cloud KI zurück zu greifen. Zuletzt hab ich da Cursor AI genutzt.
Die Foren sind ja voll mit Frust über gpt5.
Scheint wohl hauptsächlich daran zu liegen, dass sich gpt5 nicht mehr wie ein warmherziger kreativer Freund verhält. Dachte das sind eher einzelphänome, dass das so genutzt wird.
Mache ich tatsächlich aus so. Finde ich es nettes extra wenn ich ChatGPT beim programmieren nutze. Da das immer mal wieder frustrierend sein kann, wenn man bei etwas fest hängt, lockert der Umgangston das etwas auf.
Aber ich denke Andere gehen da noch viel weiter...
Hm, ein Anderer hat angeblich ein Oneshot Snake Clone damit erstellt. Aber keine Ahnung. Beim Coden hab ich null Probleme da auf eine Cloud KI zurück zu greifen. Zuletzt hab ich da Cursor AI genutzt.
cursor find ich super , aber da hat man halt zu wenig tokens , nach 15 min hatte ich da keine tokens mehr übrig ...
mir sind quasi auch diese coding benchmarks egal - ich bezieh das immer auf meinen usecase (von einem coding benchmark wird mein code auch nicht besser lol)
Hm, weiß nicht genau. Ich hab es in den letzten 2 Monaten nicht genutzt und da haben die immer wieder etwas an ihrem Token System geändert. Die Test Pro Version hatte bei mir aber damals schon nicht so wirklich viele Token, die waren auch recht schnell weg. Keine Ahnung wie lange das jetzt noch reicht, wenn man mal die 22 Euro oder was es waren für einen Monat zahlt. Damit kam ich eigentlich gut aus.
Man muss eh aufpassen, es gibt "Max" Modelle, die sind teurer, da sind die Token ruck zuck weg, dann die normalen, da kostet glaub eine Abfrage 1 Token (bei Max waren es damals 2 pro Abfrage) und dann hatten sie noch Modelle mit 0,5 Token pro Abfrage. GPT-5 ist die Tage gerade komplett kostenlos für Pro Mitglieder. Oft sind neue Modelle erst mal einige Tage kostenlos. Werd mir aber bald, wenn ich nichts zu negatives über deren Änderungen finde, mir mal wieder ein Monat holen. Nachdem mein KI Rechner nun quasi startklar ist, bräuchte ist das mal wieder um an meinem Chatbot weiter zu arbeiten.
mir sind quasi auch diese coding benchmarks egal - ich bezieh das immer auf meinen usecase (von einem coding benchmark wird mein code auch nicht besser lol)
Ja, eben. Bei KI gilt sowieso immer: traue keinem Benchmark. Da wird viel getrickst, so mancher große LLM Anbieter wurde schon dabei erwischt selective Fragen von Benchmarks rausgepickt zu haben, die ihr Modell am ehesten beantworten kann, um so das Ergebnis zu beschönigen.
Ehrlich gesagt haben mir KI Benchmarks noch nie so wirklich geholfen. Man kann vielleicht Tendenzen rauslegen, aber einen echten Wert nicht wirklich.
Beitrag automatisch zusammengeführt:
Achja, was GPT-5 angeht bzw. das aktuelle ChatGPT: "denk gründlich darüber nach" sollte man in die Anfrage packen, weil OpenAI automatisch zwischen Thinking und None Thinking Modell hin und her schaltet, nur wird das Thinking Model relative selten zu Rate gezogen und GPT-5 ohne Thinking ist grausam schlecht. Daher wohl diese ganzen gemischten Meldungen.
Selbst GPT-5, das größere Modell, ist ohne Thinking erheblich schlechter als GPT-5 Mini mit Thinking (also das kostenlose ChatGPT) und GPT-5 Mini ohne Thinking ist noch mal deutlich schlechter. So schlecht, dass sie auf GPT 4o Niveau zurück fallen und das war kein besonders gutes Modell. Erfindet viel falsches. Bei GPT-5 macht Thinking also extrem viel aus und da muss man GPT-5 vor allem beim kostenlosen ChatGPT per Prompt dazu zwingen. Beim normalen GPT-5 (Pro Nutzer) ist es glaub auch nicht anders. Weil Thinking deutlich mehr kostet versucht OpenAI das zu begrenzen und nur wenn ChatGPT der Meinung ist bei der Anfrage muss es jetzt besonders viel nachdenken greift er auf Thinking zurück, sonst nicht, und das ist wohl seltener der Fall als es einem Nutzer lieb sein kann.
Man kann gerade gpt5 für einen Monat für 1€ testen.
Hab damit mal Sora getestet. Man ist das genial... Habs genutzt um aus meinen Revitmodellen fotorealistische bilder zu generieren. Das mag nicht perfekt sein, aber sieht für 10 Minuten Arbeit um Welten besser aus als alles was ich von Vertragspartnern bekomme wo ich 3000€ für 5 Bilder zahle.