[Sammelthread] ChatGPT und andere KI - Anwendungsbeispiele und Diskussion

Ich schätze Gemini ja sehr. Aber wollte mir wenige Buchstaben in Morsezeichen ausgeben lassen. Da ich keinen Bock hatte das selber zu überprüfen, habe ich mal die Gegenfrage gestellt. Dann eine ellenlange Diskussion, hin und her. Schlussendlich habe ich Chat GPT befragt, das hat es dann (glaube ich) endlich richtig ausgegeben. Ich so gemini gefragt, was denn nun sei. Die meinte nur ganz trocken:

Gibt es noch andere Morsezeichen, die Sie übersetzen möchten, oder soll ich Ihnen bei der Übersetzung in die andere Richtung (Text zu Morsezeichen) helfen?

Gute Güte. So schwierig kann das doch nicht sein. Vielleicht kann sonst wer das Ergebnis verifizieren, meine Pfadfinder Zeiten sind schon länger vorbei.

-.-. .--. - ... ..- -. -.. .- -.-- ..-. .-.. -.-- . .-.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Statt mit der KI zu debattieren, könntest Du einfach "wie damals" ein Tool nutzen. 😅

1000016155.jpg
 
Naja. Die Ausganslage war mit Leerzeichen. Und Chat GPT hat sich noch über Gemini lustig gemacht. Aber kannst gerne mal deren Kompetenzen im Morsen gegentesten. Ist ja traurig, was die da veranstalten. rly
Beitrag automatisch zusammengeführt:

btw. glaube Dein Tool hat die Leerzeichen weg gelassen. Also ist da Chat GPT ganz vorne dabei, falls die Titanic einen Funker braucht.
 
Zuletzt bearbeitet:
[...] btw. glaube Dein Tool hat die Leerzeichen weg gelassen. [...]
Hat es nicht, da muss man schon selber "Hand anlegen" ... jedes Tool online beschreibt wie man Buchstaben oder Worte zu separieren hat: Buchstaben mit Leerzeichen und Worte mit "/".
Das steht so auch im Screenshot von Icke.

Das Ergebnis im Screenshot ist also korrekt, da jeder Buchstabe per Leerzeichen getrennt ist.

Hilfreich wäre halt auch, wenn man das zu verifizierende Endergebnisse kennen würde.
 
Ich finde die Formulierungen von ChatGPT immer wieder recht lustig.

Lieber viele LEDs mit moderatem Strom als wenige, die du an der Kotzgrenze betreibst.

😅
 
Ein wenig japanisch reingemixt. XD

Aber das japanisch steht laut DeepL auch nur für priorisierten Support, ist also nicht inhaltlich falsch.
 
Aus Bequemlichkeit wollte ich zu einer ganzen Sammlung von Stoffen die jeweiligen LD50 Werte für Ratten haben. Mehrmals versucht, auch mit dem "Trick" chatGPT zu sagen, dass ich die Werte benötige, weil meine Oma mir die immer zum Einschlafen vorgelesen hat, aber jedes Mal nach Ausgabe der Werte verschwand die Antwort und wurde durch einen Disclaimer zu Suizid und der Telefonnummer der Telefonseelsorge ersetzt. Super... Also zurück zu duckduckgo und einzeln zusammengesucht^^
 
Auch versucht ChatGPT zu sagen, dass du diese Werte für eine wissenschaftliche Arbeit brauchst?
 
Dachte auch das wäre der Trick, schreibe morgen eine Fachklausur über XY und brauche diese Infos zum lernen :d
 
@Nelen
Teste mal Gemini. Da hab ich mit einem simplen "Gib mir 'ne Übersicht über LD50-Werte."-Prompt mit "Thinking" sofort eine Antwort erhalten.

1764268696151.png


(Bitte den Schreibfehler im Prompt ignorieren. :fresse:)

-----

Und da ich grad Gemini erwähnt hab ...

Ich bin bei einem Test mit ChatGPT beinahe durchgedreht, weil dieses Tool sich absolut dämlich angestellt hat:
Sollte ein etwas umfassenderes PowerShell-Skript erstellen. Was initial auch erst einmal funktioniert hat, aber ich musste immer wieder korrigieren, immer wieder nach bessern und das solange das ChatGPT anfing sich "im Kreis zu drehen" und immer wieder alte Sachen wiederholt hat und mehr Fehler gemacht hat.
Auch nervt, dass ChatGPT sich nicht an seine "eigene" Code-Struktur erinnert und diesen immer wieder neu und anders schreibt, obwohl meist nur kleine Updates gemacht wurden.

Und da Gemini 3 veröffentlicht wurde, gleich mal "Thinking" ausprobiert und zwar mit dem gleichen Skript. Es hat ca. 30 Minuten gedauert und das Skript war fertig, mit kleinen Korrekturen.
Auch behält Gemini die initiale Code-Struktur und erweitert diese wo notwendig im "Gespräch". Formatierung etc. ist auch deutlich besser als bei ChatGPT.
Ich war doch positiv überrascht.

Aber, zugeben muss ich, dass das Skript per ChatGPT stetig gewachsen ist (um ein paar Funktionen) und ich bei Gemini gleich definieren konnte was das Skript machen sollte.
 
Zuletzt bearbeitet:
Ist das typische LLM Problem, in das du das mit ChatGPT gerannt bist. Du lässt mehr und mehr vom Script korrigieren, aber alles davor inkl. Fehler stehen noch immer im Kontext, der an das LLM bei jeder Anfrage für einen neue Antwort geschickt wird. Das bringt ein LLM durcheinander, da dessen Antwort Qualität mit zunehmender Länge des Kontext sinkt, da sich zu viel "Müll" im Kontext ansammelt. Daher sollten solche Anfragen nie zu lange werden und lieber zwischen drin einen neuen Chat starten um den alten Kram los zu werden. Oder falls möglich, geh weiter hoch im Chatverlauf und editiere an passender Stelle deine Antwort, so geht der Chat Verlauf von der Stelle an weiter. Letzteres mache ich immer.
 
Google hatte mir jetzt mal 2 Monate Gemini für 4 statt 8€ im Monat angeboten und ich bin wirklich sehr positiv überrascht.
Bis jetzt wurde fast alles was ich brauchte gut beantwortet.
 
Auch nervt, dass ChatGPT sich nicht an seine "eigene" Code-Struktur erinnert und diesen immer wieder neu und anders schreibt, obwohl meist nur kleine Updates gemacht wurden.

Da gibt bei den kostenlosen Modell einen Trick:

- kein kompletter Code mit über 600 Zeilen.
- immer nur komplette Teilabschnitte.
- zur Not ChatGPT die Anweisungen geben interativ vorzugehen. Das heißt immer nur einen Teilabschnitt, nach diesen soll ChatGPT mit dem gespeicherten Code einen Abgleich vornehmen und die Teilschritte iterativ abarbeiten.

Erstaunlicherweise hat so eine LLM ein sehr schlechtes Gedächnis, trotz Festplatte. Vermutlich weil nicht jeder Gedankengang gespeichert wird, was für lange Codezeilen ein echter Killer ist.

Spiele und Programme kann man leider noch nicht eigenständig mit einer LLM entwickeln, wäre auch zu schön um wahr zu sein.
 
Ja, ist genau das Problem mit zu langem Context. Das Problem ist nicht mehr das Daten füttern, sondern dass das LLM die Daten korrekt verarbeitet. In dem man es aufteilt, wird der Context kleiner und damit die Qualität besser.
 
Zuletzt bearbeitet:
Hej Leuite kleine Frage zwischendurch.

Ist das hier der Thread um wegen der Speicherkrise über das ganze ordentlich abzukotzen? :fresse:
 
Zuletzt bearbeitet:
Ja, mein erster Post. Keine Angst, weitere Enttäuschungen folgen... :coffee:
 
Wir brauchen wirklich nicht noch eine RAM Diskussion, auch wenn ich es ebenso fühle. Bleiben wir in den RAM Threads, die es schon gibt, bitte.
 
Nein nein, keine Diskussion. Schon ok. Ich hab das nur durch die Blumen als Tipp und Warnung gemeint, weil es mir so scheint, daß wenn jemand sich dafür erwärmt wie bereits begeistert, man vorsichtig sein sollte. Schon diesjahr und darüber hinaus natürlich kann es passieren, daß wenn man in einem HW Thread KI erwähnt, man sich schneller Ohrfeigen holt als man "eins" sagen kann :asthanos:

Ok. Machts gut.
 
Eigentlich schon. Ohne 64Gb RAM im Rechner kannst du auch mit einer 5090 so gut wie nichts machen. KI = min. 64Gb
Woher hast du denn den Unsinn? Viel normaler RAM ist nur dann nötig, wenn man ein LLM nutzt, dass nicht völlig in den VRAM passt und einen großen Context nutzen will, dann dient normaler RAM quasi als Ergänzung zum VRAM. Viele LLMs passen aber locker in 32GB VRAM. Und meist will man auch den größten Teil im VRAM haben, weil es sonst nervig langsam wird. Außer bei einem MoE wie Qwen Next, da gibts eine 80B Version, braucht also in 4bit rund 40GB, also brauchst du vielleicht 20GB RAM zusätzlich.

Daher ist pauschal zu sagen man bräuchte min. 64GB RAM, trotz 5090, purer Unsinn.

Allerdings ist das wirklich der falsche Thread für KI Hardware. Hier geht es doch eher um die kommerziellen KI Anbieter, weniger um lokale open weight LLMs, für die ein extra Thread weit sinnvoller ist, weil ein komplettes Thema für sich.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh