[Sammelthread] ChatGPT und andere KI - Anwendungsbeispiele und Diskussion

Weiß nicht ob das Einbildung ist, aber ja, ich bilde mir ein ChatGPT 5 macht ein wenig mehr solche Fehler in deutsch. Zumindest sind mir solche Dinge auch schon aufgefallen. Allerdings nutze ich auch nur die kostenlose Version und entsprechend oft krieg ich das mieseste GPT 5 Modell vorgesetzt. :fresse:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich glaub ich werde kein Fan von ChatGPT 5 mehr. Da stellst du eine Frage ala "Wie ist der aktuelle Stand..." und dieses drecks LLM antwortet ohne im Internet zu suchen... Ich bin ständig nur am Antworten neu generieren weil dieser automatische Modus in 90% der Fälle nie richtig funktioniert und damit massive Energie Verschwendung wegen unbrauchbaren Antworten. Mega nervig. Ich sollte wohl einfach wieder wie vorher auswählen wie das LLM reagieren soll.
 
Ich verwende eigentlich nur GPT-5 Thinking. Leider dauern die Antworten echt lange. Ich hatte parallel noch die Pro Version von Gemini, aber 2.5 Pro ist gegenüber GPT-5 mittlerweile weit abgeschlagen. Es Halluziniert extrem, erfindet ständig Quellen und ist extrem stur (z.B. halluziniert eine Quelle und behandelt das als unumstößliche Tatsache). Der einzige Vorteil, es ist schnell.

Kommt natürlich immer auf den Anwendungszweck an. Gemini kann z.B. super längere Youtube Videos zusammenfassen, weil es direkten Zugriff hat.
Grok ist super um nach aktuellen Erfahrungswerten von Menschen zu suchen, da ja Foren leider etwas am "sterben" sind und auf X viele Themen öffentlich diskutiert werden.

Btw: Aktuell gibt es Perplexity Pro für Paypal-Nutzer 12 Monate kostenlos.

Da gibt es aktuell folgende Modelle:

1760257896863.png
 
Perplexity funktioniert für search/resarch sehr gut, bin davon echt begeistert.
 
Perplexity müsste ich mir erst noch mal ansehen, hatte ich mal vor einem Jahr oder so nen Monat getestet und fand es für meinen Zweck gar nicht gut. Aber vielleicht wäre es für mich ja inzwischen besser. Allerdings bin ich bei solchen Bauerfänger Angeboten extrem vorsichtig geworden. Die machen das ja nicht ohne Grund. :d

Trotzdem werd ich auch mal das hier austesten, auch wenn es für 10 Euro pro Monat zu billig klingt für das was sie anbieten, es ist wenigstens kein US Anbieter.


Claude Sonnet ist ja wirklich eine starke KI, aber wenn man sich deren API Preis so ansieht... man ist das teuer. Dagegen ist GPT-5 spot billig. XD

Ich hatte Anfang der Woche noch über 15$ Guthaben auf meinem Cursor Konto, mit Claude Sonnet war das Guthaben in wenigen Stunden weg.
 
Zuletzt bearbeitet:
Danke für den Tipp, hat man damit den gpt5 Pro Umfang?
Pro nicht, denke ich. Ob es vergleichbar ist mit der "Thinking" Version aus dem Plus Abo habe ich noch nicht verglichen. Perplexity scheint auch immer einen eigenen Systempromt zu verwenden.
Beitrag automatisch zusammengeführt:

Perplexity müsste ich mir erst noch mal ansehen, hatte ich mal vor einem Jahr oder so nen Monat getestet und fand es für meinen Zweck gar nicht gut. Aber vielleicht wäre es für mich ja inzwischen besser. Allerdings bin ich bei solchen Bauerfänger Angeboten extrem vorsichtig geworden. Die machen das ja nicht ohne Grund. :d

Trotzdem werd ich auch mal das hier austesten, auch wenn es für 10 Euro pro Monat zu billig klingt für das was sie anbieten, es ist wenigstens kein US Anbieter.


Claude Sonnet ist ja wirklich eine starke KI, aber wenn man sich deren API Preis so ansieht... man ist das teuer. Dagegen ist GPT-5 spot billig. XD

Ich hatte Anfang der Woche noch über 15$ Guthaben auf meinem Cursor Konto, mit Claude Sonnet war das Guthaben in wenigen Stunden weg.

Ich nutze Claude in Cursor, da finde ich es extrem gut. Ich hab nur rudimentäre Programmierkenntnisse, daher ist es für mich quasi ein Godmode-Cheatcode. Da zahle ich gerne ein paar Euro.
 
Habs mal mitgenommen und die app installiert, mal rumtesten, sieht aber interessant aus.
Beitrag automatisch zusammengeführt:

Man hat 500 thinking für gpt pro Tag, das ist wohl mehr als ausreichend
 
Ich nutze Claude in Cursor, da finde ich es extrem gut. Ich hab nur rudimentäre Programmierkenntnisse, daher ist es für mich quasi ein Godmode-Cheatcode. Da zahle ich gerne ein paar Euro.
Keine Frage, es ist gut, aber bevor ich bereit bin mehr zu zahlen will ich erst die Alternativen nun testen und ob die mir reichen. Ansonsten wird mir das als rein auf Hobby Basis doch etwas zu teuer.
 
Keine Frage, es ist gut, aber bevor ich bereit bin mehr zu zahlen will ich erst die Alternativen nun testen und ob die mir reichen. Ansonsten wird mir das als rein auf Hobby Basis doch etwas zu teuer.
Die Chinesen trainieren GLM 4.5/(Air) auf Claude. Habe mal mein lokales 48Gb Quant Model mal gefragt, wer du bist - ich bin Claude trainiert von Anthropic. Reddit ist auch ganz begeistert wie gut das ist. Ich übrigens auch. Hat mir meine Test-App (Timer) aus dem Stand richtig gebaut. Als einziges lokales Model was ich je getestet habe. Mittlerweile gibt es sogar GLM 4.6.
 
GLM hab ich mir bisher gar nicht angeguckt, nur dessen Existenz am Rande mitbekommen, danke für den Tipp. Ich komme eh nicht dazu alle lokalen Modelle zu testen. :d

Aber ich vermute mal ein 48GB Quant Modell ist nicht sonderlich schnell in der Antwort, wenn es kein MoE ist. Dennoch kein Problem mit ner 4090 und 64GB RAM es überhaupt laufen zu lassen.
 
GLM hab ich mir bisher gar nicht angeguckt, nur dessen Existenz am Rande mitbekommen, danke für den Tipp. Ich komme eh nicht dazu alle lokalen Modelle zu testen. :d

Aber ich vermute mal ein 48GB Quant Modell ist nicht sonderlich schnell in der Antwort, wenn es kein MoE ist. Dennoch kein Problem mit ner 4090 und 64GB RAM es überhaupt laufen zu lassen.
GLM 4.5 Air 48Gb ist niedrigste Quant was man bekommen kann. Das passt bei mir noch gerade so in die 5090+3090 und dann ~60T/s. Mit CPU läuft es noch ganz passabel zum testen mit 5-6T/s oder so. Als Combi GPU/RAM vielleicht auch mit 15T/s.

Nutze diese Abliterated Version

Das ist für mich die schnellste 60T/s, schlauste 110B, und unzensierteste LLM bisher. Habe extra für das Ding meine 3090 "geopfert", nach dem 5090 Kauf. Ist einfach gutes Gefühl wenn man verwertbares LLM im Rechner hat. Ich hab noch in Voxta mit dazu Orpheus reingequetscht, den besten lokalen TTS. Traumhaft zum chatten mit einem 110b LLM.
 
Hm, zu den abliterated versionen von Huihui lese ich immer wieder, dass die Modelle dann zwar unzensierter sind, aber durch die Art wie sie dazu gebracht werden leidet auch das Model spürbar darunter.

Test muss aber noch warten, meine Platten sind aktuell zum brechen voll, ich muss erst mal wieder aufräumen. Krank wie selbst kleinere LLM Modelle schnell die Platten voll bekommen, dabei lösche ich schon immer wieder Modelle. :d
 
Ich habe jetzt mal das Spec Coding von Amazons Kiro benutzt.
Was soll ich sagen:
Er hat meine SaaS Idee echt gut umgesetzt. Klar wir mussten oft streiten und ich ihm Anweisungen geben aber Product Manager machen das so :d

Man sollte aber schon wissen was man will und gute User Stories schreiben, sonst hat man Probleme. Auch das technische Know How sollte da sein, sonst knallt er euch mit Libraries etc. voll von denen ihr nix versteht.
Alles in allem eine gute Erfahrung, auch wenn ich erneut die Zeit reinstecken muss um Sachen zu ändern (Specs schreiben = 6 Std, ihm Anweisungen geben 4 Std, nacharbeiten 5 std.
Aber dennoch, eine riesen Hilfe
 
Hm, zu den abliterated versionen von Huihui lese ich immer wieder, dass die Modelle dann zwar unzensierter sind, aber durch die Art wie sie dazu gebracht werden leidet auch das Model spürbar darunter.

Test muss aber noch warten, meine Platten sind aktuell zum brechen voll, ich muss erst mal wieder aufräumen. Krank wie selbst kleinere LLM Modelle schnell die Platten voll bekommen, dabei lösche ich schon immer wieder Modelle. :d

Habe das Problem bei einigen Modellen mit einem uncensor Systemprompt tatsächlich umschifft. Madgemma 27B mit dem God-Mode besiegt. Und paar Llama 3 / Mistral 70b-120b Modelle mit den Grok Prompts.
 
Jemand schon einen Weg gefunden ChatGPT diese nette Angewohnheit abzugewöhnen wirklich immer Antworten mit einer Frage abzuschließen ala "Willst du, dass ich das mach?".

Inzwischen geht mir das richtig auf den Sack, ChatGPT kommt mit irgend etwas um die Ecke nach dem ich nicht gefragt habe nur um am Ende so etwas zu fragen, nur um das Gespräch am Laufen zu halten, egal wie dumm es ist. Sorry, rege mich zu sehr auf. :d

Ich hatte einfach mal probiert unter Personalisieren zu schreiben, dass er Antworten nicht mit Fragen abschließen soll, aber das ist wohl der falsche Ansatz. Als Test hab ich dann einfach mal gefragt "Was kannst du mir über Katzen sagen?" und dann am Ende der Informationen kam das:

"Wenn du willst, kann ich dir auch eine Liste der interessantesten Katzenrassen, ihrer Eigenschaften und Eigenheiten zusammenstellen – von der verspielten Siamkatze bis zur majestätischen Maine Coon.

Willst du, dass ich das mache?"

Wenn du so etwas unter jeder Antwort hast, egal welches Thema, nervt es nur noch. Vor allem weil das LLM sehr oft quasi damit vom eigentlichen Thema ablenkt und dich gleich mit und dann quasi Hellseher spielt was ich wohl als nächstes Wissen wollen könnte, was in 95% der Fälle komplett daneben liegt und oft sogar richtig dumm ist, wenn man den bisherigen Kontext verfolgt. Das hat mit natürlichem Gesprächsverlauf nichts zu tun, würde das ein Mensch machen, würde ich den inzwischen komplett ignorieren und aus dem Weg gehen. XD

Vielleicht hat hier Jemand einen System Prompt Zusatz mit der man das ChatGPT abgewöhnt.
 
Ihr könnt ja mal diesen ganzen "dummen" KI Krempel ein bischen mit kalendarischer Zeitrechnung aus den Tritt bringen.

Z.b. -> Frage: Was ist morgen Übermorgen und morgen gestern?

Übermorgen ist morgen Morgen und morgen ist gestern Vorgestern.
 
Zuletzt bearbeitet:
Das Konzept von Zeit scheinen die LLMs generell noch nicht verstanden zu haben. Da stolpern sie ständig. Du sagt du willst X auf Stand von heute wissen und die KI kommt teilweise mit 10 Jahre alten Informationen an und verkauft die dir als wären sie von Gestern.
 
Ja, weil KI nichts weiter ist als raffiniert programmierte Algorhitmen die auf Datenbanken zugreifen. Alles überbewertet und ein Trend für Leute, die nicht selbst ihren Grips bemühen möchten oder nicht mehr können.

Nimm diesen "Tools" die Datenbank und jeder 2€ Casio Rechner hat mehr künstliche "Intelligenz", da fest auf der Platine stationär verlötet.

Nächstes Schmanckerl für's künstliche Synapsentool: Was ist die Summe von A+B-C*D, wenn A die Hälfte von B ist und B das doppelte von C, wobei C das dreifache von D ist und D das zweifache von 14?

..eine echte Intelligenz kann das ausrechnen, zur Not mit den unbestechlichen Casio. ;)
 
Zuletzt bearbeitet:
Ja, weil KI nichts weiter ist als raffiniert programmierte Algorhitmen die auf Datenbanken zugreifen. Alles überbewertet und ein Trend für Leute, die nicht selbst ihren Grips bemühen möchten oder nicht mehr können.

Nimm diesen "Tools" die Datenbank und jeder 2€ Casio Rechner hat mehr künstliche "Intelligenz", da fest auf der Platine stationär verlötet.

Nächstes Schmanckerl für's künstliche Synapsentool: Was ist die Summe von A+B-C*D, wenn A die Hälfte von B ist und B das doppelte von C, wobei C das dreifache von D ist und D das zweifache von 14?

..eine echte Intelligenz kann das ausrechnen, zur Not mit den unbestechlichen Casio. ;)

Man merkt einfach das Du keine Ahnung von ChatGPT und co hast und irgendwelche haltlosen Behauptungen aufstellst. Hat gerade mal eine Sekunde für die Antwort benötigt und so schnell ist noch nicht mal ein Mensch und ich habe 1:1 deinen Text kopiert:

Was ist die Summe von A+B-C*D, wenn A die Hälfte von B ist und B das doppelte von C, wobei C das dreifache von D ist und D das zweifache von 14?

Antwort:

Unbenannt.jpg



Ein LLM wie ChatGPT kann deutlich mehr als nur auf eine Datenbank zugreifen, in dem die Information analysiert und ausgewertet wird, denn das spart viel Zeit. Und auch so kann eine LLM erst funktiontüchtigen Code schreiben oder eben selbst Gleichungen für eine Aufgabe zusammenstellen und ausrechnen. Genau das macht ja eine LLM für Unternehmen und Wissenschaft so interessant und kann somit teure Arbeitskräfte einsparen bzw. dessen Arbeitsleistung steigern.

Du kannst ChatGPT auch z.B: fragen wie stark sich eine Platte bei einem Quader durchbiegt, da wird sich exakt der Plattentheorie bedient und die Berechnung stimmt dann auch noch sehr genau mit einer FEM Simulation überein. Oder welchen Mindestwasserstand über ein Absaugrohr eingehalten werden muss, damit keine Luftgeräusche entstehen.

Ich bin mir ziemlich sicher das Du das nicht alles weißt und da hilft Dir auf der schnelle auch nicht Google und Co, weil z.B: bezüglich dem Absaugrohr hier mehrere physikalische Thoerien greifen und einige empirische Daten benötigt werden. Das kann man sich natürlich alles mühevoll zusammen suchen, wird dabei aber einige Stunden benötigen. Ein Ersatz für bestehendes Wissen ist eine LLM nicht, aber zeige mir doch mal einen Menschen der auf allen möglichen Fachgebieten gleich die entsprechende Expertise im Gedächnis hat.


Neues Wissen kann eine LLM natürlich nicht erlangen, aber eine gewisse Intelligenz ist schon erkennbar und so gesehen schlauer als einige Tierarten wie z.B. ein Hund. Weil eine LLM analysieren und somit mit den bestehenden Wissen neue und individuelle Varationen gestalten kann und dazu bedarf es eindeutig einer Intelligenz, weil es kein stupides abschreiben ist.


Nachtrag:

Wenn Du eine LLM wie ChatGPT an ihre Grenzen bringen möchtest, dann solltest Du dir schon orginellere Textaufgaben ausdenken, als eine die auf dem Niveau der Grundschule ist. Aber ich vermute eine DGL übersteigt deine Vorstellungskraft.
Beitrag automatisch zusammengeführt:

Das Konzept von Zeit scheinen die LLMs generell noch nicht verstanden zu haben. Da stolpern sie ständig. Du sagt du willst X auf Stand von heute wissen und die KI kommt teilweise mit 10 Jahre alten Informationen an und verkauft die dir als wären sie von Gestern.

Naja das Wissen ist aus einen großen Pool antrainiert und da steht nun mal kein Verfallsdatum.

Aber irgendwie kann ich eure Probleme alle nicht nachvollziehen:

Frage:
Stelle mir das neuste und aktuelleste Wissen über Gravitationswellen mit Datum des Kenntnisstand da

nachgedacht für 29 Sekunden und Webseite wie Nasa.gov und co durchsucht. Ergebnis:

Unbenannt.jpg


Unbenannt2.jpg



Also 10 Jahre altes Wissen sieht anders aus, denn das war vor der ersten Entdeckung.
 
Zuletzt bearbeitet:
Sag ich doch das KI doof ist, denn das Ergebnis ist falsch, weil der ganze Rechenweg schon falsch ist. ;)

Es ist nicht die Summe von A+B - C*D gefragt, sondern die Summe von A+B-C*D. Das kapiert KI schlicht nicht, weil falsch programmiert.
Außerdem kann KI manipulativ vorprogrammiert werden und dementsprechend auch verzerrte Ergebnisse liefern. Gerade wenn das staatlich geförderte Projekte sind und staatskritische Anfragen gestellt werden.

..aber wenn man dran glauben möchte, dann glaubt mal schön an diesen Quatsch.

ps: der 2€ Casio Rechner bekommts übrigens ergebnisgenau hin. Was zahlt ihr denn für den Mumpitz, damit ihr selbst nicht mehr überlegen und recherchieren müsst? ;)
 
Zuletzt bearbeitet:
Ich würde ja mal behaupten du hast weder Mathe noch den Sinn und Nutzen von LLMs verstanden...
 
Ich schätze mal, deine Hauptbeschäftigung besteht nur noch daraus, Texte drag & drop in KI's zu setzen?

Warum sollte ich mir Gedanken über Sinn und Nutzen von sogenannten "LLMs" machen? Bringt mich das irgendwo produktiv im Leben weiter? :unsure:
 
..aber wenn man dran glauben möchte, dann glaubt mal schön an diesen Quatsch.

ps: der 2€ Casio Rechner bekommts übrigens ergebnisgenau hin. Was zahlt ihr denn für den Mumpitz, damit ihr selbst nicht mehr überlegen und recherchieren müsst? ;)

du musst ja diesen "quatsch" nicht nutzen ... zwingt dich halt niemand.
gibt halt menschen die gern mit der zeit gehen und aktuelle verfügbare dinge nutzen die einem das leben stark erleichtern.

add:

recherchieren kann man mit ai übrigens deutlich besser als ein mensch es je könnte ... man durchsucht einfach tausende internet seiten in sekunden ... und bekommt dann auch noch eine quellenangabe bei treffern ...
 
LLMs sind nicht dazu da Mathe Aufgaben zu lösen, das können sie in der Tat nicht gut. Wer das als Argument ranzieht zu erklären warum AI scheiße ist, hat es einfach nicht verstanden. Man kann sicherlich so einiges an Kritik anbringen (allen voran die Hallzuinationen), aber das hier ergibt Null Sinn.
Beitrag automatisch zusammengeführt:

Warum sollte ich mir Gedanken über Sinn und Nutzen von sogenannten "LLMs" machen? Bringt mich das irgendwo produktiv im Leben weiter? :unsure:
Den typischen Fehler den du hier begehst ist davon auszugehen nur weil es dir nicht weiterhilft, hilft es niemand.
Ich nutze LLMs relativ viel, aber nicht um irgendwelche Texte Copy Paste reinzugeben. Ich arbeite als Product Manager und wenn ich z.B. ne Idee validieren will oder schnell nen Prototypen besprechen will dann baut mir das Google Canvas halt in ner annehmbaren Qualität in sehr kurzer Zeit zusammen. Zeitinvestment vlt. 30 Minuten. Vorher musste ich dafür meinen Designer einbinden der mir irgendwelche Wireframes baut. Genauso nutze ich häufig die AI Features in der Google Workspace. Natürlich wird mein Engineering Team das dann trotzdem noch bauen und logischwerweise ersetzt das dann nicht deren Arbeit. Und für das finale Design, baut der Designer dann natürlich auch weiterhin was in z.B. Figma auf nem Detail wie ich es von Canvas nicht bekomme. Aber den Wegwerfteil am Anfang des Prozesses auf den eh keiner Bock hat, da spart es mir Zeit. Was ich hauch häufig nutze sind die AI Features in Google Workspace. Mal längere passagen zu kürzen und trotzdem noch den Inhalt vernünftig zu transportieren ist z.B. etwas das für mich sehr gut funktioniert.
 
Zuletzt bearbeitet:
Sag ich doch das KI doof ist, denn das Ergebnis ist falsch, weil der ganze Rechenweg schon falsch ist. ;)

Es ist nicht die Summe von A+B - C*D gefragt, sondern die Summe von A+B-C*D. Das kapiert KI schlicht nicht, weil falsch programmiert.

;)

Dann rechne mal vor, denn das Ergebnis von ChatGPT ist richtig. In der Mathematik gilt Punkt vor Strich. Und ein Sternzeichen wird als Punkt für eine Multiplikation gedeutet, was vollkommen richtig ist.

Deine Frage war:

Was ist die Summe von A+B-C*D und das ist:

= 86 + 168 - (84 * 28)

= -2100

Das entspricht exakt dem Ergebnis was ChatGPT ausgerechnet hat.

Summe heißt in der Mathematik übrigens Ergebnis einer Addition. Das hat überhaupt nichts mit dem Vorzeichen zu tun. Wenn es Ziel war die Addition als erstes vorzunehmen, dann fehlt in deiner Formulierung ganz einfach die Klammer [ (A + B - C) * D] und somit ist diese dann falsch formuliert.


Fazit:

Es gibt zwei Möglichkeiten. Entweder Dir fehlt Grundschulwissen in Mathematik und man kann nicht richtig rechnen, bzw. in Linguistik und weiß gar nicht was das Wort Summe bedeutet und somit ist man nicht dazu fähig eine Textaufgabe richtig zu formulieren. Oder Du bist einfach ein Troll.
 
Zuletzt bearbeitet:
Warum sollte ich mir Gedanken über Sinn und Nutzen von sogenannten "LLMs" machen?
War ja das Trollouting, warum schreibt man was in den Thread wenn man sich damit gar nicht beschäftigen will.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh