[Sammelthread] ChatGPT und andere KI - Anwendungsbeispiele und Diskussion

Ein spezielles Projekt dafür habe ich jetzt derzeit nicht, mir ist auch bewusst dass das Ergebnis sehr auf die eingegebenen Prompts ankommt.

Praktisch fände ich es, wenn der Chatbot gut mit normaler menschlicher Formulierung zurechtkommt, also den Kontext auch in "nicht-technischen" Prompts sehr gut umsetzen kann.
Gibt es in der Hinsicht große Unterschiede zwischen den Modellen?
Wenn man entsprechend per Prompt das LLM steuert gibt es da inzwischen eigentlich keine großartige Unterschiede mehr. Du musst halt vorgeben was du genau von dem Chatbot erwartest.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@superdoodle Von deinen Fragen die du hier stellst würde ich ableiten, dass du noch eher weniger Erfahrung damit hast? Ich würde dann eher erstmal die ganzen Freeversionen ausprobieren, wenn du z.B. eh schon nen Google Account hast, kannst du da direkt mit Gemini loslegen. Gemini ist sehr gut und gerade am Anfang und ohne spezifischen Usecase brauchst du dir noch keine Gedanken machen welches Modell jetzt zum Chatten das beste ist. Wenn du dann weißt was du willst kannst du das Modell spezifisch auswählen. Ich würde einfach mal ChatGPT, Gemini und Claude in der Free Version testen. Die Paid Versionen sind meistens auch nur notwending wenn es über die normale Nutzung rausgeht, dann lassen sie sich halt die Nutzung bezahlen. Um erstmal bissl zu chatten brauchst du keinen Paid Account.

Alle LLMs funktionieren per Natural Language, d.h. du brauchst keine technischen Prompts. Im Gegenteil, du beschreibst einfach was du machen willst und der sagt dir dann schon was ihm fehlt oder was er von dir braucht.
 
Wobei man dann schon https://gemini.google.com/ nutzen sollte, nicht den KI Modus der Google Suchseite. :)

Wenn das Modell nicht so stark sein muss, kann man es auch mal mit https://mistral.ai/products/le-chat nutzen, dann ist man wenigstens in der EU. Mistral ist gerade auch wegen dem Schreibstil bei ihren Open Weight Modellen ziemlich beliebt. Auch Mistral kann man mit einem Account kostenfrei nutzen, kenne aber deren Limits nicht, muss zugeben es nie richtig verwendet zu haben, bei Mistral nutze ich eher die lokalen Modelle.
 
Zuletzt bearbeitet:
What the?

Die Claw-Code-Macher stellen darauf ab, dass ihr Projekt keine proprietären Dateien von Anthropic enthalte. Es sei eine unabhängige Neuentwicklung. Anthropic steht damit vor dem Dilemma, dass seine KI-gestützten Rechtsabteilungen prüfen müssen, ob eine KI-übersetzte Version ihres KI-generierten Codes eine Copyright-Verletzung darstellt.

Quelle: https://www.heise.de/news/Claude-Co...11279601.html?utm_source=firefox-newtab-de-de

Confusion of the highest order?
 
Für alle Anderen nur positiv. ;)
 
Ein Träumchen 😍
Anthropic steht damit vor dem Dilemma, dass seine KI-gestützten Rechtsabteilungen prüfen müssen, ob eine KI-übersetzte Version ihres KI-generierten Codes eine Copyright-Verletzung darstellt.
 
Anthropic hat es aktuell eh nicht leicht. Weil sie zu viele Nutzerzuwachs haben mussten sie nun einen Vertrag mit SpaceX schließen um extra Rechenzeit einzukaufen. :d

Wer weiß was sie dafür haben hinlegen müssen.

 
Habe mir gestern innerhalb von wenigen Stunden einen Backlink-Crawler und Bewertungstool für Linkaudits von Claude bauen und funktionell für meine Bedürfnisse optimieren lassen. Immer wieder krass, wie schnell und gut das mit Claude Code geht. Spart mir ein Tool, welches ca. 280 € im Jahr kostet, das ich seit 10 Jahren genutzt hatte. Und ist funktionell bereits deutlich besser. Dabei ist mir eventueller Spaghetticode völlig egal, da ich es nur Inhouse fürs Business nutze. :cool: Zumindest in meiner Branche wird sich die Software-Entwicklung weiter massiv verlagern, bzw. Entwickler überflüssig machen.
 
Der Vorteil ist halt man kann es direkt auf die eigenen Bedürfnisse zuschneiden lassen. Das ist bei eingekauften Lösungen selten der Fall ohne das man ordentlich dafür zahlen darf.

Und was Spaghetticode angeht: KIs werden besser, heißt einfach in nem Jahr oder so die KI noch mal optimieren lassen und gut.
 
Ich muss jetzt einfach mal hier fragen und mich auskotzen, weil ich nicht weis wo sonst...

Ich nutze ChatGPT und andere MLMs schon von Anbeginn. Heute, während einer Fehleranalyse, war mein kostenloses Kontingent erschöpft. Und da bot mir ChatGPT einen Gratismonat Plus-Abo für 0 Euro an, danach normaler Preis, jederzeit kündbar. Cool... draufgeklickt, per PayPal autorisiert. Eine Rechnung habe ich daraufhin bekommen, über 0 Euro, bei PayPal gab es wie erwartet keine Abbuchung. Ich habe von Anfang an meinen Google-Account für den Login verwendet.

Das ganze ist nun 5 Stunden her und ich habe nach wie vor nur "Free". Ich habe bereits alles probiert... Mail-Adressen verglichen - passt. (Habe ja auch aus der Session heraus gekauft). Überall ab- und wieder angemeldet, per EDGE am PC, per Safari am Mac, per App auf dem iPhone probiert - nichts hilft.

Was mich aber am meisten frustriert: Ich finde keine Kontakt-Möglichkeit zu einem menschlichen OpenAI Support! Nur einen KI-Chatbot! Und der kann mir nur Ratschläge geben, aber keine Accounts prüfen o.ä. Bzw. funktioniert der Chatbot nur, wenn ich bei OpenAI auf der Seite NICHT eingeloggt bin. Er sagt dann sinngemäß "er kann nicht prüfen, ob zu meinem Account ein aktives Abo besteht, da ich mich dafür erst einloggen soll"... Wenn ich mich einlogge, verschwindet der Chat-Button ... er ist einfach weg! Ausloggen > Button da.... Einloggen > Button weg.

Ich fühle mich verarscht.

Hat jemand nen Tipp oder ähnliche Erfahrungen?
 
Wann war das? Ich würde vlt. mal bis morgen früh abwarten wer weiß was die wieder für Probleme haben. Das mit dem fehlenden Support ist natürlich zum kotzen aber nix anderes erwarte ich von denen.
 
Habe gerade gesehen subquadratic bringt ein Modell mit 12 Mio Token Kontext das auch sehr günstig sein soll (80% günstiger als andere Topp Modelle) - und die wenigen Benchmark Tests sehen zumindest gut aus (~ 4.6 Niveau ----- aber der fette Kontext....)

12M Kontext das wäre aber schon krass für komplexe Projekte - da bin ich echt super gespannt. Glaube das wäre für komplexe Sachen in Gamechanger.
 
Abwarten, die nutzen eine neue Art von Technik, die nicht mal so neu ist aber bei Anderen bisher für Probleme gesorgt haben, erst mal sehen ob sie diese wirklich gelöst haben. KI Unternehmen versprechen immer viel um Investoren anzulocken. 😅

 
Also Claude ist definitiv schlechter geworden, macht mehr Fehler und braucht länger als sonst. Tokenverbrauch hat sich zwar inzwischen stabilisiert aber es ist immer noch deutlich höher wie früher und manchmal springt es bei der ersten eingabe bereits auf 20-30% hoch, das muss man nicht verstehen? dabei starte ich immer wieder auch neue chats, völlig bescheuert.
Mein neues Projekt was ich mit Claude angefangen haben führe ich jetzt mit ChatGPT fort, weil Claude es nicht hinbekommt...
 
Habe gerade gesehen subquadratic bringt ein Modell mit 12 Mio Token Kontext das auch sehr günstig sein soll (80% günstiger als andere Topp Modelle) - und die wenigen Benchmark Tests sehen zumindest gut aus (~ 4.6 Niveau ----- aber der fette Kontext....)

12M Kontext das wäre aber schon krass für komplexe Projekte - da bin ich echt super gespannt. Glaube das wäre für komplexe Sachen in Gamechanger.
Das ist völlig unbenutzbar. Könnt ihr gleich vergessen. Prompt Processing ist Flaschenhals dafür.
 
Hast Du das denn schon ausprobiert? ich hab darauf leider noch keinen Zugriff.

Subquadratic sagt die Prompt processing Last in Relation zu Kontextlänge ist extrem viel besser als bei bisherigen Modellen meine sogar exponentiell besser (nicht mehr exponentiell sondern lineares Wachstum was ein extremer Unterschied ist bei grösserer Kontextlänge)

The company claims its first model, SubQ 1M-Preview, is the first LLM built on a fully subquadratic architecture — one where compute grows linearly with context length.


WENN das stimmt was Subq sagt wäre die Kontextlänge überhaupt kein Problem was PP angeht.

Leider kenn ich niemanden der darauf Zugriff aktuell hat - ob das nur Werbung ist oder dieses neue Modellarchtitekur super interessant ist - zumindest für manche Zwecke.
 
Zuletzt bearbeitet:
Nun, wir werden es noch früh genug erfahren. :d

Googles tolles TurboQuant scheint in der Praxis ja auch nicht so zu funktionieren wie die sich das vorgestellt haben, zumindest scheint es noch Niemand hinbekommen zu haben.
 
Hmmm wieso die ersten Benchmarks die jetzt mit TurboQuant gemacht wurden sehen doch extrem gut aus?

Da kann man doch echt nicht meckern?

Wenn die weiteren Tests wieder solche Ergebnisse liefern wird das doch ein Muss wenn man noch vorne mitspielen will. Und denke jeder der lokal AI betreiben will- oder das schon tut - wartet sowieso schon drauf bis das OpenSpource geht das doch endlich mal - wenn die anderen Benchmarks so sind wie die bisherigen.
 
Zuletzt bearbeitet:
Mein Agent hat Qwen TTS installiert und macht Podcasts. Selber neue Stimmen erzeugt, selber schreibt den Script, selber generiert Speech und schneidet draus ein Podcast. Ich gebe quasi nur das Thema vor, wieviele Personen und wer.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh