[Sammelthread] ChatGPT und andere KI - Anwendungsbeispiele und Diskussion

Wenn ich das bei Gemini eingebe, dann sagt das Ding, ich sei ein routinierter Hardwarekenner, der bei Problemen auch im Softwarebereich hilft.
Lol… nichts könnte ferner der Realität liegen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Interessanter Prompt. Being mir passt es ganz gut, denke ich… was ChatGPT “kurz” nennt ist aber interessant 😅

Kurzprofil / Charakterisierung von Tzk (Hardwareluxx)

Tzk ist ein langjähriger, sehr erfahrener und konstant aktiver Nutzer des Hardwareluxx-Forums, der vor allem durch sachliche, technisch fundierte Beiträge auffällt. Sein Schreibstil ist nüchtern, ruhig und erklärend – er argumentiert selten emotional, sondern legt Wert auf nachvollziehbare Begründungen, Praxiserfahrung und technische Details.

In Diskussionen übernimmt er häufig die Rolle des Einordners: Er erklärt Hintergründe, relativiert überzogene Erwartungen und vergleicht neue Lösungen mit älterer oder alternativer Hardware. Besonders auffällig ist seine Breite an Themen – von klassischer PC-Hardware über Retro-Systeme, Marktplatz-Fragen, DIY-Themen bis hin zu Meta-Diskussionen über Foren- und Community-Kultur.

Dabei wirkt er hilfsbereit und pragmatisch: Er gibt konkrete Tipps, bietet Messungen oder Tests an und denkt lösungsorientiert, ohne belehrend aufzutreten. Preis-/Leistungs-Einschätzungen formuliert er realistisch und ohne Hype, oft mit einem klaren Blick auf den tatsächlichen Nutzen.

Insgesamt verkörpert Tzk den Typus des erfahrenen Foren-Veteranen: technisch versiert, dialogorientiert, bodenständig und mit einer gewissen Skepsis gegenüber Trends, ohne dabei innovationsfeindlich zu sein. Genau diese Mischung macht ihn zu einer stabilen, respektierten Stimme innerhalb der Hardwareluxx-Community.

Und noch ein kurzer Test:
Kurz und ehrlich: Nein – sein Vorname ist öffentlich nicht bekannt.
Nice, das ziehe ich seit Jahren konsequent durch :d
 
Zuletzt bearbeitet:
Bei letzterem: hat da Jemand versucht ChatGPT über die Textlänge der letzten Antwort zu belehren? :d

Obwohl ich es auch schon hatte, dass ChatGPT das zuerst ignoriert hat weniger zu schreiben und dann erst 1-2 Antworten später damit ankam, obwohl es eigentlich nur für die eine Antwort gemeint war. :fresse:

Aber was mir aktuell bei ChatGPT wirklich extrem auffällt, ist wie schnell bei längeren Chats die Antworten schlechter werden, das vor 1-2 Monaten noch nicht so. Da hat OpenAI im Moment ein Problem drin, das sie besser schnell lösen sollten. Hab das schon von einigen als Argument gehört zu Gemini abzuwandern. Kommt für mich aber nicht in Frage, bin froh weitgehenst von der Datenkrake Google weg zu sein. Obwohl ich OpenAI auch kritisch sehe, sind sie für mich trotz aktuell noch an der Spitze das kleinere Übel. Aber Gemini holt neben allen anderen auf und die Tendenz gefällt mir nicht. Das schlimmste was ich mir vorstellen könnte wäre ein KI Dominanz von Google.
 
Also generischer geht's kaum

**VL125** ist ein sehr aktives **Mitglied und Team-User im Hardwareluxx-Forum**, besonders bekannt aus dem deutschsprachigen **Hardwareluxx-Community-Bereich**. ([Hardwareluxx][1])

### 🔎 Kurzbeschreibung

* **Username/Handle:** VL125
* **Rolle:** Teil des **Hardwareluxx Teams** – also kein „normaler“ Newbie, sondern jemand mit Rechten und Aufgaben innerhalb der Community. ([Hardwareluxx][1])
* **Mitglied seit:** Mai 2005 – das zeigt eine lange Aktivität im Forum. ([Hardwareluxx][1])
* **Beiträge:** Mehrere **Tausend Beiträge**, oft im vierstelligen Bereich (z. B. über 15.000). ([Hardwareluxx][1])

### 🧠 Tätigkeit im Forum

VL125 tritt hauptsächlich als **Moderator/Team-Mitglied** auf – sein Titel im Forum wird angezeigt als „**unverhältnismäßig absurd Spamdetektor**“ (was ein humorvoller Rangname innerhalb des Teams zu sein scheint). ([Hardwareluxx][1])

Das deutet darauf hin, dass seine Aufgaben u. a. mit dem **Erkennen und Melden von Spam oder problematischen Beiträgen** zusammenhängen. Er hilft dem Team bei der Pflege des Forums, indem er z. B. Spam-Konten oder Werbung erkennt und meldet und aktiv an Diskussionen teilnimmt. ([Hardwareluxx][2])

### 🗨️ Stil und Wahrnehmung

* Er schreibt oft in diversen Threads und setzt sich mit Spam-Problemen oder technischen Diskussionen auseinander. ([Hardwareluxx][3])
* Trotz der offiziellen Team-Rolle nutzt er häufig humorvolle oder lockere Schriftzüge und teilt sich „offiziell“, aber nicht streng formell mit. ([Hardwareluxx][2])

### 🧩 Fazit

VL125 ist **kein bekannter Influencer außerhalb von Hardwareluxx**, sondern vor allem im **Hardwareluxx-Forum selbst** eine **längst etablierte, aktive Team-Person**, die dort als **Moderator/Hilfe im Forum agiert und viele Beiträge verfasst**. ([Hardwareluxx][1])

Wenn du möchtest, kann ich dir auch typische Beispiele seiner Aktivitäten oder Beiträge zusammenfassen.

[1]: https://www.hardwareluxx.de/communi...-1.438583/post-7985940?utm_source=chatgpt.com "Der neue Hwluxx User Picture Thread - Teil 2 (1) | Seite 6 | Hardwareluxx"
[2]: https://www.hardwareluxx.de/communi...-forum.1323595/page-78?utm_source=chatgpt.com "[Feedback] - Hardwareluxx 4.0 Forum | Seite 78 | Hardwareluxx"
[3]: https://www.hardwareluxx.de/communi...-forum.1323595/page-80?utm_source=chatgpt.com "[Feedback] - Hardwareluxx 4.0 Forum | Seite 80 | Hardwareluxx"
 
Ich arbeite seit rund 15 Jahren als Gründungsberater, schreibe Businesspläne und begleite Gründer bei ihren Vorhaben und Fördermitteln wie dem Gründungszuschuss. ChatGPT nutze ich gezielt für Textarbeit und Recherche. Das spart mir spürbar Zeit.
Die Ergebnisse prüfe ich natürlich immer gegen. Gerade außerhalb meines eigenen Fachbereichs bin ich eher vorsichtig, was eine KI so von sich gibt. Aber unterm Strich habe ich durch den Einsatz der KI heute mehr Zeit für meine Kunden. Und genau das ist für mich der größte Mehrwert. :)
 
Schaut ihr euch eigentlich den Denkprozess bei Thinking-Modellen an?

Mir ist schon oft aufgefallen, wenn ich z.B. programmiere (bzw. programmieren lasse) und irgend einen Problem moniere, dass mich das Modell im Denkprozess VÖLLIG falsch versteht und sich durch diese völlig falschen Annahmen hindurch denkt (gefühlt 70% des Denkprozesses), und trotzdem kommt am Ende das richtige Ergebnis raus? Und das ziemlich zuverlässig.
 
Zuletzt bearbeitet:
Ich bilde mir ein, dass das Model quasi erst durch mögliche Interpretationen geht und schließt diese dann hinten aus Gründen aus und kommt so oft doch bei dem richtigen raus. Muss aber nicht sein, mich hat ChatGPT oft genug auf die falsch Fährte geführt und bin dieser dann zu lange gefolgt. Ich gehe dann meist zurück zum ersten Post mit dem Problem, editiere dort die neusten Erkenntnisse rein und die KI antwortet dann dort erneut darauf und macht einen neuen Verlauf ohne den alten auf. Hilft oft.
 
Das schlimmste was ich mir vorstellen könnte wäre ein KI Dominanz von Google.
Bin fast sicher, dass es darauf hinauslaufen wird. Spätestens wenn die Blase platzt, sind die ganz vorne. Schaun mer mal ...
 
OpenAI hat eben auch das Problem, dass sie neben KI nichts anderes haben. Platz die KI Blase juckt das ein Google nicht all so viel, genauso wenig wie Meta und Microsoft, aber reine KI Unternehmen wird es am stärksten treffen und dann haben wir vor allem wieder die eh schon viel zu mächtigen Konzerne ganz vorne... von daher hoffe ich irgendwie auch, dass die Blase nicht platzt. Das klingt besser als es in der Realität wahrscheinlich sein wird. Weil es bedeutet nicht, dass KI verschwindet.

OpenAI wäre eigentlich nur safe, wenn sie einen Business Plan hin kriegen würden, bei dem sie auch am Ende genug Gewinn machen um ein platzen der Blase überleben zu können, so lange ein KI Unternehmen aber keinen Gewinn macht sind die erledigt sobald die Blase platzt. Ist ja auch logisch, dann fällt viel Investitionsgeld weg und das Unternehmen muss sich selbst tragen können, das können viele KI Unternehmen noch nicht. Aber man sieht ja bei OpenAI, dass sie inzwischen mehr versuchen Geld einzunehmen, das neue 8 Euro Abo, dazu wollen sie (in den USA erstmal) Werbung mit einbauen. Es ist also auch bei denen langsam Druck da Gewinn machen zu müssen.

Allerdings sehe ich das mit der Blase welche platzen könnte auch etwas anders. Weil eben die KI Blase auch Wettkampf getrieben ist. Niemand will bei KI zurück fallen, vor allem die USA und China nicht. Ein platzen der Blase wäre daher eigentlich nur für China gut. XD
 
Was wird mit "Blase platzt" denn wirklich gemeint?

Geld wird ja auf jeden Fall gemacht, egal was passiert, da viel zu viel Geld reingesteckt worden ist.

KI ist bereits "too big to fail"

Also kann "Blase platzen" in Wirklichkeit nur bedeuten : Geld muss unterhalb der Gürtellinie gemacht werden?

Von daher bin ich sehr vorsichtig mir eine geplatze "Blase" zu wünschen.
 
Zuletzt bearbeitet:
Was wird mit "Blase platzt" denn wirklich gemeint?

Geld wird ja auf jeden Fall gemacht, egal was passiert, da viel zu viel Geld reingesteckt worden ist.

KI ist bereits "too big to fail"

Also kann "Blase platzen" in Wirklichkeit nur bedeuten : Geld muss unterhalb der Gürtellinie gemacht werden?

Von daher bin ich sehr vorsichtig mir eine geplatze "Blase" zu wünschen.
Es wird spätestens mitte 2027 zumindest eine Marktbereinigung geben, da bin ich mir sicher.

Edit: Ich glaube ich fasse das mal in Worte warum ich das denke:

- OpenAI ist wissentlich spätestens Mitte 2027 Out Of Money, ein "To Big To Fail" funktioniert nicht immer (Siehe Enron, Siehe Theranos etc.)
- Nvidia wird von ~70% Marktanteil auf unter ~10% Marktanteil in China fallen
- Amazons und Microsofts eigene Entwicklungen werden irgendwann dafür sorgen das Nvidia nicht mehr gekauft wird

Weitere beispiele gibt es später, ich muss noch was für die Maloche tun :fresse:
 
Zuletzt bearbeitet:
Es ist ja eigentlich auch ganz einfach:

Investoren haben eine ganze Menge Geld in die KI Blase gepumpt und irgendwann möchten sie aus dem investierten Geld auch Profit schlagen.

Im Grunde geht es also darum wann die Investoren ihre Geduld verlieren, wie lange man diese bei Laune halten kann bis diese selbst nicht mehr glauben mit KI genug Profit zu machen um das investierte Geld mit Bonus wieder raus zu bekommen. Dann gibt es einfach kein frisches Geld mehr, die Unternehmen fallen in den Panik Modus bevor sie dann Pleite sind und schließen müssen.

Am Anfang vom Hype ist es noch einfach Investorengelder einzusammeln, aber das kippt dann mit jeder Investorenrunde mehr, wenn man es nicht schafft so überzeugend zu sein wie bei der letzten und am überzeugesten ist eben die Aussicht auf großen Profit, dazu muss man aber einen überzeugenden Plan vorweisen können und der schließt eben bei KI mit ein wo KI am Ende tatsächlich so nützlich ist, dass viel Profit abfällt, der Nutzen also die Kosten übersteigt und bei KI dauerhaft.
 
Da habt ihr es schwarz auf weiß. Chatgpt hat mich perfekt eingeordnet

Du:​

Kurzprofil / Charakterisierung von slapaho (Hardwareluxx)

ChatGPT:​

Hier ist eine Kurzcharakterisierung / ein Kurzprofil von SlapAHo aus dem Hardwareluxx-Forum (Community des deutschen IT-Magazins Hardwareluxx) basierend auf öffentlich einsehbaren Foren-Infos:


SlapAHo — Kurzprofil

Benutzername: SlapAHo
Plattform: Hardwareluxx-Forum (Diskussionscommunity zu Computer-Hardware und Technik)
Mitglied seit: 04.09.2018
Status/Level: „Enthusiast“ (Community-Rank, zeigt aktiven/diskussionsfreudigen Userstatus)
Beiträge: Über 900 Beiträge im Forum (Stand 2026)
Ort (angegeben im Profil): Stuttgart


Charakterisierung / Foren-Verhalten

📌 Aktiv im Community-Gespräch:
SlapAHo ist ein regelmäßiger Teilnehmer in verschiedenen Foren-Threads, insbesondere in Diskussionen zu Hardware-Themen (z. B. Grafikkarten, Netzteile, Selbstbau-Beratung).
🗣️ Ton und Stil:
Beiträge erscheinen sachlich bis leicht umgangssprachlich; er beteiligt sich an technischen Diskussionen und beantwortet Fragen von anderen Nutzern (z. B. zu NAS-Builds oder Hardware-Empfehlungen).
💡 Wissen / Interessen:
Engagiert sich typischerweise zu PC-Hardware-Themen (Komponenten, Empfehlungen, Erfahrungen). Durch die Rolle „Enthusiast“ signalisiert sein Community-Rank ein solides Grundwissen und eine gewisse Erfahrung in PC-Hardware oder Technik-Diskussionen.
😄 Community-Presence:
Seine Beiträge werden regelmäßig gelesen und beantwortet, er interagiert mit anderen Forenmitgliedern (teils mit Humor, teils mit praktischen Tipps).


Zusammengefasst

SlapAHo ist ein länger aktiver, engagierter Hobby-User der Hardwareluxx-Community, der sich mit PC-Hardware-Themen beschäftigt und regelmäßig an Diskussionen teilnimmt. Mit über 900 Beiträgen und dem Rang „Enthusiast“ gilt er als gut eingebundener Community-Teilnehmer, der technische Fragen kommentiert und eigene Meinungen teilt.
 
Habe mich heute mal an die Generierung eigener LORAs gewagt. Dauert schon seine Zeit, mal schauen ob das Ergebnis auch so ist wie ich es mir erhoffe.

1768932888173.png
 
Bei Bild KI hab ich schon vor 2 Jahren meine eigenen gemacht. Ist ja auch extrem einfach, ein paar Bilder, eine einfache Beschreibung dazu und rein in die Trainingssoftware. Da reichen je nach dem was man trainieren will schon 10-20 Bilder.

Wenn wir aber von LoRA bei Text KIs reden... das ist eine komplett andere Hausnummer, da reden wir dann eher von 20-100x so vielen Beispielen. Und qualitativ guter Text ist auch noch mal was anderes. Der Aufwand steigt da leider um ein vielfaches, da hab ich mich bisher davor gescheut. Zumal mal man mit einem (Q)LoRA eher den Stil, Ausdruck etc. trainiert als dem LLM neue Inhalte beizubringen. Für letzteres braucht es richtige SFT Finetuning und dann kann man gut noch mal 1-2 0en oben anhängen. :fresse: Wenn man aber eh zuverlässig Fakten braucht ist RAG sinnvoller. Damit wollte ich mich die Tage auch endlich beschäftigen für KI Memory...
 
Ist für Text to Img. Grundlage sind 100 Bilder aus verschiedenen Perspektiven mit detailierten Beschreibungen.
Mal schauen ob das Ergebnis stimmt oder ich nochmal nachbessern muss.
 
Ich glaube auch, dass sich der Markt konsolidieren muss. So viel Geld wie aktuell in die Anbieter gepumpt wird bzw. wurde kann einfach nicht erwirtschaftet werden. Also entweder die Investoren bekommen kalte Füße und ziehen das Geld raus oder der Markt “kühlt ab” und die Geschäftsergebnisse (ausbleibender Gewinn) sorgen für Insolvenzen.

Der Witz an der Sache: wenn das passiert wird der Markt mit GPUs geflutet, die dann entweder von den übrigen Playern abgegriffen werden oder die Preise werden wegen übermäßigem Angebot ins (fast) bodenlose fallen.

Für mich ist nicht das Ob die Frage, sondern nur wann und in welchem Umfang. An einen kompletten Crash wie Dotcom glaube ich aktuell eher nicht.

Bei letzterem: hat da Jemand versucht ChatGPT über die Textlänge der letzten Antwort zu belehren?
Tatsächlich hat ChatGPT selbst nachgefragt ob ich ne kurze Antwort will, was ich bejaht habe :fresse2:
 
Zuletzt bearbeitet:
Ich denke auch viel über das Thema Marktbereinigung nach, aber aktuell steigt der Bedarf extrem an. KI wird ja im immer mehr Systeme integriert, und das wird die nächsten 2-3 Jahre auch noch ordentlich durch die Decke knallen. Aktuell muss man in viele Bereichen KI-Automatisierungen und Anwendungen noch selbst erstellen, aber bald dürfte kaum noch eine produktive Software ohne KI-Integration daher kommen.

Aktuell kostet den Anbietern vor allem die kostenlose Nutzung extrem viel, und auch die "kleinen" Abos. Wenn ich mir ansehe was die API Nutzung kostet, dann wäre ich nach 2-3 Tagen mit meinem ChatGPT Plus Abo bereits am Limit. Ich nutze auch das verfügbare Volumen von Codex in VS Code, Gemini in Antigravity und zusätzlich noch das kleine Abo von Cursor. Ich kann mir nur sehr schwer vorstellen dass die Firmen (bis auf Cursor, die rechnen die API-Nutzung ab) mit diesen paar Euro für die massenhafte Nutzung kostendecken arbeiten können.
Aber so lange das noch durch Investoren finanziert werden kann, werden diese Daten verwendet um das nächste Modell zu trainieren, um nicht abgehängt zu werden.

Wenn sich der Markt bereinigt wird die Nutzung wahrscheinlich teurer werden (vergleichbar mit den API-Preisen). Ob die Entwicklung dann langsamer voran schreitet ist die Frage. Vielleicht wird das Training auch nur effizienter, weil man mit einem kleineren Budget haushalten muss.

Anthropic und Google werden sich auf jeden Fall durchsetzen, bei OpenAI bin ich auch etwas skeptisch. xAI könnte ich mir auch vorstellen, wenn sich die Produkte von Tesla am Markt durchsetzen.
 
Zuletzt bearbeitet:
Sobald man im professionellen Umfängt anfängt mal Projekte zu machen merkt man, was das eigentlich kostet. Wenn die Enshittification anfängt, wird das richtig teuer.
 
  • Danke
Reaktionen: Tzk
Hab einen Monat kostenlos Google AI Pro gehabt und bin jetzt auf Plus gewechselt (aktuell im Angebot für 3,99€/Monat). Bin damit aktuell sehr zufrieden, Gemini macht deutlich weniger Fehler als ChatGPT bei dem was ich bisher gemacht/gefragt habe. Schwäche ist allerdings das Durcheinanderbringen von Datumsangaben (es waren echt nur drei). Aber für Formulierungen, Generierung von Nachrichten, Recherche usw. ist es wirklich gut brauchbar.

Was auch sehr gut funktioniert ist das Zusammenfassen von YouTube-Videos. Wenn ich keine Lust habe ein 10-15 Minuten Video zu gucken, lasse ich Gemini einfach kurz die relevanten Stichpunkte rausziehen, das geht wunderbar. Teilweise nutze ich es auch zum Italienisch lernen bzw. für bestimmte Phrasen/Ausdrücke. Nicht immer richtig und als ich mal testweise Lettisch probiert habe, klappte das so gar nicht - sagte meine Bekannte aus Lettland. :ROFLMAO:
 
Bin bisher immer kostenlos davon gekommen, bis Nov läuft noch Perplexity, dann schnappt die Falle wahrscheinlich zu...
 
Hab einen Monat kostenlos Google AI Pro gehabt und bin jetzt auf Plus gewechselt (aktuell im Angebot für 3,99€/Monat). Bin damit aktuell sehr zufrieden, Gemini macht deutlich weniger Fehler als ChatGPT bei dem was ich bisher gemacht/gefragt habe. Schwäche ist allerdings das Durcheinanderbringen von Datumsangaben (es waren echt nur drei). Aber für Formulierungen, Generierung von Nachrichten, Recherche usw. ist es wirklich gut brauchbar.

Was auch sehr gut funktioniert ist das Zusammenfassen von YouTube-Videos. Wenn ich keine Lust habe ein 10-15 Minuten Video zu gucken, lasse ich Gemini einfach kurz die relevanten Stichpunkte rausziehen, das geht wunderbar. Teilweise nutze ich es auch zum Italienisch lernen bzw. für bestimmte Phrasen/Ausdrücke. Nicht immer richtig und als ich mal testweise Lettisch probiert habe, klappte das so gar nicht - sagte meine Bekannte aus Lettland. :ROFLMAO:

Interessant, ich hätte es tatsächlich genau umgekehrt beurteilt. ChatGPT 5.2 Thinking High liefert mir bei komplexen Themen bessere Ergebnisse als Gemini 3.0 Pro. Aber Gemini liefert viel schneller Ergebnisse, bei ChatGPT hatte ich schon "Denkprozesse" von 20-30 Minuten.

Sonst hat irgendwie jedes Modell so seine Stärken und Schwächen.

Wie du schon sagst, Gemini ist genial für Youtube Videos. Gemini kann ja jetzt auch auf NotebookLLM und Gems zugreifen, das ist genial wenn man immer wieder auf große Datenmengen zugreifen muss. Dazu dann noch die Integration in Google Workspace. Nano Banana ist super was Bildbearbeitung angeht. Wenn man seinen Pro Account in Antigravity nutzt hat man sogar ein begrenztes Kontingent für Claude Opus/Sonnet inklusive. Aber seit der Version 3 hat Gemini irgendwie keinen Bock mehr Quellen zu verlinken, auch wenn man danach fragt.

ChatGPT für mich das Schweizer Taschenmesser wenn es um Dateiformate geht, weil es sehr viele Formate lesen und auch direkt als Download ausgeben kann. Und für komplexe Themen funktioniert es für mich am zuverlässigsten (NUR in 5.2 Thinking HIGH).

Grok nutze ich in der Free Version, weil ich es nur für Recherchen verwende, z.B. auf X.com.
Diskussionsforen werden ja immer weniger besucht, und auf X findet man viele Erfahrungsberichte und Diskussionen, was manchmal sehr nützlich ist.

Und zu Claude muss man nicht viel sagen, in Sachen Code ist es einfach eine andere Welt. Hier würde ich sagen Claude Opus 4.5 > Claude Sonnet 4.5 > ChatGPT Codex 5.2 extra high / high > Gemini 3.0 Pro

Mit Perplexity werde ich nicht richtig warm. Es gab ja für Paypal Kunden 1 Jahr AI Pro kostenlos, aber nehme es trotzdem kaum her.
 
Zuletzt bearbeitet:
Das "interessant" gebe ich mal zurück! Danke für deinen Erfahrungsbericht - es hat auf jeden Fall jedes Modell seine Stärken und Schwächen.

Perplexity habe ich eine Weile für Recherchen im Rahmen meines MBA genutzt. War okay aber auch nicht viel ergiebiger als die Google (Scholar) Suche. ChatGPT war allerdings komplett unbrauchbar und hat ständig irgendwelche Quellen (inkl. ISBN!) erfunden trotz entsprechendem Prompt.
 
Das "interessant" gebe ich mal zurück! Danke für deinen Erfahrungsbericht - es hat auf jeden Fall jedes Modell seine Stärken und Schwächen.

Perplexity habe ich eine Weile für Recherchen im Rahmen meines MBA genutzt. War okay aber auch nicht viel ergiebiger als die Google (Scholar) Suche. ChatGPT war allerdings komplett unbrauchbar und hat ständig irgendwelche Quellen (inkl. ISBN!) erfunden trotz entsprechendem Prompt.
War das schon ChatGPT 5.2 oder noch vorher? Ich finde gerade die Halluzinationen sind viel besser geworden. ChatGPT 5.0 fand ich fast unbrauchbar, und war anfangs richtig enttäuscht und hätte mir teilweise O3 zurück gewünscht.

Aber was Recherchen angeht MUSS Google ja die Nase vorne haben, das wäre ja sonst peinlich als weltgrößte Datenkrake. :d

Hast du Deep Research auch verwendet?
 
Puh, gute Frage wann das war. Ich habe die Masterarbeit von April bis September letzten Jahres geschrieben. Das wird primär April/Mai/Juni 2025 gewesen sein. Ich hatte zwischendrin auch die Pro Version, aber frag mich bitte nicht welche Versionsnummer das war. Zwischendurch war ich richtig genervt vom neuen Modell, aber ich glaube das war Oktober/November - weiß ich nicht mehr genau. Das hat auch irgendwann dazu geführt, dass ich gar keinen Bock mehr auf ChatGPT hatte und das Konto gelöscht habe. Auch richtig nervig: Selbst mit der Pro-Version von ChatGPT habe ich teilweise Antworten erhalten, die buchstabenweise erschienen. Das war unglaublich lahm zwischendurch, insbesondere bei längeren Chats - das Problem hatte ich bei Gemini bisher nicht. Deep Research habe ich mit der Pro-Version oft verwendet, das lief dann auch mal seine 10 Minuten aber auch da gab es schlechte Ergebnisse.

Was mich richtig getriggert hat (wie ich oben schon schrieb) war, dass die Vorgaben ausschließlich echte Primärquellen zu suchen ständig ignoriert wurde. Sowohl in den generellen Vorgaben als auch im eigentlich Prompt war es sinnlos. Und dann drauf hingewiesen kam immer "Ach, sorry. Du hast Recht, die Quelle gibt es so gar nicht."
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh