Kingston Fury Renegade G5 SSD mit 8 TB im Test: Größer aber auch langsamer

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ach Festplattenpreise erschrecken mich schon seit den 90ern nicht mehr, als wir noch für 2 Gbyte 1500€ gezahlt haben (Seagate barracuda scsi ii 2000mbyte, 1992, 3000+ DM)

Was mich aber erschreckt ist der Grund, WARUM wir für ssds, nvmes, ram und hdds inzwischen Apothekenpreise zahlen.
Die KI .. hier und da und überall.
Und wenn ich mir dann die Ergebnisse dieser weltrettenden super Idee ansehe, bei youtube in fake trailern, fake docus und sonstigem fake Müll.
dann möchte ich, dass das sofort aufhört und wir unsere normalen Preise wieder bekommen. Ich brauche diesen KI Müll definitiv nicht.
 
Und wenn ich mir dann die Ergebnisse dieser weltrettenden super Idee ansehe, bei youtube in fake trailern, fake docus und sonstigem fake Müll.
dann möchte ich, dass das sofort aufhört und wir unsere normalen Preise wieder bekommen. Ich brauche diesen KI Müll definitiv nicht.

Ich will nur kurz anmerken, dass KI Anwendung in ganz vielen Feldern eingesetzt wird, und Du von vielem sicher auch profitieren willst.
Ansonsten hätte man laut Deiner Argumentation auch das gesamte Internet vor vielen Jahren abschalten müssen, weil da ganz viel Müll, Hass und Desinformation verbreitet wird.
 
Ich will nur kurz anmerken, dass KI Anwendung in ganz vielen Feldern eingesetzt wird, und Du von vielem sicher auch profitieren willst.
Ansonsten hätte man laut Deiner Argumentation auch das gesamte Internet vor vielen Jahren abschalten müssen, weil da ganz viel Müll, Hass und Desinformation verbreitet wird.
Nein das siehst du falsch. Ich bin inzwischen 60 Jahre ganz gut ohne KI ausgekommen.
Und das würde auch weiter so bleiben, wenn es mir nicht von allen Seiten aufgezwungen würde.
Demnächst werden noch die Kartoffelsäcke im Supermarkt mit "per KI verpackt" beschriftet.
Macht sie dann nur noch 1€ teurer...

Den "Internet Müll/Hass" gab es schon vor der KI... nun isser nur größer geworden.

Von den KI Deepfakes von Unfreiwilligen Opfern noch gar nicht geredet...
Ich bin ganz sicher kein Technik Feind und habe schon vor 45 Jahren am VC20 rumprogrammiert.
Aber bisher sehe ich für mich nur Nachteile. Horrende Preissteigerungen und für euch kommende massive Arbeitsplatzverluste ...
 
Nein das siehst du falsch. Ich bin inzwischen 60 Jahre ganz gut ohne KI ausgekommen.
Und das würde auch weiter so bleiben, wenn es mir nicht von allen Seiten aufgezwungen würde.

Wenn dann in ein paar Jahren neue Krebstherapien auf den Markt kommen, die zur Zeit mit Hilfe von KI entwickelt werden, willst Du das also lieber nicht in Anspruch nehmen?
Es ist ziemlich naiv, den gesamten KI-Bereich auf ein paar für Dich erkennbare Details zu reduzieren.

Ich bin ganz sicher kein Technik Feind und habe schon vor 45 Jahren am VC20 rumprogrammiert.

War 1981 auch mein erster Computer, der dann durch den C64 abgelöst wurde.
Wenn der Rechner irgendwas machte, konnte ich genau wissen, was und warum, weil ich dann die betreffenden Teile im ROM-Listing im Buch "64 intern" las.

Nur: die Zeiten sind halt vorbei!
 
Wenn dann in ein paar Jahren neue Krebstherapien auf den Markt kommen, die zur Zeit mit Hilfe von KI entwickelt werden, willst Du das also lieber nicht in Anspruch nehmen?
Es ist ziemlich naiv, den gesamten KI-Bereich auf ein paar für Dich erkennbare Details zu reduzieren.

Also ich sehe die KI auch eher als Risiko. Sie gefährdet tatsächlich viele Arbeitsplätze, ermöglicht Desinformation, politische Instabilität und vieles mehr. Die Vorteile, etwa neue Medikamente, sind bislang nicht da und es gibt auch große Zweifel, ob KI das jemals wird können. Daher wäre ich mit Vorschusslorbeeren mal sehr vorsichtig.

Ich nutze auch fast täglich ChatGPT und Perplexity - letztlich sparen die Dinger etwas Zeit gegenüber klassischer Googlesuche - das war es aber auch schon fast, aus meiner Sicht.
 
Also ich sehe die KI auch eher als Risiko. Sie gefährdet tatsächlich viele Arbeitsplätze, ermöglicht Desinformation, politische Instabilität und vieles mehr. Die Vorteile, etwa neue Medikamente, sind bislang nicht da und es gibt auch große Zweifel, ob KI das jemals wird können. Daher wäre ich mit Vorschusslorbeeren mal sehr vorsichtig.

In der Arzneimittelforschung wird oft nach Molekülstrukturen gesucht, die gewisse Eigenschaften haben. Aufgrund der praktisch unendlichen Kombinationsmöglichkeiten ist das eine aufwendige Aufgabe, die mit herkömmlichen Methoden (einfach mal "alles" nacheinander simulieren und ausprobieren) sehr sehr lange dauert. Da wird KI längst eingesetzt, um im Vorfeld die Anzahl der Varianten, die man dann tatsächlich prüft, auf eine handhabbare Größe zu reduzieren.

Ich nutze auch fast täglich ChatGPT und Perplexity - letztlich sparen die Dinger etwas Zeit gegenüber klassischer Googlesuche - das war es aber auch schon fast, aus meiner Sicht.

Dann solltest Du dort mal nachfragen, in welchen Dienstleistungs- und Industriebranchen KI bereits produktiv eingesetzt wird.
Du wirst Dich wundern!


Ich bin jedenfalls froh, mir gegen Ende 2025 mehrere 4TD-SSDs auf Halde gelegt zu haben. Die Modelle mit PCIe-4.0 kosteten mich da noch so ca. 260€, was ich für SSDs ohne DRAM-Cache schon teuer fand, denn das hatte ich vorher für eine WD_Black SN850X gezahlt. Wenn ich mir aber aktuell die Preise ansehe, entgleiten mir die ohnehin schlaffen Gesichtszüge vollends.
 
In der Arzneimittelforschung wird oft nach Molekülstrukturen gesucht, die gewisse Eigenschaften haben. Aufgrund der praktisch unendlichen Kombinationsmöglichkeiten ist das eine aufwendige Aufgabe, die mit herkömmlichen Methoden (einfach mal "alles" nacheinander simulieren und ausprobieren) sehr sehr lange dauert. Da wird KI längst eingesetzt, um im Vorfeld die Anzahl der Varianten, die man dann tatsächlich prüft, auf eine handhabbare Größe zu reduzieren.

Das ist mir bewusst. Doch nach meinem letzten Stand herrscht in dem Bereich zuletzt deutlich weniger Euphorie als zuerst angenommen, weil die Ergebnisse eben nicht ansatzweise so vielversprechend sind wie ursprünglich angenommen. Kann sich zwar noch ändern aber ich bin da nun auch deutlich skeptischer als zuvor.

Dann solltest Du dort mal nachfragen, in welchen Dienstleistungs- und Industriebranchen KI bereits produktiv eingesetzt wird.
Du wirst Dich wundern!

Ich wundere mich eher über Deine Lobeshymnen. Auch bei diesem Thema macht sich aktuell vor allem Ernüchterung breit.

Ich bin jedenfalls froh, mir gegen Ende 2025 mehrere 4TD-SSDs auf Halde gelegt zu haben. Die Modelle mit PCIe-4.0 kosteten mich da noch so ca. 260€, was ich für SSDs ohne DRAM-Cache schon teuer fand, denn das hatte ich vorher für eine WD_Black SN850X gezahlt. Wenn ich mir aber aktuell die Preise ansehe, entgleiten mir die ohnehin schlaffen Gesichtszüge vollends.

Sei Dir gegönnt. Ich gehöre aber mittlerweile zu der Fraktion, die befürchtet, dass die KI Blase in den nächsten Jahren platzen wird. Die Wirtschaft pumpt Milliarden in Rechenzentren, die auch langfristig astronomische Kosten verursachen - und diese Kosten müssen reingeholt werden. Das wird durch Entlassung geschehen - und in Form von teuren Abos. In verschiedenen Bereichen der Wirtschaft mag sich das auch rechnen. Privatleute werden aber wohl nicht bereit sein, 30 Euro und mehr pro Monat für ChatGPT etc. zu zahlen. Es gibt außerdem die Gefahr, dass sich Unternehmen zu sehr auf KI verlassen, indem man ihr zu viele Aufgaben überträgt und in einigen Jahren das entsprechende Wissen nicht mehr im Unternehmen ist. Denn für die Aufgaben, die die KI übernimmt, werden dann ja auch keine Angestellten mehr eingestellt. Wenn dann die KI Lizenz plötzlich nicht mehr 50 Euro sondern 500 kostet, ist das Unternehmen angeschmiert - und muss die Kosten an die Kunden weiterleiten oder pleite gehen...
 
Ich wundere mich eher über Deine Lobeshymnen. Auch bei diesem Thema macht sich aktuell vor allem Ernüchterung breit.

Hast Du den Artikel denn überhaupt selbst gelesen? Die Beispiele dort taugen ziemlich schlecht für Deine These.
Es geht im Artikel nämlich um den Umgang mit KI, nicht um deren Ergebnisse! Der Umgang ist neu und muss noch gelernt und gesteuert werden.

Ich gehöre aber mittlerweile zu der Fraktion, die befürchtet, dass die KI Blase in den nächsten Jahren platzen wird.

Ich habe da keine echte Meinung, da es ziemlich gute Argumente sowohl für die These "es ist eine Blase" als auch für die These "es ist keine Blase" gibt. Wenn man es wirklich genau wüsste, wäre man ein gemachter Mann.

Die Wirtschaft pumpt Milliarden in Rechenzentren, die auch langfristig astronomische Kosten verursachen - und diese Kosten müssen reingeholt werden. Das wird durch Entlassung geschehen - und in Form von teuren Abos. In verschiedenen Bereichen der Wirtschaft mag sich das auch rechnen. Privatleute werden aber wohl nicht bereit sein, 30 Euro und mehr pro Monat für ChatGPT etc. zu zahlen.

Na ja, für ChatGPT vielleicht nicht, das kann man ja inzwischen in recht guter Qualität auf lokalen Rechnern betreiben. Aber für agentische KI, die ganz konkrete Aufgaben übernimmt, vielleicht schon. Und statt viel Geld für Gaming-PCs auszugeben, wäre ich für ein monatliches Abo durchaus zu haben, wenn es mir entsprechende Leistung und Verfügbarkeit bietet.

Ich bin da gar nicht sonderlich euphorisch, ich sehe nur die Entwicklung und überlege mir, was neue Technologien alles machen und vereinfachen können. Pflegekräfte können kaum länger als bis kurz über 60 arbeiten, weil das körperlich anstrengend ist. Robotik und KI nehmen in vielleicht gar nicht so ferner Zukunft die schwere Drecksarbeit ab, und die Menschen können sich in der Pflege um das kümmern, was eben nur Menschen können.

Generell finde ich seltsam, dass Vielen im Zusammenhang mit KI einfach nur ChatGPT einfällt. Wer so argumentiert, hat m. E. ohnehin schon den Anschluss verloren.

Dass viele Anleger viel Geld verlieren werden, sehe ich auch so. Der aktuelle Wettlauf geht m. E. erst mal darum, als Player überhaupt übrigzubleiben. Denn es werden nur wenige KI-Unternehmen auf Sicht überleben und auf der anderen Seite viele auf der Strecke bleiben. Wer das Rennen macht, ist vollkommen offen, da ploppen dann auf einmal neue Markteilnehmer hoch, die wirklich einen Fortschritt bieten, wie z. B. Anthropic mit Claude Code und Claude Cowork, dann geraten die in einen Konflikt mit dem Pentagon mit ungewissem Ausgang, usw. usw.

Es gibt außerdem die Gefahr, dass sich Unternehmen zu sehr auf KI verlassen, indem man ihr zu viele Aufgaben überträgt und in einigen Jahren das entsprechende Wissen nicht mehr im Unternehmen ist. Denn für die Aufgaben, die die KI übernimmt, werden dann ja auch keine Angestellten mehr eingestellt. Wenn dann die KI Lizenz plötzlich nicht mehr 50 Euro sondern 500 kostet, ist das Unternehmen angeschmiert - und muss die Kosten an die Kunden weiterleiten oder pleite gehen...

Es ist schon heute so, dass moderne Unternehmen alles outsourcen, was nicht Kern der eigentlichen Geschäftsidee ist. Sich dann abhängig von einzelnen Dienstleistern zu machen oder nicht, ist eine Frage der Risikoanalyse, die Unternehmen schon ab kleiner Größe machen. Was Du sagst kann übrigens auch anders herum passieren: Fähigkeiten, für die man vorher monatlich teure Gebühren an einen Dienstleister zahlen musste, sind auf einmal mit überschaubarem Aufwand auf eigener Hardware zu stemmen. Dann ist das KI-Unternehmen angeschmiert.
 
Zuletzt bearbeitet:
Und statt viel Geld für Gaming-PCs auszugeben, wäre ich für ein monatliches Abo durchaus zu haben, wenn es mir entsprechende Leistung und Verfügbarkeit bietet.

Wer sagt denn, dass ein Gaming PC teuer sein muss? So wenig wie ich mir zig Klötze ans Bein binden will. Dass sich KI auch sinnvoll einsetzen lässt steht außer Frage, nur wenn ich von morgens bis abends mit dem Thema konfrontiert werde, nervt's einfach nur noch, siehe:

ki.jpg
 
Pflegekräfte können kaum länger als bis kurz über 60 arbeiten, weil das körperlich anstrengend ist. Robotik und KI nehmen in vielleicht gar nicht so ferner Zukunft die schwere Drecksarbeit ab, und die Menschen können sich in der Pflege um das kümmern, was eben nur Menschen können.
Gerade in der Pflege nimmt die KI/Robotik (Heberobotik z.b.) ja auch immer mehr zu.
Ich frage mich aber eher, wer bezahlt und konsumiert denn später diesen ganzen Krempel noch, wenn KI den Menschen die ganze "körperliche Drecksarbeit" abnimmt und niemand mehr einen Job hat? :unsure:
Ende vom Lied: Ganze Staatsstrukturen werden den Bach herunter gehen weil die Sozialabgaben ins uferlose ausarten. Schöne neue Zukunft! ..und alles hausbacken, weil die Gier nach Talers ebend auch uferlos ist.
Der Mensch braucht keinen Putin, Trump & Xi oder Umweltkatastrophen. Wir sorgen selbst dafür das es uns bald nicht mehr gibt. Gut für die Erde irgendwo.

..mich tröstet nur, dass diese Gierlappen dann halt auch den Bach herunter gehen, denn wo kein Konsument da ist halt keine Nachfrage. Ergo bleiben die auf ihren KI-Dreck sitzen. (y)
 
Zuletzt bearbeitet:
Na ja, für ChatGPT vielleicht nicht, das kann man ja inzwischen in recht guter Qualität auf lokalen Rechnern betreiben. Aber für agentische KI, die ganz konkrete Aufgaben übernimmt, vielleicht schon.

Kaum vorstellbar. Die Funktionen sind bisher extrem überschaubar und stellen für die allermeisten kaum eine Erleichterung dar.
Beitrag automatisch zusammengeführt:

Und statt viel Geld für Gaming-PCs auszugeben, wäre ich für ein monatliches Abo durchaus zu haben, wenn es mir entsprechende Leistung und Verfügbarkeit bietet.

Wenn Du mal CloudGaming ausprobiert hättest, wüsstest Du, dass das für Casual Gaming auf der Couch oder für Strategie ggf für manche eine Ergänzung sein kann. Einen Ersatz kann es gar nicht sein, da immer zusätzliche Latenz entsteht. Habe gerade 3 Monate GeForce Now Dank der Telekom und das ist einfach gruselig, was da an Latenz am Ende rauskommt... Ist ja auch kein Wunder, wenn man sich vor Augen führt, wie das Bild entsteht und wie es auf den Bildschirm kommt.
 
Ich habe letztens noch mit einer grafisch orientierten KI, spezialisiert auf 3D Objekterstellung komplexer verschachtelter Strukturen gearbeitet und ganz ehrlich.. ..man braucht sehr viel Geduld und einige Anläufe damit da vernünftige Ergebnisse bei herum kommen. Mit Größenangaben und verspiegelten Raumdimensionierungen wird es dann ganz lustig.

Einen 3jährigen Kind mit Bauklötze verschiedener Formen und Größen sagst du in 10sek. wie es die Anordnen/stapeln soll, Ergebnis perfekt!
Dieser KI beschreibst du in mehreren Etappen den genauen Ablauf für jedes einzelne Objekt und hast Glück, wenn dann nach den fünften bis sechsten Anlauf mal ein einigermaßen passendes Ergebnis dabei herum kommt. Dauer ca. 10~20min.

Zudem ist ein 3jähriges Kinderhirn durchaus in der Lage, von jetzt auf gleich umzuswitchen, heißt, als nächstes stellt es Mamas Küche auf den Kopf und geht danach im Sandkasten buddeln.
Und eine "KI"? Never ever. Da ist halt vieles "Künstlich" aber "Intelligent"? ..naja..

ps: Ich hatte mal irgendwo im Netz so ein KI-Tool gesehen der konntest du testweise komplexere Aufgaben stellen.
Der habe ich mal zur Aufgabe gestellt, gegen sich selbst Tic_tac_toe zu spielen, Ziel: Sie durfte nicht gewinnen. Seither weiß ich was ich davon zu halten habe und das dieser ganze Krempel im Grunde nur wieder eine neue wunderbare Form der lukrativen Gewinnmaximierung derer Leute/Firmen ist, die eh schon nicht genug bekommen. Und jeder Depp fällt halt darauf rein, weil Gier ist wie ein Virus und Gier frisst bekanntlich Verstand. :)
 
Zuletzt bearbeitet:
Und wenn ich mir dann die Ergebnisse dieser weltrettenden super Idee ansehe, bei youtube in fake trailern, fake docus und sonstigem fake Müll.
dann möchte ich, dass das sofort aufhört und wir unsere normalen Preise wieder bekommen. Ich brauche diesen KI Müll definitiv nicht.
Ja, der Fake Müll passt super in unserer Fake-Gesellschaft mit Fake-Jobs, Fake-Mitspracherecht, Fake-Wirtschaft, Fake-Geld, Fake-News, Fake-Bildung und was dir noch alles einfällt.

Was jedoch nicht Fake ist, ist ein wunderbares digitales Tracking der realen Welt.
Heute kann man so elegant und bequem töten, wie noch nie. Das ist, worum es geht.
Es ist ein Wettrüsten, niemand traut es sich auszusprechen.

Schaut mal echte(!) Videos aus der Ostukraine, das ist eine ganz neue Qualität an Grausamkeit (auf allen Seiten).
Darum geht es. Wenn man das weiter spinnt ist das Setting aus Cyberpunk (mit all den feinen Nebendetails) ein richtiger Kindergeburtstag.

Die Desinformation mit dem Fake-AI-Slop ist Absicht und kalkuliert. YT z.B. könnte solche Inhalte genau so Löschen wie "Fake-News rund um C", wenn sie denn wollten.


Imho sehen wir gerade eine Art digitales Manhattan Project (Wiki, wers nicht kennt).
Nur sinds diesmal keine Länder wie USA, das Deutsche Reich usw. sondern Konzerne, wie Arasaka, Militech oder Kang Tao (oder Palantir?).
 
Kaum vorstellbar. Die Funktionen sind bisher extrem überschaubar und stellen für die allermeisten kaum eine Erleichterung dar.

Hast Du mal LM Studio auf einem halbwegs leistungsfähigen PC (mit viel Arbeitsspeicher und möglichst viel VRAM) ausprobiert? Dort mit verschiedenen verfügbaren Sprachmodellen experimentiert? Kennst Du MCP? Hast Du damit mal die lokale KI in die Lage versetzt, über den Browser auf das Internet zuzugreifen?

Dabei musste ich nämlich feststellen, dass man einen reinen KI-Chatbot bereits sehr gut mit einer lokalen KI für Allerweltsfagen betreiben kann, inkl. Bild- und Spracherkennung. Der war u. a. in der Lage auf einem Foto innerhalb von 10 Sekunden über Bildanalyse und Internetrecherche festzustellen, dass ich da eine Gesichtsrose hatte, eine Aufgabe, an der seinerzeit meine Hausärztin kläglich gescheitert war...

Über MCP kann man z. B. auch Blender an Claude andocken, damit sind dann schon recht erstaunliche Dinge möglich. Was Du da für 3D-Dinge genutzt hast, weiß ich nicht.

Ich will ja gar nicht kleinreden, dass da viel sinnloser Scheiß mit KI gemacht wird, mit dem man tagtäglich zugemüllt wird und der auch mich nervt. Aber das sollte einem nicht den Blick verstellen, für die Möglichkeiten, die sich bereits jetzt auftun, und die sich ganz sicher noch auftun werden. Grenzenloser Optimismus ist da genauso wenig angebracht, wie hoffnungsloser Pessimismus!

Wenn Du mal CloudGaming ausprobiert hättest, wüsstest Du, dass das für Casual Gaming auf der Couch oder für Strategie ggf für manche eine Ergänzung sein kann. Einen Ersatz kann es gar nicht sein, da immer zusätzliche Latenz entsteht.

Kommt halt auf die Art der Spiele und die persönlichen Ansprüche an.

Ich bin mir natürlich bewusst darüber, dass in Foren wie diesem hier vor allem professionelle Gamer unterwegs sind, die in 10ms zusätzlicher Latenz ganze Level durchspielen, für die ich Loser allein eine halbe Stunde brauche. Ich spiele halt eher storygetriebene Spiele als schnelle Shooter, daher ist Latenz für mich zweitrangig. Für mich ist eher HDR und 4K ein Thema. Und der Anschluss von diverser Spezialhardware, wie für z. B. Simracing oder Flugsimulation. HDR und 4K lassen sich mit Bandbreite sicher noch lösen, vielleicht klappts auch irgendwann mit dem Durchreichen von Hardware.

Eine Weile habe ich übrigens von meiner Hamburger PS5 auf meine PS4 Pro in meiner Zweitwohnung in Karlsruhe gestreamed. Das klappte eigentlich erstaunlich gut. Für "Casual" jedenfalls ausreichend.
 
Zuletzt bearbeitet:
Und der Anschluss von diverser Spezialhardware, wie für z. B. Simracing oder Flugsimulation.

Aber auch dafür ist Cloud Gaming gänzlich ungeeignet. Selbst bei aracade-Geschichten wie Wreckfest 2 spürt man die Verzögerung, eine echte Simulation ist dann völlig unspielbar, das scheitert nicht an den Eingabegeräten. Für Flugsims könnte es gerade noch gehen, sofern man da mit großen Maschinen unterwegs ist. Aber ist auch die Frage, ob man das will. Warum sollte das Bild nicht lokal gerendert werden? Ich kenne die Milchmädchenrechnungen, die drei Jahre Nutzung der uvp einer 5080 gegenüberstellen. Aber damit macht man sich ja nur noch abhängiger von den Anbietern, die die Preise dann diktieren können (und die jüngsten Preissteigerungen bei GeForce Now waren ja schon stattlich) - bei Konsolen sieht man ja, wie sich die Spielekosten entwickeln, wenn man nicht auf Disc sondern im eigenen Store kaufen muss. Zuletzt fehlt Dir dann eben auch die Hardware, um lokal Deinen KI Agenten betreiben zu können. 😉
 
Aber auch dafür ist Cloud Gaming gänzlich ungeeignet. Selbst bei aracade-Geschichten wie Wreckfest 2 spürt man die Verzögerung, eine echte Simulation ist dann völlig unspielbar, das scheitert nicht an den Eingabegeräten.

Ich habe ja ganz bewusst die Dinge genannt, an denen es für mich scheitert. Wreckfest war übrigens das PS5-Spiel, das ich von meiner Hamburger PS5 in meine Zweitwohnung gestreamed habe. An Latenzprobleme kann ich mich nicht erinnern, die Auflösung war halt nur Full-HD, und HDR gab es auch nicht, was misslich war, da ich dort vor einem großen OLED-TV sitze.

Wenn ich kurz auf die Suche gehe, dann finde ich übrigens dieses Video hier, in dem die Latenz in Frames gemessen wird. Auch wenn man am Test-Setup sicher einiges kritisieren kann, scheint mit der Overhead von Geforce Now doch erstaunlich klein. "Völlig unspielbar" scheint mir eine Übertreibung.

Für Flugsims könnte es gerade noch gehen, sofern man da mit großen Maschinen unterwegs ist. Aber ist auch die Frage, ob man das will. Warum sollte das Bild nicht lokal gerendert werden? Ich kenne die Milchmädchenrechnungen, die drei Jahre Nutzung der uvp einer 5080 gegenüberstellen.

Wenn man immer nur im heimischen Wohn- oder Gamingzimmer spielt, mag das sein. Ist z. B. bei mir halt nicht so. Wir reden - bei mir - immer über mehrere PCs.

Zuletzt fehlt Dir dann eben auch die Hardware, um lokal Deinen KI Agenten betreiben zu können. 😉

Das stimmt, wobei man sich ja auch eine VM mieten kann.
Für den Preis der 8TB-SSD hier kann man für drei Jahre eine ganz ordentliche Maschine mieten.
 
Nie und nimmer würde ich den Preis für 8 TB zahlen wollen.
Denke das sieht die Mehrheit genauso und setzt dann lieber auf eine 1-2 TB m.2 SSD und eine SATA HDD.

Ach Festplattenpreise erschrecken mich schon seit den 90ern nicht mehr, als wir noch für 2 Gbyte 1500€ gezahlt haben (Seagate barracuda scsi ii 2000mbyte, 1992, 3000+ DM)
1992 schon 2 GB HDD und dann auch noch SCSI war aber dschon wirklich Deluxx und deutlich seiner Zeit voraus. :unsure:

Standard waren noch im Herbst 1994 bei einem Pentium 60 so 420MB und noch im Herbst 1997 bei einem Pentium MMX 233 so 1.2 GB
 
Und wenn ich mir dann die Ergebnisse dieser weltrettenden super Idee ansehe, bei youtube in fake trailern, fake docus und sonstigem fake Müll.
dann möchte ich, dass das sofort aufhört und wir unsere normalen Preise wieder bekommen. Ich brauche diesen KI Müll definitiv nicht.
Geht mir auch so.
Wenn dann in ein paar Jahren neue Krebstherapien auf den Markt kommen, die zur Zeit mit Hilfe von KI entwickelt werden
Vergiss es, dies wird nie passieren, da die KI nur eine große Wahrscheinlichkeitsrechnung ist und daher nichts unbekanntes finden kann, da sie logischerweise damit ja nicht trainiert worden sein kann. Wenn sie etwas nicht kennt, halluziniert sie und kann allenfalls zufällig etwas vernünftiges Neues dabei finden.

Die Vorteile, etwa neue Medikamente, sind bislang nicht da und es gibt auch große Zweifel, ob KI das jemals wird können.
Eben, die Zweifel sind auch angebracht, da die KI eben nichts neues Erschaffen kann.

Daher wäre ich mit Vorschusslorbeeren mal sehr vorsichtig.
Heute basiert aber alles auf der Hype und die jungen Leute springen darauf an, was ihnen versprochen wird und nicht mehr darauf, was wirklich erreicht wurde. Bei mit gild auch noch: Das Erreichte zählt, nicht das Erzählte reicht! Aber dies gilt heute als altmodisch.

Da wird KI längst eingesetzt, um im Vorfeld die Anzahl der Varianten, die man dann tatsächlich prüft, auf eine handhabbare Größe zu reduzieren.
Dann sehe ich für neue Medikamente schwarz. Denn wenn man die Effekte der Kombinationen noch nicht kennt, kann auch keine KI sie kennen, da sie ja nicht damit trainiert worden sein kann.
 
Ja, ist nur Satire, dennoch fand ich es passend:

The reason why RAM has become four times more expensive is that a huge amount of RAM that has not yet been produced was purchased with non-existent money to be installed in GPUs that also have not yet been produced, in order to place them in data centers that have not yet been built, powered by infrastructure that may never appear, to satisfy demand that does not actually exist and to obtain profit that is mathematically impossible.
 
abseits Deines Kulturpessimismus passiert aber alles schon längst
Beweise? Was aktuelle als KI bezeichnet wird, ist Wahrscheinlichkeitsrechnung, extrem komplex, aber eben limitiert auf das worauf es trainiert wurde. Alles was wie als Menschheit heute nicht wissen, kann die KI also auch nicht wissen, da sie ja logischerweise damit nicht trainiert sein kann und wenn die KI etwas nicht weiß, halluziniert sie eben.
Die Nobel Preise werden auch nur von Menschen vergeben, meist älteren Menschen die die Technik nicht verstehen. Dies bedeutet nur, dass diese Leute einfach nur inkompetent sind, was nichts Neues ist, Der 1939 Friedensnobelpreis sollte an Neville Chamberlain gehen, der Krieg begann nur vorher und damit wurde er dann am Ende nicht vergeben. Diktatoren zu beschwichtigen hat schon damals nicht funktioniert und funktioniert immer noch nicht, wird aber zu oft immer noch versucht.
 
Über MCP kann man z. B. auch Blender an Claude andocken, damit sind dann schon recht erstaunliche Dinge möglich. Was Du da für 3D-Dinge genutzt hast, weiß ich nicht.

Nimm's mir nicht üben, aber ich kann rein nichts Erstaunliches daran erkennen. Spätestens, wenn du dir anschaust, was Anfänger im Sinne von Berufseinsteiger (bspw. Mediengestalter FR Medienoperating/nonprint) mit solchen 3D Modellierungsprogrammen anstellen, wirst du das ähnlich sehen.

Beweise? Was aktuelle als KI bezeichnet wird, ist Wahrscheinlichkeitsrechnung, extrem komplex, aber eben limitiert auf das worauf es trainiert wurde.

Jep, weil KI eben nicht in der Lage ist, kausale Zusammenhänge herzuleiten, sondern nur Annahmen auf statistischer Wahrscheinlichkeit trifft.
 
Zuletzt bearbeitet:

Das wird mir jetzt zu viel. Ich weiß zwar: derjenige, der eine Behauptung aufstellt, muss sie auch belegen, ansonsten kann die Behauptung verworfen werden.
Trotzdem schlage ich vor, Du liest Dich mal beispielhaft zum Thema AlphaFold ein. Das hier aufzudröseln, würde den Thread vollends sprengen.

Nur so viel: AlphaFold hat schon vor Jahren eine Datenbank veröffentlicht, die tagtäglich von Forschenden genutzt wird. Das Programm ist auch in der Medizinbranche im Einsatz und wird bei der Entwicklung neuer Wirkstoffe eingesetzt. Kann man alles schnell finden, wenn man will.

Edit: vielleicht hilft Dir das Video hier:


Was aktuelle als KI bezeichnet wird, ist Wahrscheinlichkeitsrechnung, extrem komplex, aber eben limitiert auf das worauf es trainiert wurde. Alles was wie als Menschheit heute nicht wissen, kann die KI also auch nicht wissen, da sie ja logischerweise damit nicht trainiert sein kann und wenn die KI etwas nicht weiß, halluziniert sie eben.

Ja, und Du wiederholst dich ja auch ständig, und drehst Dich munter im Kreis, statt mal die Realität anzusehen. Das Ding ist: selbst mit den Limitierungen, die Du beschreibst, kann man damit Vorgänge enorm beschleunigen, und damit Dinge möglich machen, die es vorher nicht waren, wie z. B. in der Arzneimittelforschung die Suche nach geeigneten Molekülstrukturen. Ich kann nichts dafür, dass das manchen nicht passt, weil sie AI-Slop in sozialen Netzwerken hassen, es ist aber so.

Die Nobel Preise werden auch nur von Menschen vergeben, meist älteren Menschen die die Technik nicht verstehen. Dies bedeutet nur, dass diese Leute einfach nur inkompetent sind, was nichts Neues ist

Mach Dir nichts draus. Ich tummele mich in Internetforen. Da wird man oft vom Mount Stupid aus gegrüßt. Ist auch nicht viel besser!
 
Zuletzt bearbeitet:
Denke das sieht die Mehrheit genauso und setzt dann lieber auf eine 1-2 TB m.2 SSD und eine SATA HDD.

Du meinst wirklich HDD, also eine mechanische Festplatte mit sich drehenden Magnetscheiben???

Ich persönlich betreibe ja ein NAS als Speicher für alles mögliche, als Streamingserver für Musik und für Datensicherung. Darin sind klassische HDDs verbaut (die ich langsam mal austauschen müsste...). In einen PC würde aber ich niemals mehr so eine Festplatte einbauen. Zu langsam, zu groß, zu laut.


Der Unterschied ist einfach absurd groß.

Das ist so, als hättest Du mir in den 80ern gesagt: die Disketten werden teurer, nutze also wieder die Datasette.
Hätte ich niemals gemacht. Stattdessen hätte ich einfach ein paar vorhandene Disketten mit ungenutzten Spielen gelöscht. Und so würde ich es heute auch tun: einfach nur die Sachen auf der Platte lassen, die ich wirklich benutze. Das ist - ehrlich gesagt - meist gar nicht so viel.


Als Anbieter für Netzwerkinfrastruktur spricht Nokia diese Warnung ganz ganz vielleicht nicht ganz uneigennützig aus...

Die Nobel Preise werden auch nur von Menschen vergeben, meist älteren Menschen die die Technik nicht verstehen. Dies bedeutet nur, dass diese Leute einfach nur inkompetent sind, was nichts Neues ist

Hier der Vollständigkeit halber der übersetzte Teil aus dem Veritasium-Video zu AlphaFold, in dem auf die Trottel von AlphaFold und die nicht vorhandenen Ergebnisse eingegangen wird, und wie die senilen Idioten des Nobelkomitees darauf reingefallen sind:

Über sechs Jahrzehnte hinweg haben Wissenschaftler auf der ganzen Welt mühsam etwa 150.000 Proteinstrukturen entdeckt. Dann kam AlphaFold und enthüllte auf einen Schlag über 200 Millionen davon, fast alle Proteine, die in der Natur bekannt sind. In nur wenigen Monaten hat AlphaFold die Arbeit von Forschungslabors weltweit um mehrere Jahrzehnte vorangebracht. Es hat uns direkt dabei geholfen, einen Impfstoff gegen Malaria zu entwickeln. Es hat die Zersetzung von Antibiotikaresistenz-Enzymen ermöglicht, wodurch viele lebensrettende Medikamente wieder wirksam werden. Es hat uns sogar dabei geholfen zu verstehen, wie Proteinmutationen zu verschiedenen Krankheiten von Schizophrenie bis Krebs führen, und Biologen, die wenig bekannte und vom Aussterben bedrohte Arten untersuchen, hatten plötzlich Zugang zu Proteinen und deren Lebensmechanismen. Die AlphaFold-2-Studie wurde über 30.000 Mal zitiert. Sie hat unser Verständnis des Lebens wirklich sprunghaft vorangebracht. John Jumper und Demis Hassabis wurden für diesen Durchbruch mit der Hälfte des Nobelpreises für Chemie 2024 ausgezeichnet.
 
Zuletzt bearbeitet:
Du meinst wirklich HDD, also eine mechanische Festplatte mit sich drehenden Magnetscheiben???

Ich persönlich betreibe ja ein NAS als Speicher für alles mögliche, als Streamingserver für Musik und für Datensicherung. Darin sind klassische HDDs verbaut (die ich langsam mal austauschen müsste...). In einen PC würde aber ich niemals mehr so eine Festplatte einbauen. Zu langsam, zu groß, zu laut.

Bei den HDDs bekommt man eben z.B. eine Seagate SkyHawk AI 10 TB für 307,90€ https://www.guenstiger.de/Produkt/Seagate/SkyHawk_AI_10TB_ST10000VE001.html zusammen mit einer Kingston KC3000 2TB (eine der wenigen TLC Modelle mit DRAM Cache) für 224,99€ ( https://www.guenstiger.de/Produkt/Kingston/KC3000_PCIe_4_0_NVMe_M_2_SSD_2TB_SKC3000D_2048G.html ) zahlt man dann 532,89€ für insgesamt 12 TB Speicherkapazität.

Aber 12 TB nur mit SSD wäre quasi unbezahlbar.

Wenn man in grösserem Umfang Bild- und Videobearbeitung machen und die Rohdaten im System behalten will, braucht man aber die Speicherkapazität.

Aber man kann das Betriebsystem ja heute die HDDs bei Nichtnutzung abschalten lassen. Das Betriebssystem, Games und was man für Multimedia und Office braucht passt dann schon auf die 2 TB SSD.
 
Du meinst wirklich HDD, also eine mechanische Festplatte mit sich drehenden Magnetscheiben???

Ich persönlich betreibe ja ein NAS als Speicher für alles mögliche, als Streamingserver für Musik und für Datensicherung. Darin sind klassische HDDs verbaut (die ich langsam mal austauschen müsste...). In einen PC würde aber ich niemals mehr so eine Festplatte einbauen. Zu langsam, zu groß, zu laut.
Sorry, da muss ich mal reingrätschen. Das ist einfach unwahr.
Ich habe seit 7 Jahren ein Raid5 intern laufen mit 8x14 TB sata hdds, also 96TB netto. Das liefert im 40gbe netzwerk ohne switch, also direktverbindung fileserver <-> workstation
locker 900mb/sek, Läuft rock solid und alle meine computer stehen eh im Nebenraum, dort können die dröhnen wie sie wollen. hdmi/usb durch die wand verlegt und himmlische Ruhe am Arbeitsplatz.
Da ich aber auch seit 5 Jahren intensiv KI/AI nutze ... naja was man so AI nennt bei Topaz Video AI (sd videos auf 4k upscalen) ist das raid5 nun voll und ich brauche ein neues. Eins mit 8x24tb. Oder 16x20tb ... mal sehen.

Dafür kannste nvmes/ssds eigentlich komplett vergessen. Es würde den Preis x-fach verteuern und irgendwie keinen Mehrwert haben... zumindest nicht für mich.
In den workstations selber arbeiten natürlich pcie5 nvmes... mit bis zu 12700mb/sek.

RealMax123

1992 schon 2 GB HDD und dann auch noch SCSI war aber schon wirklich Deluxx und deutlich seiner Zeit voraus. :unsure:

Standard waren noch im Herbst 1994 bei einem Pentium 60 so 420MB und noch im Herbst 1997 bei einem Pentium MMX 233 so 1.2 GB
Ja, das war sicher seiner Zeit voraus.
Aber das war ein Amiga 4000T mit 68040 und der hatte nunmal scsi.... Die seagate hdd habe ich aus den usa importiert.
Die war in D noch deutlich teurer... Ich habe damals schon mit dem it hobby geld verdient und daher war das zwar grenzwertig aber NOCH bezahlbar.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh