Ampere Smalltalk-Thread (Startpost lesen, Handel nur im Marktplatz!, keine Botanfragen!)

mein problem ist ja auch nicht mit nvidia, sondern dass es leuten egal ist ist wenn in 4 jahren die high-end karten dann mit klimaanlage kommen.
Dein Problem ist, dass du technische Zusammenhänge nicht verstehst (oder vieleicht verstehst, aber nicht wahrhaben willst) und statt eine ausgereizte Technologie die nicht mehr hergibt hinzunehmen einfach ne Weltverschwörung herbeischwurbelst.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dein Problem ist, dass du technische Zusammenhänge nicht verstehst und statt einer ausgereizten Technologie die nicht mehr hergibt einfach ne Weltverschwörung herbeischwurbelst.
welche Weltverschwörung ? dass unternehmen Profit maximieren und nicht Technologie ? sehr verschwörerisch....
 
du glaubst doch nicht wirklich, das wird am ende von Chipdesigner und Prozessingenieure und Treibergurus entschieden ? nvidia produziert nicht die bestmögliche karte sondern, die die am meisten profit macht.

Es ist sowohl als auch. Aber wer Letzteres verleugnet sollte sich mal mit NVIDIA‘s Geschäftsberichten auseinandersetzen, oder noch besser einfach die 3080 Ti um 1200 erklären.
 
welche Weltverschwörung ? dass unternehmen Profit maximieren und nicht Technologie ? sehr verschwörerisch....
Ja sowas auch, dass Unternehmen Dinge auf den Markt bringen die sie zuverlässig in großer Stückzahl produzieren (lassen) können und nicht das, was sie in Handarbeit in ihren Entwicklungsabteilungen als Einzelstücke zusammenklöppeln. Skandal.

Ich will auch nen I.D.R zum Preis vom ID.3. Oder nen 919 Evo zum Preis eines Carrera. 🤷‍♂️
 
Es ist sowohl als auch. Aber wer Letzteres verleugnet sollte sich mal mit NVIDIA‘s Geschäftsberichten auseinandersetzen, oder noch besser einfach die 3080 Ti um 1200 erklären.
Nun ja, von der Leistung ist sie dichter an der 3090 als an der 3080.
 
hätte aber besser sein, können. mir geht es nicht darum, ob die jetzige generation effizient genug, ist sondern, dass wir den weg immer höherer wattzahlen beschreiten. im vergleich dazu, hat sich der verbrauch von cpu nicht im gleichen maße erhöht
Es wird aber auch immer mehr gefordert von den Konsumenten. Die Erwartung geht doch in Richtung 4k@120FPS. Wenn du in 1080p spielst, kriegst du auch ein modernes 100Watt Produkt das dir ausreichend FPS zaubert. Zudem, wir hatten schon immer Generationen wo Architekturverbesserungen sich in Grenzen gehalten haben. Dazu kommt, die Fertigung mit 8nm Samsung hat das ganze dieses mal nicht unbedingt begünstigt.
Auch bei CPUs haben wir ewig lange auf der Stelle getreten. Was dazu überhaupt nicht Vergleichbar ist. Du kannst die Architektur und die Skalierbarkeit einer Grafikkarte nicht ohne weiteres mit der einer CPU vergleichen. Die pro Kern Leistung bei CPUs hat sich nur unwesentlich verbessert die letzten Jahre. Es wurde primär die Anzahl an Kernen erhöht und durch verbesserte Fertigungstechnologien einen höheren Energie Konsum ausgeglichen. Durch die kürzeren Pipelines hast du zudem indirekt IPC gewinne. Das kriegst du bei Grafikkarten in der Form nicht so einfach hin.

Ich selbst habe ein eigenes Unternehmen und forsche für das Fraunhofer Institut an neuromorpher Hardware. Dazu habe ich u.a. eine unzählige Anzahl an Grafikkarten in Betrieb um zukünftige (mögliche) Rechnerarchitekturen (neuronale Netze) zu simulieren. Aus erster Hand kann ich dir sagen, es gibt weniges was komplizierter ist als solche Architekturen Jahr für Jahr weiter zu optimieren. Wir sind auch an einem Punkt angekommen wo es immer schwieriger wird. Nicht ohne Grund geht AMD bei GPUs den gleichen Weg wie bei CPUs, um auf große monolithische GPUs bald verzichten zu können.
 
Könnt ihr das nicht per PN klären?

Wieso müsst ihr jetzt hier den Thread mit euren Streit zumüllen?
Willst du lieber weitere 1357 Seiten über EVGA Step-Up, Bots, Scalper, verrückte Marktpreise, mimimi alles zu teuer und das NBB Bingo schreiben? :p

Aber ich hab verstanden. Bin raus.

"The stage is yours"
 
Selbstverständlich. Sieh die mal den Verbrauch der GTX 900 Serie an und dann kam auf einmal die 1080 mit 180 Watt daher.

Kein S.a.u hat damals nach dem Stromverbrauch gefragt: https://www.hardwareluxx.de/communi...igh-end-dtr-2012.873755/page-51#post-23035592

Nochmal:
Das ist ein Scheinargument. Die Produktpolitik und die Namensgebung ist willkür. Nvidia hat sich entschieden die 3080 als Produkt zu bringen. Sie hätten es nicht machen müssen, dann wäre bei der 3070 Ende gewesen. Und bei 220W.

Und dass ne theoretische Ampere auf TSMC 7nm theoretisch hätte besser sein können... Das ist einfach nur Stammtischpalaver.

ja das hätten sie, dann hätten wir jetzt noch weniger Grafikarten, die GTX980M war damals aber auch schon besser als eine Desktop GTX980 und mit mehr RAM ausgestattet, hier gehen wir jetzt ja auch wieder hin. Trotzdem müssen die Stückzahlen her und wenn jetzt jeder rumjammert, der jetzt der jetzt endlich ne RTX hat hilft es auch nichts, dass die Samsung Qualtität nunmal so ist, wie sie ist, ist halt so :d das war schon immer so...
 
Dazu kommt, die Fertigung mit 8nm Samsung hat das ganze dieses mal nicht unbedingt begünstigt.
that's all i'm saying.
und nächstes mal wenn Nvidia wieder vor der Entscheidung steht Samsung oder TSMC, werden sie wieder den günstigeren nehmen, weil die Leute es ja trotzdem gekauft haben. Es sei denn sie riskieren die Performance Krone zu verlieren. (Man kann ja noch hoffen).

Bei den schäbigen AMD GPU's und CPU's von früher hat es auch keinen gestört, dass sie saufen wie ein Loch, stand ja AMD drauf.
Wer hat denn z.B. bulldozer gekauft, wenn er sich Intel leisten konnte? Nicht nur weil sie schneller waren, auch weil sie kühler und damit leiser waren.

Außerdem macht es einen Unterschied, ob man von 120 W auf 180W geht oder von 215W auf 300W.
 
that's all i'm saying.
und nächstes mal wenn Nvidia wieder vor der Entscheidung steht Samsung oder TSMC, werden sie wieder den günstigeren nehmen, weil die Leute es ja trotzdem gekauft haben. Es sei denn sie riskieren die Performance Krone zu verlieren. (Man kann ja noch hoffen).


Wer hat denn z.B. bulldozer gekauft, wenn er sich Intel leisten konnte? Nicht nur weil sie schneller waren, auch weil sie kühler und damit leiser waren.

Außerdem macht es einen Unterschied, ob man von 120 W auf 180W geht oder von 215W auf 300W.
Wer, den der Strombedarf interessiert, betreibt die Karten denn Stock? Die ganze Diskussion hier ist doch nicht praxisrelevant. NV hat die Leistung der Karten mit dem Knüppel nach oben geprügelt ungeachtet der Effizienz. Das OC Potenzial ist nicht umsonst minimal im Vergleich zu den Vorgängern.
 
Wer sich über den Stromverbrauch bei einer 1000€ GPU beschwert hat meiner Meinung nach die Relation verloren 😅
 
...NV hat die Leistung der Karten mit dem Knüppel nach oben geprügelt ungeachtet der Effizienz.
Oder anders gesagt: Früher musste NV die Leistung der 80er Klasse-Karten mit 215W hinbekommen, jetzt akzeptieren die Kunden scheinbar auch 300W. Ist ja nicht so, als hätte Nvidia eine RTX 2080 nicht auch mit 300W TDP designen können.
Beitrag automatisch zusammengeführt:

Wer sich über den Stromverbrauch bei einer 1000€ GPU beschwert hat meiner Meinung nach die Relation verloren 😅
es geht hier doch nicht um Kosten:rolleyes2:
 
Oder anders gesagt: Früher musste NV die Leistung der 80er Klasse-Karten mit 215W hinbekommen, jetzt akzeptieren die Kunden scheinbar auch 300W. Ist ja nicht so, als hätte Nvidia eine RTX 2080 nicht auch mit 300W TDP designen können.
Genau das ist der Grund. :rofl:

Und Thermi, die 320w gtx480 hat niemals existiert und wurde auch niemals wie geschnitten Brot verkauft.

Meinungen und Positionen von ähnlicher Qualität kenne ich sonst nur im Zusammenhang mit "Erde ist eine Scheibe".

Nochmal:
Was ne 80er Karte ist, ist willkürlich.
Es ist eine frei gewählte Zahl.
320w 80er Karten gab's vor 15 Jahren.
Deine Argumentation ergibt von vorn bis hinten keinen Sinn.
 
Zuletzt bearbeitet:
Und warum ist sie wohl als Thermi bekannt ? damals haben sich die Leute das eben noch nicht bieten lassen.
Es gab ein paar Leute die genauso lamentiert haben wir du, nur nicht auf ganz so Aluhut-Niveau, und nicht ganz so heftig mit beliebigen wechselnden Scheinargumenten sobald eines entkräftet oder als falsch entlarvt wurde.
Die anderen haben die Karten gekauft und sich über die Performance gefreut.
 
Deine Argumentation ergibt von vorn bis hinten keinen Sinn.
wenigstens argumentiere ich und gebe nicht irgendwelche Allgemeinplätze von mir, die eine (nicht vorhandene) intellektuelle Überlegenheit suggerieren sollen.

Es gab ein paar Leute die genauso lamentiert haben wir du, nur nicht auf ganz so Aluhut-Niveau, und nicht ganz so heftigt mit beliebigen wechselnden Scheinargumenten solang eines entkräftet oder als falsch entlarvt wurde.
Die anderen haben die Karten gekauft und sich über die Performance gefreut.
einfach alles akzeptieren und sich darüber freuen macht das Leben natürlich sehr einfach. ..
Beitrag automatisch zusammengeführt:

Ahhhhjaaa Thermi, da kommen wieder direkt die schönen Memes von damals hoch. :fresse2:

btw wem die 350W+ Karten nicht gefallen, einfach UV nutzen und fast die selbe Leistung für deutlich weniger Watt bekommen. Da ich eh unterm Dach wohne muss ich mich immer mit UV auseinander setzen weil ich hier gefühlt jedes Watt merke. :d
super idee, ich bezahl einen 911 und fahre den nur bis 80 und dann verbraucht er auch nur so viel wie ein polo.
Beitrag automatisch zusammengeführt:

sobald eines entkräftet oder als falsch entlarvt wurde.
wo ? ich hab noch keine konstruktive belegbare Kritik von dir gehört ? außer deiner phantom 320W 480
 
Zuletzt bearbeitet:
wenigstens argumentiere ich und gebe nicht irgendwelche Allgemeinplätze von mir, die eine (nicht vorhandene) intellektuelle Überlegenheit suggerieren sollen.
Äh nein. Du wiederholst seit 10 Beiträgen gebetsmühlenartig eine unhaltbare These und wechselnde Scheinargumente und nennst das argumentieren.

"Komm mir nicht mit Fakten, ich habe eine Meinung"

:popcorn:
 
@AzRa-eL

Mimimi die 3080 braucht zu viel Strom und das muss viel sparsamer gehen

vs.

Die 3080 ist was Effizienz angeht der aktuelle Stand des technisch machbaren, in einer möglichst starken Version für 4k/ 1440p 144Hz aufgelegt
 
@AzRa-eL

Die 3080 ist was Effizienz angeht der aktuelle Stand des technisch machbaren, in einer möglichst starken Version für 4k/ 1440p 144Hz aufgelegt

Aktueller Stand technisch machbar ist TSMC 5nm, was sicher effizienter als Samsung 8nm gewesen wäre, aber für NVIDIA keine Option war wegen Apple. 7nm wäre wohl auch effizienter und möglicherweise für NVIDIA erreichbar gewesen, ich lese sirwuffis Argument als eine Kritik dass es aus Kostengründen Samsung 8nm geworden ist. Das ist Spekulation, hat aber mit Aluhut nichts zu tun.

Ihr redet beide mit euren Argumentationen aneinander vorbei.
 
Nabend , durchaus interessant eure Diskussion :)

Mir peröhnlich ist es völlig egal was die Kiste an Strom brauch, hauptsache ich kann eines meiner Lieblingshobbys mit den FPS oder in der Quali erleben wie ich es möchte ;)

Mal schauen was die nächsten Generation da so bringen, denke bei Nvidias 6000er oder 7000er schau ich dann wieder genauer hin ^^

Grüße
 
Zuletzt bearbeitet:
Wenn Nvidia eine 3999FE Edition die 4 x PIN benötigt, an die 500 Watt frisst ,

333 MH/S mined und 165 FPS in Cyberpunk @ 4K@RT zaubert. Bitte anrufen

Bin bei der Diskussion in Lexis Lager.
Glaube nicht an Verschwörung oder sonstiges.
AMD und Nvidia sind derzeit leistungstechnisch identisch. Da wird keiner dem anderen auch nur 5 Prozent Effizienz oder Leistung vorenthalten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh