Aktuelles

Core i9-12900K und Core i5-12600K: Hybrid-Desktop-CPUs Alder Lake im Test

Holt

Legende
Mitglied seit
05.07.2010
Beiträge
23.304
Man sollte halt zum vergleichen irgend eine Referenz verwenden und die ist halt die Werkseinstellung
Was für eine Werkseinstellung? Meinst Du die Defaulteinstellung des BIOS? Diese hängt vom jeweiligen Mainboard und dazu noch der BIOS Version ab und ist damit zwischen unterschiedlichen Plattformen auch nicht vergleichbarer, man kann alllenfalls unterschiedliche Boards / BIOS Versionen der Boards vergleichen.
man kann sich nicht immer ein Profil aussuchen das einem passt von den Werten her
Klar und wenn man eine geringe Idle Leistungsaufnahme möchte, dann wird man doch wohl auch die Einstellungen darauf optimieren, ebenso wie man sie z.B. über PL1, PL2 und Tau die Leistungsaufnahme unter Last nach seinen Wünschen einstellen kann und gerade im Fall von PL1 auch gemäß der Leistungsfähigkeit des CPU Kühlers einstellen sollte.
Erst nach einem Mittelwert aus mehreren User Szenarios kannst du von echter Effizienz sprechen, wenn die anderen da mehr brauchen um eine realistische Zielperformance zu erreichen.
Was soll eine realistische Zielperformance sein und wer definiert diese? Am besten kann man die Effizienz noch bei festen Aufgabe wie eben bei Gaming dem Spielen eines bestimmten Spiels ermitteln, auch wenn da dann ggf. die fps unterschiedlich ausfallen oder vielleicht beim Browsen, wenn man sich da bestimmte Seiten mit entsprechend vielen Scripts anzeigt, YT Videos abspielt (wobei da dann schnell die GPU ins Spiel kommt). Aber Benchmarks wie CB sind da problematisch, wenn man 30.000 Punkte MT will, dann wird ein anderes Ergebnis rauskommen als wenn man nur 20.000 vorgibt.
Die Spannung in mehreren Boards manuell nach Intel/AMD vorgaben setzen um nicht die Pfuscherei der unterschiedlichen Board Hersteller drin zu haben oder man testet einfach mehrere Hersteller mit Boards unterschiedlicher Klassen um dort einen fairen Median zu erhalten (in Werkseinstellungen)
Per Default sind gerade die Boards mit den Z Chipsätzen mit hohen Spannungen unterwegs, da sie die CPUs eben per Defaulteinstellung schon übertakten und dies oft nicht gerade knapp, sondern massiv. Damit dies möglichst alle CPUs mitmachen, also auch die weniger optimalen CPUs die gerade noch so durchgegangen sind und weit von den Perlen entfernt sind, wird halt kräftig Saft drauf gegeben. Dies sollte eigentlich bekannt sein und daher ist in den Defaulteinstellungen auch noch jede Menge Optimierungspotential drin, was jeder der ein wenig Ahnung hat und wert auf die Leistungsaufnahme und Temperatur seiner CPU legt, auch ausschöpft. Dies musste früher jeder der Übertakten wollte, ja sowieso machen und daher ist das eigentliche Problem, dass die Mainboardhersteller angefangen haben das Übertakten direkt in ihre Boards einzubauen und obendrein meist auch noch per Defaulteinstellung zu aktivieren.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

n3cron

Experte
Mitglied seit
13.05.2020
Beiträge
2.003
Ort
Großhabersdorf
Na das bezweifle ich ja nicht alles, aber deshalb ist so schwer neutral zu vergleichen. Natürlich hat ein Standard User andere Anforderungen als Enthusiast.
Und erst wenn halt eben viele unterschiedliche Konfigurationen und Test durchgeführt wurden, kannst du einen echten Verbrauch raus lesen, eben weil so viele Faktoren eine Rolle spielen.

Fakt ist: Die neue Intel CPU ist wieder King of the Hill, ob das auch bei der absoluten Effizienz ist scheint zumindest unter "Default" nicht so zu sein.
Was soll eine realistische Zielperformance sein und wer definiert diese? Am besten kann man die Effizienz noch bei festen Aufgabe wie eben bei Gaming dem Spielen eines bestimmten Spiels ermitteln, auch wenn da dann ggf. die fps unterschiedlich ausfallen oder vielleicht beim Browsen, wenn man sich da bestimmte Seiten mit entsprechend vielen Scripts anzeigt, YT Videos abspielt (wobei da dann schnell die GPU ins Spiel kommt). Aber Benchmarks wie CB sind da problematisch, wenn man 30.000 Punkte MT will, dann wird ein anderes Ergebnis rauskommen als wenn man nur 20.000 vorgibt.
Ja du schaust dir die durchschnittlichen Scores der letzten Generation an und versuchst die selbe Leistung zu erreichen mit der neue CPU und schon hast du genau 1:1 den Vergleich, A Brauch für 15000 Punkte 250W und B brauch für 15000 Punkte nur 200W.

Das lässt sich besser vergleichen.
 

Holt

Legende
Mitglied seit
05.07.2010
Beiträge
23.304
Ja du schaust dir die durchschnittlichen Scores der letzten Generation an und versuchst die selbe Leistung zu erreichen mit der neue CPU und schon hast du genau 1:1 den Vergleich, A Brauch für 15000 Punkte 250W und B brauch für 15000 Punkte nur 200W.
Eine neue Generation ist ja immer schneller als ihre Vorgänger und damit wäre die alte Generation A dann bei 15000 Punkten automatisch näher bis an die Kotzgrenze übertaktet als die Nachfolgegeneration B. Genau so einen Vergleich hat ja Intel gemacht und ich meine in irgendeinem Review wurde der auch bestätigt, wo der 12900K bei nur 65W gleichauf mit Blender MT den 11900k @250W war. Damit sieht der 12900K also extrem viel effizienter als sein Vorgänger aus, nur werden die wenigsten ihren 12900K mit einer PL1 von nur 65W betreiben um dann diese gewaltige Effizienzsteigerung mitzunehmen, sondern auch mehr Leistung haben wollen, erst recht jemand der seinen 11900K auf @250W betrieben hat und die Mainboards stellen ja per Default auch jetzt solche Werte ein, genau wie sie es bei den Vorgängergenerationen gemacht haben. Der einzige Unterschied scheint zu sein, dass sie nun nur noch bis PL2 gehen, wie man anhand des 12600K sehen kann, früher haben sie auch einen 11600K mal eben im Default bis 250W oder noch mehr gegönnt.

Wahrscheinlich ist daher diese ganze PL1=PL2 bzw. PBP und MTP Geschichte der Versuch von Intel dem Übertakten in der Defaulteinstellung einen Riegel vorzuschieben, bei dem sie entweder selbst oder auf Druck der Mainboardhersteller nicht runter auf PL1, immerhin hat Intel die PL2 ja reduziert. Weniger beim 12900K, wo es nur ein paar W sind, aber besonders bei den kleineren Modellen, wie dem 12700K der nun nur noch 190W PL2 aka MTP hat:

Noch deutlicher ist es beim 12600K, wo es nur noch 150W sind und damit weit weniger als bei seinen Vorgängern:
Deshalb denke ich, dass Intel auf diesem Wege das Wettrennen der Mainboardhersteller um die längsten Balken bei der CPU Performance in den Mainboardreviews durch immer härteres Übertakten in der Defaulteinstellung einzubremsen, eben weil es wegen der damit verbundenen Leistungsaufnahme auch dem Image der CPUs schadet. Mal schauen wie es dann bei den CPUs ohne K aussehen wird, aber ich würde mal vermuten, dass da PL2 nochmal geringer ausfallen wird.
 

L0rd_Helmchen

Der Saft ist mit euch!
Mitglied seit
01.01.2007
Beiträge
9.968
Ort
Exil
Zum Thema Effizienz...

Unbenannt.png


Far Cry 5 ohne FPS Limiter :lol::fresse2:

Ist aber natürlich die Brechstange, meist bekomme ich ihn nicht über 100W.
 

Schrotti

Enthusiast
Mitglied seit
15.10.2004
Beiträge
4.460
Ort
Berlin
Sorry, aber was soll das bringen?

Ich zocke in 4K und da ist immer die GPU im Limit. Es bringt doch nichts, die CPU zu übertakten, wenn die GPU im Limit ist.
 

Nozomu

Legende
Mitglied seit
11.03.2011
Beiträge
10.609
Dann bist du schlicht und ergreifend nicht die Zielgruppe.
 

Axident

Experte
Mitglied seit
29.06.2015
Beiträge
694
Die Ideen hier sind super, wie man bis ins letzte Detail versuchen möchte, die Effizienz zu vergleichen, aber eine saubere statistische Analyse eines A/B-Vergleichs für die Ergebnisaussage A oder B ist signifikant besser (und in was überhaupt), der muss schon recht weit ausholen (T-Tests, Analyse konfundierender Variablen, Gauss-Verteilung, kritische Effektgröße, usw...), und selbst bei den Impfstoffen des uns alle abnervenden Themas habe ich noch keine Studie gesehen, die auf dem Niveau der Verleihung eines Doktorgrades Dr. rer. Nat. durchgezogen wurde.

Zurück zum Thema Intel und Effizienz:
Es steht denke ich außer Frage, dass es eine große Menge von Anwendungsfällen gibt, bei dem der neue Intel all seinen Vorgängerversionen und auch ganz sicher den ZEN3 überlegen ist. Zusammenfassende Ergebnisse sind dabei leider auch irreführend, weil die Gewichtung der Einzeltest nicht unbedingt das jeweilige Anwendungsszenario des einzelnen Users ist. Dennoch: es weht wieder Wind durch den Markt, denn das belebt die Konkurrenz zwischen den Herstellern. Was aber absoluter Murx ist: Benchergebnisse, die teilweise (nicht alle) überzogen Intel selbst in der Paradedisziplin von AMDs 5950x "Multithread-rendering" auf Augenhöhe sahen und dabei weltfremde niedrige Benchergebnisse für den AMD in den Vergleich einbinden und als schönes Beispiel; bei einem blender Test von Linus Tech Tips wurde tatsächlich auch die anliegende Leistung am 12900K über den Zeitraum gezeigt. Und wenn man genau dieses Szenario auf einen 5950x losläßt, aufgrund des Chiplottos und eventuell besseren Boards am AMD sogar "nur" ~200W anlegt und gegen den (in diesem speziellen Test) dauerhaft bratenden ~240W von Intel vergleicht, der endet damit, dass der 5950X (in dieser Disziplin) ~40%schneller ist. Da ist nunmal die noch immer nicht zu AMD auf Augenhöhe liegende Fertigungsproblematik in 10 vs 7nm Strukturgröße. Und genau das macht dann viele andere Testergebnisse fraglich, wie vergleichbar das Ergebnis nun war. Und da bleibt es dann nicht nur bei blender, es sind praktisch alle Multicore-Benchmarks, die länger als ein paar Sekunden gehen.

Letzten Endes haben aber diese Reviews, die teils den faden Beigeschmack von bezahlten Influenzern tragen, immerhin gezeigt, worauf man achten muss und wie komplex inzwischen das Thema "welchen neuen Rechner kaufe ich denn nun" geworden ist, wenn man es als Endanwender genau wissen will. Für eine oberflächliche Betrachtung reicht es aber: Will ich mit dem PC zocken, dann nehme ich aktuell den neuen Intel und: es muss definitiv nicht das dickste Ding mit Brechstange sein.
 

Holt

Legende
Mitglied seit
05.07.2010
Beiträge
23.304
Zusammenfassende Ergebnisse sind dabei leider auch irreführend, weil die Gewichtung der Einzeltest nicht unbedingt das jeweilige Anwendungsszenario des einzelnen Users ist.
Deswegen sollte man auch nie (nur) die Zusammenfassungen lesen, sondern immer die Einzeltests und da vor allem diejenigen, die dem eigenen Anwendungsszenario am Besten entsprechen!

Da ist nunmal die noch immer nicht zu AMD auf Augenhöhe liegende Fertigungsproblematik in 10 vs 7nm Strukturgröße
Vergiss die nm Angaben, die sind Schall und Rauch und mehr Marketing als Realität! Deshalb hat Intel ja auch die Namen der Fertigungsverfahren geändert, denn von der Transistordichte, was bei CPUs auch ein schlechter Vergleich ist, da nicht alle Transistoren gleich groß sind, die des SRAM Caches können viel kleiner gemacht werden als z.B. solche in den Rechenwerken selbst und das ein 12900K bei MT Last auf allen Kernen wie bei Rendering für die gleiche Leistung mehr als ein 5950X verbraucht, liegt daran das es eben nur ein 8+8 Kerner und kein 16 Kerner ist und daher gewaltig übertaktet werden muss um mithalten zu können. Aber drossle mal beide auf 65W Package Power und vergleiche dann! Außerdem rendern die meisten die sowas ständig machen und nur bei denen kommt es wirklich auf die Performance an, sowieso entweder auf GPUs oder Threadrippern! Wer dem 12900K ankreidet er wäre beim Rendern langsamer/ineffizienter, gehört also sowieso nicht zu dessen Zielgruppe.
 

Scrush

Legende
Mitglied seit
31.12.2008
Beiträge
43.109
Ort
FFM
Sorry, aber was soll das bringen?

Ich zocke in 4K und da ist immer die GPU im Limit. Es bringt doch nichts, die CPU zu übertakten, wenn die GPU im Limit ist.
wer ist im gpu limit? richtig du, mit deinen games und deinen settings und deinen wunsch fps ;)

ich habe andere spiele, andere settings und andere wunsch fps und stelle mir es so ein dass ich möglichst viel fps bei eträglicher optik bekomme.

4k bedeutet NICHT gpu limit bzw was eigentlich richtiger wäre > mit der stärksten gpu immer weniger fps als jede erhältliche cpu.

wann geht das mal in die Hirne rein.

Zusätzlich kommt es vor dass man ältere games, dann auch mal mit deutlich mehr fps zocken kann und diese sind dann deutlich einfach in 4k auf der gpu zu handeln.
 
Zuletzt bearbeitet:

pillenkoenig

Experte
Mitglied seit
11.12.2018
Beiträge
1.302
Deswegen sollte man auch nie (nur) die Zusammenfassungen lesen, sondern immer die Einzeltests und da vor allem diejenigen, die dem eigenen Anwendungsszenario am Besten entsprechen!
was passiert stattdessen?
leute, welche die CPU noch nie hatten und vorraussichtlich auch nie haben werden, konstruieren ein szenario in welchem die cpu der wahl ganz bestimmt ganz toll abschneidet. theoretisch natuerlich, praktisch duempeln sie immer noch mit einem hasswell rum.

aufgrund dieses szenarios und ihrer extrapolation wird die entsprechende CPU dann zum sieger (der herzen) gekuert.
nach ausrufung des eigenen sieges in den grabenkriegen unter dem CPU test wird daraufhin ohne umwege in die kaufberatungen marschiert. um anderen leuten diese CPU aufzuschwatzen.
 

L0rd_Helmchen

Der Saft ist mit euch!
Mitglied seit
01.01.2007
Beiträge
9.968
Ort
Exil
Sorry, aber was soll das bringen?

Ich zocke in 4K und da ist immer die GPU im Limit. Es bringt doch nichts, die CPU zu übertakten, wenn die GPU im Limit ist.
„Spiele sind immer GPU limitiert“ ist ein Märchen, gerade im Multiplayerbereich sind viele Spiele weit davon entfernt. GPU Limit gibt es regelmäßig dann, wenn man die Settings so weit hochdreht, dass man kaum FPS hat.

Wenn das für dich in Ordnung ist, in aktuellen Spielen mit unter 100 FPS zu zocken, dann mag es so sein, dass du mit deinem Setup ein GPU Limit hast. Das ist aber nicht allgemeingültig. Ich persönlich fahre lieber eine niedrigere Auflösung und übertakte meine CPU ;)

Aber so am Rande: Wenn es irgendwann mal GPUs gibt, die prinzipiell stark genug sind für UHD mit hohen FPS, dann brauchen diese plötzlich auch wieder eine starke CPU um dorthin zu kommen.
 

Paddy92

Enthusiast
Mitglied seit
23.08.2010
Beiträge
1.998
Auch im mobilen Bereich scheint ADL ein voller Erfolg zu sein. RIP AMD and Apple.

 

bc

Enthusiast
Mitglied seit
22.12.2004
Beiträge
1.283
Jo ich glaub aufm Lappi kann der so richtig seine Stärken ausspielen. Hoffe mal da kommen bald paar Modelle und Reviews, die U28 Klasse würde mich am meisten reizen, fürn Büro bzw Homeoffice-Lappi ist wahrscheinlich die H45 Klasse der beste Mittelweg - mal schaun :)
 

Medi Terraner

Experte
Mitglied seit
26.09.2014
Beiträge
1.501
Auch im mobilen Bereich scheint ADL ein voller Erfolg zu sein. RIP AMD and Apple.

Wow, RIP. Wie erwachsen. Wenn jemand so etwas über Intel schreibt, ist der Aufschrei bei dir groß.
 

Kullberg

Computer Schach Freak
Mitglied seit
18.02.2005
Beiträge
4.875
Ich hab nen Laptop mit i7 11800H (10nm), der wird je nach Energieschema mit 70 oder 100W befeuert :oops:
Es ist unklar, mit wieviel W der i7-12700H da betrieben wurde. Aber 70 / 100W ist schon ziemlich üppig für nen Lappi.
 
Zuletzt bearbeitet:

pillenkoenig

Experte
Mitglied seit
11.12.2018
Beiträge
1.302
Auch im mobilen Bereich scheint ADL ein voller Erfolg zu sein. RIP AMD and Apple.

Vor dem Desktop Release hab ich ganz ähnliche Aussagen zu Cinebench MC Scores gehört...
 

Holt

Legende
Mitglied seit
05.07.2010
Beiträge
23.304
der wird je nach Energieschema mit 70 oder 100W befeuert
Kurzfristig oder dauerhaft? Kurzfristig ist normal, sonst könnte man sich die Boosttechnologien ja sparen, denn die basieren ja gerade darauf den Takt anzuheben, was dann auch mehr Leistungsaufnahme bedeutet, solange die CPU nicht zu heiß ist um Lastspitzen schneller abarbeiten zu können. Dauerhaft ist bei DTR (und Gaming-) Notebooks üblich, da spielen Akkulaufzeit, Bauhöhe und Gewicht (also die Mobilität) nicht so eine große Rolle, entsprechend kann auch ein größere CPU Kühler verbaut werden um die Dauerleistung zu steigern. Aber selbst bei sehr mobilen CPUs der U Reihen kommt es immer wieder vor, dass die Hersteller es erlauben, selbst wenn der Lärm des Lüfters der CPU Kühlers die Sache dann teils unangenehm macht, wie z.B. hier zu sehen:
Dabei gibt AMD für den 4800U an:
Wie man sieht sehen selbst die Hersteller von Notebooks die sehr auf Mobilität ausgelegt sind, die Herstellerangaben des CPU Hersteller bzgl. der TDP allenfalls als grobe Empfehlungen an, wenn sie auch mehr rausquetschen können und wollen.

Man sollte also neben der Leistung immer auch die Leistungsaufnahme und die Positionierung der Notebooks vergleichen, um nicht Äpfel mit Birnen zu vergleichen, aber ich denke das Intel bei Big-Little eben vor allem auch an die mobilen CPUs gedacht hat (Sapphire Rapids kommt ja auch nicht zufällig ohne) und da dürfte der Vorteil noch deutlich größer als bei den bisher erschienen Desktop K Modellen sein. Nicht zufällig ist das Verhältnis zwischen den e- und P-Kernen da ja auch anderes mit mehr e-Kernen im Verhältnis zu den P-Kernen.
 

Kullberg

Computer Schach Freak
Mitglied seit
18.02.2005
Beiträge
4.875
Die 70 / 100W sind je nach Power Schema dauerhaft, allerdings nur bei Netzbetrieb. Es ist ein Gigabyte 17" Laptop. Im high power Modus ist er allerdings höllisch laut, bei 70W aber sehr erträglich. Er erreicht bei CB20 knapp 5000 Punkte.
 

n3cron

Experte
Mitglied seit
13.05.2020
Beiträge
2.003
Ort
Großhabersdorf
Wie man sieht sehen selbst die Hersteller von Notebooks die sehr auf Mobilität ausgelegt sind, die Herstellerangaben des CPU Hersteller bzgl. der TDP allenfalls als grobe Empfehlungen an, wenn sie auch mehr rausquetschen können und wollen.
Es ist nicht klar geregelt ob es es "Netto" oder "Brutto" ist.
Bei vielen CPU ist die TDP an die standard Angabe gebunden. z.b 3,6 Ghz bei 65W bei konstanten 3,6 Ghz und da wird kein Boost berücksichtigt oder nur geringfügig anteilig.

Wenn ich jetzt vom https://www.amd.com/de/products/cpu/amd-ryzen-9-3900x den ich auch habe ausgehe, geht auch die technische Beschreibung von Standardaufnahme, 3,8 Ghz Allcore wären 105W TDP.
Wenn du jetzt ne Kühlung hast die genau 105W TDP abführen würde, würde die CPU zwar auch boosten... aber so bald das Temperaturlimit erreicht wird würde die CPU wieder sinken und sich im Bereich des Standardtakts bewegen.
Aber das wurde schon in der Vergangenheit schon öfter Diskutiert, man weiß ja das TDP keine Präzise Wissenschaft ist sondern eine "Faustformel" ist um sich bei der Kühlung und den Verbrauch orientieren zu können.
Man sollte also neben der Leistung immer auch die Leistungsaufnahme und die Positionierung der Notebooks vergleichen, um nicht Äpfel mit Birnen zu vergleichen, aber ich denke das Intel bei Big-Little eben vor allem auch an die mobilen CPUs gedacht hat (Sapphire Rapids kommt ja auch nicht zufällig ohne) und da dürfte der Vorteil noch deutlich größer als bei den bisher erschienen Desktop K Modellen sein. Nicht zufällig ist das Verhältnis zwischen den e- und P-Kernen da ja auch anderes mit mehr e-Kernen im Verhältnis zu den P-Kernen.
Denk ich auch, das BIG-Little mit E-Cores und IGPU wird definitiv Akkulaufzeiten von auch aktuellen Ultranoteooks ermöglichen bei gleichzeitigem Performance Modus (Pcores+dedizierte GPU) für halt Gaming, Workstation/Content creation.
 

Medi Terraner

Experte
Mitglied seit
26.09.2014
Beiträge
1.501
Letzten Endes können wir froh sein, dass durch AMD Intel zur Entwicklung "gezwungen wurde". Sonst würden wir hier wohl den x-ten Refresh diskutieren. Genauso ist es auch anders herum. Jetzt muss/sollte AMD liefern. Deswegen finde ich auch gewisse Kommentare diverser Personen einfach fehl am Platz, da diese dem Forum in meinen Augen schaden. Aber dies ist leider in vielen Foren mittlerweile so.
 

thom_cat

Super Moderator
Hardwareluxx Team
Mitglied seit
01.02.2006
Beiträge
46.109
Ort
Hessen\LDK
so ist es ja leider schon seit vielen jahren, anstelle froh zu sein, dass sich beide hersteller wieder ordentlich herausfordern und pushen und es somit wieder merkliche leistungssteigerungen im vergleich zum vorgänger gibt, hauen sich die unterschiedlichen farben lieber die köpfe ein.

keine ahnung was das bringen soll, dem hersteller ist es jedenfalls völlig egal.
 

Paddy92

Enthusiast
Mitglied seit
23.08.2010
Beiträge
1.998
Vor dem Desktop Release hab ich ganz ähnliche Aussagen zu Cinebench MC Scores gehört...
Es hat sich auch alles aus den ganzen Leaks bewahrheitet. AMD kann nur noch bei Volllast-MT-Szenarien dank dem Mehr an Leistungskernen auftrumpfen, ansonsten ist man in sämtlichen Bereichen unterlegen. Aber wie der Vergleich 12600k vs 5800x ganz gut aufzeigt, können die E-Cores die fehlenden Leistungskerne in eben solchen Szenarien ausgleichen, wenn diese zahlenmäßig überlegen sind. Wie man dem Leak entnehmen kann, scheint dies voll aufzugehen.

Letzten Endes können wir froh sein, dass durch AMD Intel zur Entwicklung "gezwungen wurde". Sonst würden wir hier wohl den x-ten Refresh diskutieren. Genauso ist es auch anders herum. Jetzt muss/sollte AMD liefern.
Nur weil man den selben Bullshit immer wiederholt, wird dieser nicht irgendwann einmal war. Diese ganzen Refreshes haben sich aus den Problemen mit 10nm ergeben. Intel hatte neue Architekturen ziemlich stark an die neue Fertigung gekoppelt. Anstatt der zahlreichen Skylake Refreshes war es geplant, dass Cannon Lake bereits 2015/2016 mit einer neuen Architektur - genannt Palm Cove - erscheint.

Deswegen finde ich auch gewisse Kommentare diverser Personen einfach fehl am Platz, da diese dem Forum in meinen Augen schaden. Aber dies ist leider in vielen Foren mittlerweile so.
Ist schon witzig, wie sehr du dich von einem kleinen Joke triggern lässt.
 

n3cron

Experte
Mitglied seit
13.05.2020
Beiträge
2.003
Ort
Großhabersdorf
Naja ohne aktuell AMD im Nacken, wäre die Intel Innovation sehr verzögert.

Man merkt das bei den Autobauern, wie seit 30-40 Jahren Technik und Leistung der Verbrennern grundsätzlich gefühlt gar nichts verbessert hat, nur die Technik drum herum hatte sich etwas verändert.

Komisch, kaum Dieselgate/Tesla/Umwelt im Nacken - können plötzlich alle "Marktführer" spontan technisch fliegen. Das ist in so kurzer Zeit nicht möglich, sondern da gab es immer wieder schon Konzepte und Pläne das zu realisieren nur die wurden auf Eis gelegt um vorhandenes noch so lange wie geht zu melken.

Das machen alle Industriefirmen so und das würde AMD Mittelfristig auch so machen, wenn sie eine deutliche Markt-Monopol/Macht Stellung erreichen würden.
Wie macht es Nvidia mit dem 2060 Refresh? :banana: :fresse2: :ROFLMAO:
 

n3cron

Experte
Mitglied seit
13.05.2020
Beiträge
2.003
Ort
Großhabersdorf
Was genau ist denn das Problem mit dem 2060 Refresh?
Damit verarscht man einfach die Leute.
Die Leute wollen nicht 600€ für ne ältere technische Generation bezahlen, wenn es die neue schon für den Preis gibt, vor allem nicht für ne 2060 xD
Da hilft es auch nicht wie laut Gerücht den Speicher auf 12GB GDDR6 zu erhöhen das ist wie bei der 3060 12GB, das ist einfach lächerlich, die GPU schafft es nicht mal den Speicher effektiv auszunutzen.
Geschenkt ist das ja auch nicht der Kunde bezahlt ja dafür, auch wenn er nichts davon hat...

Ich hoffe das Intel endlich seine Karten auf den Markt wirft damit sich alles ein wenig beruhigen kann.
 

Kullberg

Computer Schach Freak
Mitglied seit
18.02.2005
Beiträge
4.875
Hab mich schon gewundert, dass im Mindstar 2060er für "nur" 629€ angeboten werden :oops:
 

pillenkoenig

Experte
Mitglied seit
11.12.2018
Beiträge
1.302
Es hat sich auch alles aus den ganzen Leaks bewahrheitet.
Ich meine mich an fanatische "RIP AMD" Parolen erinnern zu können als Gerüchte von >30k MC score bei 125W umgingen. Also bei weniger Leistungsaufnahme AMD in ihrer Paradedisziplin schlagen.

In Tests sah die Realität dann doch ein bisschen anders aus.
 

sayer

 Super Moderator   Random cool Title
Hardwareluxx Team
Mitglied seit
26.09.2008
Beiträge
6.420
Ort
Köln
Ich meine mich an fanatische "RIP AMD" Parolen erinnern zu können als Gerüchte von >30k MC score bei 125W umgingen. Also bei weniger Leistungsaufnahme AMD in ihrer Paradedisziplin schlagen.

In Tests sah die Realität dann doch ein bisschen anders aus.
Wie immer findet sich die Wahrheit in der Mitte zwischen Marketing- bzw. Hypefantasien und pessimistischen Fanboys des anderen Lagers ;)
 

Paddy92

Enthusiast
Mitglied seit
23.08.2010
Beiträge
1.998
Damit verarscht man einfach die Leute.
Die Leute wollen nicht 600€ für ne ältere technische Generation bezahlen, wenn es die neue schon für den Preis gibt, vor allem nicht für ne 2060
Was genau ist daran seitens Nvidia jetzt so verwerflich, wenn man bei einem Mangel an GPUs, auf ungenutzte Ressourcen zugreift, um den Output an Grafikkarten irgendwie zu erhöhen?

Außerdem sind diese angeblichen 600€, woher auch immer du angeblich schon die Preise des Refreshes kennst, die UVP der Karte oder sind das einfach nur Straßenpreise, die sich aus der aktuellen Situation ergeben? Landet der Aufpreis wirklich bei Nvidia oder doch eher bei irgendwelchen Zwischenstationen?

Da hilft es auch nicht wie laut Gerücht den Speicher auf 12GB GDDR6 zu erhöhen das ist wie bei der 3060 12GB, das ist einfach lächerlich, die GPU schafft es nicht mal den Speicher effektiv auszunutzen.
Geschenkt ist das ja auch nicht der Kunde bezahlt ja dafür, auch wenn er nichts davon hat...
Zum Release der 2060 war der geringe Speicher der größte Kritikpunkt an der Karte. Nun geht Nvidia genau diesen Punkt bei dem Refresh an und dann ist es auch wieder falsch.

Ich erkenne da irgendwie keine wirkliche Logik, außer einfach nur dein typisches, sinnloses Nvidia Bashing..

Ich meine mich an fanatische "RIP AMD" Parolen erinnern zu können als Gerüchte von >30k MC score bei 125W umgingen. Also bei weniger Leistungsaufnahme AMD in ihrer Paradedisziplin schlagen.
Ach, du meinst den Thread, wo die AMD Fanatiker uns ganz verzweifelt irgendwelche OC Ergebnisse von einem 5950x als Stockwerte verkaufen wollten. Daran erinnere ich mich noch. Ich kann nicht aber nicht an diese angeblichen Parolen erinnern.
 

SickPuppet

Profi
Mitglied seit
08.11.2019
Beiträge
182
das die leute keine 2060er karten wollen sondern 30xx karten zu vernünftigen preisen in ausreichenden mengen schreibt er

ob nvidia das aus gier macht oder um tatsächlich irgendwie die nachfrage nach halbwegs aktuellen karten zu befriedigen sei mal dahingestellt
 
Oben Unten