Seite 1 von 60 1 2 3 4 5 11 51 ... LetzteLetzte
Ergebnis 1 bis 25 von 1494
  1. #1
    Admiral
    HWLUXX Superstar
    Avatar von sTOrM41
    Registriert seit
    13.10.2005
    Ort
    Magdeburg
    Beiträge
    19.015


    • Systeminfo
      • CPU:
      • Xeon W3680 @ 4000 MHz
      • Gehäuse:
      • Dell Precision T3500
      • RAM:
      • 12GB 1333 MHz
      • Grafik:
      • MSI GTX 1080 [email protected]
      • Storage:
      • Transcend 370, Kingston V300
      • Monitor:
      • 27 Zoll 1440p + 27 Zoll 1080p
      • Sound:
      • AKG K530,Edifier S330D, Siberia V2
      • Netzteil:
      • Dell 525W
      • Betriebssystem:
      • Windows 10 x64
      • Sonstiges:
      • Logitech G19 + Sharkoon Drakonia
      • Notebook:
      • Acer 3820TG + Acer 1810T
      • Photoequipment:
      • Canon EOS 450D, Samsung WB2000
      • Handy:
      • LG G4

    Standard AMD und die bescheidene Performance im DX11 CPU Limit

    Nach 8 Jahren Team-Red ist mir die Tage beim Sidegrade von R9 290 auf GTX 970 in einigen Spielen etwas reichlich seltsames aufgefallen.

    Einige Spiele laufen auf einmal bei CPU Limit deutlich besser, obwohl die R9 290 und GTX 970 prinzipiell ähnlich schnell sind.

    GTA V (mit angepassten grafiksettings) mit meinem [email protected],5ghz und der GTX 970 problemlos mit stabilen 60 FPS, mit der R9 290 drops runter auf 45 (ohne das die Graka dabei voll ausgelastet ist! Ergo > CPU Limit)


    http://pclab.pl/art57777-24.html

    Selbes Spiel in Dying Light, 40 statt 30 FPS im CPU Limit, das bedeutet immerhin 33% bessere FPS.

    Enttäuscht wurde ich dann etwas in DayZ, das läuft immer noch genau so schlecht wie vorher. Warum auch immer..

    NFS Rivals hat ja nun standardmäßig nen FPS Limit bei 30, lief mit der 290 95% der Zeit auch mit eben diesen 30 FPS, droppte aber immer wieder an der selben Stelle im Dorf auf 24 FPS.
    Mit der 970 passierte das nun nicht mehr.
    Dann war mir eingefallen das man das FPS Limit in dem Spiel ja auch irgendwie noch deaktivieren konnte ( [Update: 60 Fps möglich] Need for Speed: Rivals im Test mit Benchmarks )
    Also dieses mal probiert, die FPS bis 60 unlocked, und dann bin ich bald vom Stuhl gefallen..
    An der selben Stelle im Dorf lagen nun 60 FPS an,
    das bedeutet 250% bessere FPS im CPU Limit.

    Ich hatte das in meinem GTX 970 Review ( https://www.hardwareluxx.de/community...w-1087784.html) letztens schon mal angesprochen,
    Battlefield 4 läuft mit der 970 in DX11 so gut wie mit der 290 unter Mantle, Hardline läuft gar besser.
    Genaue Zahlen habe ich dafür leider keine.

    Erinnert sich noch jemand an Project Cars?
    Das Spiel lief bei Release kurioserweise bei den grünen mit doppelt so vielen FPS als mit dem entsprechenden roten Gegenstück, völlig absurd eigentlich.
    http://pclab.pl/art63572-7.html
    Schuld ist vermutlich der DX11 CPU Overhead.
    Mittlerweile läuft das Spiel auch auf AMD Karten besser, aber immer noch deutlich schlechter als eigentlich möglich.
    http://www.3dcenter.org/news/die-gra...r-project-cars

    Aufgrund der ganzen Thematik habe ich mal das Internet durchforstet, mit der Hoffnung Quellen zu finden die sich mit dem DX11 CPU Overhead beschäftigen.
    Bei guru3d bin ich fündig geworden (Achtung: Englisch!)
    High DX11 CPU overhead, very low performance. - Guru3D.com Forums


    Rise of the Tomb Raider: PC graphics performance benchmark review - CPU core performance scaling

    Ab und an bieten auch die Jungs bei gamegpu.ru CPU Benchmarks mit Nvidia und AMD Grafikkarten an die eben diesen DX11 CPU Overhead aufzeigen.

    Wie man hier schön sehen kann liefert die GTX980 in Advanced Warfare im CPU Limit etwa 50% bessere FPS als die r9 290X.

    Auch bei eurogamer.net hat man sich dem CPU Limit mal angenommen.
    Eine normal deutlich flinkere R9 270X produziert in Kombination mit einer schwachen CPU im CPU Limit auf einmal weniger FPS als die normal deutlich langsamere 750TI.

    http://www.eurogamer.de/articles/201...igital-foundry

    Auch den Leuten bei AMD ist dieses vor geraumer Zeit wohl schon mal aufgefallen, so das man sich entschied Mantle zu entwickeln.
    Prinzipiell ist dieses ja zu begrüßen, Mantle funktioniert auch tadellos.



    Mantle hat aber den Nachteil das es nur in Spielen funktioniert die eben Mantle unterstützen, reine DX11 Spiele tun dieses nur eben nicht.
    Die Anzahl an Spielen mit Mantle Support kann man auch Heute, über 1 Jahr nach Mantle Release noch an ein-zwei Händen abzählen.

    Nvidia stand dann Anfang 2014 wohl reichlich unter Druck, die Roten hatten auf einmal ein Mittel gegen das CPU Limit, und die Green-IT nicht.
    Was man dann machte war "leider" schlauer als bei AMD. Statt sich wie die Roten eine neue low-Level API auszudenken packte man das Problem bei der Wurzel und versuche den CPU Overhead, den DX11 produziert eben zu reduzieren.
    Geglückt ist das ganze dann scheinbar im April 2014 mit dem Forceware 337.50



    Aktuell schaut es so aus das bei AMD die DX12 Performance besser ausfallen könnte, Ashes of Singularity und der 3DMark API Test prognostizieren dieses jedenfalls.
    Das ist wie ich finde begrüßenswert.
    Man sollte dabei allerdings nicht vergessen das es vermutlich noch eine ganze Weile dauert bis es überhaupt eine breite Masse an Spielen mit DX12 Support gibt.
    Bis dieses so weit ist zählen die meisten aktuellen Grafikkarten vermutlich schon wieder zum alten Eisen.


    Meine Bitte an AMD: versucht das CPU Overhead in DX11 in den Griff zu bekommen.

    Meine Bitte an Hardwareluxx, Computerbase, PCGH und wie ihr euch alle nennt: testet aktuelle Grafikkarten bitte nicht nur auf übertakteten i7, sondern auch mal auf einer CPU die deutlich massentauglicher ist, wie z.B. einem i3, i5, FX6300 oder 8350.
    Wenn ihr CPU Benchmarks in Spielen veröffentlicht bitte auf beiden Plattformen, Rot und Grün.
    Geändert von sTOrM41 (17.06.16 um 00:22 Uhr)
    Arguing on the internet is like running in the Special Olympics. Even if you win, you're still retarded.

  2. Die folgenden 19 User sagten Danke an sTOrM41 für diesen nützlichen Post:

    .schuetze27. (23.04.16), Azad79 (15.03.16), beginner81 (30.05.16), cRaZy-biScuiT (24.04.16), janrrr (09.03.16), Josedan03 (01.03.16), KnSNaru (03.03.17), LDNV (17.03.16), Lurtz (09.03.16), mrcs (02.12.16), panopticum (09.12.16), Phantomias88 (01.10.15), Schrotti (25.04.16), ShiZon (11.03.16), slot108 (24.06.16), Terra123 (08.05.17), toon (20.11.15), Unrockstar (22.10.15), Winchester73 (11.11.15)

  3. Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

  4. #2
    Moderator Avatar von fdsonne
    Registriert seit
    08.08.2006
    Ort
    SN
    Beiträge
    33.007


    Standard

    Also zuersteinmal, das prädige ich schon seit es die ersten Mantle Benches gibt Wollte aber damals Keiner sehen und man geilte sich viel eher am tollen DX11 AMD Umsetzung zu Mantle Umsetzungssprung auf... Zurecht auf der einen Seite. Aber eben nur die halbe Wahrheit.
    Betrachtet man es rückwirkend, ist es auch fast schon nachvollziehbar, warum man bei AMD den DX11 Part nicht dahingehend optimiert -> man will/wollte Mantle durchsetzen. Klappt aber nicht, wenn DX11 genau so schnell agiert hätte. Also wird man da sicher auch keine Ressourcen in eine Optimierung stecken, welche man durch Mantle ja eigentlich gar nicht braucht.

    Ne im Ernst, es hat sich schon damals klar abgezeichnet, dass die Messungen mit NV GPU im CPU Limit oder CPU nahen Limit drastisch anders ausfallen können als bei einer normal (im GPU Limit) gleich schnellen AMD GPU. Das Problem haben leider nur die aller wenigsten Redaktionen überhaupt auf dem Schirm, denn es gibt bei den aller wenigsten Redaktionen in Sachen CPU Spieletests oftmals keinen Vergleich zwischen AMD und NV GPUs... Es gibt vereinzelnt da nämlich ganz paar interessante Tests. Bspw. finden sich im Netz Messungen nur SMT Skalierung von i7 Intel CPUs -> bei NV GPU skaliert das mit ~20% in Watchdogs bspw. ziemlich gut. Bei AMD GPU gar nicht...

    Was ich als viel problematischer an der ganzen Geschichte ansehe, die masse der Community hat bis heute nicht verstanden, dass es kein allumfassendes CPU Limit gibt. Es gibt mehrere Teile, welche limitieren. Das sind idR Softwareparts, die aber völlig unterschiedlichen Ursprungs sind. Im Endeffekt ist meist der Mangel an Multithreadingfähigkeit der Grund für das Problem. Aber es wirkt sich an verschiedenstens Stellen aus. -> Das Endresultat ist aber, dass die FPS nicht skalieren. (weswegen das die Leute idR in einen Topf schmeißen, wo es aber NICHT! hingehört)
    - Es gibt bspw. ein CPU Limit, hervorgerufen durch Treiberoverhead und/oder mangelnde MT Fähigkeiten auf der API Seite -> das ist das, was NV mit den Treibern bspw. angegangen ist. Ein Teil davon ist, dass es mit dem NV Treibern möglich ist, deutlich mehr DrawCalls als bei AMD aus der CPU zu quetschen. Reine Messungen dieser DrawCall Performance bescheinigen ca. Faktor 2 pro NV ggü. AMDs Umsetzung!
    - Es gibt auf der anderen Seite das ganz klassische CPU Limit durch zu komplexe Berechnungen -> das kann direkt von der Engine/dem Spiel kommen, oder von Zusatzeffekten. Für erstes wäre bspw. eine komplexe KI Berechnung zu nennen. Ein Beispiel für letztes wäre bspw. eine komplexe Physikberechnung.

    Unterm Strich muss das Verständnis eigentlich dahingehend vorhanden sein, dass diese Trennung zwischen den Parts erstmal geblickt wird! Denn dann ist erstmal die Basis geschaffen über das Thema überhaupt zu debattieren

    Zitat Zitat von sTOrM41 Beitrag anzeigen
    Meine Bitte an Hardwareluxx, Computerbase, PCGH und wie ihr euch alle nennt: testet aktuelle Grafikkarten bitte nicht nur auf übertakteten i7, sondern auch mal auf einer CPU die deutlich massentauglicher ist, wie z.B. einem i3 oder FX6300.
    Wenn ihr CPU Benchmarks in Spielen veröffentlicht bitte auf beiden Plattformen, Rot und Grün.
    Das erste wird sich nicht durchsetzen können. Einfach aus dem Grund, man will ja nicht die CPU Limitation in GPU Reviews benennen, sondern die Leistungsfähigkeit der GPU. Das ist auch soweit OK, wie ich finde. Sowas gehört in meiner Welt eher zu CPU Reviews... Dort können Vergleiche geschaffen werden.
    Der letztere Part ist aber genau das, was ich mir seit Monaten schon wünsche... Offenbar aber scheint der Aufwand die Redaktionen abzuschrecken
    Workstation: Core i7 [email protected]@1,[email protected] | Asus X99-E WS | 4x8GB Kingston HyperX Fury DDR4-2666 CL15 | 2x GeForce GTX [email protected] | ROG Xonar Phoebus | HPT RR2300 | SSD: 1x 250GB Evo 850; 1x240GB M500; HDD: 1x320GB; 1x2TB; 1x160GB; 4x1TB Raid5 | Corsair HX1000i | Win. 8.1 Prof. x64
    ESX Server: Dell PowerEdge T20 | Xeon E3-1220v3 | 4x4GB Samsung DDR3-1333 | Fujitsu MegaRaid D2516-D11 512MB | 2x500GB HDD Raid 1; 2x256GB MX100 Raid 1 | ESXi 5.5.0U2
    Fileserver: 2x Xeon 5160 | S5000PSL SATA | 8x4GB FB-Dimm DDR2-667 | AMD Radeon HD5870 1GB | HDD: 4x320GB SATA; 4x500GB SATA - je SW Raid 5 | PC Power & Cooling 500W | Win. Srv. 2012 R2 Std.
    Mobile: Sony Vaio VPCZ13V9E | Core i7 640M | 2x4GB DDR3-1600 | GeForce 330M | 4x64GB SSD | Win7 Prof.
    Tablet: MS Surface 2 Pro | Core i5 4200U | 8GB DDR3 RAM | 256GB SSD | Win. 8.1 Prof.

  5. #3
    Flottillenadmiral Avatar von Phantomias88
    Registriert seit
    19.04.2008
    Ort
    PorscheTown
    Beiträge
    6.073


    • Systeminfo
      • Motherboard:
      • ASUS Sabertooth Gen3/R2.0
      • CPU:
      • AMD FX-8350 (Vishera)
      • Systemname:
      • DragonBooster III
      • Kühlung:
      • EK WB Supreme LTX
      • Gehäuse:
      • SuperFlower SF-2000 Big Tower
      • RAM:
      • 4x 8GB DDR3-1866 DualRank ECC
      • Grafik:
      • 2x XFX R7970 DD 925M 3GiB CfX
      • Storage:
      • 3x SSD SATA III native + 3 HDDs
      • Monitor:
      • Samsung FHD TV 37" 550cdm
      • Netzwerk:
      • FritzBox!
      • Sound:
      • onboard
      • Netzteil:
      • Corsair HX850 80+ [email protected]%
      • Betriebssystem:
      • Windows 10 x64 Pro 15063
      • Notebook:
      • ?
      • Handy:
      • SAMSUNG Galaxy SIII

    Standard

    An sich ist das ein sehr Umfangreiches Thema, welches uns öfter ein CPU Limit vorgaugelt.
    Aber wenn es mit einer anderen GPU besser läuft, was soll das dann für ein CPU Limit sein?
    Das sind meiner Meinung nach Software Limits, dir durch neue Programmiermöglichkeiten zur Zeit auftauchen können DX11 -> DX12.

    DayZ ist sowas von Alpha, darauf würde ich überhaupt nichts geben: https://abload.de/img/dayz_2015_08_30_10_26cxsxq.png
    Was mir mit Windows 10 auffält, ist das z.B. TombRaider vom Verbrauch her fast an Mantle ran kommt, also irgendwas ist anders.
    Auch läuft der Energiesparmodus von Windows geschmeidiger, keine Lags mehr wie mit Win7 noch.
    CPU: AMD FX-8350 1.3625Vid @ my style | MB: ASUS Sabertooth 990FX R2.0/Gen3 -> zwo x16 Lanes PCIE3.0 onboard
    RAM: 4x 8GiB DDR3-2400 CL14 2T ECC Crucial | GraKa: 2x XFX Radeon R7970 DD 925M [email protected]
    NT: Corsair HX850 80+ [email protected]% load | WaKü: EK WB Supreme LTX / 6l | Displays: Samsung 37" LCD Full HD @ 550cd/m²

  6. #4
    Moderator Avatar von fdsonne
    Registriert seit
    08.08.2006
    Ort
    SN
    Beiträge
    33.007


    Standard

    Zitat Zitat von Phantomias88 Beitrag anzeigen
    An sich ist das ein sehr Umfangreiches Thema, welches uns öfter ein CPU Limit vorgaugelt.
    Aber wenn es mit einer anderen GPU besser läuft, was soll das dann für ein CPU Limit sein?
    Genau das ist das Problem... Du hast es nicht ganz verstanden... Es ist nicht so, dass es mit "einer anderen GPU besser läuft". Sondern die Software des anderen Hersteller scheint offenbar weniger in Limits zu laufen oder bestehende Ressourcen besser auszunutzen. Ein himmelweiter Unterschied in der Betrachtungsweise. Die GPU hat damit perse erstmal wenig bis nichts zu tun. Es ist rein Software. Und hier kommt es eben auf die Umsetzung an, die NV und auch AMD wie auch Intel da an den Tag legen. Unter DX11 scheint NV klar die Nase vorn zu haben.
    Ob das nun auf legale Weise passiert oder man seitens NV eigenen Code über die Treiber einschleust um bspw. Teile der DX11 Implementation von Windows gegen eigene Implementationen mit dem gleichen Endergebnis auszutauschen, ist bspw. auch nochmal so ein Part. -> zumindest im OpenGL Umfeld ist bekannt, dass NV genau das tut. -> bewegt an sich auf dem Pfad, den die NV Entwickler vorsehen gehts schnell und auch gut. Geht man davon weg wirds holprig bis grottig.
    Workstation: Core i7 [email protected]@1,[email protected] | Asus X99-E WS | 4x8GB Kingston HyperX Fury DDR4-2666 CL15 | 2x GeForce GTX [email protected] | ROG Xonar Phoebus | HPT RR2300 | SSD: 1x 250GB Evo 850; 1x240GB M500; HDD: 1x320GB; 1x2TB; 1x160GB; 4x1TB Raid5 | Corsair HX1000i | Win. 8.1 Prof. x64
    ESX Server: Dell PowerEdge T20 | Xeon E3-1220v3 | 4x4GB Samsung DDR3-1333 | Fujitsu MegaRaid D2516-D11 512MB | 2x500GB HDD Raid 1; 2x256GB MX100 Raid 1 | ESXi 5.5.0U2
    Fileserver: 2x Xeon 5160 | S5000PSL SATA | 8x4GB FB-Dimm DDR2-667 | AMD Radeon HD5870 1GB | HDD: 4x320GB SATA; 4x500GB SATA - je SW Raid 5 | PC Power & Cooling 500W | Win. Srv. 2012 R2 Std.
    Mobile: Sony Vaio VPCZ13V9E | Core i7 640M | 2x4GB DDR3-1600 | GeForce 330M | 4x64GB SSD | Win7 Prof.
    Tablet: MS Surface 2 Pro | Core i5 4200U | 8GB DDR3 RAM | 256GB SSD | Win. 8.1 Prof.

  7. #5
    Flottillenadmiral Avatar von Phantomias88
    Registriert seit
    19.04.2008
    Ort
    PorscheTown
    Beiträge
    6.073


    • Systeminfo
      • Motherboard:
      • ASUS Sabertooth Gen3/R2.0
      • CPU:
      • AMD FX-8350 (Vishera)
      • Systemname:
      • DragonBooster III
      • Kühlung:
      • EK WB Supreme LTX
      • Gehäuse:
      • SuperFlower SF-2000 Big Tower
      • RAM:
      • 4x 8GB DDR3-1866 DualRank ECC
      • Grafik:
      • 2x XFX R7970 DD 925M 3GiB CfX
      • Storage:
      • 3x SSD SATA III native + 3 HDDs
      • Monitor:
      • Samsung FHD TV 37" 550cdm
      • Netzwerk:
      • FritzBox!
      • Sound:
      • onboard
      • Netzteil:
      • Corsair HX850 80+ [email protected]%
      • Betriebssystem:
      • Windows 10 x64 Pro 15063
      • Notebook:
      • ?
      • Handy:
      • SAMSUNG Galaxy SIII

    Standard

    @fdsonne
    Kann gut sein das ich das nicht verstehe, ist ja auch nicht schlimm.
    Nur wenn es das selbe Spiel das selbe System und nur die GPU getauscht wird und es läuft besser, dann zu meinen es sei ein CPU Limit ist doch irgendwie, nee?

    Es wird zur Zeit einfach viel ausprobiert (Alpha & Beta Stadium) was ja nichts schlechtes ist, aber bei neuen Werkzeugen muss man zuerst mal lernen damit umzugehen, das betrifft auch Programmierer(innen).

    Ich will die DX11 Umsetzung von nvidia nicht in Frage stellen, die meisten DX11 Titel laufen mit Windows 10 besser, zumindest was ich spüren und auslesen konnte.

    MfG
    CPU: AMD FX-8350 1.3625Vid @ my style | MB: ASUS Sabertooth 990FX R2.0/Gen3 -> zwo x16 Lanes PCIE3.0 onboard
    RAM: 4x 8GiB DDR3-2400 CL14 2T ECC Crucial | GraKa: 2x XFX Radeon R7970 DD 925M [email protected]
    NT: Corsair HX850 80+ [email protected]% load | WaKü: EK WB Supreme LTX / 6l | Displays: Samsung 37" LCD Full HD @ 550cd/m²

  8. #6
    Korvettenkapitän
    Registriert seit
    23.09.2009
    Beiträge
    2.302


    • Systeminfo
      • Motherboard:
      • ASUS Prime X370 Pro
      • CPU:
      • R7 1700x @stock
      • Kühlung:
      • NH-D15S
      • Gehäuse:
      • Define S @air
      • RAM:
      • 16GB TridentZ @3200 CL16
      • Grafik:
      • Rx480
      • Handy:
      • Lumia 950XL

    Standard

    Zitat Zitat von fdsonne Beitrag anzeigen
    Ob das nun auf legale Weise passiert oder man seitens NV eigenen Code über die Treiber einschleust um bspw. Teile der DX11 Implementation von Windows gegen eigene Implementationen mit dem gleichen Endergebnis auszutauschen, ist bspw. auch nochmal so ein Part. -> zumindest im OpenGL Umfeld ist bekannt, dass NV genau das tut. -> bewegt an sich auf dem Pfad, den die NV Entwickler vorsehen gehts schnell und auch gut. Geht man davon weg wirds holprig bis grottig.
    Würde es dich denn wirklich wundern, wenn sie das in DX11 auch tun würden? Ich würde sogar so weit gehen und behaupten, dass Nvidia irgendwelche Rückmeldungen ignoriert bzw auf Sicherheitsfeatures von DX11 verzichtet. Denn eigentlich ist DX11 auf die sequenzielle Abarbeitung ausgelegt und Nvidia schafft es, das ganze Multithreaded zu implementieren.

    Nvidia ist ja auch nicht gerade dafür bekannt, sich an Standards zu halten

  9. #7
    Admiral
    HWLUXX Superstar
    Avatar von sTOrM41
    Registriert seit
    13.10.2005
    Ort
    Magdeburg
    Beiträge
    19.015
    Themenstarter


    • Systeminfo
      • CPU:
      • Xeon W3680 @ 4000 MHz
      • Gehäuse:
      • Dell Precision T3500
      • RAM:
      • 12GB 1333 MHz
      • Grafik:
      • MSI GTX 1080 [email protected]
      • Storage:
      • Transcend 370, Kingston V300
      • Monitor:
      • 27 Zoll 1440p + 27 Zoll 1080p
      • Sound:
      • AKG K530,Edifier S330D, Siberia V2
      • Netzteil:
      • Dell 525W
      • Betriebssystem:
      • Windows 10 x64
      • Sonstiges:
      • Logitech G19 + Sharkoon Drakonia
      • Notebook:
      • Acer 3820TG + Acer 1810T
      • Photoequipment:
      • Canon EOS 450D, Samsung WB2000
      • Handy:
      • LG G4

    Standard

    Zitat Zitat von Phantomias88 Beitrag anzeigen
    Nur wenn es das selbe Spiel das selbe System und nur die GPU getauscht wird und es läuft besser, dann zu meinen es sei ein CPU Limit ist doch irgendwie, nee?
    guck dir doch den den Advanced Warfare Bench oben mal genauer an,
    je schneller die CPU , desto mehr FPS, bei den Roten wie auch den Grünen.

    Also eindeutig ein CPU Limit, nur das die grünen mit eben diesem CPU Limit deutlich besser umgehen.
    Arguing on the internet is like running in the Special Olympics. Even if you win, you're still retarded.

  10. #8
    Flottillenadmiral Avatar von Phantomias88
    Registriert seit
    19.04.2008
    Ort
    PorscheTown
    Beiträge
    6.073


    • Systeminfo
      • Motherboard:
      • ASUS Sabertooth Gen3/R2.0
      • CPU:
      • AMD FX-8350 (Vishera)
      • Systemname:
      • DragonBooster III
      • Kühlung:
      • EK WB Supreme LTX
      • Gehäuse:
      • SuperFlower SF-2000 Big Tower
      • RAM:
      • 4x 8GB DDR3-1866 DualRank ECC
      • Grafik:
      • 2x XFX R7970 DD 925M 3GiB CfX
      • Storage:
      • 3x SSD SATA III native + 3 HDDs
      • Monitor:
      • Samsung FHD TV 37" 550cdm
      • Netzwerk:
      • FritzBox!
      • Sound:
      • onboard
      • Netzteil:
      • Corsair HX850 80+ [email protected]%
      • Betriebssystem:
      • Windows 10 x64 Pro 15063
      • Notebook:
      • ?
      • Handy:
      • SAMSUNG Galaxy SIII

    Standard

    Zitat Zitat von sTOrM41 Beitrag anzeigen
    guck dir doch den den Advanced Warfare Bench oben mal genauer an,
    je schneller die CPU , desto mehr FPS, bei den Roten wie auch den Grünen.

    Also eindeutig ein CPU Limit, nur das die grünen mit eben diesem CPU Limit deutlich besser umgehen.
    Nur schneller, nicht auch stärker?
    Ich steig nicht mehr durch, ist auch egal bin zufrieden bisher.
    Neu Hardware ist absolut nicht Notwendig, evt in 2-3 Jahren eine neue SSD.
    CPU: AMD FX-8350 1.3625Vid @ my style | MB: ASUS Sabertooth 990FX R2.0/Gen3 -> zwo x16 Lanes PCIE3.0 onboard
    RAM: 4x 8GiB DDR3-2400 CL14 2T ECC Crucial | GraKa: 2x XFX Radeon R7970 DD 925M [email protected]
    NT: Corsair HX850 80+ [email protected]% load | WaKü: EK WB Supreme LTX / 6l | Displays: Samsung 37" LCD Full HD @ 550cd/m²

  11. #9
    Tzk
    Tzk ist gerade online
    Vizeadmiral
    Registriert seit
    13.02.2006
    Ort
    Koblenz
    Beiträge
    7.458


    • Systeminfo
      • Motherboard:
      • MSI Z170i
      • CPU:
      • 7700k
      • Kühlung:
      • Thermalright SI-128SE
      • Gehäuse:
      • NCase M1 V5 Black
      • RAM:
      • 2x8gb Ballistix Tactical 2666
      • Grafik:
      • Zotac 1060 6gb
      • Storage:
      • Crucial Mx100 512gb
      • Monitor:
      • 2x Dell S2740L
      • Netzteil:
      • Corsair SF450
      • Betriebssystem:
      • Win 8.1 x64
      • Notebook:
      • Dell XPS 15 L501x

    Standard

    Phantomias:

    Einfache Sache: Nicht nur das Spiel selbst hat FPS (Cpu) Limits, sondern auch die Treiber.
    Setzt du nun eine Gpu eines anderen Herstellers ein, wo der Treiberoverhead größer ist, so hast du geringere Fps. Für das Spiel bleibt ja weniger Rechenleistung der Cpu übrig

    Klar, stark vereinfacht gesprochen und diese Erklärung deckt auch sicher nicht alle von fdsonne genannten Aspekte ab, aber als Anfang sicher brauchbar.

  12. #10
    Admiral
    HWLUXX Superstar
    Avatar von sTOrM41
    Registriert seit
    13.10.2005
    Ort
    Magdeburg
    Beiträge
    19.015
    Themenstarter


    • Systeminfo
      • CPU:
      • Xeon W3680 @ 4000 MHz
      • Gehäuse:
      • Dell Precision T3500
      • RAM:
      • 12GB 1333 MHz
      • Grafik:
      • MSI GTX 1080 [email protected]
      • Storage:
      • Transcend 370, Kingston V300
      • Monitor:
      • 27 Zoll 1440p + 27 Zoll 1080p
      • Sound:
      • AKG K530,Edifier S330D, Siberia V2
      • Netzteil:
      • Dell 525W
      • Betriebssystem:
      • Windows 10 x64
      • Sonstiges:
      • Logitech G19 + Sharkoon Drakonia
      • Notebook:
      • Acer 3820TG + Acer 1810T
      • Photoequipment:
      • Canon EOS 450D, Samsung WB2000
      • Handy:
      • LG G4

    Standard

    mal weiter bei den russen gestöbert





    in garden warfare sieht man gut das man unter mantle gut mit der dx11 performance von nvidia im cpu limit mithalten kann, bzw man gar schneller unterwegs ist.
    die dx11 performance fällt aber wiederum deutlich schlechter aus.
    Geändert von sTOrM41 (23.09.15 um 22:33 Uhr)
    Arguing on the internet is like running in the Special Olympics. Even if you win, you're still retarded.

  13. #11
    Fregattenkapitän Avatar von Tzunamik
    Registriert seit
    05.08.2009
    Ort
    HN-Lauffen
    Beiträge
    2.671


    • Systeminfo
      • Motherboard:
      • Asus Crosshair 6 Hero
      • CPU:
      • AMD Ryzen R7 1700
      • Systemname:
      • Ryzen-7-2017
      • Kühlung:
      • Wasserkühlung komplett
      • Gehäuse:
      • Corsair Graphite 760T
      • RAM:
      • 32GB G-Skill 3200 14-14-14
      • Grafik:
      • Radeon RX Vega @ EK RX Vega
      • Storage:
      • Samsung 960 EVO 1TB nVME m2
      • Monitor:
      • Acer XG270HUomidpx
      • Netzwerk:
      • Fritz!BOX 7490+Fritz!WLAN DVBC
      • Sound:
      • Creative ZxR @ Audiotechnica ATH-ADG1X
      • Netzteil:
      • Corsair AX760i
      • Betriebssystem:
      • Win 10 x64
      • Sonstiges:
      • PS4 PSN BigBSES XBL Tzunamik
      • Notebook:
      • iPad Pro 12.9 LTE 2017 als Notebookersatz!
      • Photoequipment:
      • Canon 60D
      • Handy:
      • iPhone 7 Plus 128GB Black

    Standard

    Ist doch nichts neues das AMD eine DX11 CPU-Schwäche hat.

    Unter DX 12 ist diese Problem mehr oder weniger Geschichte und AMD kann endlich mal volle GPU Power liefern weil der Treiber-Overhead so gut wie weg ist.
    AMD Ryzen R7 [email protected]@1,28vCore | 32GB G.Skill F4-3200C14D-32GTZ| XFX RX Vega @ EK RX Vega| Mora 3 Pro + Laing 3.25
    Asus Crosshair 6 Hero X370 | Corsair AX-760i | Acer XG270HUc 144Hz FreeSync + LG 55LA6678 | Corsair Graphite 760T
    Logitech G502 | Corsair K65 RGB MX Reds | Samsung 960 EVO 1TB nVME | Crucial M550 512GB + M4 512GB | Creative ZxR + Audio-Technica ATH-ADG1X
    iPhone 7 Plus 128GB | Apple Watch Series 2 42mm | iPad Pro 12.9 LTE 256GB MPA52FD/A
    QNAP TVS-671 Intel i7 16GB 5x4TB WD Purple RAID5 + MX200 512GB VM Win 2012 R2

  14. #12
    Fregattenkapitän
    Registriert seit
    07.03.2013
    Beiträge
    3.026


    • Systeminfo
      • Motherboard:
      • ASUS Z170I Pro gaming
      • CPU:
      • I7 6700K
      • Kühlung:
      • EKL Atlas
      • Gehäuse:
      • Xigmatek Aquila
      • RAM:
      • GSKill, DDR4, 2x 8GB, 3466MHz,
      • Grafik:
      • GTX1070 FE
      • Storage:
      • Samsung EVO 750, 250GB und HDD 1TB
      • Monitor:
      • LG 24"
      • Betriebssystem:
      • Windows 10

    Standard

    Alles soweit bekannt und auch gut nochmal aufgefrischt zuwerden, bzw. angesprochen.
    Aber zu BF4 und Nvidia und AMD,
    mit der GTX970 musste ich auf 64Spieler Servern ( shanghai/ pearl market z.b.) meine CPU mit 4,5GHz laufen lassen und war selbst damit nicht so gut, wie mit Mantle und der selben [email protected]

    Das ganze unter Win7

    Mantle hat in BF4 schon seine Vorteile, gab mal einen Test, da waren in 720p die min Fps, bei gleiche CPU, einmal mit Nvidia GPU unter DX11 und einmal mit AMD GPU unter Mantle knapp doppelt so hoch.
    DX11 + Nvidia GPU 63min Fps
    Mantle + AMD GPU 121min Fps

    Generell wäre mehr Klarheit bei dem Thema schön!
    CPU tests mit AMD und Nvidia GPU wären super!
    System: I7 3820 3,[email protected],1V, 16GB Ram 1866MHz, MSI R9 390 (Asus GTX970 Strix ohne Probleme/ R9 290X/HD7950/ GTX570/GTX470) Es war einmal vor langer Zeit
    Jetzt erst mal nur noch Laptop, MSI GE72 6Q Apache Pro auch das war einmal

    Jetzt I5 6500, 16 GB 2133, CL13 auch schon wieder Vergangenheit!
    I7 [email protected],640GHz(Core/Cache), ASUS Z170I Pro Gaming, 16GB DDR4 3333, CL15, 250GB Samsung EVO 750, GTX1070 FE

  15. #13
    Kapitän zur See Avatar von DerGoldeneMesia
    Registriert seit
    21.05.2007
    Ort
    Wien
    Beiträge
    3.635


    Standard

    War das damals nicht so, das Nvidia Karten auf AMD CPU's schneller liefen?
    Gesendet aus meinem Ferrari

  16. #14
    Admiral
    HWLUXX Superstar
    Avatar von sTOrM41
    Registriert seit
    13.10.2005
    Ort
    Magdeburg
    Beiträge
    19.015
    Themenstarter


    • Systeminfo
      • CPU:
      • Xeon W3680 @ 4000 MHz
      • Gehäuse:
      • Dell Precision T3500
      • RAM:
      • 12GB 1333 MHz
      • Grafik:
      • MSI GTX 1080 [email protected]
      • Storage:
      • Transcend 370, Kingston V300
      • Monitor:
      • 27 Zoll 1440p + 27 Zoll 1080p
      • Sound:
      • AKG K530,Edifier S330D, Siberia V2
      • Netzteil:
      • Dell 525W
      • Betriebssystem:
      • Windows 10 x64
      • Sonstiges:
      • Logitech G19 + Sharkoon Drakonia
      • Notebook:
      • Acer 3820TG + Acer 1810T
      • Photoequipment:
      • Canon EOS 450D, Samsung WB2000
      • Handy:
      • LG G4

    Standard

    Zitat Zitat von derneuemann Beitrag anzeigen
    Mantle hat in BF4 schon seine Vorteile, gab mal einen Test, da waren in 720p die min Fps, bei gleiche CPU, einmal mit Nvidia GPU unter DX11 und einmal mit AMD GPU unter Mantle knapp doppelt so hoch.
    DX11 + Nvidia GPU 63min Fps
    Mantle + AMD GPU 121min Fps
    hast du mal einen link zu diesem test?
    mich würde nicht wundern wenn dieser mit einem älteren treiber als dem forceware 337.50 gemacht wurde.

    schau dir doch mal garden warfare oben an,
    diesen benchmark kannst du prinzipiell 1:1 auf bf4 übernehmen.

    edit:
    hab hier was bezüglich bf4 gefunden
    http://pclab.pl/art55953-4.html

    FX8350 OC+ 290X (Mantle) = 80fps
    FX8350 OC+ 290X (DX11) = 54fps
    FX8350 OC+ GTX780 (DX11) = 74fps

    das deckt sich mit meiner aussage aus dem startpost.
    Geändert von sTOrM41 (24.09.15 um 14:09 Uhr)
    Arguing on the internet is like running in the Special Olympics. Even if you win, you're still retarded.

  17. #15
    Kapitän zur See Avatar von DerGoldeneMesia
    Registriert seit
    21.05.2007
    Ort
    Wien
    Beiträge
    3.635


    Standard

    @storm41

    Ich verstehe deine Aussage nicht, auf dem einen Test zeigt die 270X ein höheres Potential mit einer stärkeren CPU, dafür bringt Mantle deutlich was bei Preis/Lesitung-systemen.

    Mal abgesehen das die AMD GPU's ja DX12 beherrschen.
    Geändert von DerGoldeneMesia (24.09.15 um 14:10 Uhr)
    Gesendet aus meinem Ferrari

  18. #16
    Admiral
    HWLUXX Superstar
    Avatar von sTOrM41
    Registriert seit
    13.10.2005
    Ort
    Magdeburg
    Beiträge
    19.015
    Themenstarter


    • Systeminfo
      • CPU:
      • Xeon W3680 @ 4000 MHz
      • Gehäuse:
      • Dell Precision T3500
      • RAM:
      • 12GB 1333 MHz
      • Grafik:
      • MSI GTX 1080 [email protected]
      • Storage:
      • Transcend 370, Kingston V300
      • Monitor:
      • 27 Zoll 1440p + 27 Zoll 1080p
      • Sound:
      • AKG K530,Edifier S330D, Siberia V2
      • Netzteil:
      • Dell 525W
      • Betriebssystem:
      • Windows 10 x64
      • Sonstiges:
      • Logitech G19 + Sharkoon Drakonia
      • Notebook:
      • Acer 3820TG + Acer 1810T
      • Photoequipment:
      • Canon EOS 450D, Samsung WB2000
      • Handy:
      • LG G4

    Standard

    Zitat Zitat von DerGoldeneMesia Beitrag anzeigen
    @storm41

    Ich verstehe deine Aussage nicht, auf dem einen Test zeigt die 270X ein höheres Potential mit einer stärkeren CPU, dafür bringt Mantle deutlich was bei Preis/Lesitung-systemen.

    Mal abgesehen das die AMD GPU's ja DX12 beherrschen.
    dann noch mal richtig lesen.

    hier geht es prinzipiell weder um mantle, noch dx12, sondern um den dx11 cpu overhead.

    klar bietet die 270x in kombination mit einer stärkeren cpu mehr potential als die billigere 750ti,
    das erklärt aber nicht das überproportional starke einbrechen mit einer schwächeren cpu.

    hier noch mal das selbe bild von oben



    mit dem i7 ist alles schick, 60fps.

    mit dem langsameren i3 passiert dann aber was seltsames,
    die 270x ist auf einmal langsamer als die billigere 750ti (mit dem selben i3!),
    und daran ist eben der dx11 cpu overhead schuld.
    Geändert von sTOrM41 (24.09.15 um 14:33 Uhr)
    Arguing on the internet is like running in the Special Olympics. Even if you win, you're still retarded.

  19. #17
    Kapitän zur See Avatar von DerGoldeneMesia
    Registriert seit
    21.05.2007
    Ort
    Wien
    Beiträge
    3.635


    Standard

    Zitat Zitat von sTOrM41 Beitrag anzeigen
    dann noch mal richtig lesen.

    hier geht es prinzipiell weder um mantle, noch dx12, sondern um den dx11 cpu overhead.
    Es kauft aber fast keiner eine 270x und dann einen I7 4770K oder aufwärts.
    Gesendet aus meinem Ferrari

  20. #18
    Moderator Avatar von fdsonne
    Registriert seit
    08.08.2006
    Ort
    SN
    Beiträge
    33.007


    Standard

    Zitat Zitat von Phantomias88 Beitrag anzeigen
    @fdsonne
    Kann gut sein das ich das nicht verstehe, ist ja auch nicht schlimm.
    Nur wenn es das selbe Spiel das selbe System und nur die GPU getauscht wird und es läuft besser, dann zu meinen es sei ein CPU Limit ist doch irgendwie, nee?
    Nein, nicht "irgendwie"... Sondern definitiv so.

    Stell dir das ganze mal bildlich vor.
    Das Konstrukt ist eine Kette von Berechnungen, diese werden zwingend sequenziell abgearbeitet und laufen in einem gewissen Takt.
    Ganz vorn in der Kette hast du die CPU Berechnungen vom Spiel/der Engine. Das sind bspw. KI Berechnungen, Soundberechnungen, allgemein also Spielgeometrie, Bewegungen usw. usf.
    Das lässt sich in gewissen Teilen via MT erschlagen, nämlich wenn man die einzelnen Teile dieser Berechnungen auf mehrere CPU Threads verteilt. So lässt sich aus der Datenquelle gleichzeitig KI und Physik berechnen um mal ein Beispiel zu nennen.

    Mit dem Ergebnis dieser Berechnungen geht man über die DX/Mantle API zum Treiber. Oder besser gesagt, man führt Funktionen aus, welche die APIs bereitstellen. Diese Funktionen sind quasi fix. Teile davon lassen sich aber offensichtlich so verdrehen, dass man mehr von MT profitiert als eigentlich mal geplant war. Durch diese API Funktionen gelangen die Daten dann zur GPU (über den Treiber) und werden dort abermals in MT ausgeführt. Letzteres ist quasi seit Jahr und Tag gang und gebe...
    Bei ersterem (dem Spielepart) auf MT zu setzen ist mittlerweile auch häufig der Fall. Vor allem bei größeren, komplexeren Titeln (AAA) -> wo die Presse auch vermehrt auf die Optik schaut.


    Das Problem hier ist nun folgendes:
    der erste Teil ist fix (das Spiel ist ja immer das gleiche) und der letzte Teil ist ebenso quasi fix (zwar GPU unterschiedlicher Hersteller -> im nachweislichen GPU Limit aber ähnlich schnell)
    Was bleibt also übrig? Der API Part... Und der ist Vollvariabel. Nämlich wenn die Hersteller die Funktionen dahingehend optimieren, dass am Ende mehr Power bei rum kommt...

    Das Ganze lässt sich bspw. auch 1A belegen. Nämlich an der DrawCall Performance. Du kannst bspw. ein aktuelles 3DMark mal mit ner Fermi GF100/110 GPU und dem Fermi Releasetreiber durchlaufen lassen und dann einen Vergleich mit ner in etwa gleich schnellen Kepler/Maxwell GPU durchführen (aktueller Treiber) -> das extrem CPU Geschwindigkeitsabhängige Ergebnis wird sich trotz gleicher Roh-CPU-Power extrem unterscheiden... Einfach weil NV mit dem 337.50er aka "Wundertreiber" das erste mal public verbreitet hat, an diesem Problem aktiv zu optimieren... Zeitlich war das auffallenderweise kurz nach Mantlerelease. Das Ding hat es geschafft, die absolute Mehrleistung von Mantle mit einer vergleichbaren AMD GPU quasi vollständig aufzuwiegen (BF4 MP) sowie bei einigen Benches sogar zu übertrumpfen (Thief)

    Zitat Zitat von why_me Beitrag anzeigen
    Würde es dich denn wirklich wundern, wenn sie das in DX11 auch tun würden? Ich würde sogar so weit gehen und behaupten, dass Nvidia irgendwelche Rückmeldungen ignoriert bzw auf Sicherheitsfeatures von DX11 verzichtet. Denn eigentlich ist DX11 auf die sequenzielle Abarbeitung ausgelegt und Nvidia schafft es, das ganze Multithreaded zu implementieren.

    Nvidia ist ja auch nicht gerade dafür bekannt, sich an Standards zu halten
    Wie kommst du darauf, dass DX11 ausschließlich auf sequenzielle Abarbeitung ausgelegt sein soll?
    Microsoft hat mit DX10 schon MT Support propagiert Nur so nebenbei... Und nein, mich wundert es keineswegs. Ich sag dir aber auch, dass ich diesen Schritt definitiv als richtig ansehe. Nicht, weil sich NV hiermit einen Vorteil verschafft, nein, sondern weil ich genau sowas als wirkliche Optimierung FÜR den Endkunden ansehe. Damit wird niemand benachteiligt (auch nicht potentiell) und man muss sich nicht irgendwo einkaufen um sowas hinzubiegen. Das ist rein NVs eigene Seite der Thematik und greift/wirkt nur bei steckender NV Karte...
    Solange man nicht auf BQ verzichten muss, wie es seit Jahren schon immer mal wieder sowohl von Grün als auch Rot versucht wird um Rechenzeit zu sparen, ist so eine Optimierung genau das richtige um den etwas verschlafenen Markt auf die Beine zu helfen.

    Und wie gesagt, die DrawCall Performance ist ein Part, den Entwickler seit Jahren, ja sogar Jahrzenten schon auf dem PC kritisieren. Schon die PS3 konnte mehr Draws "callen" als es heute gängige PCs mit DX 9, 10 oder 11 schaffen... Oder andersrum ausgedrückt, auch heute noch tut sich der PC schwer, mit den alten Konsolen mitzuhalten!

    Mit DX12, Vulkan und Mantle hat sich dies geändert... Jetzt müssen es die Entwickler nur noch umsetzen! Ich sehe bei dieser gesteigerten Hardwarenähe aber die Gefahr, dass die Entwickler es verkacken könnten und wir als Endkunden am Ende dann noch viel beschissener dastehen. Denn dann kann nicht der GPU Hersteller über Treiber mal so eben was reinoptimieren Das klappt bestenfalls, wenn sich die GPU Hersteller hinstellen und den Code des Spiels auseinander nehmen um dort maßgeblich fehloptimierte Teile gegen optimierten Code tauschen... Das ist Aufwand ohne Ende. Mir wäre auch kein Fall bekannt, wo sowas bis dato fabriziert wurde.
    Workstation: Core i7 [email protected]@1,[email protected] | Asus X99-E WS | 4x8GB Kingston HyperX Fury DDR4-2666 CL15 | 2x GeForce GTX [email protected] | ROG Xonar Phoebus | HPT RR2300 | SSD: 1x 250GB Evo 850; 1x240GB M500; HDD: 1x320GB; 1x2TB; 1x160GB; 4x1TB Raid5 | Corsair HX1000i | Win. 8.1 Prof. x64
    ESX Server: Dell PowerEdge T20 | Xeon E3-1220v3 | 4x4GB Samsung DDR3-1333 | Fujitsu MegaRaid D2516-D11 512MB | 2x500GB HDD Raid 1; 2x256GB MX100 Raid 1 | ESXi 5.5.0U2
    Fileserver: 2x Xeon 5160 | S5000PSL SATA | 8x4GB FB-Dimm DDR2-667 | AMD Radeon HD5870 1GB | HDD: 4x320GB SATA; 4x500GB SATA - je SW Raid 5 | PC Power & Cooling 500W | Win. Srv. 2012 R2 Std.
    Mobile: Sony Vaio VPCZ13V9E | Core i7 640M | 2x4GB DDR3-1600 | GeForce 330M | 4x64GB SSD | Win7 Prof.
    Tablet: MS Surface 2 Pro | Core i5 4200U | 8GB DDR3 RAM | 256GB SSD | Win. 8.1 Prof.

  21. #19
    Admiral
    HWLUXX Superstar
    Avatar von sTOrM41
    Registriert seit
    13.10.2005
    Ort
    Magdeburg
    Beiträge
    19.015
    Themenstarter


    • Systeminfo
      • CPU:
      • Xeon W3680 @ 4000 MHz
      • Gehäuse:
      • Dell Precision T3500
      • RAM:
      • 12GB 1333 MHz
      • Grafik:
      • MSI GTX 1080 [email protected]
      • Storage:
      • Transcend 370, Kingston V300
      • Monitor:
      • 27 Zoll 1440p + 27 Zoll 1080p
      • Sound:
      • AKG K530,Edifier S330D, Siberia V2
      • Netzteil:
      • Dell 525W
      • Betriebssystem:
      • Windows 10 x64
      • Sonstiges:
      • Logitech G19 + Sharkoon Drakonia
      • Notebook:
      • Acer 3820TG + Acer 1810T
      • Photoequipment:
      • Canon EOS 450D, Samsung WB2000
      • Handy:
      • LG G4

    Standard

    Zitat Zitat von DerGoldeneMesia Beitrag anzeigen
    Es kauft aber fast keiner eine 270x und dann einen I7 4770K oder aufwärts.
    na dann hast du ja jetzt verstanden warum es so wichtig ist etwas gegen den dx11 cpu oberhead zu unternehmen?
    Arguing on the internet is like running in the Special Olympics. Even if you win, you're still retarded.

  22. #20
    Kapitän zur See Avatar von DerGoldeneMesia
    Registriert seit
    21.05.2007
    Ort
    Wien
    Beiträge
    3.635


    Standard

    na dann hast du ja jetzt verstanden warum es so wichtig ist etwas gegen den dx11 cpu oberhead zu unternehmen?
    Natürlich versteh ich das, aber ich entscheide immer vorher was für ein System ich aufbaue, eventuell für welche Games.


    Zitat Zitat von sTOrM41 Beitrag anzeigen
    mit dem langsameren i3 passiert dann aber was seltsames,
    die 270x ist auf einmal langsamer als die billigere 750ti (mit dem selben i3!),
    und daran ist eben der dx11 cpu overhead schuld.
    Ok da kenn ich aber genug Leute die einen I3 als Preis/Leistung hinstellen, oder einen Broadwell mit iGPU.

    Dann lieber ein AMD Preis/Leistungssystem.
    Geändert von DerGoldeneMesia (24.09.15 um 14:24 Uhr)
    Gesendet aus meinem Ferrari

  23. #21
    Admiral
    HWLUXX Superstar
    Avatar von sTOrM41
    Registriert seit
    13.10.2005
    Ort
    Magdeburg
    Beiträge
    19.015
    Themenstarter


    • Systeminfo
      • CPU:
      • Xeon W3680 @ 4000 MHz
      • Gehäuse:
      • Dell Precision T3500
      • RAM:
      • 12GB 1333 MHz
      • Grafik:
      • MSI GTX 1080 [email protected]
      • Storage:
      • Transcend 370, Kingston V300
      • Monitor:
      • 27 Zoll 1440p + 27 Zoll 1080p
      • Sound:
      • AKG K530,Edifier S330D, Siberia V2
      • Netzteil:
      • Dell 525W
      • Betriebssystem:
      • Windows 10 x64
      • Sonstiges:
      • Logitech G19 + Sharkoon Drakonia
      • Notebook:
      • Acer 3820TG + Acer 1810T
      • Photoequipment:
      • Canon EOS 450D, Samsung WB2000
      • Handy:
      • LG G4

    Standard

    Zitat Zitat von DerGoldeneMesia Beitrag anzeigen
    Ok da kenn ich aber genug Leute die einen I3 als Preis/Leistung hinstellen, oder einen Broadwell mit iGPU.
    das hat nichts speziell mit dem i3 zu tun,
    das bild da oben wäre vermutlich mit einem "gleichgünstigen" fx6300 das selbe.

    hier mal nen beispiel wie man sich diesen dx11 cpu overhead etwa vorstellen kann:
    ein fx6300 oder i3 ist beispielsweiße im cpu limit von der rohleistung in der lage 100fps zu produzieren.

    gtx970 und r9 390 sind beispielsweiße von der rohleistung auch in der lage 100fps zu produzieren.

    bei der r9 390 benötigt der dx11 treiber aber so viel cpu leistung das von diesen eigentlich möglichen 100fps zb 30% weniger an kommen, also nur 70fps.

    bei der gtx 970 gibt es diesen enormen dx11 cpu overhead nicht (nicht mehr!), oder zumindestens nicht in diesem ausmaß.
    der treiber verschluckt vllt nur 5 oder 10%, von den möglichen 100 fps kommen dann 90 oder 95 an.

    mit dx12 und mantle wird der cpu overhead dann quasi eliminiert, gtx 970 und r9 390 pusten dann beide etwa ihre 100fps raus.


    mit nem fetten i5, fx9590, oder i7 fällt der dx11 cpu overhead bei den roten nicht ganz so ins gewicht, die 30% die der treiber zusätzlich verschluckt kompensiert so eine cpu halt eben.
    mit einer langsameren cpu kann das ganze dann aber durchaus nen ganz schönen unterschied machen.
    Geändert von sTOrM41 (24.09.15 um 15:23 Uhr)
    Arguing on the internet is like running in the Special Olympics. Even if you win, you're still retarded.

  24. #22
    Admiral
    HWLUXX Superstar
    Avatar von sTOrM41
    Registriert seit
    13.10.2005
    Ort
    Magdeburg
    Beiträge
    19.015
    Themenstarter


    • Systeminfo
      • CPU:
      • Xeon W3680 @ 4000 MHz
      • Gehäuse:
      • Dell Precision T3500
      • RAM:
      • 12GB 1333 MHz
      • Grafik:
      • MSI GTX 1080 [email protected]
      • Storage:
      • Transcend 370, Kingston V300
      • Monitor:
      • 27 Zoll 1440p + 27 Zoll 1080p
      • Sound:
      • AKG K530,Edifier S330D, Siberia V2
      • Netzteil:
      • Dell 525W
      • Betriebssystem:
      • Windows 10 x64
      • Sonstiges:
      • Logitech G19 + Sharkoon Drakonia
      • Notebook:
      • Acer 3820TG + Acer 1810T
      • Photoequipment:
      • Canon EOS 450D, Samsung WB2000
      • Handy:
      • LG G4

    Standard

    auch bei computerbase hat man sich mal wieder dem cpu limit angenommen
    Heroes 7: Benchmarks mit 22 Grafikkarten zeigen großen Hardware-Hunger - ComputerBase

    "Auffällig ist, dass AMD-Grafikkarten einen schnelleren Prozessor als Nvidia-Modelle benötigen. Während die GeForce GTX 980 Ti die volle Geschwindigkeit mit einem auf 3,5 getakteten Core i7-4770K mit vier Kernen erreicht, skaliert die Radeon R9 Fury X auch noch mit einer Takterhöhung auf 4,5 GHz. Die Radeon-Modelle verlieren vor allem bei Zwei-Kern-CPUs mehr an Performance, was auch Hyper-Threading nicht ausgleichen kann. Mit einer Vier-Kern-CPU ist man schlussendlich aber auch bei einer AMD-Karte auf der sicheren Seite."
    Arguing on the internet is like running in the Special Olympics. Even if you win, you're still retarded.

  25. #23
    Flottillenadmiral Avatar von Phantomias88
    Registriert seit
    19.04.2008
    Ort
    PorscheTown
    Beiträge
    6.073


    • Systeminfo
      • Motherboard:
      • ASUS Sabertooth Gen3/R2.0
      • CPU:
      • AMD FX-8350 (Vishera)
      • Systemname:
      • DragonBooster III
      • Kühlung:
      • EK WB Supreme LTX
      • Gehäuse:
      • SuperFlower SF-2000 Big Tower
      • RAM:
      • 4x 8GB DDR3-1866 DualRank ECC
      • Grafik:
      • 2x XFX R7970 DD 925M 3GiB CfX
      • Storage:
      • 3x SSD SATA III native + 3 HDDs
      • Monitor:
      • Samsung FHD TV 37" 550cdm
      • Netzwerk:
      • FritzBox!
      • Sound:
      • onboard
      • Netzteil:
      • Corsair HX850 80+ [email protected]%
      • Betriebssystem:
      • Windows 10 x64 Pro 15063
      • Notebook:
      • ?
      • Handy:
      • SAMSUNG Galaxy SIII

    Standard

    Zitat Zitat von sTOrM41 Beitrag anzeigen
    mit nem fetten i5, fx9590, oder i7 fällt der dx11 cpu overhead bei den roten nicht ganz so ins gewicht, die 30% die der treiber zusätzlich verschluckt kompensiert so eine cpu halt eben.
    mit einer langsameren cpu kann das ganze dann aber durchaus nen ganz schönen unterschied machen.
    Lass den I5, i5 sein!
    Das is(s)t keine Konkurrenz für AMD, eher die 6C/12T mit Quad-Channel SI.
    CPU: AMD FX-8350 1.3625Vid @ my style | MB: ASUS Sabertooth 990FX R2.0/Gen3 -> zwo x16 Lanes PCIE3.0 onboard
    RAM: 4x 8GiB DDR3-2400 CL14 2T ECC Crucial | GraKa: 2x XFX Radeon R7970 DD 925M [email protected]
    NT: Corsair HX850 80+ [email protected]% load | WaKü: EK WB Supreme LTX / 6l | Displays: Samsung 37" LCD Full HD @ 550cd/m²

  26. #24
    Admiral
    HWLUXX Superstar
    Avatar von sTOrM41
    Registriert seit
    13.10.2005
    Ort
    Magdeburg
    Beiträge
    19.015
    Themenstarter


    • Systeminfo
      • CPU:
      • Xeon W3680 @ 4000 MHz
      • Gehäuse:
      • Dell Precision T3500
      • RAM:
      • 12GB 1333 MHz
      • Grafik:
      • MSI GTX 1080 [email protected]
      • Storage:
      • Transcend 370, Kingston V300
      • Monitor:
      • 27 Zoll 1440p + 27 Zoll 1080p
      • Sound:
      • AKG K530,Edifier S330D, Siberia V2
      • Netzteil:
      • Dell 525W
      • Betriebssystem:
      • Windows 10 x64
      • Sonstiges:
      • Logitech G19 + Sharkoon Drakonia
      • Notebook:
      • Acer 3820TG + Acer 1810T
      • Photoequipment:
      • Canon EOS 450D, Samsung WB2000
      • Handy:
      • LG G4

    Standard

    Zitat Zitat von Phantomias88 Beitrag anzeigen
    Lass den I5, i5 sein!
    Das is(s)t keine Konkurrenz für AMD, eher die 6C/12T mit Quad-Channel SI.
    Arguing on the internet is like running in the Special Olympics. Even if you win, you're still retarded.

  27. #25
    Vizeadmiral Avatar von slot108
    Registriert seit
    17.08.2011
    Beiträge
    8.166


    • Systeminfo
      • Motherboard:
      • Z77X/D3H
      • CPU:
      • 3570k @4,4
      • Systemname:
      • Rommel 8000
      • Kühlung:
      • Macho
      • Gehäuse:
      • Aerocool/ENV4
      • RAM:
      • 16GB @1800
      • Grafik:
      • 980Ti @1500
      • Storage:
      • reicht noch
      • Monitor:
      • 1x FullHD + 1x UHD @60Hz
      • Netzwerk:
      • Router
      • Sound:
      • Stereo
      • Netzteil:
      • E9BeQuiet!700W
      • Betriebssystem:
      • 10
      • Sonstiges:
      • ich hab 2 Aufkleber drauf gemacht

    Standard

    Willkommen im Club!

    ich versteh ihn auch nich
    Its not about how hard you hit. Its about how hard you can get hit and keep moving forward.
    2hset

Seite 1 von 60 1 2 3 4 5 11 51 ... LetzteLetzte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •