Seite 3 von 4 ErsteErste 1 2 3 4 LetzteLetzte
Ergebnis 51 bis 75 von 85
  1. #51
    Bootsmann Avatar von GuruSMI
    Registriert seit
    25.03.2019
    Ort
    ::1
    Beiträge
    516


    • Systeminfo
      • Motherboard:
      • Gigabyte Aorus Master
      • CPU:
      • Ryzen 3800X
      • Systemname:
      • Naboo, Endor, Alderaan, Coruscant
      • Kühlung:
      • Alphacool Eisbär LT 360
      • Gehäuse:
      • BeQuiet Silent Base 801
      • RAM:
      • 4*8 Corsair Vengeance 3600CL18
      • Grafik:
      • Sapphire Pulse 5700XT on Riser
      • Storage:
      • Sabrent 1TB PCIe4, 2TB Intel 660P
      • Monitor:
      • 3 * 32" WQHD
      • Netzwerk:
      • GB-Lan & WLan AC
      • Sound:
      • Einiges
      • Netzteil:
      • Seasonic Focus Gold 850W
      • Betriebssystem:
      • W10 Pro, Linuxe
      • Sonstiges:
      • Einiges
      • Notebook:
      • Einige
      • Photoequipment:
      • keine
      • Handy:
      • Einige

    Standard

    @Holzmann:

    Für was braucht man in der Zentralschweiz eigentlich Prozessoren mit über 1GHz? Um schneller Schissdütscher zu schreiben?
    Scherzle gmacht
    Gigabyte Aorus X570 Series – Informationssammlung, Erfahrungen, Tips und Tricks


    Naboo Endor

    Fridays for Hubraum.
    „Die Schlauen geben keine unerbetenen Ratschläge, die Weisen geben nicht einmal erbetene Ratschläge.“ - Louis Pasteur

  2. Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

  3. #52
    The Saint Avatar von Holzmann
    Registriert seit
    02.05.2017
    Ort
    Luzern
    Beiträge
    13.870


    • Systeminfo
      • Motherboard:
      • ASUS ROG Crosshair VIII Formula, x570
      • CPU:
      • AMD R9 3900x Zen2
      • Kühlung:
      • Corsair Hydro H115i Platinum
      • Gehäuse:
      • Corsair 460x
      • RAM:
      • Corsair Dominator Platinum
      • Grafik:
      • AMD Radeon7 by MSI
      • Storage:
      • Corsair NX 500 PCI SSD 400 GB
      • Monitor:
      • Dell
      • Netzteil:
      • Corsair AX 860i
      • Betriebssystem:
      • Win10

    Standard

    Löl
    Unter den langsamen bin ich einer der schnellsten
    "Niemals aufgeben, niemals kapitulieren!"
    Jason Nesmith, Commander NSEA Protector

    Verkaufe:
    Forum de Luxx
    Neu:
    [Sammelthread] Historischer Benchmark (Spiele) Teil I
    [Sammelthread] Benchmark (Spiele) Teil II

  4. #53
    Kapitänleutnant Avatar von Shevchen
    Registriert seit
    20.01.2011
    Beiträge
    1.609


    • Systeminfo
      • Motherboard:
      • ROG Crosshair VIII Impact X570
      • CPU:
      • Ryzen 7 2700X
      • Kühlung:
      • XPX Wasserblock
      • Gehäuse:
      • Corsair 1000D
      • RAM:
      • 32 GB DDR4 3600 C14 DR
      • Grafik:
      • Radeon RX 5700 XT Anniversary
      • Storage:
      • 2TB NVMe SSD
      • Monitor:
      • Asus XV279Q
      • Netzwerk:
      • Draytek Vigor | Ubiquity 6P
      • Sound:
      • RME ADI-2 Pro FS
      • Netzteil:
      • Corsair AX1600i
      • Betriebssystem:
      • Win 10 (64) // Arch Linux
      • Notebook:
      • ThinkPad E585 2700U

    Standard

    Zitat Zitat von Paddy92 Beitrag anzeigen
    Wo siehst du hier einen AMD vs Intel Modus?
    Oh sry, dass ich erwähnt habe, dass Intel bei der Single-Core-Performance besser ist. Ist deine Reaktion jetzt nicht eher als Beißreflex zu werten?
    Weil ich hinterfragt hab?

    Ne, nicht wirklich. Das ist ziemlich willkürlich..
    Also gibt es deine Meinung nach keine kausalen Zusammenhänge dazwischen?

    Dieses Thread-Balancing liegt aber in der Verantwortung von dem OS und nicht von dem Softwareentwickler. Zudem passiert dies genauso, wenn Anzahl der Kerne == Anzahl der genutzten Threads.
    Weshalb wir ja die SMT/HT Problematik bei einigen Spielen haben, wo es eben nicht mehr hinhaut. Und die software kann durchaus Prioritäten verteilen, Threads festklemmen oder auch Cache Sensitiv programmiert werden. Ist natürlich mit einem gewissen Aufwand verbunden. Nur: Die Pro-Anwendungen schaffen das. Spiele irgendwie nicht.

    Jetzt kann man natürlich sagen, dass Spiele den Speicher stark belasten, weil die Szenen schnell wechseln, weshalb Latenzen eine größere Rolle spielen. Aber gerade deshalb sollte dann dort doch auch entsprechend gut programmiert werden.

    Bring doch ganz einfach den Beweis dafür, dass es erst mit 5,3 GHz wirklich flüssig läuft..
    Wenn jemand mit ner RX570 ins CPU Limit knallt, würde ich gerne wissen woran es sonst liegen könnte:
    https://mwomercs.com/forums/topic/25...-get-more-fps/

  5. #54
    Admiral
    Registriert seit
    05.07.2010
    Beiträge
    19.245


    Standard

    Zitat Zitat von Paddy92 Beitrag anzeigen
    Dieses Thread-Balancing liegt aber in der Verantwortung von dem OS und nicht von dem Softwareentwickler.
    Ja, aber sowohl unter Linux wie auch unter Windows kann der SW Entwickler die Threads seiner Software auch bewusst bestimmten Kerne zuweisen. Wird bei Spielen wohl kaum jemand machen, dazu müsste er zu viele unterschiedliche Szenarien berücksichtigen und ausprobieren welches Verteilung optimal wäre und spätestens wenn dann nebenbei noch ein andere Software auch einen Kern ausgewählt hat und diesen voll auslastet den das Spiel auch voll auslasten wollte, geht der Schuss komplett nach hinten los. Es gibt aber Fälle wo dies Sinn macht und daher auch gemacht wird.

    Im übrigen wurde der Task Scheduler von Windows ja schon mehrfach auf die verschiedenen AMD CPUs und deren Besonderheiten wie die CCX und NUMA bei den bisherigen TR optimiert, zuletzt für RYZEN 3000 um zusammen mit dem Chipsatz Treiber dann für Singlethreadlast den taktfreudigsten Kern auszuwählen:
    Je mehr ich in Foren lese, umso mehr stelle ich fest: Geist addiert sich nicht, Dummheit schon!

    "Früher benutzte man im Diskurs sogenannte Argumente, heute wird man im Internet mit Scheiße beworfen, beschimpft, bedroht" Dieter Nuhr (Nuhr im Ersten vom 2. Mai 2019 ab 6:00)

  6. #55
    Bootsmann Avatar von GuruSMI
    Registriert seit
    25.03.2019
    Ort
    ::1
    Beiträge
    516


    • Systeminfo
      • Motherboard:
      • Gigabyte Aorus Master
      • CPU:
      • Ryzen 3800X
      • Systemname:
      • Naboo, Endor, Alderaan, Coruscant
      • Kühlung:
      • Alphacool Eisbär LT 360
      • Gehäuse:
      • BeQuiet Silent Base 801
      • RAM:
      • 4*8 Corsair Vengeance 3600CL18
      • Grafik:
      • Sapphire Pulse 5700XT on Riser
      • Storage:
      • Sabrent 1TB PCIe4, 2TB Intel 660P
      • Monitor:
      • 3 * 32" WQHD
      • Netzwerk:
      • GB-Lan & WLan AC
      • Sound:
      • Einiges
      • Netzteil:
      • Seasonic Focus Gold 850W
      • Betriebssystem:
      • W10 Pro, Linuxe
      • Sonstiges:
      • Einiges
      • Notebook:
      • Einige
      • Photoequipment:
      • keine
      • Handy:
      • Einige

    Standard

    Zitat Zitat von Holzmann Beitrag anzeigen
    Löl
    Unter den langsamen bin ich einer der schnellsten
    Ich habe 5 Jahre CH hinter mir. BS, TG und SO.
    Gigabyte Aorus X570 Series – Informationssammlung, Erfahrungen, Tips und Tricks


    Naboo Endor

    Fridays for Hubraum.
    „Die Schlauen geben keine unerbetenen Ratschläge, die Weisen geben nicht einmal erbetene Ratschläge.“ - Louis Pasteur

  7. #56
    Admiral Avatar von RAZ0RLIGHT
    Registriert seit
    19.08.2007
    Ort
    Bayern
    Beiträge
    14.411


    Standard

    Zitat Zitat von Holt Beitrag anzeigen
    Eben und die Erklärung findet sich hier:

    https://www.youtube.com/watch?v=aM8I7NfpzXQ

    Gerüchte über die Comet Lake Modelle und deren Preise gibt es ja schon:


    Ob dies so stimmt, weiß man natürlich nicht, aber klingt recht glaubwürdig, denn damit würde es wieder mehr Kerne zum gleichen Preis wie bei den Vorgängern geben bzw. für Modelle mit gleicher Leistung weniger zu bezahlen sein, die CPU Taktraten werden nochmals leicht steigen, was bei Cascade Lake im Vergleich zu Skylake Refesh ja auch der Fall war und die maximal 5,2GHz Boosttakt des Spitzenmodells schaffen so manche Coffee Lake schon heute. Dazu wird endlich mal der offizielle RAM Takt angehoben, denn die maximal 3200 schaffen die RAM Controller der Intel CPUs ja schon mal.
    Aha, bei Intel sind solche Gerüchte/Leaks, "recht glaubwürdig" bei AMD aber nicht/nie.
    Deine Doppelmoral verblüfft mich immer wieder.

    Wie nervig diese AMD vs Intel Wars sind.
    Kauft doch einfach das Produkt das am besten zu euch passt, Auswahl und gute Preise gibt es mittlerweile.
    Geändert von RAZ0RLIGHT (24.10.19 um 22:46 Uhr)

  8. #57
    Oberleutnant zur See
    Registriert seit
    23.08.2010
    Beiträge
    1.380


    Standard

    Zitat Zitat von Shevchen Beitrag anzeigen
    Weil ich hinterfragt hab?
    Nö, weil du mir einfach so aus dem Nichts einen AMD vs Intel Modus vorwirfst..


    Zitat Zitat von Shevchen Beitrag anzeigen
    Also gibt es deine Meinung nach keine kausalen Zusammenhänge dazwischen?
    Naja, da deine getroffene These irgendwie nicht zutrifft, wohl eher nicht


    Zitat Zitat von Shevchen Beitrag anzeigen
    Nur: Die Pro-Anwendungen schaffen das. Spiele irgendwie nicht.

    Jetzt kann man natürlich sagen, dass Spiele den Speicher stark belasten, weil die Szenen schnell wechseln, weshalb Latenzen eine größere Rolle spielen. Aber gerade deshalb sollte dann dort doch auch entsprechend gut programmiert werden.
    Oder liegt es einfach nur daran, dass sich die Workloads bei den Pro-Anwendungen allgemein besser parallelisieren lassen und da weniger Abhängigkeiten zwischen den unterschiedlichen Tasks herrschen?
    Gerade bei Spielen muss sehr viel untereinander synchronisiert werden, was einer freien Skalierung über alle verfügbaren Threads entgegen steht. Die freien Ressourcen können dann dafür anderen Sachen genutzt werden, wie z.B. den Kopierschutz.. Denuvo


    Zitat Zitat von Shevchen Beitrag anzeigen
    Wenn jemand mit ner RX570 ins CPU Limit knallt, würde ich gerne wissen woran es sonst liegen könnte:
    https://mwomercs.com/forums/topic/25...-get-more-fps/
    "Honestly I didn't notice much of a difference between 3.5 and 4.4ghz in this game. Maybe if I had more settings turned up but as is, the cpu never seems to get pushed."

    Hä, was denn jetzt?
    Ich dachte die FPS skalieren bei dem Spiel linear mit der Frequenz..
    Das Spiel an sich scheint ziemlich broken zu sein..


    Zitat Zitat von Holt Beitrag anzeigen
    Ja, aber sowohl unter Linux wie auch unter Windows kann der SW Entwickler die Threads seiner Software auch bewusst bestimmten Kerne zuweisen. Wird bei Spielen wohl kaum jemand machen, dazu müsste er zu viele unterschiedliche Szenarien berücksichtigen und ausprobieren welches Verteilung optimal wäre und spätestens wenn dann nebenbei noch ein andere Software auch einen Kern ausgewählt hat und diesen voll auslastet den das Spiel auch voll auslasten wollte, geht der Schuss komplett nach hinten los. Es gibt aber Fälle wo dies Sinn macht und daher auch gemacht wird.
    Spiele/Software für Konsolen oder andere Systeme, wo bestimmte Kerne fürs OS abgestellt werden und der Entwickler nicht befürchten muss, dass da auf einmal etwas anderes den Kern belastet, wären solche Kandidaten wo es Sinn machen würde Threads an bestimmte Kerne zu binden bzw zuzuweisen. Ich denke mal, dass die Wahrscheinlichkeit höher ist sich die Performance zu versauen - wodurch hast du ja schon beschrieben - als da wirklich groß die Performance zu verbessern. Man sollte auch bedenken, dass die Betriebssysteme ja nicht einfach so willkürlich die Threads zwischen den Kernen hin- und herschieben, sondern versuchen die ganzen Threads möglichst gut über die Kerne zu verteilen, um so die anstehenden Workloads zu balancieren. Dazu werden die Scheduler der OS ja auch immer weiter optimiert.

    Threads bestimmten Kernen zuweisen ist schon ziemlich Nische.

  9. #58
    Flottillenadmiral Avatar von Powl
    Registriert seit
    13.11.2015
    Beiträge
    5.014


    • Systeminfo
      • Motherboard:
      • Asus Crosshair VI Hero
      • CPU:
      • AMD Ryzen 7 3800X
      • Systemname:
      • Ryzenshine
      • Kühlung:
      • kryos NEXT + DCP450M + LS360
      • Gehäuse:
      • Lian Li O11 Dynamic White
      • RAM:
      • 48GB Corsair RGB + Ballistix
      • Grafik:
      • GTX 1080Ti + FD Celsius S36
      • Storage:
      • 500GB Gammix S11 + 500GB 850 Evo + 500GB 840 Evo
      • Monitor:
      • Iiyama X4071
      • Netzwerk:
      • i211(T)
      • Sound:
      • PreSonus Eris E4.5 + DT880 Pro + Samson Go Mic
      • Netzteil:
      • Corsair HX850i
      • Betriebssystem:
      • Win 10 Pro 64bit
      • Notebook:
      • Thinkpad E495
      • Handy:
      • OnePlus 6 128GB

    Standard

    Zitat Zitat von Holt Beitrag anzeigen
    Richtig, es war SATA und es waren die B2 (die B3 Stepping waren die gefixte Version) bei der die SATA 3Gb/s und nicht die USB Ports nach einiger ausfallen konnten. SATA und auch nur die SATA 3Gb/s Port, die SATA 6Gb/s Ports waren nicht betroffen, nicht USB, aber Hauptsache mal was behaupten, auch wenn man gar nicht mehr genau weiß was eigentlich Sache war. Googlet doch erst statt nur aus dem Nebel der Erinnerungen zu schöpfen, dann wäre auch dir nicht der Fehler unterlaufen, dass das B3 Stepping das mit dem Fehler wäre, denn das war das B2. Auf den Rest einzugehen ist sinnfrei, denn Verschwörungstheorien kann man mit der Wahrheit nicht vertreiben.
    Ich war nicht der, der mit USB anfing, das kam von nem anderen User. Du warst dagegen der, der Intel Probleme untern Teppich kehren wollte.

    Wow, hab ich nicht sofort für den großen Holt Zeit aufgewendet, Schande über mich.

    Der Punkt bleibt bestehen, bei den 60er Chipsätzen war Sata im Eimer, bei den 70ern USb (siehe vorherige Posts), aktuell haben wir Sicherheitsprobleme. Was daran Verschwörungstheorien sein sollen, musst du mir noch erklären. Es wäre ein Anfang, wenn du mal mit der *ganzen* Wahrheit arbeitest, und dir nicht nur dein Lieblingsgebashe rauspickst

    Sent from OP6
    Geändert von Powl (25.10.19 um 02:25 Uhr)
    Zentaur: R7 3800X + C6H + kryos NEXT/DCP450M/LS360 | GTX 1080Ti 1.9G + FD Celsius S36 | 48GB DDR4-3400/16 | Lian Li O11D
    Zentiny: R3 2200G 3.8G + B450-I + Prism | RX 580 UV 1.2G | 16GB DDR4-3000/15 | BT-04B
    Potato: FX 8120 4.8G + 990FX Prof + Raystorm/240GTS | RX 570 1.5G | 16GB DDR3-1742/9 | PC-D60?
    Zenbench: R7 1700 3.7G + B350M Arctic + Macho B | 16GB DDR4-3200/16 | RX 480? | BS-10G?
    Gimli2: PII X6 1055T 3.5G + M4A88T-I + Luna/140/184 | RX 570 1.5G | 8GB DDR3-1433/9 | Core V1
    Lapzen: R5 3500U + 20NEA | RX Vega 8 | 16GB DDR4-2400/17 | ThinkPad E495

  10. #59
    Leutnant zur See
    Registriert seit
    03.05.2013
    Beiträge
    1.109


    Standard

    Zitat Zitat von [HOT] Beitrag anzeigen
    Die von Holt verlinkte Tabelle ist purer Fake. Die Cometlake haben bis zu 125W TDP und den Sockel 1200, das ist schon bekannt und offiziell.
    Das tolle ist doch. Wenn man Holt ein Gegenargument entgegen setzt , er nicht darauf antwortet, dann weiß man sofort, dass das Gegenargument richtig ist.
    i5 4670K . ASRock Z97 Anniversary. 2x 8GB Kit . INNO3D GTX 1070 Twin X2.
    AMD X4 760K (Richland) - Gigabyte FM2+ F2A88XN-WIFI - 8GB Kit DDR3 1600 - Geforce GT 710 - (Media PC)
    Auf Holts Liste zu sein, ist der Ritterschlag für kompetente Argumente. Danke Holt, du darfst mich jetzt Sir nennen.

  11. #60
    Admiral
    Registriert seit
    05.07.2010
    Beiträge
    19.245


    Standard

    Zitat Zitat von Paddy92 Beitrag anzeigen
    Man sollte auch bedenken, dass die Betriebssysteme ja nicht einfach so willkürlich die Threads zwischen den Kernen hin- und herschieben, sondern versuchen die ganzen Threads möglichst gut über die Kerne zu verteilen, um so die anstehenden Workloads zu balancieren.
    Aber außerdem verschiebt gerade der von Windows die Threads schon sehr schnell zwischen den Kernen hin und her, wohl um eine gleichmäßige Erwärmung zu erreichen. Der von Linux verschiebt sie weitaus langsamer zwischen den Kernen, wie man gut sehen kann wenn man eine Singlethreadlast hat und sich bei top die Auslastungen der einzelnen Kerne ansieht.

    Zitat Zitat von Paddy92 Beitrag anzeigen
    Dazu werden die Scheduler der OS ja auch immer weiter optimiert.
    Zumindest wurde er von MS und AMD immer wieder auf die Belange der AMD CPUs angepasst, wobei die Funktion Singlethreadlasten im Zusammenarbeit mit einem Treiber der CPU Hersteller gezielt auf den schnellsten Kern zu schieben, auch schon vorher für Intels Turbo 3.0 implementiert wurde, welches die HEDT CPUs (und ggf. deren Xeon Ableger) ja schon länger haben, ich meine mindestens seit den Broadwell und dort auch fehlerfrei funktioniert.

    Zitat Zitat von Powl Beitrag anzeigen
    Der Punkt bleibt bestehen, bei den 60er Chipsätzen war Sata im Eimer
    Nur beim B2 Stepping und nur die SATA 3Gb/s Ports, aber damals hatte AMD einfach keine akzeptable Alternative so es auch keine Alternative zu den Atom C2000 gibt, da AMD keine Nachfolger für seine Katzen-CPUs (Bobcat, Jaguar) gebracht hat. Sicherheitsprobleme hatte auch AMD: Anders als bei Intel harkt es bei AMD aber an der Verteilung dieser Micro*code*up*dates:
    Warum auch immer, aber das Thema Sicherheitslücke ist noch ein Beispiel warum OEMs lieber Intel als AMD nehmen, bei Intel reicht es den Kunden zum Updates auf das neuste Win 10 zu verweisen damit die Lücken geschlossen sind.
    Je mehr ich in Foren lese, umso mehr stelle ich fest: Geist addiert sich nicht, Dummheit schon!

    "Früher benutzte man im Diskurs sogenannte Argumente, heute wird man im Internet mit Scheiße beworfen, beschimpft, bedroht" Dieter Nuhr (Nuhr im Ersten vom 2. Mai 2019 ab 6:00)

  12. #61
    Kapitänleutnant Avatar von Shevchen
    Registriert seit
    20.01.2011
    Beiträge
    1.609


    • Systeminfo
      • Motherboard:
      • ROG Crosshair VIII Impact X570
      • CPU:
      • Ryzen 7 2700X
      • Kühlung:
      • XPX Wasserblock
      • Gehäuse:
      • Corsair 1000D
      • RAM:
      • 32 GB DDR4 3600 C14 DR
      • Grafik:
      • Radeon RX 5700 XT Anniversary
      • Storage:
      • 2TB NVMe SSD
      • Monitor:
      • Asus XV279Q
      • Netzwerk:
      • Draytek Vigor | Ubiquity 6P
      • Sound:
      • RME ADI-2 Pro FS
      • Netzteil:
      • Corsair AX1600i
      • Betriebssystem:
      • Win 10 (64) // Arch Linux
      • Notebook:
      • ThinkPad E585 2700U

    Standard

    Zitat Zitat von Paddy92 Beitrag anzeigen
    Nö, weil du mir einfach so aus dem Nichts einen AMD vs Intel Modus vorwirfst..
    Warum reitest du denn sonst so auf der Kernanzahl rum?

    Naja, da deine getroffene These irgendwie nicht zutrifft, wohl eher nicht
    SMT/HT an/aus hat also absolut keine kausalen Zusammenhänge zwischen der Engine-Programmierung und den zugeteilten Threads. Na dann...

    Oder liegt es einfach nur daran, dass sich die Workloads bei den Pro-Anwendungen allgemein besser parallelisieren lassen und da weniger Abhängigkeiten zwischen den unterschiedlichen Tasks herrschen?
    100 Punkte! Die pro-Anwendungen wurden so gebaut, dass man sie gut in Workloads aufteilen kann. Ist bei Spielen auch möglich, erfordert halt nur, dass man die Engine entkernt und von Anfang an jeden Thread unabhängig aufbaut. Bei Runtime-Bedingungen baust du dann evtl. einen kleinen Thread-Cluster zusammen. Benötigt natürlich ein recht tiefes Eingreifen in die spiel-Logik. mit Baukastenprogrammierung funzt das ganze nicht mehr.

    Gerade bei Spielen muss sehr viel untereinander synchronisiert werden, was einer freien Skalierung über alle verfügbaren Threads entgegen steht. Die freien Ressourcen können dann dafür anderen Sachen genutzt werden, wie z.B. den Kopierschutz.. Denuvo
    Und warum bekommt Star Citizen das dann hin? Gibt ein paar interessante Videos dazu auf Youtube, wie das Ding sich im Offline-Modus verhält.




    "Honestly I didn't notice much of a difference between 3.5 and 4.4ghz in this game. Maybe if I had more settings turned up but as is, the cpu never seems to get pushed."

    Hä, was denn jetzt?
    Ich dachte die FPS skalieren bei dem Spiel linear mit der Frequenz..
    Das Spiel an sich scheint ziemlich broken zu sein..
    Und was für ne GPU hat der Typ? Zockt der noch mit ner IGP?
    Aber generell: Ja - das Spiel ist ziemlich kaputt.


    Spiele/Software für Konsolen oder andere Systeme, wo bestimmte Kerne fürs OS abgestellt werden und der Entwickler nicht befürchten muss, dass da auf einmal etwas anderes den Kern belastet, wären solche Kandidaten wo es Sinn machen würde Threads an bestimmte Kerne zu binden bzw zuzuweisen. Ich denke mal, dass die Wahrscheinlichkeit höher ist sich die Performance zu versauen - wodurch hast du ja schon beschrieben - als da wirklich groß die Performance zu verbessern. Man sollte auch bedenken, dass die Betriebssysteme ja nicht einfach so willkürlich die Threads zwischen den Kernen hin- und herschieben, sondern versuchen die ganzen Threads möglichst gut über die Kerne zu verteilen, um so die anstehenden Workloads zu balancieren. Dazu werden die Scheduler der OS ja auch immer weiter optimiert.

    Threads bestimmten Kernen zuweisen ist schon ziemlich Nische.
    Es ist halt ein großer aufwand das so zu bauen, dass es nicht degradiert. Richtig.

  13. #62
    Oberleutnant zur See
    Registriert seit
    23.08.2010
    Beiträge
    1.380


    Standard

    Zitat Zitat von Shevchen Beitrag anzeigen
    Warum reitest du denn sonst so auf der Kernanzahl rum?
    Tue ich nicht. Ich gehe nur auf deine Aussagen über die faulen Softwareentwickler ein.


    Zitat Zitat von Shevchen Beitrag anzeigen
    Ist bei Spielen auch möglich, erfordert halt nur, dass man die Engine entkernt und von Anfang an jeden Thread unabhängig aufbaut.
    Eine komplette Unabhängigkeit zwischen den einzelnen Threads bei einem Game wirst du nicht erreichen.
    Aber woher willst du denn wissen, dass nicht schon darauf geachtet wird, dass es möglichst wenig Abhängigkeiten zwischen den Threads besteht?


    Zitat Zitat von Shevchen Beitrag anzeigen
    Und warum bekommt Star Citizen das dann hin?
    Weil dieses Genre dafür prädestiniert ist: Letztlich wird es aber immer auch auf die Spiele ankommen, ob sich die Optimierung für viele Kerne und Threads lohnt. Explizit wird im Rahmen der GDC 2018 das Sandbox-Genre rund um Spiele wie Total War oder anderen Games mit Massenschlachten hervorgehoben, da dort durch viele Einheiten auf großen Karten der größte Bonus sichtbar wird. Bis zu einem gewissen Teil lässt sich dies auch in anderen Genres umsetzen, allerdings mit weitaus geringerem Effekt. Dies kann dazu führen, dass Optimierungen gleich von Anfang an nicht in diesen Bereich sondern nur für die GPU angegangen werden – Games mit geringer CPU-Optimierung und -Skalierung wird es deshalb auch in Zukunft geben.


    Zitat Zitat von Shevchen Beitrag anzeigen
    Und was für ne GPU hat der Typ? Zockt der noch mit ner IGP?
    Aber generell: Ja - das Spiel ist ziemlich kaputt..
    Hä?!
    Ich habe mir das aus deinem Link genommen. Das ist der Dude mit der rx470..

  14. #63
    Kapitänleutnant Avatar von Shevchen
    Registriert seit
    20.01.2011
    Beiträge
    1.609


    • Systeminfo
      • Motherboard:
      • ROG Crosshair VIII Impact X570
      • CPU:
      • Ryzen 7 2700X
      • Kühlung:
      • XPX Wasserblock
      • Gehäuse:
      • Corsair 1000D
      • RAM:
      • 32 GB DDR4 3600 C14 DR
      • Grafik:
      • Radeon RX 5700 XT Anniversary
      • Storage:
      • 2TB NVMe SSD
      • Monitor:
      • Asus XV279Q
      • Netzwerk:
      • Draytek Vigor | Ubiquity 6P
      • Sound:
      • RME ADI-2 Pro FS
      • Netzteil:
      • Corsair AX1600i
      • Betriebssystem:
      • Win 10 (64) // Arch Linux
      • Notebook:
      • ThinkPad E585 2700U

    Standard

    Zitat Zitat von Paddy92 Beitrag anzeigen
    Tue ich nicht. Ich gehe nur auf deine Aussagen über die faulen Softwareentwickler ein.
    Die es ja gibt. Du schreibst ja selbst weiter unten, dass es andere Spiele gibt, wo (versucht wird) die Parallelisierung auszureizen.

    Zum Thema Grenzen: Das habe ich in meinem vorherigem Post erwähnt: Wenn du feste Abhängigkeiten hast, dann erzeugst du einen Thread-Cluster, wo die Threads möglichste innerhalb einer Cache-Zone verbleiben. Das löst zwar nicht die Laufzeitbedingungen, führt aber dazu, dass der Thread auf dem gleichen CPU-Cluster bleibt, so dass am Ende der Berechnung der Cache nicht neu generiert werden muss um das finale Ergebnis zu berechnen. Vor allem bei CPUs mit vielen CPU-Clustern (auch hier: Unabhängig von Intel und AMD - beide machen das) bringt das nochmal einiges an Performance.

    Auch ist es möglich Speicherbereiche, die von mehreren Threads benutzt werden in einen Cluster zu packen, so dass dort nicht dauernd hin und her geflusht wird. So verhindert man dann idle Prozesse und optimiert weiter die Auslastung, selbst wenn eine bestimmte Unterfunktion wartet.

    Eine komplette Unabhängigkeit zwischen den einzelnen Threads bei einem Game wirst du nicht erreichen.
    Nein, du kannst aber trotzdem soweit optimieren, dass du sehr nahe ans Optimum kommst. Auch Star Citizen hat abhängige Threads. Der Hauptunterschied von Star Citizen und anderen Spielen ist, dass die keinen Hauptthread mehr haben, sondern diesen in viele kleine Unterthreads aufgespalten haben, die dann wiederum weiter aufgespalten worden sind. Das wird so lange gemacht, bis der Vorteil der Aufspaltung den Nachteil des größeren "Verwaltungsaufwandes" nicht mehr rechtfertigt.

    Das kann jedes Spiel machen - von 4 dödeligen Kernen bis hin zu 128.

    Aber woher willst du denn wissen, dass nicht schon darauf geachtet wird, dass es möglichst wenig Abhängigkeiten zwischen den Threads besteht?
    Wie ich? Die software-Devs sollen das gefälligst machen. Ich bin der Kunde, der das Spiel kauft. Und wenns ranzig rennt, weil man das Geld ins Marketing statt in die Programmierung gesteckt hat, gibts von mir halt keine Knete. Soweit kommts noch, dass ich als Kunde das Spiel mit nem Profiler auseinander nehme und dann nah stundenlanger Arbeit den Devs ihre zu optimierenden Unterfunktionen vorlege.

    Jo, und in MWO kannst du theoretisch auch wunderbar parallelisieren. Haben se aber nicht gemacht, weil sie nach einem Jahr den letzten Engine-Typen rausgeschmissen haben. Und ab da gabs halt keine Optimierungen mehr. Kurz: Gier.

    Ich verlange keine komplette Totaloptimierung auf Assembler-Niveau. Was ich will, ist eine technisch solide Umsetzung der aktuellen Technologie.

    Hä?!
    Ich habe mir das aus deinem Link genommen. Das ist der Dude mit der rx470..
    Yo, mein Fehler - dachte, das wäre ein anderer Typ gewesen. Wenn der Mensch zwischen 3.3GHz und 4.4GHz keinen Unterschied sieht, ist da noch was anderes kaputt.
    Als ich auf meinem alten 4930k von 3.9 auf 4.3 GHz gesprungen bin, hab ich da einen fast linearen Anstieg der FPS (und entsprechende GPU Auslastung) gesehen.

    Ich kann ja mal in den nächsten Tagen das gleiche mit meinem 2700X machen und die Skalierung aufmalen.

  15. #64
    Moderator Avatar von fdsonne
    Registriert seit
    08.08.2006
    Ort
    SN
    Beiträge
    34.767


    Standard

    Zitat Zitat von Shevchen Beitrag anzeigen
    Ist bei Spielen auch möglich, erfordert halt nur, dass man die Engine entkernt und von Anfang an jeden Thread unabhängig aufbaut. Bei Runtime-Bedingungen baust du dann evtl. einen kleinen Thread-Cluster zusammen. Benötigt natürlich ein recht tiefes Eingreifen in die spiel-Logik. mit Baukastenprogrammierung funzt das ganze nicht mehr.
    Das ist einfach mal komplett falsch.
    Bei einem Spiel möchte der Anwender nicht ein Ergebnis nach Zeit x - scheiß egal wie man dazu kommt. Sondern der Anwender möchte, dass JEDES verdammte Zwischenergebnis so schnell wie es nur irgendwie geht, auf dem Schirm angezeigt wird.

    Nimmt man das mal ins Verhältnis zu einem Cinebench Run, da wäre nicht die Zeit des Runs für das gesamte Bild relevant, sondern die Zeit, wie lange im Schnitt JEDER einzelne Worker benötigt um seinen Teil zu errechnen. -> und nur daran würde man messen. Eigentlich müsste dir hier auffallen, wo das Problem in Games liegt. Die Geschwindigkeit per FPS ermittelt ist am Ende das Resultat von einer strikt sequenziellen Abarbeitung - so oft wie möglich, so schnell wie möglich. Das lässt sich vom Prinzip also nicht per MT erschlagen. Damit man das Problem entschärft, setzen Entwickler auf Multithreading in verschiedenen Teilen des Backends und ebenso bei der Bilderzeugung. Aber auch dort sind klare Grenzen gesetzt.

    Simples Beispiel, was bringt es dir, die KI Berechnung 4x so schnell durchführen zu können (auf dem Papier), weil du von 2T auf 8T aufbohrst -> nichts. Absolut gar nichts. Die KI wird nicht schlauer, wenn der Prozessor schneller wird. Der Task ist einfach nur eher fertig und wartet dann bis zum nächsten Run. Im Backend des Spiels läuft die Berechnung normal nach genau definierten Regeln. Das Backend ist auch seit Jahrzenten entkoppelt vom Prozessor Speed, weil keiner in 2019 mehr braucht, dass das Spiel zu schnell läuft, wenn der Prozessor zu schnell ist (siehe Turbotaste zum Einbremsen damals)
    Das alles in Summe und noch ganz paar mehr Sachen hindern ein Spiel an einer ansatzweise linearen Skalierung über die CPU Cores in Sachen FPS nach OBEN! (wichtig, es geht dabei um das schneller werden)
    Nach unten ist lange kein Problem - um so niedriger der Takt, desto mehr MT Skalierung werden aktuelle Engines aufzeigen...

    Zitat Zitat von Shevchen Beitrag anzeigen
    Und warum bekommt Star Citizen das dann hin? Gibt ein paar interessante Videos dazu auf Youtube, wie das Ding sich im Offline-Modus verhält.
    Was bekommt SC denn hin?
    Eine MT Skalierung durch Einbau von noch und nöcher weiteren Berechnungen ist kein garant für gute Programmierung. Das bekommt jeder Deppen-Entwickler auf die Beine gestellt. SC skaliert auch nicht über die Threads in Form von absoluten FPS. Mit doppelt so vielen Cores wird das Spiel nicht doppelt so viele FPS raus hauen. Nichtmal ansatzweise. Bei SC skaliert es (wie bei so ziemlich jedem anderen Spiel auch) nur nach unten. Nämlich unterhalb der Basisleistung wird eine Core-Halbierung auch die Frames drastisch senken.

    Zudem ist SC noch ein ziemlich unpassendes Beispiel, es setzt auf autogenerierte Welten soweit ich das in Erinnerung habe, es ist kein Konsolenport und es ist zudem lange nicht Final. Niemanden interessiert wie das läuft, weil man sich immer hinter dem Alpha/Beta Argument versteckt, wenn es da problematisch wird mit der FPS Anzahl.

    Zitat Zitat von Shevchen Beitrag anzeigen
    Nein, du kannst aber trotzdem soweit optimieren, dass du sehr nahe ans Optimum kommst. Auch Star Citizen hat abhängige Threads. Der Hauptunterschied von Star Citizen und anderen Spielen ist, dass die keinen Hauptthread mehr haben, sondern diesen in viele kleine Unterthreads aufgespalten haben, die dann wiederum weiter aufgespalten worden sind. Das wird so lange gemacht, bis der Vorteil der Aufspaltung den Nachteil des größeren "Verwaltungsaufwandes" nicht mehr rechtfertigt.
    Man kann viel, wenn der Tag lang ist. Die Frage ist, was hat der Entwickler davon? Es geht dabei um Wirtschaftlichkeit - die Typen MÜSSEN Geld mit dem Produkt verlieren. Ein Spiel, was nur auf den obersten 10k Systemen überhaupt startet, verkauft sich nicht. Da nutzt Beste MT Skalierung und sonstwas nichts. Das Spiel muss idR auf einem 2C/4T Prozessor zumindest mal irgendwie laufen, die Konsolen mit 8C/8T, aber sehr niedrigem Takt setzen nochmals andere Anforderungen und bei den PClern kommen noch ganz anderen Konstellationen zum Tragen. Nur weil DU meinst, dass wäre ein Garant von schlechter Programmierung, wird das nicht zur Allgemeingültigkeit.

    Mal davon ab, auch ein SC hat diesen sogenannten Hauptthread. Den hat jedes Spiel. Der limitiert bei einem SC auch, wie bei jedem anderen Spiel, wenn man genügend Bumms für all den Beikram aufwendet. Der Unterschied bei einem SC zum Rest der Titel ist nur, dass ein SC so viel Beikram da eingebaut bekommen hat, dass du überdurchschnittlich breite CPUs auffahren musst um diesen Punkt zu erreichen. Über diesem Punkt skaliert da exakt gar nix mehr, denn das Problem, was andere Spiele durch andere Marktausrichtung viel eher aufzeigen ist exakt identisch. Der Thread, der in Schleife läuft bei jedem Frame, was an die GPU geht, wird nicht in die Breite skalieren. Auch bei einem SC nicht. Dein Argumentationsfehler ist hier, dass du offenbar lediglich die deutlich höhere Breitenanforderung als Basisperformance eines SC als Garant für gute Spieleprogrammierung nimmst - was aber zwei völlig verschiedene paar Schuhe sind.

    Es wäre wie gesagt ein leichtes nen 32C TR mit irgend einem Task in die Ecke zu fahren - dann hättest du ne perfekte Skalierung bis zu eben jenem Punkt. Aber immernoch das selbe Problem. Mit nem 64C erreichst du kein einziges Frame mehr Performance. Exakt das ist aber der Wunsch der Spieler, die wollen nicht 30 FPS oder 60 FPS - die wollen eben teils 120 FPS und mehr. Selbst in deinem SC ist das nicht möglich - und wenn du da nen 2x64C Epyc 2P Server auffährst, du wirst mit den FPS nicht nach oben skalieren, wenn die Basisperformance einmal ausreichend ist.


    PS: mit deinem SMT Ansichten liegst du auch weit neben der Realität. Das SMT ein Problem in Games darstellt bzw. darstellen kann ist im Endeffekt dem Resultat der gleichen Thematik wie oben erwähnt, geschuldet. Sobald das OS auch nur einen kleinen Teil zusätzliche Last über den zweiten Threads eines Cores einkippt - knickt die Performance normalerweise weg. DAS möchte in Games aber keiner. Deswegen bringt SMT meist nichts und ist sogar häufig Nachteilig. Das OS weis nichts von der Wichtigkeit dieses einen Threads, der für die FPS zuständig ist. Würde man nicht FPS als Maßstab nutzen, sondern die Menge an durchgeführten Aufgaben in einer Zeit x, würde man feststellen, dass SMT in so ziemlich jedem Fall zu mehr Leistung führt. Spielt für den Gamer aber keine Rolle - denn dem ist das völlig hupe. Er möchte FPS und das so hoch wie geht...
    Geändert von fdsonne (25.10.19 um 11:26 Uhr)
    Workstation: Core i7 5960X@4200MHz@1,170V@H100i | Asus X99-E WS | 4x8GB Kingston HyperX Fury DDR4-2666 CL15 | 2x GeForce GTX 780TI@SLI | ROG Xonar Phoebus | HPT RR2300 | SSD: 1x 250GB Evo 850; 1x240GB M500; HDD: 1x320GB; 1x2TB; 1x160GB; 4x1TB Raid5 | Corsair HX1000i | Win. 8.1 Prof. x64
    ESX Server: Dell PowerEdge T20 | Xeon E3-1220v3 | 4x4GB Samsung DDR3-1333 | Fujitsu MegaRaid D2516-D11 512MB | 2x500GB HDD Raid 1; 2x256GB MX100 Raid 1 | ESXi 5.5.0U2
    Fileserver: 2x Xeon 5160 | S5000PSL SATA | 8x4GB FB-Dimm DDR2-667 | AMD Radeon HD5870 1GB | HDD: 4x320GB SATA; 4x500GB SATA - je SW Raid 5 | PC Power & Cooling 500W | Win. Srv. 2012 R2 Std.
    Mobile: Sony Vaio VPCZ13V9E | Core i7 640M | 2x4GB DDR3-1600 | GeForce 330M | 4x64GB SSD | Win7 Prof.
    Tablet: MS Surface 2 Pro | Core i5 4200U | 8GB DDR3 RAM | 256GB SSD | Win. 8.1 Prof.

  16. #65
    Hauptgefreiter
    Registriert seit
    03.07.2007
    Beiträge
    142


    Standard

    Zitat Zitat von Holt Beitrag anzeigen
    Richtig, es war SATA und es waren die B2 (die B3 Stepping waren die gefixte Version) bei der die SATA 3Gb/s und nicht die USB Ports nach einiger ausfallen konnten. SATA und auch nur die SATA 3Gb/s Port, die SATA 6Gb/s Ports waren nicht betroffen, nicht USB, aber Hauptsache mal was behaupten, auch wenn man gar nicht mehr genau weiß was eigentlich Sache war. Googlet doch erst statt nur aus dem Nebel der Erinnerungen zu schöpfen, dann wäre auch dir nicht der Fehler unterlaufen, dass das B3 Stepping das mit dem Fehler wäre, denn das war das B2. Auf den Rest einzugehen ist sinnfrei, denn Verschwörungstheorien kann man mit der Wahrheit nicht vertreiben.
    Immer langsam, hier der Link zu den USB Problemen:
    Haswell: Intel hat im neuen Chipsatz Probleme mit USB 3.0 - Golem.de
    Es waren die 8er Chipsätze mit USB3 Problemen. Und bei Skylake bin ich mir da auch nicht sicher, ob das alles koscher ist. Bei meinen Kollegen und mir gibt's überraschend oft USB Probleme, die auf älteren oder neueren Geräten einwandfrei laufen. Nur die T460er machen da massiv Ärger, ältere oder neuere T hingegen laufen mit den selben USB Geräten problemlos (z.B. Plantronics Headset, haben wir intern schon mal quer getauscht).

  17. #66
    Bootsmann Avatar von GuruSMI
    Registriert seit
    25.03.2019
    Ort
    ::1
    Beiträge
    516


    • Systeminfo
      • Motherboard:
      • Gigabyte Aorus Master
      • CPU:
      • Ryzen 3800X
      • Systemname:
      • Naboo, Endor, Alderaan, Coruscant
      • Kühlung:
      • Alphacool Eisbär LT 360
      • Gehäuse:
      • BeQuiet Silent Base 801
      • RAM:
      • 4*8 Corsair Vengeance 3600CL18
      • Grafik:
      • Sapphire Pulse 5700XT on Riser
      • Storage:
      • Sabrent 1TB PCIe4, 2TB Intel 660P
      • Monitor:
      • 3 * 32" WQHD
      • Netzwerk:
      • GB-Lan & WLan AC
      • Sound:
      • Einiges
      • Netzteil:
      • Seasonic Focus Gold 850W
      • Betriebssystem:
      • W10 Pro, Linuxe
      • Sonstiges:
      • Einiges
      • Notebook:
      • Einige
      • Photoequipment:
      • keine
      • Handy:
      • Einige

    Standard

    wieviel Multiprozess-Programme habt Ihr denn schon entwickelt? Wieviel Ahnung habt ihr von Frameworks (im Gaming Engine genannt) und deren entwicklung? Von Multi-Prozess-Kommunikation wie Semaphoren, Pipes,...? Delta-Processing? Keine? Dachte ich mir.

    Man kann ein Programm auseinander dividieren, bis es nicht mehr geht. 4096 Threads parallel sind kein Problem. Das Problem steckt ganz woanders. Zum einen muß man sinnvoll segmentieren. Denn die meisten errechneten Ergebnisse braucht man für weitere Berechnungen. Um das mal ganz einfach darzustellen. Man berechnet eine Kreisfläche. A = r²*Pi. Man kann das ganze jetzt locker in zwei Threads splitten. T1 berechnet R² und T2 berechnet das Produkt. Nur macht das keinen Sinn. Denn T2 braucht das Ergebnis von T1. Diese Formel muss komplett sequentiell berechnet werden. Die Berechnung x = 7*7+7/7-7 hingegen kann geteilt werden. Aber auch nicht endlos. Und genau da liegt das Problem in Spielen. Viele Ergebnisse bauen auf anderen auf. Erschwert wird das ganze, indem man Engines verwendet. Damit handelt man sich eine Verallgemeinerung ein. Diese Engine ist nicht auf das jeweilige Spiel optimiert sondern man optimiert die eigene Entwicklung für die Engine. Als Beispiele außerhalb der Spieleentwicklung erkennt man das z.B. ganz deutlich, wenn man sich Java, DotNET oder auch SAP anschaut. Man codiert ganz locker und bequem. Aber von Registern, ALU's, Ports und Speicher-Adressierungsarten hat man keine Ahnung mehr. Von Shared Mem oder IPC (Interprocesscommunication) rede ich hier jetzt garnicht. Nicht nur in der Spieleentwicklung leidet dadurch die Software-Qualität. Das ist in der ganzen IT-Branche der Fall.

    Entwickelt man z.B. in Excel mit Makros, werden diese streng sequentiell abgearbeitet. Das geht auch nicht anders. Allein schon deshalb ist es viel schneller, ein eigenes AddOn zu schreiben. Und selbst da ist es noch wichtig, welche Basis man verwendet. Ein kleines praktisches Beispiel. Ich habe ein AddOn geschrieben, das ca. 5 Mio Zellen einliest, was berechnet und dann die gleiche Anzahl wieder in Tabellen zurückschreibt.
    In VBA ****** damals die Laufzeit ca. 5 Minuten
    In ExcelDNA mit Zellzugriff (Framework) waren es noch 30 Sekunden
    In ExcelDNA mit dem Auslesen als Ganzes dagegen 2 Sekunden.

    Es ist egal, ob man das Kind nun Bibliothek, Engine oder Framework tauft. Es ist alles das gleiche. Eine Verallgemeinerung.
    Gigabyte Aorus X570 Series – Informationssammlung, Erfahrungen, Tips und Tricks


    Naboo Endor

    Fridays for Hubraum.
    „Die Schlauen geben keine unerbetenen Ratschläge, die Weisen geben nicht einmal erbetene Ratschläge.“ - Louis Pasteur

  18. #67
    Kapitänleutnant Avatar von Shevchen
    Registriert seit
    20.01.2011
    Beiträge
    1.609


    • Systeminfo
      • Motherboard:
      • ROG Crosshair VIII Impact X570
      • CPU:
      • Ryzen 7 2700X
      • Kühlung:
      • XPX Wasserblock
      • Gehäuse:
      • Corsair 1000D
      • RAM:
      • 32 GB DDR4 3600 C14 DR
      • Grafik:
      • Radeon RX 5700 XT Anniversary
      • Storage:
      • 2TB NVMe SSD
      • Monitor:
      • Asus XV279Q
      • Netzwerk:
      • Draytek Vigor | Ubiquity 6P
      • Sound:
      • RME ADI-2 Pro FS
      • Netzteil:
      • Corsair AX1600i
      • Betriebssystem:
      • Win 10 (64) // Arch Linux
      • Notebook:
      • ThinkPad E585 2700U

    Standard

    Zitat Zitat von fdsonne Beitrag anzeigen
    Das ist einfach mal komplett falsch.
    Bei einem Spiel möchte der Anwender nicht ein Ergebnis nach Zeit x
    Doch - und zwar innerhalb von wenigen Millisekunden. Deswegen nennt sich das auch Echtzeitberechnung. Die hat andere Bedingungen als generelle Prozessverarbeitung, braucht aber auch "Zeit" um einen Prozess abzuarbeiten.

    Wenn du alles seriell abarbeitest, brauchst du so lange, dass man es nicht mehr als Echtzeit betrachten kann und deswegen sind die Entwickler ja auch dazu übergegangen zu parallelisieren. Warum skalieren denn Spiele wie AC jetzt schön auf 8 Kerne? Aus Langeweile, oder weil sie damit mehr auf die spielewelt bringen können?

    Simples Beispiel, was bringt es dir, die KI Berechnung 4x so schnell durchführen zu können (auf dem Papier), weil du von 2T auf 8T aufbohrst -> nichts. Absolut gar nichts.
    Doch, 4x die Anzahl der KI. so kann ich mehr NPCs darstellen oder die Ressourcen in zusätzliche Funktionen stecken. Oder sehen die Spielewelten von heute so aus wie vor 20 Jahren?

    Was bekommt SC denn hin?
    Guck dir den Offline-Mode bei Youtube selbst an und betrachte die Auslastung von Threadripper/3900X. Online ist es durch den Server limitiert, Offline nicht.

    Außerdem lenkst du vom Thema ab - du kannst auch gut seriell programmieren oder ne schlechte Multi-Thread Umgebung bauen. Ändert aber nix daran, dass du eine gewisse komplexität irgendwann nicht mehr seriell abarbeiten kannst, um die Echtzeitbedingung zu erfüllen. Und ob Tech Demo oder nicht, man kann es spielen. Völlig egal was du es für Entengrütze betrachtest oder nicht.

    Man kann viel, wenn der Tag lang ist. Die Frage ist, was hat der Entwickler davon? Es geht dabei um Wirtschaftlichkeit - die Typen MÜSSEN Geld mit dem Produkt verlieren. Ein Spiel, was nur auf den obersten 10k Systemen überhaupt startet, verkauft sich nicht. Da nutzt Beste MT Skalierung und sonstwas nichts. Das Spiel muss idR auf einem 2C/4T Prozessor zumindest mal irgendwie laufen, die Konsolen mit 8C/8T, aber sehr niedrigem Takt setzen nochmals andere Anforderungen und bei den PClern kommen noch ganz anderen Konstellationen zum Tragen. Nur weil DU meinst, dass wäre ein Garant von schlechter Programmierung, wird das nicht zur Allgemeingültigkeit.
    Indie Devs haben auch nicht die Knete dafür und nehmen sich dann sowas wie die Unreal Engine. große Publisher wie Ubisoft haben eine Engine für mehrere Spiele. In beiden Fällen ist genug Knete da, nur der Geiz limitiert dann, was gemacht wird. Multicore-Optimierung oder Lootboxen basteln. Die Antwort darauf kannste dir selbst ausmalen.

    Mal davon ab, auch ein SC hat diesen sogenannten Hauptthread. Den hat jedes Spiel.
    Du hörst mir nicht zu, oder? Ich sagte, dass die Prozesse immer weiter aufgespalten werden, bis der flaschenhals die aufspaltung selbst ist. Da gibts keinen "main Flaschenhals" mehr.

    PS: mit deinem SMT Ansichten liegst du auch weit neben der Realität. Das SMT ein Problem in Games darstellt bzw. darstellen kann ist im Endeffekt dem Resultat der gleichen Thematik wie oben erwähnt, geschuldet. Sobald das OS auch nur einen kleinen Teil zusätzliche Last über den zweiten Threads eines Cores einkippt - knickt die Performance normalerweise weg. DAS möchte in Games aber keiner. Deswegen bringt SMT meist nichts und ist sogar häufig Nachteilig. Das OS weis nichts von der Wichtigkeit dieses einen Threads, der für die FPS zuständig ist. Würde man nicht FPS als Maßstab nutzen, sondern die Menge an durchgeführten Aufgaben in einer Zeit x, würde man feststellen, dass SMT in so ziemlich jedem Fall zu mehr Leistung führt. Spielt für den Gamer aber keine Rolle - denn dem ist das völlig hupe. Er möchte FPS und das so hoch wie geht...
    Komisch, das AC das hinbekommt...

  19. #68
    Kapitänleutnant Avatar von Shevchen
    Registriert seit
    20.01.2011
    Beiträge
    1.609


    • Systeminfo
      • Motherboard:
      • ROG Crosshair VIII Impact X570
      • CPU:
      • Ryzen 7 2700X
      • Kühlung:
      • XPX Wasserblock
      • Gehäuse:
      • Corsair 1000D
      • RAM:
      • 32 GB DDR4 3600 C14 DR
      • Grafik:
      • Radeon RX 5700 XT Anniversary
      • Storage:
      • 2TB NVMe SSD
      • Monitor:
      • Asus XV279Q
      • Netzwerk:
      • Draytek Vigor | Ubiquity 6P
      • Sound:
      • RME ADI-2 Pro FS
      • Netzteil:
      • Corsair AX1600i
      • Betriebssystem:
      • Win 10 (64) // Arch Linux
      • Notebook:
      • ThinkPad E585 2700U

    Standard

    Zitat Zitat von GuruSMI Beitrag anzeigen
    Das Problem steckt ganz woanders. Zum einen muß man sinnvoll segmentieren. Denn die meisten errechneten Ergebnisse braucht man für weitere Berechnungen.
    Richtig, aber in Spielen machst du keine wissenschaftlichen Berechnungen und kannst Abkürzungen nehmen. Du kannst dir die Ergebnisse von Berechnungen in Tabellen klatschen und sie einfach abrufen, wenn du damit eine Funktion ersetzen kannst. Es ist auch möglich einfach irgendwelche Konstanten mit geringer Genauigkeit in den Code zu hacken, anstatt jedes Mal das Ergebnis neu berechnen zu müssen. Dann wird aus Pi auf einmal 3.141 und r² speicherst du dir in dein Objekt. So hat der Granatwerfer dann 3 fixe Schadenbereiche, die Hitbox sagt, in welchem von denen du dich befindest und dann kann der Schaden einfach aus einer Tabelle ausgelesen werden, anstatt ihn zu berechnen.

    Wenn man kreativ genug ist, kannst du ganz viele Abkürzungen nehmen und wenn es den Spielfluss nicht schadet, parallelisierst du halt Sachen, die rein physikalisch gar nicht parallelisierbar sind. Aber wenn die Ungenauigkeit vernachlässigbar ist - who cares?

  20. #69
    Oberleutnant zur See
    Registriert seit
    23.08.2010
    Beiträge
    1.380


    Standard

    Zitat Zitat von Shevchen Beitrag anzeigen
    Die es ja gibt. Du schreibst ja selbst weiter unten, dass es andere Spiele gibt, wo (versucht wird) die Parallelisierung auszureizen.
    Klar gibt es irgendwo immer schwarze Schafe, aber du stellst es so dar - nicht nur hier - als wäre das die Mehrheit.


    Zitat Zitat von Shevchen Beitrag anzeigen
    Zum Thema Grenzen: Das habe ich in meinem vorherigem Post erwähnt: Wenn du feste Abhängigkeiten hast, dann erzeugst du einen Thread-Cluster, wo die Threads möglichste innerhalb einer Cache-Zone verbleiben. Das löst zwar nicht die Laufzeitbedingungen, führt aber dazu, dass der Thread auf dem gleichen CPU-Cluster bleibt, so dass am Ende der Berechnung der Cache nicht neu generiert werden muss um das finale Ergebnis zu berechnen. Vor allem bei CPUs mit vielen CPU-Clustern (auch hier: Unabhängig von Intel und AMD - beide machen das) bringt das nochmal einiges an Performance.
    Wo genau brauchst du das im Mainstream-Bereich und bringt dir so die deutlichen Performance Vorteile?
    In diesem Bereich finden sich größtenteils CPUs mit geringen und homogenen Core-To-Core-Latenzen. Nur AMD sticht hier mit dem CCX etwas hervor, wo die Latenz bei der Cross-CCX-Kommunikation einen größeren Hit erleidet. Die Algorithmen in den Caches werden auch möglichst nicht Sachen flushen, die noch für weitere Berechnungen benötigt werden. Auch kommst du mit dem Clustern nicht darum herum die Zwischenergebnisse aus dem gemeinsamen Cache zur Weiterberechnung in die privaten Caches des Kerns zu laden.


    Zitat Zitat von Shevchen Beitrag anzeigen
    Wie ich?
    Um deine Behauptungen zu belegen?


    Zitat Zitat von Shevchen Beitrag anzeigen
    Warum skalieren denn Spiele wie AC jetzt schön auf 8 Kerne? Aus Langeweile, oder weil sie damit mehr auf die spielewelt bringen können?
    Nicht nur jetzt, sondern gab es die Skalierung über viele Threads auch schon davor. Nur sind diese dann irgendwann in andere Flaschenhälse gelaufen, sodass diese gute Kernskalierung verdeckt wurde. Kannst du gut nachstellen, indem du deine CPU stark heruntertaktest und dann verschiedene Thread Konfigurationen durch testest.

    Und auch ein AC krankt an genau den gleichen Problemen wie die anderen Spiele. Trotz der der guten Kernskalierung rennt dies in irgendein Flaschenhals, welcher bei CPUs mit einer schwächeren Singlekernleistung eher eintrifft. Während es bei Intel kaum einen Unterschied zwischen 6 und 8 Kernen gibt, hängt der 2700x schon stark hinterher. Die zusätzlichen 2 Kerne bringen dem da nichts, trotz der von dir gelobten Kernskalierung. Widerspricht damit dann auch so deiner Behauptung, dass Ryzen genau diese Spiele liegen..

    Intel Core i9-9900K and Core i7-9700K Review > Gaming Benchmarks - TechSpot

  21. #70
    Kapitänleutnant Avatar von Shevchen
    Registriert seit
    20.01.2011
    Beiträge
    1.609


    • Systeminfo
      • Motherboard:
      • ROG Crosshair VIII Impact X570
      • CPU:
      • Ryzen 7 2700X
      • Kühlung:
      • XPX Wasserblock
      • Gehäuse:
      • Corsair 1000D
      • RAM:
      • 32 GB DDR4 3600 C14 DR
      • Grafik:
      • Radeon RX 5700 XT Anniversary
      • Storage:
      • 2TB NVMe SSD
      • Monitor:
      • Asus XV279Q
      • Netzwerk:
      • Draytek Vigor | Ubiquity 6P
      • Sound:
      • RME ADI-2 Pro FS
      • Netzteil:
      • Corsair AX1600i
      • Betriebssystem:
      • Win 10 (64) // Arch Linux
      • Notebook:
      • ThinkPad E585 2700U

    Standard

    Zitat Zitat von Paddy92 Beitrag anzeigen
    Klar gibt es irgendwo immer schwarze Schafe, aber du stellst es so dar - nicht nur hier - als wäre das die Mehrheit.
    Was im Falle von E/A ja auch zutrifft. Dann gibts wieder andere Studios, die es mit nem wesentlich kleinerem Team dann doch wieder gut hinbekommen. Ich bleib dabei, dass die Gier hier der Hauptgrund ist, warum Spiele nicht ordentlich optimiert werden. Es wird das gemacht, was gerade eben so noch ohne einen Shitstorm durchkommt und dann hat sich der Fisch.

    Wo genau brauchst du das im Mainstream-Bereich und bringt dir so die deutlichen Performance Vorteile?
    In diesem Bereich finden sich größtenteils CPUs mit geringen und homogenen Core-To-Core-Latenzen. Nur AMD sticht hier mit dem CCX etwas hervor, wo die Latenz bei der Cross-CCX-Kommunikation einen größeren Hit erleidet. Die Algorithmen in den Caches werden auch möglichst nicht Sachen flushen, die noch für weitere Berechnungen benötigt werden. Auch kommst du mit dem Clustern nicht darum herum die Zwischenergebnisse aus dem gemeinsamen Cache zur Weiterberechnung in die privaten Caches des Kerns zu laden.
    Das liegt halt am Chiplet Design (welches Intel auch so langsam anstrebt - die werden da also auch genauso drunter leiden - AMD ist damit halt nur früher dran und darf damit auch die Kinderkrankheiten ausbaden)

    Intelligente Prozessverteilungsalgos können diesen Effekt abfedern und soweit reduzieren, dass der Nachteil nur noch marginal ist, du dann aber in Sachen Produktmöglichkeiten sehr flexibel bleibst.
    Zum Facebook-surfen brauchste diese Optimierungen nicht. Zum Zocken auf nem 60Hz Monitor auch nicht. Und theoretisch könnten wir auch alle mit dem Rad zur Arbeit fahren - dauert halt nur länger.

    Um deine Behauptungen zu belegen?
    Ich denke mir Mikroruckler also nur aus? Warum gibts nochmal 1% und 0,1% low Benches? Aus Langeweile? Oder weil das alles gemessen wird, um einen Forennutzer in einem deutschen Hardwareforum zufriedenzustellen?
    Wenn du in einer Szene 50ms auf eine Funktion warten musst, ist da was verkackt worden. Das liegt dann auch nicht mehr am Prozessor, sondern an fehlenden Optimierungen.

    Nicht nur jetzt, sondern gab es die Skalierung über viele Threads auch schon davor. Nur sind diese dann irgendwann in andere Flaschenhälse gelaufen, sodass diese gute Kernskalierung verdeckt wurde. Kannst du gut nachstellen, indem du deine CPU stark heruntertaktest und dann verschiedene Thread Konfigurationen durch testest.
    Da wären wir aber beim Thema Gesamtsystem und nicht mehr, warum man jetzt unbedingt einen 9900k zum Zocken braucht.

    Und auch ein AC krankt an genau den gleichen Problemen wie die anderen Spiele. Trotz der der guten Kernskalierung rennt dies in irgendein Flaschenhals, welcher bei CPUs mit einer schwächeren Singlekernleistung eher eintrifft. Während es bei Intel kaum einen Unterschied zwischen 6 und 8 Kernen gibt, hängt der 2700x schon stark hinterher. Die zusätzlichen 2 Kerne bringen dem da nichts, trotz der von dir gelobten Kernskalierung. Widerspricht damit dann auch so deiner Behauptung, dass Ryzen genau diese Spiele liegen..
    Tritt jetzt der 2700X gegen den 9900k an oder hab ich was verpasst? Den gibts derzeit für 180€. Der 9900k kostet 510€.

    Ansonsten bleibt halt nur dein System. Du hast ne Graka, nen monitor und daraus irgendwo ne maximal zu erwartende FPS. Schafft der Prozzi die --> perfekt. Schafft der die nicht --> bessere CPU kaufen. Ich muss schon ziemlich hart konstruieren, um da ne Niesche für den 9900k zu finden.

  22. #71
    Oberleutnant zur See
    Registriert seit
    23.08.2010
    Beiträge
    1.380


    Standard

    Zitat Zitat von Shevchen Beitrag anzeigen
    Ich bleib dabei, dass die Gier hier der Hauptgrund ist, warum Spiele nicht ordentlich optimiert werden. Es wird das gemacht, was gerade eben so noch ohne einen Shitstorm durchkommt und dann hat sich der Fisch.
    Liegt das dann an den Softwareentwicklern oder anderen Abteilungen, die das Geld abdrehen?


    Zitat Zitat von Shevchen Beitrag anzeigen
    Das liegt halt am Chiplet Design (welches Intel auch so langsam anstrebt - die werden da also auch genauso drunter leiden - AMD ist damit halt nur früher dran und darf damit auch die Kinderkrankheiten ausbaden)
    Ich glaube aber nicht daran, dass wir das alsbald im Desktop-Bereich von Intel sehen werden. Eher im High-Core-Count Bereich oder da, wo platzsparende Designs benötigt werden.


    Zitat Zitat von Shevchen Beitrag anzeigen
    Ich denke mir Mikroruckler also nur aus? Warum gibts nochmal 1% und 0,1% low Benches? Aus Langeweile? Oder weil das alles gemessen wird, um einen Forennutzer in einem deutschen Hardwareforum zufriedenzustellen?
    Wenn du in einer Szene 50ms auf eine Funktion warten musst, ist da was verkackt worden. Das liegt dann auch nicht mehr am Prozessor, sondern an fehlenden Optimierungen.
    Um den Grund aufzuzeigen, was da verkackt wurde.


    Zitat Zitat von Shevchen Beitrag anzeigen
    Da wären wir aber beim Thema Gesamtsystem und nicht mehr, warum man jetzt unbedingt einen 9900k zum Zocken braucht.

    Wann wurde diese Behauptung hier aufgestellt?! Und du unterstellst mir einen Intel vs AMD Modus..

    Zudem sind wir dann nicht beim Thema Gesamtsystem, wenn du die Auswirkung von unterschiedlichem Takt und Kern/Thread-Konfigurationen testen sollst. Wäre natürlich nicht sonderlich schlau dies so zu machen, dass da etwas anderes limitiert als die CPU.


    Zitat Zitat von Shevchen Beitrag anzeigen
    Tritt jetzt der 2700X gegen den 9900k an oder hab ich was verpasst? Den gibts derzeit für 180€. Der 9900k kostet 510€.

    Ansonsten bleibt halt nur dein System. Du hast ne Graka, nen monitor und daraus irgendwo ne maximal zu erwartende FPS. Schafft der Prozzi die --> perfekt. Schafft der die nicht --> bessere CPU kaufen. Ich muss schon ziemlich hart konstruieren, um da ne Niesche für den 9900k zu finden.
    Seit wann hat der 2700x 2 Kerne mehr als ein 9900k? Warum geht es jetzt um den Preis? Warum triggert es dich so, wenn ich einen Vergleich verlinke, wo Intel besser bei wegkommt?

    Es ging mir nur darum deine Behauptung zu widerlegen, mehr nicht.
    Verschone mich mit diesem unnötigen Kaufberatungsdiskussionen, die hier ständig in jedem Bereich ausbrechen. Lass die Leute doch kaufen, was diese wollen. Ich glaube, dass es kaum jemanden juckt, was andere über deren Kaufentscheidung denken. Zumal viele wohl besser wissen werden, welche CPU für deren individuellen Workload am besten passt. Zumindest besser als irgendwelche Forenexperten..

  23. #72
    Kapitänleutnant Avatar von Shevchen
    Registriert seit
    20.01.2011
    Beiträge
    1.609


    • Systeminfo
      • Motherboard:
      • ROG Crosshair VIII Impact X570
      • CPU:
      • Ryzen 7 2700X
      • Kühlung:
      • XPX Wasserblock
      • Gehäuse:
      • Corsair 1000D
      • RAM:
      • 32 GB DDR4 3600 C14 DR
      • Grafik:
      • Radeon RX 5700 XT Anniversary
      • Storage:
      • 2TB NVMe SSD
      • Monitor:
      • Asus XV279Q
      • Netzwerk:
      • Draytek Vigor | Ubiquity 6P
      • Sound:
      • RME ADI-2 Pro FS
      • Netzteil:
      • Corsair AX1600i
      • Betriebssystem:
      • Win 10 (64) // Arch Linux
      • Notebook:
      • ThinkPad E585 2700U

    Standard

    Zitat Zitat von Paddy92 Beitrag anzeigen
    Liegt das dann an den Softwareentwicklern oder anderen Abteilungen, die das Geld abdrehen?
    Was macht das für einen Unterschied? Die Firma hats verkackt, Ende.

    Ich glaube aber nicht daran, dass wir das alsbald im Desktop-Bereich von Intel sehen werden. Eher im High-Core-Count Bereich oder da, wo platzsparende Designs benötigt werden.
    Und deswegen sollten wir nicht mehr optimieren oder nur dann, wenns um Intel geht oder was willst du damit sagen? Das ist auch der Grund, warum ich dir vorwerfe, Intel-Fanboy zu sein.

    Um den Grund aufzuzeigen, was da verkackt wurde.
    Was da verkackt worden ist siehst du nicht an den 0.1% lows, nur den Effekt. Ein Benchmark ist kein Profiler.


    Wann wurde diese Behauptung hier aufgestellt?! Und du unterstellst mir einen Intel vs AMD Modus..
    Ja, weil deine Ausführungen stark Intel-lastig sind. Siehe oben.

    Seit wann hat der 2700x 2 Kerne mehr als ein 9900k? Warum geht es jetzt um den Preis? Warum triggert es dich so, wenn ich einen Vergleich verlinke, wo Intel besser bei wegkommt?
    Wovon redest du überhaupt? Wer hat das behauptet? Du selbst hast doch den 2700X angebracht und jetzt bist du davon verwirrt? Du musst doch selbst wissen, warum du den als Argument angebracht hast.
    Ich kenne jedenfalls niermanden, der behauptet, dass der 2700X genauso schnell ist wie ein 9900k.

    Es gibt jedoch massig Situationen, wo der Geschwindigkeitsunterschied irrelevant ist, wie in den von mir beschriebenen Situationen, die zu mindest bei Steam auf >90% der Nutzer zutreffen.

    Es ging mir nur darum deine Behauptung zu widerlegen, mehr nicht.
    Ja, das merke ich. Um die Wahrheit gehts hier schon lange nicht mehr, nur noch ums Ego.

    Verschone mich mit diesem unnötigen Kaufberatungsdiskussionen, die hier ständig in jedem Bereich ausbrechen.
    Kein Problem - wenn du dann damit aufhörst zu behaupten, man bräuchte den die bessere single-Kern Performance, wenn du den Flaschenhals nicht kennst.
    Lass die Leute doch kaufen, was diese wollen.
    Endlich mal was, wo ich zustimmen kann. Macht mit eurem Geld was ihr wollt.

  24. #73
    Oberleutnant zur See
    Registriert seit
    23.08.2010
    Beiträge
    1.380


    Standard

    Zitat Zitat von Shevchen Beitrag anzeigen
    Was macht das für einen Unterschied? Die Firma hats verkackt, Ende.
    Du beschwerst dich über die faulen Softwareentwickler?


    Zitat Zitat von Shevchen Beitrag anzeigen
    Und deswegen sollten wir nicht mehr optimieren oder nur dann, wenns um Intel geht oder was willst du damit sagen? Das ist auch der Grund, warum ich dir vorwerfe, Intel-Fanboy zu sein.
    Nein, will ich nicht. Bleib doch ganz nüchtern beim Geschriebenen..


    Zitat Zitat von Shevchen Beitrag anzeigen
    Wovon redest du überhaupt? Wer hat das behauptet? Du selbst hast doch den 2700X angebracht und jetzt bist du davon verwirrt? Du musst doch selbst wissen, warum du den als Argument angebracht hast.
    Ich kenne jedenfalls niermanden, der behauptet, dass der 2700X genauso schnell ist wie ein 9900k.
    Ich verlinke dir einen Test, wo mehrere CPUs vertreten sind. Dabei hatte ich AC gewählt, weil du dies als gutes Beispiel angegeben hattest. Dabei vergleiche ich sogar die Intel CPUs untereinander - welche alles fast gleich auf sind - und vergleiche auch den 6 Kerner (8700k) von Intel mit dem 8 Kerner (2700x) von AMD. Einfach nur um dir zu zeigen, dass auch in Spielen mit guter Kernskalierung die pro Kern Performance auch noch eine große Relevanz hat, und um deine Behauptung zu widerlegen, dass Spiele mit einer guten Kernskalierung (und so gut programmiert wurden?) auch dem Ryzen gut liegen, weil deren Threadlogik nicht einfach rein geklatscht wurden.

    Sry, dass ich da etwas verwirrt bin und nicht so ganz nachvollziehen kann, warum dies auf einmal ein 9900k vs 2700x sein soll und auch nicht so ganz verstehe, was die Nennung von Preisen da plötzlich zu suchen hat. Zumal dieser Vergleich ziemlich unfair ist, da du den Preis einer CPU im Abverkauf mit dem von einer CPU vergleichst, welche sich nicht im Abverkauf befindet und diese nicht in großen Stückzahlen vorhanden ist..

  25. #74
    Kapitänleutnant Avatar von Shevchen
    Registriert seit
    20.01.2011
    Beiträge
    1.609


    • Systeminfo
      • Motherboard:
      • ROG Crosshair VIII Impact X570
      • CPU:
      • Ryzen 7 2700X
      • Kühlung:
      • XPX Wasserblock
      • Gehäuse:
      • Corsair 1000D
      • RAM:
      • 32 GB DDR4 3600 C14 DR
      • Grafik:
      • Radeon RX 5700 XT Anniversary
      • Storage:
      • 2TB NVMe SSD
      • Monitor:
      • Asus XV279Q
      • Netzwerk:
      • Draytek Vigor | Ubiquity 6P
      • Sound:
      • RME ADI-2 Pro FS
      • Netzteil:
      • Corsair AX1600i
      • Betriebssystem:
      • Win 10 (64) // Arch Linux
      • Notebook:
      • ThinkPad E585 2700U

    Standard

    Zitat Zitat von Paddy92 Beitrag anzeigen
    Du beschwerst dich über die faulen Softwareentwickler?
    Ja, weil so ein Spielestudio Software entwickelt. Das sind Softwareentwickler. Die armen Programmierer im Keller haben da wohl auch wenig Lust zu, Lootbox-Frameworks zu basteln. Aber wenn el Cheffe das will, dann müssen die das tun (oder sich nen neuen Arbeitgeber suchen) Auch die Putzfrau eines Spielestudios ist irgendwo ein Glied in der Kette. Das macht sie nicht zum Programmierer, aber trotzdem ist sie in einer Software-Schmiede angestellt.

    Vielleicht wird es so klarer: Der Programmierer darf nicht entscheiden, was er programmiert. Das sind globale Entscheidungen der Firma. Da ich hier aber in Spekulation abdrifte, wer jetzt wirklich für diesen Schmarn verantwortlich ist (Management, Marketing, whatever) wäre es vermessen zu sagen "Der/Die da wars!". Ergo bleib ich bei "Die Firma hats verkackt".

    Nein, will ich nicht. Bleib doch ganz nüchtern beim Geschriebenen..
    Gut - dann trinken wir jetzt beide mal einen Tee und begraben den Kindergarten. Okay?

    Dann mal analytisch:
    (Achtung, ich will dich hier nicht auseinandernehmen, sondern die Punkte strukturiert abarbeiten)

    Ich verlinke dir einen Test, wo mehrere CPUs vertreten sind. Dabei hatte ich AC gewählt, weil du dies als gutes Beispiel angegeben hattest.
    Gut skalierende Spiele sind auch zu favorisieren, da diese einen kleinen Blick in die Zukunft der Spielebranche zeigen. Weitere Spiele die gut skalieren gibt es kaum, da diese eher unter "Tech Demo" fallen. Was ich hier auch noch anmerken möchte, ist dass die Skalierung auch stark von dem Betriebsystem abhängt. Unter Linux gibt es beispielsweise Ports, die alleine durch die Übersetzung schon 20-40% Performance verlieren. Der gute Scheduler + Treiber sind aber fähig, diese Differenzen wieder auf ~10% zu reduzieren. Wir müssen hier also nicht nur das Spiel alleine betrachten, sondern wie es zusammen mit dem Betriebsystem als Einheit skaliert. Dort sind dann natürlich auch die Hersteller (AMD und Intel) gefragt, entsprechenden Support einfließen zu lassen.

    Dabei vergleiche ich sogar die Intel CPUs untereinander - welche alles fast gleich auf sind - und vergleiche auch den 6 Kerner (8700k) von Intel mit dem 8 Kerner (2700x) von AMD. Einfach nur um dir zu zeigen, dass auch in Spielen mit guter Kernskalierung die pro Kern Performance auch noch eine große Relevanz hat,
    Ich finde den von dir geposteten Link schön, weil man dort mehrere Sachen gleichzeitig erkennen kann:

    1) Die Single Thread Leistung spielt auch bei gut skalierenden Spielen eine Rolle, da es offensichtlich auch bei gut skalierenden Spielen Unterfunktionen gibt, die "warten" müssen. Besonders auffällig bei der 1080p Betrachtung ist aber die Differenz zwischen Durchschnitt und 1% low. Während die Durchschnittswerte bei Intel davonfliegen, sind die 1% low Werte nahezu gleich auf. Das deutet darauf hin, dass das Spiel mal durch einen Profiler gefolgen sein muss, um die gröbsten Übeltäter wegzuoptimieren (was dann im Multicore-Fall geht) - denn sonst würden die 1% low mit den average-Frames mehr oder weniger mitskalieren - wo der 2700X dann sowas wie 40 FPS haben müsste. Er liegt dort aber im gleichen 60/70'er Bereich im Brackwasser der Intel CPUs.

    Die exakte Ursache, warum die Intels dem 2700X davonrennen, wenn keine Übeltäter zu berechnen sind, lässt sich in der Latenz/IPC vermuten - denn dort sind die Intel CPUs ja auch besser als der 2700X. (stock vs stock)
    Entprechend wundert es auch nicht, wenn der 2700X mit getuntem Speicher große Sprünge nach vorne macht, wo der Hauptflaschenhals des 2700X liegt. Der restlichen Unterschiede sind dann fast nur noch auf die reine Taktfrequenz zurückzuführen, da der 2700X nicht die 4.7GHz schafft.

    2) Das Review zeigt uns mit Absicht FPS Zahlen und nicht einfach Prozente. Denn die FPS sind wichtig um entscheiden zu können, ob die CPU "okay" ist. Knackt die CPU die 60 FPS, ist sie ausreichend schnell. Der nächste Schritt wären dann 144Hz. Das bekommt aber die Graka wohl nicht mehr gebacken.

    3) Bei 1440p prasseln die Ergebnisse in einen engen Schlauch, wo man praktisch keine relevanten Unterschiede mehr erkennen kann. Der 2700X sinkt eben nicht relativ zu Intel mit nach unten, sondern hält sich dort direkt in Konurrenz nahezu auf Augenhöhe. Das kommt zum einen durch das gestiegene GPU Limit, zeigt aber auch, dass die Multi-Thread Umsetzung gut ist - da der Flaschenhals mit ein wenig mehr Luft nach oben direkt mal aufgelöst wird.


    und um deine Behauptung zu widerlegen, dass Spiele mit einer guten Kernskalierung (und so gut programmiert wurden?) auch dem Ryzen gut liegen, weil deren Threadlogik nicht einfach rein geklatscht wurden.
    Was ja auch passiert. Wäre die Threadlogik schlecht, würde der 2700X weit abgelschagen sein und auch bei 1440p nicht wirklich viel näher rankommen. Tut er aber.

    Sry, dass ich da etwas verwirrt bin und nicht so ganz nachvollziehen kann, warum dies auf einmal ein 9900k vs 2700x sein soll und auch nicht so ganz verstehe, was die Nennung von Preisen da plötzlich zu suchen hat.
    Ich hab keine Ahnung, warum der 2700X überhaupt zur Diskussion steht, denn der 3700X ist ja draußen. Und den Preisunterschied hab ich halt genannt, weil das der Elefant im Raum ist.

    Zumal dieser Vergleich ziemlich unfair ist, da du den Preis einer CPU im Abverkauf mit dem von einer CPU vergleichst, welche sich nicht im Abverkauf befindet und diese nicht in großen Stückzahlen vorhanden ist..
    Unfair oder nicht, das sind die aktuellen Preise.
    Bei Intel CPUs sehe ich keine Abverkaufspreise. Evtl. wäre es mal klug für Intel die letzte Generation mit den gleichen Rabatten zu versehen, wie es AMD macht. Nur würden die dann so spott billig werden, dass die damit ihre neuen Produkte damit kannibalisieren. Nvidia hat das Problem ja mit der GTX 1080 vs RTX 2070/2080 gehabt. Aber wir sind hier schon längst OT.

    Edit:
    Ich sehe in dem von dir verlinken Artikel ein Spielchen, was sogar noch besser skaliert: Rainbow Six. Wunderbare Skalierung der GPU über die auflösung und praktisch keine Unterschiede von Intel zu AMD. Dort spielt sie single-Core Performance nahezu gar keine Rolle mehr und die Last wird fast symmetrisch über alle Kerne verteilt. Dafür scheinen die dort aber irgendwo eine Unterfunktion drin zu haben, die durch den Profiler geflutscht ist, denn die 1% low skalieren linear mit den Durchschnittswerten nach unten.
    Geändert von Shevchen (27.10.19 um 12:48 Uhr)

  26. #75
    Obergefreiter Avatar von Dan Hot
    Registriert seit
    21.04.2009
    Beiträge
    119


    Standard

    Also mein 3900x erreicht seine beworbenen 4,6GHz nicht mit einem ASUS Strix X570-E UEFI 1404 aka agesa 1004b, leider weiß ich nicht ob es am MB oder CPU liegt

Seite 3 von 4 ErsteErste 1 2 3 4 LetzteLetzte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •