Seite 1 von 6 1 2 3 4 5 ... LetzteLetzte
Ergebnis 1 bis 25 von 146
  1. #1
    News Avatar von HWL News Bot
    Registriert seit
    06.03.2017
    Beiträge
    1.296


    Standard AMD veröffentlicht weitere Leistungsdaten zur Radeon VII (Update)

    amd-radeonviiIn der gestrigen Präsentation der Radeon VII verglich AMD die Leistung der Karte mit einer GeForce RTX 2080 und sprach davon gleichauf und in einigen Spielen auch schneller zu sein. Nun hat man die Leistungsdaten noch einmal konkretisiert und nennt weitere Details.


    Dabei möchte AMD noch einmal betonen, dass die Radeon VII keine reine Spielerkarte ist. Sie ist einer Frontier Edition deutlich näher, als man dies auf den ersten Blick erkennen kann. Daher sind in den Benchmarks auch ebenso viele...

    ... weiterlesen


  2. Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

  3. #2
    Fregattenkapitän Avatar von Morrich
    Registriert seit
    29.08.2008
    Beiträge
    2.866


    Standard

    Diesen deutlichen Hinweis auf darauf, dass die Karte vielmehr für Profianwendungen, statt für Gaming ausgelegt ist (und das war schon seit Monaten klar, wenn von Vega 20 gesprochen wurde), braucht es auch ganz eindeutig.
    Denn offenbar haben viele noch immer nicht kapiert, was diese GPU ist.
    Ging seit Monaten durch die Presse und Foren, aber die dummen Schwätzer, die sich jetzt wieder über die ach so schlechte Gaming Performance aufregen, haben das scheinbar nie gelesen.

    Ich finde es hingegen erstaunlich, dass AMD überhaupt eine Gaming Karte mit dieser GPU bringt. Aber das muss wohl einfach sein um NVidia das höhere Performancesegment nicht gänzlich kampflos zu überlassen.
    Geändert von Morrich (10.01.19 um 12:37 Uhr)

  4. #3
    Oberleutnant zur See
    Registriert seit
    08.05.2018
    Beiträge
    1.467


    Standard

    wenn man bedenkt dass vega VII 6% weniger shader hat sehr interessant.

    was mich interessiert ist wie sie mit dem soc clock umgehen. bei der vega braucht man 1110mhz memoryclock un den soc aif 1199 zu heben und damit massiv bandbreite hinzuzugewinnen. kann gut sein dass man da bei der vegaVII auch noch einige % Rauskitzeln kann, vor allem um die 1800+ mhz auch wirklich auszureizen.

    momory uv wird wohl kaum von belang sein, da man da kaum spielraum gewinnt.

  5. #4
    Matrose
    Registriert seit
    18.04.2017
    Beiträge
    6


    Standard

    Enttäuschend.

  6. #5
    SuperModerator
    Bruddelsupp
    Luxx Labor

    Bubble Boy
    Avatar von King Bill
    Registriert seit
    16.06.2005
    Ort
    ■█▄█▀█▄█■█▄█▀█▄█■ addicted to black & white kaname chidori ftw!
    Beiträge
    26.266


    • Systeminfo
      • Motherboard:
      • ASUS ROG Crosshair VIII Hero
      • CPU:
      • R7 3700x
      • Systemname:
      • Cartman [Southpark]
      • Kühlung:
      • Liquid Cooling
      • Gehäuse:
      • Corsair Obsidian 750D
      • RAM:
      • Gskill Trident Z RGB 32GB
      • Grafik:
      • Nvidia Geforce GTX1080
      • Storage:
      • SSD und HDD
      • Monitor:
      • 2x Dell UltraSharp U2414H
      • Netzwerk:
      • All GBit/s
      • Netzteil:
      • be quiet! Straight Power 11
      • Betriebssystem:
      • Windows 10 Pro
      • Photoequipment:
      • Canon EOS 5DMk2
      • Handy:
      • altes Nokia - Unzerstörbar

    Standard

    Zitat Zitat von Morrich Beitrag anzeigen
    Ich finde es hingegen erstaunlich, dass AMD überhaupt eine Gaming Karte mit dieser GPU bringt. Aber das muss wohl einfach sein um NVidia das höhere Performancesegment nicht gänzlich kampflos zu überlassen.
    +1 vor allem die Kampfansage mit 16GB HBM für 700USD. Wäre mir ganz Recht wenn Nvidia seine Preise nach unten korrigiert.

  7. #6
    Leutnant zur See
    Registriert seit
    26.04.2015
    Beiträge
    1.076


    • Systeminfo
      • Motherboard:
      • ASUS ROG Crosshair VI Hero
      • CPU:
      • AMD Ryzen 7 2700X @ P3
      • Kühlung:
      • Wasserkühlung
      • RAM:
      • GSkill Trident Z 3400@3200-64G
      • Grafik:
      • nVida Titan X (Pascal) @ WaKü
      • Storage:
      • Samsung SM951 AHCI 512GB @ Boot
      • Monitor:
      • acer Predator XB281HKbmiprz - Samsung U28D
      • Sound:
      • Creative Soundblaster ZxR
      • Netzteil:
      • Enermax Platimax 1500
      • Betriebssystem:
      • Windows 10

    Standard

    Zitat Zitat von Morrich Beitrag anzeigen
    Diesen deutlichen Hinweis auf darauf, dass die Karte vielmehr für Profianwendungen, .....
    Das Problem ist aber auch AMDs Präsentation. Man könnte die Karte auch einfach mit einer Quadro vergleichen können zB (oder beides, RTX und Quadro). Dann könnte man immer sagen: Schau mal auf die Diagramme, da ist auch eine Quadro, warum den nur?

    Wenn ich mich selber aber nur mit Spielekarten vergleiche und dann sage: Ist aber eigentlich eine Profikarte, erm naja.
    Geändert von Betabrot (10.01.19 um 13:25 Uhr)

  8. #7
    Kapitän zur See Avatar von L_uk_e
    Registriert seit
    08.11.2007
    Beiträge
    3.936


    • Systeminfo
      • Motherboard:
      • ASUS Prime X370 Pro
      • CPU:
      • Ryzen 5 1600X @ 3,9Ghz
      • Kühlung:
      • Nactua NH-U12S
      • Gehäuse:
      • Jonsbo UMX4
      • RAM:
      • Corsair 16GB DDR4 3000Mhz
      • Grafik:
      • Zotax GTX 1080 AMP! @ Morpheus
      • Storage:
      • Selbstbau NAS
      • Monitor:
      • Dell U2414H
      • Sound:
      • SMSL AD18, Avinity AHP-967, BS/FT9 DIY
      • Netzteil:
      • Enermax Platimax D.F. 500W
      • Betriebssystem:
      • Windows 10 Pro N
      • Photoequipment:
      • Pentax K-50
      • Handy:
      • OnePlus 3t

    Standard

    Ist das nicht eher dann ne Prosumer Karte? Ich meine, die ist ja scheinbar zum Spielen ebenfalls geeignet, aber hat eben nicht den teuren Treibersupport

  9. #8
    Oberleutnant zur See
    Registriert seit
    08.05.2018
    Beiträge
    1.467


    Standard

    anscheinend si d die specs durchgesickert vor 1 stunde. 1,45 baseclock/ 1,75 boost bei max. 300 watt.

  10. #9
    Kapitänleutnant Avatar von croni-x
    Registriert seit
    28.06.2007
    Ort
    Oberbayern
    Beiträge
    1.713


    • Systeminfo
      • Motherboard:
      • MSI B450M Mortar
      • CPU:
      • AMD 7 2700x@Stock
      • Kühlung:
      • Aqua-Computer Cuplex Pro
      • Gehäuse:
      • Fractal Design Arc Mini
      • RAM:
      • G.Skill F4-3600C16D-16GVK@3333
      • Grafik:
      • MSI 1080 Gaming X@2025/5535
      • Storage:
      • Samsung EVO 950 - 250GB
      • Monitor:
      • Iiyama PROLITE X4071UHSU-B1
      • Sound:
      • Creative X-Fi Extreme Audio
      • Netzteil:
      • BeQuiet Pure Power 9 - 600W
      • Betriebssystem:
      • Windows 10 Pro 64Bit
      • Sonstiges:
      • 18 TB Selbstbau NAS
      • Notebook:
      • Sony Vaio Duo 11
      • Handy:
      • Google Pixel 128GB

    Standard

    Sofern ich mich erinnere an die Live-Präsentation stand da 1.800MHz GPU Clock..

  11. #10
    Flottillenadmiral
    Registriert seit
    11.03.2011
    Beiträge
    5.791


    Standard

    Zitat Zitat von croni-x Beitrag anzeigen
    Sofern ich mich erinnere an die Live-Präsentation stand da 1.800MHz GPU Clock..
    100 Punkte.

  12. #11
    Flottillenadmiral Avatar von Clonemaster
    Registriert seit
    02.09.2010
    Beiträge
    4.790


    • Systeminfo
      • Motherboard:
      • Asus Maximus XI Apex
      • CPU:
      • i9-9900K @5.3GHz
      • Kühlung:
      • 240+280+360+MoRa 420LT
      • Gehäuse:
      • LianLi V1000LA
      • RAM:
      • 16GB DDR4 4400 CL18
      • Grafik:
      • EVGA 2080Ti XC Ultra 2055/8000
      • Storage:
      • Samsung 960 EVO 500GB
      • Monitor:
      • XB273K, PG279Q
      • Netzwerk:
      • FTTH 500k/200k
      • Sound:
      • DT990pro, Qpad QH-90
      • Netzteil:
      • Enermax MaxTytan 800W
      • Notebook:
      • AW15 R3 7820HK/GTX1080/1080p120Hz LM mod

    Standard

    Stephen Burke hat von einem 1800MHz "burst" gesprochen, also einem Kurzzeit-boost

  13. #12
    Oberleutnant zur See
    Registriert seit
    08.05.2018
    Beiträge
    1.467


    Standard

    sicher ein up to dabei.

    und aufgerundet wären es ja 1.8ghz, aber alles in allem eine interessante karte, die 40% mehr als meine rx 56 schaffen sollte.

  14. #13
    Admiral Avatar von RAZ0RLIGHT
    Registriert seit
    19.08.2007
    Ort
    Bayern
    Beiträge
    14.237


    Standard

    Zitat Zitat von croni-x Beitrag anzeigen
    Sofern ich mich erinnere an die Live-Präsentation stand da 1.800MHz GPU Clock..
    Up To

  15. #14
    Kapitänleutnant Avatar von Tech Enthusiast
    Registriert seit
    01.01.2016
    Beiträge
    1.712


    Standard

    Auf dem Papier kann das ja ne recht gute Karte werden.
    Wird spannend wie viel von diesen Leistungsdaten dann in der Realität auch gemessen werden (da ist AMD deutlich verlogener als NVidia) und was das Ding dann wirklich kostet.

    Ich glaube weiterhin, dass die 16gb HBM2 reines Marketing sind, die den Preis unnötig hochtreiben.
    Gerade HBM2, bei dem krassen Speed,... da wird der Speicher ja fast 100x pro Sekunde leer und wieder voll gemacht. Und wozu? Bei 16gb kann man alle Texturen der meisten Games simultan im Speicher behalten und dort liegen lassen, ohne sie auch nur einmal auszutauschen.
    Also entweder der Speed, oder die Menge sind unnötig. Beides zusammen passt einfach nicht in den Gamermarkt.

  16. #15
    Admiral Avatar von Holzmann
    Registriert seit
    02.05.2017
    Beiträge
    11.660


    • Systeminfo
      • Motherboard:
      • Gigabyte Aorus Pro AMD X399
      • CPU:
      • AMD Threadripper 2950X
      • Kühlung:
      • Corsair Hydro H115i Platinum
      • Gehäuse:
      • Corsair 460x
      • RAM:
      • Corsair Dominator Platinum
      • Grafik:
      • AMD Radeon7 by MSI
      • Storage:
      • Corsair NX 500 PCI SSD 400 GB
      • Monitor:
      • Dell
      • Netzteil:
      • Corsair AX 860i
      • Betriebssystem:
      • Win10

    Standard

    Zitat Zitat von Tech Enthusiast Beitrag anzeigen
    (da ist AMD deutlich verlogener als NVidia)

    Hast du dafür einen Beleg?

    Ich glaube weiterhin, dass die 16gb HBM2 reines Marketing sind, die den Preis unnötig hochtreiben.
    Ein reiner Marketing-Speicher? Neue Geschäftsidee.

  17. #16
    Kapitänleutnant Avatar von Tech Enthusiast
    Registriert seit
    01.01.2016
    Beiträge
    1.712


    Standard

    Beleg?
    Jede einzelne Präsentation der letzten Jahre. Kann sich jeder selber anschauen und vergleichen was die Dinger dann in der Realität hatten.
    Spontan fällt mir die Witcher 3 Präsentation ein, bei der sie mal locker flockig 25-50% mehr Leistung gezeigt hatten als die GPU wirklich produziert hat. Es gab dazu sogar YouTuber die krampfhaft versucht haben herauszufinden was AMD eingestellt hatte, um diese Werte zu erreichen. Soweit ich mitbekommen habe, erfolglos.

    Das kann natürlich hier und jetzt ganz anders sein!
    Glauben werde ich das dann, wenn Guru3d und HardwareUnboxed das ganze testen. :-)

  18. #17
    996
    996 ist offline
    Leutnant zur See
    Registriert seit
    25.01.2013
    Beiträge
    1.028


    Standard

    Also 85W mehr Verbrauch als eine Rtx 2080 jedoch die gleiche Leistung... erinnert mich an 2017.

    Wenn ich meine Münze drehe dann sehe ich auf einer Seite Nvidia und auf der anderen AMD und der Rand der immer dünner wird das sind wohl wir.

  19. #18
    Hauptgefreiter
    Registriert seit
    05.09.2010
    Ort
    Karlsruhe
    Beiträge
    221


    • Systeminfo
      • Motherboard:
      • ASRock X570 Taichi
      • CPU:
      • 3700x
      • Kühlung:
      • Noctua NH-D14
      • Gehäuse:
      • Fractal Define r5
      • RAM:
      • 4x8gb corsair lpx 3000
      • Grafik:
      • GW 2080 Phoenix GS
      • Storage:
      • Samsung 960 EVO
      • Monitor:
      • Asus MG279Q
      • Sound:
      • Asus Xonar
      • Netzteil:
      • BQ Dark Power Pro 750W
      • Photoequipment:
      • Pentax K-S2

    Standard

    häh, ich kapier viele der Aussagen hier nicht. Nvidia war schon immer die verlogenere Seite wenns um Marketingtricksereien geht, oder darum ihre Interessen bei den Spielefirmen mit Moneten durchzusetzen und so AMD und deren Käufer auszugrenzen.
    Auch die Aussagen wegen dem Speicher verstehe ich nicht, immerhin hatte Vega deutliche Probleme weil der Speicher verkrüppelt war. Nun schaffen sie den 1TB/s durchsatz nur mit verdoppeltem Speicher, warum sollte der also unnütz sein?

    die 2080 die in den (ach so) geilen Tests gebencht wurden verbraten auch 260W+, wo sind das 80 watt mehr?
    Geändert von Maxhster (10.01.19 um 18:27 Uhr)

  20. #19
    Admiral Avatar von RAZ0RLIGHT
    Registriert seit
    19.08.2007
    Ort
    Bayern
    Beiträge
    14.237


    Standard

    Zitat Zitat von Tech Enthusiast Beitrag anzeigen
    Beleg?
    Jede einzelne Präsentation der letzten Jahre. Kann sich jeder selber anschauen und vergleichen was die Dinger dann in der Realität hatten.
    Spontan fällt mir die Witcher 3 Präsentation ein, bei der sie mal locker flockig 25-50% mehr Leistung gezeigt hatten als die GPU wirklich produziert hat. Es gab dazu sogar YouTuber die krampfhaft versucht haben herauszufinden was AMD eingestellt hatte, um diese Werte zu erreichen. Soweit ich mitbekommen habe, erfolglos.

    Das kann natürlich hier und jetzt ganz anders sein!
    Glauben werde ich das dann, wenn Guru3d und HardwareUnboxed das ganze testen. :-)
    Zeig mir mal die Daten zu deiner 25-50% mehr Leistung These die AMD "gezaubert" hat.

    Wenn es etwas ähnliches gegeben hat, war es durch Hairworks bedingt.

  21. #20
    Oberleutnant zur See
    Registriert seit
    08.05.2018
    Beiträge
    1.467


    Standard

    Zitat Zitat von Maxhster Beitrag anzeigen
    häh, ich kapier viele der Aussagen hier nicht. Nvidia war schon immer die verlogenere Seite wenns um Marketingtricksereien geht, oder darum ihre Interessen bei den Spielefirmen mit Moneten durchzusetzen und so AMD und deren Käufer auszugrenzen.
    Auch die Aussagen wegen dem Speicher verstehe ich nicht, immerhin hatte Vega deutliche Probleme weil der Speicher verkrüppelt war. Nun schaffen sie den 1TB/s durchsatz nur mit verdoppeltem Speicher, warum sollte der also unnütz sein?

    die 2080 die in den (ach so) geilen Tests gebencht wurden verbraten auch 260W+, wo sind das 80 watt mehr?
    bei vwga war nicht der speicher das eigendliche problem, sondern der soc takt der daran gekoppelt war und massiv bandbreite ioferte, was das gpu oc nutzlos machte und allgemein viel leistung kostete.


    gibt im sammler genug info, von 1100mhz hbm takt zu 1111 mhz stieg der soc auf 1199mhz und bei 1600 gpu kamen 7% mehr leistung raus, bei mickrigen 11mhz oder eben 1% mehrtakt ^^

  22. #21
    Großadmiral Avatar von Thrawn.
    Registriert seit
    24.11.2005
    Beiträge
    20.216


    • Systeminfo
      • Netzwerk:
      • Kabel 1000 Mbit, Orbi AC2200
      • Sound:
      • ASRock Purity Sound 4 @ Razer Mako 2.1
      • Sonstiges:
      • Logitech G403 Prodigy, G910 Orion Spectrum
      • Notebook:
      • Acer Aspire 5930G
      • Handy:
      • Samsung Galaxy S10 Prism White

    Standard

    Zitat Zitat von Performer Beitrag anzeigen
    Verstehe nicht warum sich AMD mit einer RTX2080 anlegen will obwohl dafür deren Architektur offensichtlich weit über dem sweetspot laufen muss.
    Eine 499$ Karte mit RTX2070 Leistung kommt hoffentlich noch zügig hinterher aber bitte ohne das dumme Geschwätz "keine reine Spielerkarte"
    Weil man es muss, der erste 7 NM High End Gaming Chip + Teure 16 GB HBM2 zwingen AMD zu dem Preis..
    Work & Play Phanteks Enthoo Elite | i9-9900K 5GHz AVX | ASRock Z390 Taichi Ultimate | Alphacool Eisbaer 420 | 32GB G.Skill Trident Z RGB DDR4-3333 | Palit GeForce GTX 1080 Ti GameRock 11GB | Straight Power 11 750W | AOC Q3279VWFD8 32" | SSD 960 Pro 1TB M.2
    Surf Phanteks Enthoo Elite | i3-6100 | ASRock H110TM-ITX R2.0 | Intel boxed Cooler| 8GB DDR4-2133 SO-DIMM | Intel HD Graphics 530 | 130W Dell Laptop NT | AOC Q3279VWFD8 32" | 128GB LiteOn Sata SSD M.2
    Backup be quiet! Dark Base 700 | i7-6700K | MSI Z170A Gaming Pro Carbon | HR-02 Macho B | 16GB Kingston HyperX Fury DDR4-2666 | ASUS ROG Strix GTX 1070 Ti Advanced 8GB | Straight Power 10 600W | ASUS VS248HR 24" | 2x SSD 850 EVO 500GB

  23. #22
    Oberleutnant zur See
    Registriert seit
    08.05.2018
    Beiträge
    1.467


    Standard

    venau wie nvidia mit dem gddr6 der doppelt so teuer ist als ggdr5 ud der riesen chip.

    viele verstehen nicht dass sich beide nichts nehmen

    die sehen da bei nVidia 2 milkiarden gewinn, und diese sind dann ausschliesslich von gamer gpus und ja nicht von den 14 anderen einnahmequellen die die firma hat.

    genauso sind die deutschen. sie kenne einen staat der lieb und nett ist und die brücken und strassen und kitas ermöglicht, und einen staat der die steuern will und der nur nimmt, und diese beiden entitäten haben nichts miteinander zu tun. Der deutsche kann trennen

  24. #23
    Admiral
    HWLUXX Superstar
    Avatar von sTOrM41
    Registriert seit
    13.10.2005
    Ort
    Magdeburg
    Beiträge
    21.103


    • Systeminfo
      • Motherboard:
      • ASRock Z370 Pro4
      • CPU:
      • i7 8700 @ 102,4% xD
      • Systemname:
      • Covfefe
      • Kühlung:
      • EKL Ben Nevis
      • Gehäuse:
      • So derbes 20€ Ding, rockt!
      • RAM:
      • 16GB Crucial @ 3000 MHz
      • Grafik:
      • Asus RTX 2080 Turbo
      • Storage:
      • Transcend 370, Kingston V300
      • Monitor:
      • 34 Zoll 3440*1440p @ 100Hz + 27 Zoll 1080p
      • Sound:
      • Logitech G930, AKG K530,Edifier S330D, Siberia V2
      • Netzteil:
      • be quiet! Pure Power 10 400W
      • Betriebssystem:
      • Windows 10 x64
      • Sonstiges:
      • Logitech G19 + Sharkoon Drakonia
      • Notebook:
      • Acer Swift 1 + Acer 3820TG + Acer 1810T
      • Photoequipment:
      • Canon EOS 450D, Samsung WB2000
      • Handy:
      • Galaxy S8

    Standard

    Zitat Zitat von Maxhster Beitrag anzeigen
    die 2080 die in den (ach so) geilen Tests gebencht wurden verbraten auch 260W+, wo sind das 80 watt mehr?
    80 watt werden schon so etwa hin kommen, wenn nicht gar noch mehr..

    laut amd hat man die performance pro watt um 25% steigern können.
    Erste 7-nm-Gaming-GPU: AMD präsentiert die Radeon VII - Hardwareluxx

    mit 25% mehr leistung gegenüber der vega 64 ist man aber eben noch nicht so schnell wie die 2080
    Nvidia GeForce RTX 2080 und RTX 2080 Ti im Test (Seite 3) - ComputerBase

    wenn man die 2080 geknackt haben will, dann geht das daher rein logisch nur in dem man die karte außerhalb des sweetspots betreibt, was dann wiederum gar noch etwas höheren verbrauch als die vega 64 bedeuten könnte (die vega 64 verbraucht 74 watt mehr als die 2080 FE)
    Nvidia GeForce RTX 2080 und RTX 2080 Ti im Test (Seite 4) - ComputerBase
    Geändert von sTOrM41 (10.01.19 um 19:54 Uhr)
    Arguing on the internet is like running in the Special Olympics. Even if you win, you're still retarded.

  25. #24
    Anime und Hardware Otaku Avatar von MENCHI
    Registriert seit
    23.08.2008
    Ort
    Bitz
    Beiträge
    14.630


    • Systeminfo
      • Motherboard:
      • Koloe X58 mATX
      • CPU:
      • Intel X5650@Stock
      • Systemname:
      • MENCHI_X58
      • Kühlung:
      • Intel S1366 (boxed) mit Cu
      • Gehäuse:
      • Jonsbo C2 @Noctua
      • RAM:
      • 4x 4GB Corsair DDR3-2400
      • Grafik:
      • OEM GTX750Ti 2GB
      • Storage:
      • Samsung PM851 256GB (mSATA)
      • Monitor:
      • DELL P2217H
      • Netzteil:
      • Corsair CMPSU-400CX (400W)
      • Betriebssystem:
      • Windows 7 Ultimate (64Bit)

    Standard

    Hauptsache 16GB HBM
    (\__/)
    (='.'=)
    (")_(")

  26. #25
    Hauptgefreiter
    Registriert seit
    05.09.2010
    Ort
    Karlsruhe
    Beiträge
    221


    • Systeminfo
      • Motherboard:
      • ASRock X570 Taichi
      • CPU:
      • 3700x
      • Kühlung:
      • Noctua NH-D14
      • Gehäuse:
      • Fractal Define r5
      • RAM:
      • 4x8gb corsair lpx 3000
      • Grafik:
      • GW 2080 Phoenix GS
      • Storage:
      • Samsung 960 EVO
      • Monitor:
      • Asus MG279Q
      • Sound:
      • Asus Xonar
      • Netzteil:
      • BQ Dark Power Pro 750W
      • Photoequipment:
      • Pentax K-S2

    Standard

    Zitat Zitat von sTOrM41 Beitrag anzeigen
    80 watt werden schon so etwa hin kommen, wenn nicht gar noch mehr..

    laut amd hat man die performance pro watt um 25% steigern können.
    Erste 7-nm-Gaming-GPU: AMD präsentiert die Radeon VII - Hardwareluxx

    mit 25% mehr leistung gegenüber der vega 64 ist man aber eben noch nicht so schnell wie die 2080
    Nvidia GeForce RTX 2080 und RTX 2080 Ti im Test (Seite 3) - ComputerBase

    wenn man die 2080 geknackt haben will, dann geht das daher rein logisch nur in dem man die karte außerhalb des sweetspots betreibt, was dann wiederum gar noch etwas höheren verbrauch als die vega 64 bedeuten könnte (die vega 64 verbraucht 74 watt mehr als die 2080 FE)
    Nvidia GeForce RTX 2080 und RTX 2080 Ti im Test (Seite 4) - ComputerBase
    also vega 64 braucht da 30 watt mehr als ne 2080. Die neue Karte wird in 7nm gefertigt, hat also ne Effizienzsteigerung um so und soviel prozent. Warum betreiben wir hier trotzdem noch Orakel bevor wir genau wissen wieviel die neue Vega verbraucht? Ich würde eine Wette eingehen, dass die neue Vega Karte keine 80 watt mehr braucht wie z.b eine 2080 MSI Gaming X Trio, die ja schon bei 260W liegt.

Seite 1 von 6 1 2 3 4 5 ... LetzteLetzte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •