Seite 1 von 6 1 2 3 4 5 ... LetzteLetzte
Ergebnis 1 bis 25 von 145
  1. #1
    News Avatar von HWL News Bot
    Registriert seit
    06.03.2017
    Beiträge
    1.309


    Standard AMD veröffentlicht weitere Leistungsdaten zur Radeon VII (Update)

    amd-radeonviiIn der gestrigen Präsentation der Radeon VII verglich AMD die Leistung der Karte mit einer GeForce RTX 2080 und sprach davon gleichauf und in einigen Spielen auch schneller zu sein. Nun hat man die Leistungsdaten noch einmal konkretisiert und nennt weitere Details.


    Dabei möchte AMD noch einmal betonen, dass die Radeon VII keine reine Spielerkarte ist. Sie ist einer Frontier Edition deutlich näher, als man dies auf den ersten Blick erkennen kann. Daher sind in den Benchmarks auch ebenso viele...

    ... weiterlesen


  2. Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

  3. #2
    Korvettenkapitän Avatar von Morrich
    Registriert seit
    29.08.2008
    Beiträge
    2.542


    Standard

    Diesen deutlichen Hinweis auf darauf, dass die Karte vielmehr für Profianwendungen, statt für Gaming ausgelegt ist (und das war schon seit Monaten klar, wenn von Vega 20 gesprochen wurde), braucht es auch ganz eindeutig.
    Denn offenbar haben viele noch immer nicht kapiert, was diese GPU ist.
    Ging seit Monaten durch die Presse und Foren, aber die dummen Schwätzer, die sich jetzt wieder über die ach so schlechte Gaming Performance aufregen, haben das scheinbar nie gelesen.

    Ich finde es hingegen erstaunlich, dass AMD überhaupt eine Gaming Karte mit dieser GPU bringt. Aber das muss wohl einfach sein um NVidia das höhere Performancesegment nicht gänzlich kampflos zu überlassen.
    Geändert von Morrich (10.01.19 um 12:37 Uhr)

  4. #3
    Oberbootsmann
    Registriert seit
    08.05.2018
    Beiträge
    784


    Standard

    wenn man bedenkt dass vega VII 6% weniger shader hat sehr interessant.

    was mich interessiert ist wie sie mit dem soc clock umgehen. bei der vega braucht man 1110mhz memoryclock un den soc aif 1199 zu heben und damit massiv bandbreite hinzuzugewinnen. kann gut sein dass man da bei der vegaVII auch noch einige % Rauskitzeln kann, vor allem um die 1800+ mhz auch wirklich auszureizen.

    momory uv wird wohl kaum von belang sein, da man da kaum spielraum gewinnt.

  5. #4
    Matrose
    Registriert seit
    18.04.2017
    Beiträge
    5


    Standard

    Enttäuschend.

  6. #5
    SuperModerator
    Bruddelsupp
    Luxx Labor

    Bubble Boy
    Avatar von King Bill
    Registriert seit
    16.06.2005
    Ort
    ■█▄█▀█▄█■█▄█▀█▄█■ addicted to black & white kaname chidori ftw!
    Beiträge
    25.882


    • Systeminfo
      • Motherboard:
      • Asus Sabertooth Z77
      • CPU:
      • Intel Core i7 3770K @ 4,5
      • Systemname:
      • Cartman [Southpark]
      • Kühlung:
      • Liquid Cooling
      • Gehäuse:
      • Corsair Obsidian 750D
      • RAM:
      • Corsair Vengeance 32GB 1866
      • Grafik:
      • Nvidia Geforce GTX1080
      • Storage:
      • SSD und HDD
      • Monitor:
      • 2x Dell UltraSharp U2414H
      • Netzwerk:
      • All GBit/s
      • Sound:
      • Creative SoundBlaster X-Fi Titanium
      • Netzteil:
      • Enermax Modu82+ 525W
      • Betriebssystem:
      • Windows 10 Pro
      • Photoequipment:
      • Canon EOS 5DMk2
      • Handy:
      • altes Nokia - Unzerstörbar

    Standard

    Zitat Zitat von Morrich Beitrag anzeigen
    Ich finde es hingegen erstaunlich, dass AMD überhaupt eine Gaming Karte mit dieser GPU bringt. Aber das muss wohl einfach sein um NVidia das höhere Performancesegment nicht gänzlich kampflos zu überlassen.
    +1 vor allem die Kampfansage mit 16GB HBM für 700USD. Wäre mir ganz Recht wenn Nvidia seine Preise nach unten korrigiert.

  7. #6
    Oberbootsmann
    Registriert seit
    26.04.2015
    Beiträge
    911


    • Systeminfo
      • Motherboard:
      • ASUS ROG Crosshair VI Hero
      • CPU:
      • AMD Ryzen 7 2700X @ P3
      • Kühlung:
      • Wasserkühlung
      • RAM:
      • GSkill Trident Z [email protected]
      • Grafik:
      • nVida Titan X (Pascal) @ WaKü
      • Storage:
      • Samsung SM951 AHCI 512GB @ Boot
      • Monitor:
      • acer Predator XB281HKbmiprz - Samsung U28D
      • Sound:
      • Creative Soundblaster ZxR
      • Netzteil:
      • Enermax Platimax 1500
      • Betriebssystem:
      • Windows 10

    Standard

    Zitat Zitat von Morrich Beitrag anzeigen
    Diesen deutlichen Hinweis auf darauf, dass die Karte vielmehr für Profianwendungen, .....
    Das Problem ist aber auch AMDs Präsentation. Man könnte die Karte auch einfach mit einer Quadro vergleichen können zB (oder beides, RTX und Quadro). Dann könnte man immer sagen: Schau mal auf die Diagramme, da ist auch eine Quadro, warum den nur?

    Wenn ich mich selber aber nur mit Spielekarten vergleiche und dann sage: Ist aber eigentlich eine Profikarte, erm naja.
    Geändert von Betabrot (10.01.19 um 13:25 Uhr)

  8. #7
    Kapitän zur See Avatar von L_uk_e
    Registriert seit
    08.11.2007
    Beiträge
    3.387


    • Systeminfo
      • Motherboard:
      • ASUS Prime X370 Pro
      • CPU:
      • Ryzen 5 1600X @ 3,9Ghz
      • Kühlung:
      • Nactua NH-U12S
      • Gehäuse:
      • Jonsbo UMX4
      • RAM:
      • Corsair 16GB DDR4 3000Mhz
      • Grafik:
      • Zotax GTX 1080 AMP! @ Morpheus
      • Storage:
      • Selbstbau NAS
      • Monitor:
      • Dell U2414H
      • Sound:
      • SMSL AD18, Avinity AHP-967, BS/FT9 DIY
      • Netzteil:
      • Enermax Platimax D.F. 500W
      • Betriebssystem:
      • Windows 10 Pro N
      • Photoequipment:
      • Pentax K-50
      • Handy:
      • OnePlus 3t

    Standard

    Ist das nicht eher dann ne Prosumer Karte? Ich meine, die ist ja scheinbar zum Spielen ebenfalls geeignet, aber hat eben nicht den teuren Treibersupport

  9. #8
    Oberbootsmann
    Registriert seit
    08.05.2018
    Beiträge
    784


    Standard

    anscheinend si d die specs durchgesickert vor 1 stunde. 1,45 baseclock/ 1,75 boost bei max. 300 watt.

  10. #9
    Kapitänleutnant Avatar von croni-x
    Registriert seit
    28.06.2007
    Ort
    Oberbayern
    Beiträge
    1.588


    • Systeminfo
      • Motherboard:
      • MSI B450M Mortar
      • CPU:
      • AMD 7 [email protected]
      • Kühlung:
      • Aqua-Computer Cuplex Pro
      • Gehäuse:
      • Fractal Design Arc Mini
      • RAM:
      • G.Skill [email protected]
      • Grafik:
      • MSI 1080 Gaming [email protected]/5535
      • Storage:
      • Samsung EVO 950 - 250GB
      • Monitor:
      • Iiyama PROLITE X4071UHSU-B1
      • Sound:
      • Creative X-Fi Extreme Audio
      • Netzteil:
      • BeQuiet Pure Power 9 - 600W
      • Betriebssystem:
      • Windows 10 Pro 64Bit
      • Sonstiges:
      • 18 TB Selbstbau NAS
      • Notebook:
      • Sony Vaio Duo 11
      • Handy:
      • Google Pixel 128GB

    Standard

    Sofern ich mich erinnere an die Live-Präsentation stand da 1.800MHz GPU Clock..

  11. #10
    Flottillenadmiral Avatar von iWebi
    Registriert seit
    11.03.2011
    Ort
    Leipzig
    Beiträge
    5.261


    • Systeminfo
      • Motherboard:
      • ASUS Prime X299-A
      • CPU:
      • Intel Core i7-7800X
      • Systemname:
      • EVGA4ever
      • Kühlung:
      • Noctua NH-D15 (3x NF-A15 PWM)
      • Gehäuse:
      • EVGA DG-87 (8x NF-A14 PWM)
      • RAM:
      • G.Skill Trident Z RGB (4x8 GB)
      • Grafik:
      • EVGA GTX 1070 FTW SLI
      • Storage:
      • 2x 500 GB Samsung SSD 850 EVO
      • Monitor:
      • Samsung SyncMaster U28E850R LED (2160p60)
      • Netzwerk:
      • AVM FRITZ!Box 6490 Cable
      • Sound:
      • ASUS Crystal Sound 3
      • Netzteil:
      • EVGA SuperNOVA 850 T2
      • Betriebssystem:
      • Microsoft Windows 10 Pro x64
      • Sonstiges:
      • http://www.sysprofile.de/id187517 / http://www.mein-pc.eu/Profil/Lucky1Levin-/37369
      • Photoequipment:
      • http://www.abload.de/gallery.php?key=sqwVuuQX
      • Handy:
      • Samsung Galaxy S7 Edge

    Standard

    Zitat Zitat von croni-x Beitrag anzeigen
    Sofern ich mich erinnere an die Live-Präsentation stand da 1.800MHz GPU Clock..
    100 Punkte.

  12. #11
    Flottillenadmiral Avatar von Clonemaster
    Registriert seit
    02.09.2010
    Beiträge
    4.361


    • Systeminfo
      • Motherboard:
      • ASRock x299 OCF
      • CPU:
      • i9-7920X @4.8GHz 3.1 mesh
      • Kühlung:
      • 3x240, MoRa420LT
      • Gehäuse:
      • LianLi V1000LA
      • RAM:
      • 16GB DDR4 3600 CL17
      • Grafik:
      • EVGA 2080Ti XC Ultra 2055/8100
      • Storage:
      • 2x 960 EVO 500GB
      • Monitor:
      • XV273K 4K 120Hz IPS Gsync compatible
      • Netzwerk:
      • FTTH 500k/200k
      • Sound:
      • DT990pro, Qpad QH-90, Alesis M1 520
      • Netzteil:
      • Seasonic 1000W Titanium
      • Notebook:
      • AW3 R15 7820HK/GTX1080/1080p120Hz

    Standard

    Stephen Burke hat von einem 1800MHz "burst" gesprochen, also einem Kurzzeit-boost

  13. #12
    Oberbootsmann
    Registriert seit
    08.05.2018
    Beiträge
    784


    Standard

    sicher ein up to dabei.

    und aufgerundet wären es ja 1.8ghz, aber alles in allem eine interessante karte, die 40% mehr als meine rx 56 schaffen sollte.

  14. #13
    Admiral Avatar von RAZ0RLIGHT
    Registriert seit
    19.08.2007
    Ort
    Bayern
    Beiträge
    13.705


    Standard

    Zitat Zitat von croni-x Beitrag anzeigen
    Sofern ich mich erinnere an die Live-Präsentation stand da 1.800MHz GPU Clock..
    Up To
    Verkaufe: Nix
    Founders Edition
    Intels Erfolgsgeheimnis
    Rest in Peace Stephen Hawking

  15. #14
    Frischluftfanatiker Avatar von Performer
    Registriert seit
    01.04.2002
    Beiträge
    17.587


    • Systeminfo
      • Motherboard:
      • MSI Z270A Gayming Pro(fi)
      • CPU:
      • 7700k @ 5,00 Gigaschmerz
      • Systemname:
      • Höllenmaschine from Hell !!!
      • Kühlung:
      • EKL Alpenföhn Olymp(iade)
      • Gehäuse:
      • Airflow Master Silence Deluxe
      • RAM:
      • 16GB Corsair DDR4 @ 3600Mhz
      • Grafik:
      • Gainward GTX1080Ti @ 2k/6k
      • Storage:
      • Samsung SSD 850 Evo 466 GB
      • Monitor:
      • Lenovo Y27G 144Hz G-Sync VA
      • Netzwerk:
      • LAN WLAN ALAN WAKE ME UP
      • Sound:
      • Creative Inschbayer T3000 2.1
      • Netzteil:
      • Be Quiet Straight Power 500W
      • Betriebssystem:
      • Windows 7 + 1 Mio Updates
      • Sonstiges:
      • MS Intelli Optical 1.1A black

    Standard

    Verstehe nicht warum sich AMD mit einer RTX2080 anlegen will obwohl dafür deren Architektur offensichtlich weit über dem sweetspot laufen muss.
    Eine 499$ Karte mit RTX2070 Leistung kommt hoffentlich noch zügig hinterher aber bitte ohne das dumme Geschwätz "keine reine Spielerkarte"
    >>> Mein Rechner <<<
    ____________________

  16. #15
    Leutnant zur See Avatar von Tech Enthusiast
    Registriert seit
    01.01.2016
    Beiträge
    1.047


    Standard

    Auf dem Papier kann das ja ne recht gute Karte werden.
    Wird spannend wie viel von diesen Leistungsdaten dann in der Realität auch gemessen werden (da ist AMD deutlich verlogener als NVidia) und was das Ding dann wirklich kostet.

    Ich glaube weiterhin, dass die 16gb HBM2 reines Marketing sind, die den Preis unnötig hochtreiben.
    Gerade HBM2, bei dem krassen Speed,... da wird der Speicher ja fast 100x pro Sekunde leer und wieder voll gemacht. Und wozu? Bei 16gb kann man alle Texturen der meisten Games simultan im Speicher behalten und dort liegen lassen, ohne sie auch nur einmal auszutauschen.
    Also entweder der Speed, oder die Menge sind unnötig. Beides zusammen passt einfach nicht in den Gamermarkt.

  17. #16
    BannedForEveR Avatar von Holzmann
    Registriert seit
    02.05.2017
    Beiträge
    9.634


    • Systeminfo
      • Motherboard:
      • Gigabyte Aorus Pro AMD X399
      • CPU:
      • AMD Threadripper 2950X
      • Kühlung:
      • Corsair Hydro H115i Platinum
      • Gehäuse:
      • Corsair 460x
      • RAM:
      • Corsair 3200mhz 32GB RGB PRO
      • Grafik:
      • AMD Vega 64 Strix OC
      • Storage:
      • Corsair NX 500 PCI SSD 400 GB
      • Monitor:
      • Dell
      • Netzteil:
      • Enermax Digifanless 550W Titan
      • Betriebssystem:
      • Win10

    Standard

    Zitat Zitat von Tech Enthusiast Beitrag anzeigen
    (da ist AMD deutlich verlogener als NVidia)

    Hast du dafür einen Beleg?

    Ich glaube weiterhin, dass die 16gb HBM2 reines Marketing sind, die den Preis unnötig hochtreiben.
    Ein reiner Marketing-Speicher? Neue Geschäftsidee.

  18. #17
    Leutnant zur See Avatar von Tech Enthusiast
    Registriert seit
    01.01.2016
    Beiträge
    1.047


    Standard

    Beleg?
    Jede einzelne Präsentation der letzten Jahre. Kann sich jeder selber anschauen und vergleichen was die Dinger dann in der Realität hatten.
    Spontan fällt mir die Witcher 3 Präsentation ein, bei der sie mal locker flockig 25-50% mehr Leistung gezeigt hatten als die GPU wirklich produziert hat. Es gab dazu sogar YouTuber die krampfhaft versucht haben herauszufinden was AMD eingestellt hatte, um diese Werte zu erreichen. Soweit ich mitbekommen habe, erfolglos.

    Das kann natürlich hier und jetzt ganz anders sein!
    Glauben werde ich das dann, wenn Guru3d und HardwareUnboxed das ganze testen. :-)

  19. #18
    996
    996 ist offline
    Oberbootsmann
    Registriert seit
    25.01.2013
    Beiträge
    995


    Standard

    Also 85W mehr Verbrauch als eine Rtx 2080 jedoch die gleiche Leistung... erinnert mich an 2017.

    Wenn ich meine Münze drehe dann sehe ich auf einer Seite Nvidia und auf der anderen AMD und der Rand der immer dünner wird das sind wohl wir.

  20. #19
    Hauptgefreiter
    Registriert seit
    05.09.2010
    Ort
    Karlsruhe
    Beiträge
    214


    • Systeminfo
      • Motherboard:
      • Gigabyte Z77 d3h
      • CPU:
      • 3770k
      • Kühlung:
      • Fractal Kelvin S24
      • Gehäuse:
      • Fractal Define r5
      • RAM:
      • 16gb
      • Grafik:
      • R9 290
      • Storage:
      • Samsung 960 EVO
      • Monitor:
      • Asus MG279Q
      • Sound:
      • Asus Xonar
      • Netzteil:
      • Be Quiet 530W
      • Betriebssystem:
      • Win10 + Ubuntu 16.04

    Standard

    häh, ich kapier viele der Aussagen hier nicht. Nvidia war schon immer die verlogenere Seite wenns um Marketingtricksereien geht, oder darum ihre Interessen bei den Spielefirmen mit Moneten durchzusetzen und so AMD und deren Käufer auszugrenzen.
    Auch die Aussagen wegen dem Speicher verstehe ich nicht, immerhin hatte Vega deutliche Probleme weil der Speicher verkrüppelt war. Nun schaffen sie den 1TB/s durchsatz nur mit verdoppeltem Speicher, warum sollte der also unnütz sein?

    die 2080 die in den (ach so) geilen Tests gebencht wurden verbraten auch 260W+, wo sind das 80 watt mehr?
    Geändert von Maxhster (10.01.19 um 18:27 Uhr)

  21. #20
    Admiral Avatar von RAZ0RLIGHT
    Registriert seit
    19.08.2007
    Ort
    Bayern
    Beiträge
    13.705


    Standard

    Zitat Zitat von Tech Enthusiast Beitrag anzeigen
    Beleg?
    Jede einzelne Präsentation der letzten Jahre. Kann sich jeder selber anschauen und vergleichen was die Dinger dann in der Realität hatten.
    Spontan fällt mir die Witcher 3 Präsentation ein, bei der sie mal locker flockig 25-50% mehr Leistung gezeigt hatten als die GPU wirklich produziert hat. Es gab dazu sogar YouTuber die krampfhaft versucht haben herauszufinden was AMD eingestellt hatte, um diese Werte zu erreichen. Soweit ich mitbekommen habe, erfolglos.

    Das kann natürlich hier und jetzt ganz anders sein!
    Glauben werde ich das dann, wenn Guru3d und HardwareUnboxed das ganze testen. :-)
    Zeig mir mal die Daten zu deiner 25-50% mehr Leistung These die AMD "gezaubert" hat.

    Wenn es etwas ähnliches gegeben hat, war es durch Hairworks bedingt.
    Verkaufe: Nix
    Founders Edition
    Intels Erfolgsgeheimnis
    Rest in Peace Stephen Hawking

  22. #21
    Oberbootsmann
    Registriert seit
    08.05.2018
    Beiträge
    784


    Standard

    Zitat Zitat von Maxhster Beitrag anzeigen
    häh, ich kapier viele der Aussagen hier nicht. Nvidia war schon immer die verlogenere Seite wenns um Marketingtricksereien geht, oder darum ihre Interessen bei den Spielefirmen mit Moneten durchzusetzen und so AMD und deren Käufer auszugrenzen.
    Auch die Aussagen wegen dem Speicher verstehe ich nicht, immerhin hatte Vega deutliche Probleme weil der Speicher verkrüppelt war. Nun schaffen sie den 1TB/s durchsatz nur mit verdoppeltem Speicher, warum sollte der also unnütz sein?

    die 2080 die in den (ach so) geilen Tests gebencht wurden verbraten auch 260W+, wo sind das 80 watt mehr?
    bei vwga war nicht der speicher das eigendliche problem, sondern der soc takt der daran gekoppelt war und massiv bandbreite ioferte, was das gpu oc nutzlos machte und allgemein viel leistung kostete.


    gibt im sammler genug info, von 1100mhz hbm takt zu 1111 mhz stieg der soc auf 1199mhz und bei 1600 gpu kamen 7% mehr leistung raus, bei mickrigen 11mhz oder eben 1% mehrtakt ^^

  23. #22
    Großadmiral Avatar von Thrawn.
    Registriert seit
    24.11.2005
    Beiträge
    19.214


    • Systeminfo
      • Netzwerk:
      • Kabel 400K, Netg. Orbi AC2200
      • Sound:
      • ASRock Purity Sound 4 @ Razer Mako 2.1
      • Sonstiges:
      • Logitech G403 Prodigy, G910 Orion Spectrum
      • Notebook:
      • Acer Aspire 5930G
      • Handy:
      • Samsung Galaxy A5 2017

    Standard

    Zitat Zitat von Performer Beitrag anzeigen
    Verstehe nicht warum sich AMD mit einer RTX2080 anlegen will obwohl dafür deren Architektur offensichtlich weit über dem sweetspot laufen muss.
    Eine 499$ Karte mit RTX2070 Leistung kommt hoffentlich noch zügig hinterher aber bitte ohne das dumme Geschwätz "keine reine Spielerkarte"
    Weil man es muss, der erste 7 NM High End Gaming Chip + Teure 16 GB HBM2 zwingen AMD zu dem Preis..
    BIG GAMING Phanteks Enthoo Elite | i9-9900K 5GHz AVX | ASRock Z390 Taichi Ultimate | AlphaCool Eisbaer 420 | 32GB Trident Z RGB DDR4-3333 | ROG Strix GTX 1070 Ti Advanced 8GB 2063/8800 | Straight Power 11 750W | ROG Swift PG279Q 27" | Samsung SSD 960 Pro 1TB M.2
    Lan GAMING Kolink Rocket | i5-8600| ROG Strix H370-I Gaming | Cooltek LP53 | 16GB Vengeance LPX DDR4-2666 | ROG Strix GTX 970 DC2OC 4GB | Corsair SF450W | Dell U2414H 24" | Samsung SSD 970 EVO 1TB M.2
    Backup GAMING NZXT Phantom 410 | i7-6700K | MSI Z170A Gaming Pro Carbon | HR-02 Macho B | 16GB HyperX Fury DDR4-2666 | PowerColor Radeon RX 580 Red Devil 8GB | Straight Power 10-CM 600W | ASUS VS248HR 24" | 2x Samsung SSD 850 EVO 500GB

  24. #23
    Oberbootsmann
    Registriert seit
    08.05.2018
    Beiträge
    784


    Standard

    venau wie nvidia mit dem gddr6 der doppelt so teuer ist als ggdr5 ud der riesen chip.

    viele verstehen nicht dass sich beide nichts nehmen

    die sehen da bei nVidia 2 milkiarden gewinn, und diese sind dann ausschliesslich von gamer gpus und ja nicht von den 14 anderen einnahmequellen die die firma hat.

    genauso sind die deutschen. sie kenne einen staat der lieb und nett ist und die brücken und strassen und kitas ermöglicht, und einen staat der die steuern will und der nur nimmt, und diese beiden entitäten haben nichts miteinander zu tun. Der deutsche kann trennen

  25. #24
    Admiral
    HWLUXX Superstar
    Avatar von sTOrM41
    Registriert seit
    13.10.2005
    Ort
    Magdeburg
    Beiträge
    20.534


    • Systeminfo
      • Motherboard:
      • ASRock Z370 Pro4
      • CPU:
      • i7 8700 @ 102,4% xD
      • Systemname:
      • Covfefe
      • Kühlung:
      • EKL Ben Nevis
      • Gehäuse:
      • So derbes 20€ Ding, rockt!
      • RAM:
      • 16GB Crucial @ 3000 MHz
      • Grafik:
      • Asus RTX 2080 Turbo
      • Storage:
      • Transcend 370, Kingston V300
      • Monitor:
      • 34 Zoll 3440*1440p @ 100Hz + 27 Zoll 1080p
      • Sound:
      • Logitech G930, AKG K530,Edifier S330D, Siberia V2
      • Netzteil:
      • be quiet! Pure Power 10 400W
      • Betriebssystem:
      • Windows 10 x64
      • Sonstiges:
      • Logitech G19 + Sharkoon Drakonia
      • Notebook:
      • Acer Swift 1 + Acer 3820TG + Acer 1810T
      • Photoequipment:
      • Canon EOS 450D, Samsung WB2000
      • Handy:
      • Galaxy S8

    Standard

    Zitat Zitat von Maxhster Beitrag anzeigen
    die 2080 die in den (ach so) geilen Tests gebencht wurden verbraten auch 260W+, wo sind das 80 watt mehr?
    80 watt werden schon so etwa hin kommen, wenn nicht gar noch mehr..

    laut amd hat man die performance pro watt um 25% steigern können.
    Erste 7-nm-Gaming-GPU: AMD präsentiert die Radeon VII - Hardwareluxx

    mit 25% mehr leistung gegenüber der vega 64 ist man aber eben noch nicht so schnell wie die 2080
    Nvidia GeForce RTX 2080 und RTX 2080 Ti im Test (Seite 3) - ComputerBase

    wenn man die 2080 geknackt haben will, dann geht das daher rein logisch nur in dem man die karte außerhalb des sweetspots betreibt, was dann wiederum gar noch etwas höheren verbrauch als die vega 64 bedeuten könnte (die vega 64 verbraucht 74 watt mehr als die 2080 FE)
    Nvidia GeForce RTX 2080 und RTX 2080 Ti im Test (Seite 4) - ComputerBase
    Geändert von sTOrM41 (10.01.19 um 19:54 Uhr)
    Arguing on the internet is like running in the Special Olympics. Even if you win, you're still retarded.

  26. #25
    Anime und Hardware Otaku Avatar von MENCHI
    Registriert seit
    23.08.2008
    Ort
    Bitz
    Beiträge
    14.046


    • Systeminfo
      • Motherboard:
      • GigaByte GA-X58A-UD5
      • CPU:
      • Intel [email protected],20GHz
      • Systemname:
      • MENCHI_X58
      • Kühlung:
      • Corsair H100 (1. Gen.)
      • Gehäuse:
      • Fractal Design Define C
      • RAM:
      • 3x 4GB Corsair DDR3-1760
      • Grafik:
      • ZOTAC GTX1070 Mini
      • Storage:
      • 500GB SAMSUNG 850 Evo
      • Monitor:
      • DELL P2217H
      • Netzteil:
      • SilverStone SST-SX650-G
      • Betriebssystem:
      • Windows 7 Ultimate (64Bit)

    Standard

    Hauptsache 16GB HBM
    (\__/)
    (='.'=)
    (")_(")

Seite 1 von 6 1 2 3 4 5 ... LetzteLetzte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •