Seite 1 von 3 1 2 3 LetzteLetzte
Ergebnis 1 bis 25 von 62
  1. #1
    News Avatar von HWL News Bot
    Registriert seit
    06.03.2017
    Beiträge
    1.296


    Standard NVIDIA stichelt mit TDP und TGP gegen AMD

    tu102-gpuNVIDIA hat recht schnell auf die Präsentation der beiden Navi-Karten alias Radeon RX 5700 XT und Radeon RX 5700 von AMD reagiert und will seinerseits einige Begrifflichkeiten und Funktionen klarstellen. So will man die Begriffe Thermal Design Power (TDP) und Total Graphics Power (TGP) noch einmal ins rechte Licht rücken. Für TDP verwendet NVIDIA auch gerne die Bezeichnung Thermal Design Parameter, gemeint ist aber immer das gleiche - der Verbrauch der GPU.

    Allerdings sprechen AMD und NVIDIA hier eigentlich die gleiche...

    ... weiterlesen


  2. Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

  3. #2
    Flottillenadmiral Avatar von Powl
    Registriert seit
    13.11.2015
    Beiträge
    4.569


    • Systeminfo
      • Motherboard:
      • Asus Crosshair VI Hero
      • CPU:
      • AMD Ryzen 7 1700 OC
      • Systemname:
      • Ryzenshine
      • Kühlung:
      • kryos NEXT + DCP450M + LS360
      • Gehäuse:
      • Lian Li O11 Dynamic White
      • RAM:
      • 16GB Corsair Vengeance RGB Pro
      • Grafik:
      • GTX 1080Ti + FD Celsius S36
      • Storage:
      • 500GB Gammix S11 + 500GB 850 Evo + 500GB 840 Evo
      • Monitor:
      • Iiyama X4071
      • Netzwerk:
      • i211(T)
      • Sound:
      • PreSonus Eris E4.5 + DT880 Pro + Samson Go Mic
      • Netzteil:
      • Corsair HX850i
      • Betriebssystem:
      • Win 10 Pro 64bit
      • Notebook:
      • HP Spectre x360 13-ac033ng
      • Handy:
      • OnePlus 6 128GB

    Standard

    Nvidia und Intel findens aktuell irgendwie geil, sich mit pubertär anmutenden Sticheleien zum Affen zu machen...

    Wer mit seinem Produkt nicht überzeugen kann, bringt also lieber dumme Kommentare? So wie AMD mit Poor Volta damals. Wie sich die Zeiten ändern.
    ZEN: R7 1700 3.8G + C6H + kryos NEXT/DCP450M/LS360 | GTX 1080Ti 1.9G + FD Celsius S36 | 16GB DDR4-3066/14 | Lian Li O11D --- Zentiny: R3 2200G 3.8G + B450-I + Prism | GTX 660 | 16GB DDR4-3000/15 | BT-04B
    Potato: FX 8120 3.8G + M5A78L-M/USB3 + Raystorm/240GTS | RX 570 OC | 20GB DDR3-1866/10 | Q300L --- Bench: ? + Z390 Aorus Master + Macho B | ? | ? | PC-D60
    Gimli: C2Q Q9400 2.7G + GF9300-ITX + Eisbaer Custom 280 | GTX 285 GS | 4GB DDR2-800/5 | Neo G Mini --- Taco-x360: i7 7500U + 827E | HD Graphics 620 | 16GB DDR3L-1866/14 | Spectre x360 13

  4. #3
    Kapitän zur See Avatar von Pickebuh
    Registriert seit
    27.07.2008
    Beiträge
    3.274


    • Systeminfo
      • Motherboard:
      • MSI X470 Gaming Pro
      • CPU:
      • AMD Ryzen 7 2700X
      • Kühlung:
      • Luft
      • RAM:
      • G.Skill FlairX 3200 CL14 16GB
      • Grafik:
      • Radeon VII
      • Storage:
      • Cruical m4 256GB+512GB, WD Green 2,5Zoll 1,5TB
      • Monitor:
      • LG 27MU67 UHD DP1.2a,2x HDMI2.0a, A-Sync 33-60Hz
      • Netzwerk:
      • LAN
      • Sound:
      • Onboard SupremeFX III 5.1
      • Netzteil:
      • Be quiet! E9 800Watt 80+ Gold
      • Betriebssystem:
      • Win 10 64Bit

    Standard

    Und was sagt uns nun diese Tabelle? Genau.
    AMD ist ehrlicher als NVIDIA. Danke für die Aufklärung Herr Jen-Hsun Huang.

  5. #4
    Kapitänleutnant Avatar von Gamerkind
    Registriert seit
    29.08.2018
    Beiträge
    1.749


    • Systeminfo
      • Motherboard:
      • Asus PRIME B350-PLUS
      • CPU:
      • A10 9700
      • Gehäuse:
      • Billigsdorfer
      • RAM:
      • 16GB DDR4-3200 (SC)
      • Grafik:
      • A10 9700
      • Storage:
      • Crucial MX300 275GB, SATA
      • Betriebssystem:
      • Windows 10 Pro

    Standard

    Wieder ein dummer Rülpser von NVIDIA!
    Die vielen Trolle hier mögen mich wohl nicht:O

  6. #5
    Obergefreiter Avatar von raVenDeniZ
    Registriert seit
    22.12.2016
    Ort
    Bochum
    Beiträge
    103


    • Systeminfo
      • Motherboard:
      • Gigabyte Z390 Designare
      • CPU:
      • Intel Core i7 8700K
      • Kühlung:
      • Custom Loop
      • Gehäuse:
      • Lian-Li O11 Dynamic
      • RAM:
      • 32GB GSkill TridentZ DDR4 3600
      • Grafik:
      • ASUS GTX 1080TI Strix OC
      • Storage:
      • 1TB + 512GB 970 Evo NVME m2 + 3 Sata SSDs
      • Monitor:
      • ASUS PG348Q + Eizo Foris FS2333BW
      • Sound:
      • Teufel Concept E Digital / Marantz SR6006
      • Netzteil:
      • Seasonic Focus Plus Gold 850W
      • Betriebssystem:
      • Win10 Pro 64bit
      • Notebook:
      • Dell Inspiron 7537
      • Handy:
      • iPhone 6s

    Standard

    Und schon gehts wieder los mit dem AMD-Fanboy-Gesabbel. Inzwischen ist es echt unerträglich...bei jeder Kleinigkeit immer und immer wieder dieselbe Götzifizierung ohne auch nur den Ansatz irgendeiner sinnvollen Diskussion. Bitte in Zukunft irgendeine übermäßig neutrale Überschrift nutzen sonst bewegen wir uns immer weiter Richtung Facebook-Niveau

  7. #6
    Kapitän zur See Avatar von Pickebuh
    Registriert seit
    27.07.2008
    Beiträge
    3.274


    • Systeminfo
      • Motherboard:
      • MSI X470 Gaming Pro
      • CPU:
      • AMD Ryzen 7 2700X
      • Kühlung:
      • Luft
      • RAM:
      • G.Skill FlairX 3200 CL14 16GB
      • Grafik:
      • Radeon VII
      • Storage:
      • Cruical m4 256GB+512GB, WD Green 2,5Zoll 1,5TB
      • Monitor:
      • LG 27MU67 UHD DP1.2a,2x HDMI2.0a, A-Sync 33-60Hz
      • Netzwerk:
      • LAN
      • Sound:
      • Onboard SupremeFX III 5.1
      • Netzteil:
      • Be quiet! E9 800Watt 80+ Gold
      • Betriebssystem:
      • Win 10 64Bit

    Standard

    NVIDIA hat doch damit angefangen oder?

  8. #7
    Kapitänleutnant Avatar von Gamerkind
    Registriert seit
    29.08.2018
    Beiträge
    1.749


    • Systeminfo
      • Motherboard:
      • Asus PRIME B350-PLUS
      • CPU:
      • A10 9700
      • Gehäuse:
      • Billigsdorfer
      • RAM:
      • 16GB DDR4-3200 (SC)
      • Grafik:
      • A10 9700
      • Storage:
      • Crucial MX300 275GB, SATA
      • Betriebssystem:
      • Windows 10 Pro

    Standard

    Und schon gehts wieder los mit dem AMD-Fanboy-Gesabbel.
    Also ich sehr hier davon genau nichts.

    Dein Rülpser ist aber echt erbärmlich, müßte ihr NVIDIA-Fans immer so durchdrehen?
    Die vielen Trolle hier mögen mich wohl nicht:O

  9. #8
    Flottillenadmiral Avatar von SFVogt
    Registriert seit
    27.01.2005
    Beiträge
    5.614


    • Systeminfo
      • Motherboard:
      • Clevo P870DM2
      • CPU:
      • 8x 4.5GHz i9-9900K
      • Kühlung:
      • Ultimate H²O Mod in Arbeit
      • Gehäuse:
      • schwarz Lack
      • RAM:
      • 2x 16GB DDR4-3000 G.Skill
      • Grafik:
      • 1x nVidia GeForce RTX 2080 8GB
      • Storage:
      • 1x 2000GB Corsair MP510
      • Monitor:
      • 17,3 UHD AUO B173ZAN01.0 G-Sync
      • Netzwerk:
      • Intel Wireless-AC 8260
      • Sound:
      • Logitech Z906 5.1
      • Netzteil:
      • 2x 330W Delta Elektronics
      • Betriebssystem:
      • Windows 10 Professional 64Bit
      • Notebook:
      • Clevo P870DM3-G
      • Handy:
      • Huawei Mate 10 Pro

    Standard

    Zitat Zitat von Pickebuh Beitrag anzeigen
    NVIDIA hat doch damit angefangen oder?
    nVidia hat nur ne Vergleichstabelle veröffentlicht, wie der Fanboy in dir diese Information aufnimmt und darauf reagiert, entscheidest allein du.

    Zitat Zitat von Gamerkind Beitrag anzeigen
    Also ich sehr hier davon genau nichts.

    Dein Rülpser ist aber echt erbärmlich, müßte ihr NVIDIA-Fans immer so durchdrehen?
    Du bist der Einzige hier der sich offensichtlich für etwas Besonderes hält wenn er in dem Thema mehrfach rülpst.


    Zitat Zitat von NEWS
    Die Angeben zur TDP kannten wir bisher weder von den GeForce-RTX-Karten, noch von den neuen Navi-Karten. Insofern sind die Werte für die Karten interessant, weil sie die Differenz zwischen der Leistungsaufnahme der GPU und der restlichen Komponenten auf der Grafikkarte aufzeigen.
    Die TDP aka GPU Power könnt ihr doch mit HWinfo bei jeder (nVidia) Grafikkarte auslesen, wie kann die euch also völlig unbekannt sein?! Auf 150W GPU Power ist meine RTX 2080 im Notebook standardmäßig per VBIOS beschränkt, glaube nicht das dies auch auf Desktopkarten zutrifft, kenne allerdings nicht die TGP der Notebookkarte.

    Geändert von SFVogt (12.06.19 um 00:55 Uhr)

    ■ CLEVO P870DM3-G ■ 17,3" UHD ■ INTEL Z170 ■ CORE i9-9900K ■ 2x 16GB DDR4-3000 G.SKILL ■ GEFORCE RTX 2080 8GB ■ 2TB CORSAIR MP510 ■

    ■ CLEVO ■ P870xMx(-G)P7xxZM(-G)P6xxSxW230SxP37xSMx(-A)P1xxSMx(-A)P570WMxP370EMxP1xxEMxD900FBarebone-Mods

  10. #9
    Gefreiter
    Registriert seit
    22.10.2008
    Beiträge
    55


    Standard

    Fanboy-Kindergarten, auf geht's!

  11. #10
    Obergefreiter Avatar von raVenDeniZ
    Registriert seit
    22.12.2016
    Ort
    Bochum
    Beiträge
    103


    • Systeminfo
      • Motherboard:
      • Gigabyte Z390 Designare
      • CPU:
      • Intel Core i7 8700K
      • Kühlung:
      • Custom Loop
      • Gehäuse:
      • Lian-Li O11 Dynamic
      • RAM:
      • 32GB GSkill TridentZ DDR4 3600
      • Grafik:
      • ASUS GTX 1080TI Strix OC
      • Storage:
      • 1TB + 512GB 970 Evo NVME m2 + 3 Sata SSDs
      • Monitor:
      • ASUS PG348Q + Eizo Foris FS2333BW
      • Sound:
      • Teufel Concept E Digital / Marantz SR6006
      • Netzteil:
      • Seasonic Focus Plus Gold 850W
      • Betriebssystem:
      • Win10 Pro 64bit
      • Notebook:
      • Dell Inspiron 7537
      • Handy:
      • iPhone 6s

    Standard

    Zitat Zitat von Pickebuh Beitrag anzeigen
    NVIDIA hat doch damit angefangen oder?
    Nvidia hat eine Präsentationsfolien mit TDP-Vergleich erstellt - Wahnsinn! Muss man sich davon immer direkt so triggern lassen? Wobei die Überschrift hier reißerischer klingt als es wirklich ist. Solche Folien kommen von absolut jeder Firma - Intel, NVIDIA, Apple, Samsung, BMW, Nestle, Persil und ob man es glauben will oder nicht auch von AMD 😉

    Zitat Zitat von Gamerkind Beitrag anzeigen
    Also ich sehr hier davon genau nichts.

    Dein Rülpser ist aber echt erbärmlich, müßte ihr NVIDIA-Fans immer so durchdrehen?
    Willst ausgerechnet du mir jetzt erzählen dass das nicht schon wieder ein Anti-Post war? Der, der keine Gelegenheit auslässt AMD in den Himmel zu loben, andere schlecht zu reden und dann noch mit so einem Profilbild daherkommt? Glaubst du doch nicht selbst oder? 😉

    Ich bin btw kein Fan von irgendwas. Mein Hauptrechner ist Intel/Nvidia, mein Zweit-Rechner AMD/AMD. Ich kaufe der Leistung entsprechend. Mir geht nur diese immer schlimmer werdende Götzifizierung auf die Nüsse auf gut Deutsch gesagt. Ist beim Thema Handys mit Apple/Android übrigens haargenau dasselbe. Einfach mal was anderes posten als „Wieder nur ein erbärmlicher Rülpser von XYZ“ wär schonmal ein super Anfang. Das sind Posts die kein Mensch brauch oder lesen will. Aber gut, ich begebe mich gerade in genau die Gesellschaft, die ich gerade so an den Pranger stelle. Das ist alles nicht persönlich gemeint, aber ein bisschen konstruktiver als Rülps die 431. darf es meiner Meinung nach schon sein

  12. #11
    Bootsmann Avatar von geist4711
    Registriert seit
    10.12.2012
    Ort
    Hamburg
    Beiträge
    518


    • Systeminfo
      • Motherboard:
      • MSI Z97 S12 530 M
      • CPU:
      • I7-4790K (WK)
      • Systemname:
      • Geist4711-PC
      • Kühlung:
      • Wasserkühlung, eigenbau
      • Gehäuse:
      • Benchtable/eigenbau
      • RAM:
      • 2x8GB 1600 CL9
      • Grafik:
      • Saphire Tri-X R9 290 (WK)
      • Storage:
      • 2x 240GB SSD, 500GB HDD
      • Monitor:
      • BenQ 24-Zoll 2ms
      • Netzwerk:
      • wlan-router
      • Sound:
      • onboard
      • Netzteil:
      • Seasonic S12 530M
      • Betriebssystem:
      • kubuntu 64bit /win10 pro 64bit

    Standard

    soviel mehr verbrauchen die AMD-karten nicht. ist ja auch nur interessant während man mal spielt, bei mir jedenfalls.
    interessant finde ich das man TDP zu TGP ausrechnet, wozu soll das gut sein aus der TDP etwas ab zu leiten? wenn dann aus dem tatsächlichem verbrauch, den ' design-power ' kann ja alles mögliche sein, egal wieviel ne karte dann wirklich braucht.
    viel wichtiger ist aber auch, wie sich die karten dann in den spielen schlagen und das werden wir demnächst wohl sehen. bisher ist die 5700 jedenfalls schonmal interessanter als eine karte mit 6GB VRAM.....
    Geändert von geist4711 (12.06.19 um 00:44 Uhr)

  13. #12
    Moderator Avatar von fdsonne
    Registriert seit
    08.08.2006
    Ort
    SN
    Beiträge
    34.453


    Standard

    Zitat Zitat von geist4711 Beitrag anzeigen
    soviel mehr verbrauchen die AMD-karten nicht. ist ja auch nur interessant während man mal spielt, bei mir jedenfalls.
    Und bei der Kühlleistung sowie dessen Lautstärkeentwicklung, im Sommer in den Raumtemperaturen und am Ende Overall natürlich auf der Stromrechnung.
    Aber stimmt - so viel mehr ist das nicht (mehr) - die Erkentniss, das man das Fertigungspulver zumindest absehbar mittelfristig verblasen hat und immernoch hinter der Energieeffizienz von Pascal auf 2016 in läppischen 16nm her dackelt, gibt dem nunmehr absolut nicht mehr viel trennenen Werten aber einen komisch pfaden Nachgeschmack.

    Bei NV wird's kurzeistig wahrscheinlich erstmal Super, dann wird der Vergleich auch endlich mal aus technischer Sicht interessant. Pascal, Turing und Navi mit 2560 ALUs, 8GB RAM und vergleichbarem real anliegendem Takt - das gibt nette Vergleichsoptionen
    Workstation: Core i7 [email protected]@1,[email protected] | Asus X99-E WS | 4x8GB Kingston HyperX Fury DDR4-2666 CL15 | 2x GeForce GTX [email protected] | ROG Xonar Phoebus | HPT RR2300 | SSD: 1x 250GB Evo 850; 1x240GB M500; HDD: 1x320GB; 1x2TB; 1x160GB; 4x1TB Raid5 | Corsair HX1000i | Win. 8.1 Prof. x64
    ESX Server: Dell PowerEdge T20 | Xeon E3-1220v3 | 4x4GB Samsung DDR3-1333 | Fujitsu MegaRaid D2516-D11 512MB | 2x500GB HDD Raid 1; 2x256GB MX100 Raid 1 | ESXi 5.5.0U2
    Fileserver: 2x Xeon 5160 | S5000PSL SATA | 8x4GB FB-Dimm DDR2-667 | AMD Radeon HD5870 1GB | HDD: 4x320GB SATA; 4x500GB SATA - je SW Raid 5 | PC Power & Cooling 500W | Win. Srv. 2012 R2 Std.
    Mobile: Sony Vaio VPCZ13V9E | Core i7 640M | 2x4GB DDR3-1600 | GeForce 330M | 4x64GB SSD | Win7 Prof.
    Tablet: MS Surface 2 Pro | Core i5 4200U | 8GB DDR3 RAM | 256GB SSD | Win. 8.1 Prof.

  14. #13
    Bootsmann Avatar von Hyrasch
    Registriert seit
    10.12.2012
    Beiträge
    643


    Standard

    Max. ~ 180 Ws zieht doch eine rtx 2070 bei Vollast, ohne manuelles overclocking und Anhebung des Stromlimits. Mit oc und Anhebung sind es 200 - 220 Ws.
    Ob es nun 20 - 40 Ws mal dort oder hier weniger sind, ist mir als Kunde nicht relevant, vor allem da besagte RX 5700 XT geringfügig schneller sein soll als die rtx Karte.
    Wichtig ist mir nur das die Produkte hinsichtlich Leistung etc. ziemlich nah herangerückt sind und der Wettbewerb beginnen kann.

  15. #14
    Kapitänleutnant Avatar von Cool Hand
    Registriert seit
    03.04.2010
    Beiträge
    2.036


    • Systeminfo
      • Motherboard:
      • Z170 OC Formula | Z87E-ITX
      • CPU:
      • i7-6700K | i7-4770S
      • Systemname:
      • Home PC | Car PC
      • Kühlung:
      • NH-D15 | NH-L9i
      • Gehäuse:
      • PC-8A | M350
      • RAM:
      • 16GB | 8GB
      • Grafik:
      • GTX 1070 | HD 4600
      • Storage:
      • 950 Pro 512GB | 840 Evo 500GB
      • Monitor:
      • U2312HM | 702GSH
      • Sound:
      • ALC1150 | ALC1150
      • Netzteil:
      • DP Pro 11 550W | DSATX 220W
      • Betriebssystem:
      • W10 | W8.1
      • Sonstiges:
      • Giga Ultra Hyper-Dämmung
      • Handy:
      • Honor 9

    Standard

    Nvidia soll die Klappe halten und mehr VRAM verbauen.

  16. #15
    Oberbootsmann Avatar von easy1991
    Registriert seit
    20.03.2012
    Beiträge
    906


    • Systeminfo
      • Motherboard:
      • MSI X370 Gaming M7 ACK
      • CPU:
      • Ryzen 1700x 3.92 Ghz
      • Kühlung:
      • be quiet! Dark Rock 3
      • Gehäuse:
      • Inter-Tech - AP-1 Aluminium
      • RAM:
      • 16GB 3000 cl15 Vengeance LPX
      • Grafik:
      • GTX 1060 3GB
      • Storage:
      • Samsung 950 Pro
      • Netzteil:
      • Corsair SF600
      • Betriebssystem:
      • Win10
      • Handy:
      • Galaxy s4 und Note 2

    Standard

    TDP und TGP kann man doch überhaupt nicht ernst nehmen, die RTX 2070 hat eine TDP von 120w die GTX 1080 eine von 180w, in den Test verbrauchen beide fast genauso viel mal die gtx 1080 mehr, mal weniger.


  17. #16
    Bootsmann Avatar von Hyrasch
    Registriert seit
    10.12.2012
    Beiträge
    643


    Standard

    Und die 180 Ws der gtx 1080 die erwähnt werden, gelten für die gtx 1080 fe, die bei Vollast 83 - 84 °C erreicht und bei den Temperaturen verbleibt, während die rtx 2070 nach Chip zwischen 70 - 75 °c pendelt.
    Bei tomshardware wurden um die 188 Ws gemessen
    Beim Gaming-Loop und beim Torture-Loop werden knapp 188 bzw. 189 Watt erreicht, nur unwesentlich mehr, als Nvidia als TBP angibt. Das ist somit eine Art Punktlandung und liegt damit ca. 15 bis 17 Watt über dem, was ich seinerzeit für die GeForce GTX 1080 FE messen konnte.
    Geändert von Hyrasch (12.06.19 um 02:08 Uhr)

  18. #17
    Leutnant zur See Avatar von Chrissssss
    Registriert seit
    01.12.2013
    Ort
    Wendland
    Beiträge
    1.089


    • Systeminfo
      • Motherboard:
      • MSI Z97 Gaming 3
      • CPU:
      • i5 4570
      • Systemname:
      • Hans-Otto
      • Kühlung:
      • be quiet! Pure Rock
      • Gehäuse:
      • Define R6 Gunmetal TG
      • RAM:
      • 16GB Kingston HyperX 1866
      • Grafik:
      • EVGA GTX 1070 FTW
      • Storage:
      • Samsung 850 Pro 512GB u. 850EVO 1TB
      • Monitor:
      • AOC 24er 144Hz
      • Sound:
      • AHP-967 u. 384kHz/32 bit DAC, Auna MIC 900
      • Netzteil:
      • Enermax revelution XT630 Gold
      • Betriebssystem:
      • Windows 10 Pro
      • Sonstiges:
      • Roccat Kone Aimo, Cherry Board 1.0 MX-Brown
      • Photoequipment:
      • Sony NEX
      • Handy:
      • iPhone SE 64G

    Standard

    Macht der geringe Unterschied im Verbrauch denn, aufs ganze Jahr gerechnet, überhaupt etwas aus? Mir völlig egal, wie viel eine Grafikkarte schluckt.
    Wenn ich einmal groß bin

  19. #18
    Flottillenadmiral
    Registriert seit
    08.08.2005
    Ort
    Zürich
    Beiträge
    5.563


    • Systeminfo
      • Motherboard:
      • Asus Rampage V Edition 10
      • CPU:
      • Intel I7 [email protected] Ghz
      • Gehäuse:
      • Caselabs TH10A
      • RAM:
      • Klevv Cras 32 [email protected] Mhz
      • Grafik:
      • NVIDIA TitanX(Pascal) @2012Mhz
      • Storage:
      • Samsung 850 256GB, Samsung 850 2x 512GB
      • Monitor:
      • Asus rog swift pg278q
      • Sound:
      • Asus Xonar D2X/XDT
      • Netzteil:
      • Corsair AX1200i
      • Betriebssystem:
      • WIN 10 Pro
      • Photoequipment:
      • Canon EOS 40D
      • Handy:
      • Samsung galaxy s4

    Standard

    Zitat Zitat von Cool Hand Beitrag anzeigen
    Nvidia soll die Klappe halten und mehr VRAM verbauen.
    wieso, 8GB reichen völlig aus.
    Kann man sich nun endlich mal entscheiden?
    System: CaselabsTH10A | Corsair AX1200i | i7 [email protected] | Asus Rampage V Edition 10 | Klevv Cras 32 [email protected] Mhz | NVIDIA TitanX(Pascal) @2012Mhz SLI Watercooled |
    [Sammelthread] Space-Luxx - Die Hardwareluxx Star Citizen Truppe

  20. #19
    Anime und Hardware Otaku Avatar von MENCHI
    Registriert seit
    23.08.2008
    Ort
    Bitz
    Beiträge
    14.557


    • Systeminfo
      • Motherboard:
      • Koloe X58 mATX
      • CPU:
      • Intel [email protected]
      • Systemname:
      • MENCHI_X58
      • Kühlung:
      • Intel S1366 (boxed) mit Cu
      • Gehäuse:
      • Jonsbo C2 @Noctua
      • RAM:
      • 4x 4GB Corsair DDR3-2400
      • Grafik:
      • OEM GTX750Ti 2GB
      • Storage:
      • Samsung PM851 256GB (mSATA)
      • Monitor:
      • DELL P2217H
      • Netzteil:
      • Corsair CMPSU-400CX (400W)
      • Betriebssystem:
      • Windows 7 Ultimate (64Bit)

    Standard

    Es geht nicht um den Verbeuch ansich und ob die Navis (bissel) schneller oder langsamer sind, als ihre NV-Gegner, wird sich noch zeigen.
    Sollten die Werte stimmen, dann ist AMD 7nm / Architektur für den PoPo. Höherer Verbrauch / mehr Wärme als NVIDIAs 12nm GPUs

    Erst 2020/21 kommt richtig Bewegung in den GPU-Markt, wenn Intel seine Destop-GPUs raus haut.
    (\__/)
    (='.'=)
    (")_(")

  21. #20
    Stabsgefreiter Avatar von Weede
    Registriert seit
    31.07.2009
    Ort
    Bonn
    Beiträge
    354


    • Systeminfo
      • Motherboard:
      • MSI X99S Gaming 9 AC
      • CPU:
      • Intel i7-6900k
      • Systemname:
      • Sklave
      • Kühlung:
      • Liquid
      • Gehäuse:
      • Lian LI P80
      • RAM:
      • Kingston HyperX 4x16GB
      • Grafik:
      • EVGA GTX 1080 Ti SC
      • Storage:
      • Paar Kisten voll
      • Monitor:
      • BENQ BL3200 + 2x DELL U2412M
      • Netzwerk:
      • Schrank voll
      • Sound:
      • Sony 650ESD
      • Netzteil:
      • Corsair AX1200
      • Betriebssystem:
      • ProSeven
      • Sonstiges:
      • Wacom Intuos Pro L
      • Photoequipment:
      • Canon EOS 760D
      • Handy:
      • Ni Hao

    Standard

    Zitat Zitat von Chrissssss Beitrag anzeigen
    Macht der geringe Unterschied im Verbrauch denn, aufs ganze Jahr gerechnet, überhaupt etwas aus? Mir völlig egal, wie viel eine Grafikkarte schluckt.
    Kommt vmtl drauf an wenn du fragst. Die 50Watt Unterschied würden im Jahr ca 120€ bedeuten, wenn 24/7 Benchmarks fährst. Bei 24/7 full power würde eine 2070 etwas mehr als 300€ Stromkosten verursachen.

    Unterschied ist also deutlich, in der Theorie. In der Praxis sind die absoluten € Werte für Stromkosten eher weniger relevant.

    Gesendet von meinem EVA-L09 mit Tapatalk

  22. #21
    Admiral
    HWLUXX Superstar
    Avatar von sTOrM41
    Registriert seit
    13.10.2005
    Ort
    Magdeburg
    Beiträge
    21.013


    • Systeminfo
      • Motherboard:
      • ASRock Z370 Pro4
      • CPU:
      • i7 8700 @ 102,4% xD
      • Systemname:
      • Covfefe
      • Kühlung:
      • EKL Ben Nevis
      • Gehäuse:
      • So derbes 20€ Ding, rockt!
      • RAM:
      • 16GB Crucial @ 3000 MHz
      • Grafik:
      • Asus RTX 2080 Turbo
      • Storage:
      • Transcend 370, Kingston V300
      • Monitor:
      • 34 Zoll 3440*1440p @ 100Hz + 27 Zoll 1080p
      • Sound:
      • Logitech G930, AKG K530,Edifier S330D, Siberia V2
      • Netzteil:
      • be quiet! Pure Power 10 400W
      • Betriebssystem:
      • Windows 10 x64
      • Sonstiges:
      • Logitech G19 + Sharkoon Drakonia
      • Notebook:
      • Acer Swift 1 + Acer 3820TG + Acer 1810T
      • Photoequipment:
      • Canon EOS 450D, Samsung WB2000
      • Handy:
      • Galaxy S8

    Standard

    Zitat Zitat von easy1991 Beitrag anzeigen
    TDP und TGP kann man doch überhaupt nicht ernst nehmen, die RTX 2070 hat eine TDP von 120w die GTX 1080 eine von 180w, in den Test verbrauchen beide fast genauso viel mal die gtx 1080 mehr, mal weniger.
    woher hast du den TDP Wert der GTX 1080?
    Geändert von sTOrM41 (12.06.19 um 08:46 Uhr)
    Arguing on the internet is like running in the Special Olympics. Even if you win, you're still retarded.

  23. #22
    Flottillenadmiral Avatar von estros
    Registriert seit
    30.03.2010
    Ort
    Hamburg
    Beiträge
    5.092


    • Systeminfo
      • Motherboard:
      • ASRock Fatal1ty Z270 Gaming K4
      • CPU:
      • Intel Pentium Gold G4560
      • Kühlung:
      • H70 @5V
      • Gehäuse:
      • H-Frame
      • RAM:
      • 16GB Crucial
      • Grafik:
      • EVGA Geforce GTX 680
      • Storage:
      • 830 Series 512GB
      • Monitor:
      • Dell 23 Zoll, Samsung UHD Premium 55 Zoll
      • Netzwerk:
      • Fritzbox 7590
      • Sound:
      • Grundig Soundbar
      • Netzteil:
      • Be quiet! Straight Power E9
      • Betriebssystem:
      • Windows 10 x64
      • Notebook:
      • MacBook, iPad Air Pro
      • Photoequipment:
      • GoPro Hero 7 Black
      • Handy:
      • iPhone 7

    Standard

    Die 180W der 1080 sind offiziell und beziehen sich aber auf die gesamte Karte.

    Find ich gut, dass beides angegeben wird. TDP ist für die Kühlung relevant, TGP für das Netzteil.

  24. #23
    Flottillenadmiral Avatar von hollomen
    Registriert seit
    06.11.2004
    Ort
    Hannover
    Beiträge
    5.414


    Standard

    fdsonne,
    das wundert mich auch immer wieder, wie gut NV seinerzeit geliefert hat. Allerdings tut sich da seit dem auch nicht soviel. Ich glaube das der 7nm Prozzes in der derzeit verfügbaren Form noch nicht optimal für die Komplexen GPUs ist. Deshalb kann AMD noch nicht den ganz großen Sprung machen und NV ist erst garnicht aufgesprungen. Wobei meine R7 mit 2kMhz schon ein deutlicher Schritt von Vega in die richtige Richtung macht. Hoffen wir das wir Ende 2020 mit 7nm+ einen für Big-Chips optimierten Prozess sehen. Dann auch von NV und bei AMD mit einem Perf. Chip.

  25. #24
    Kapitänleutnant Avatar von Gamerkind
    Registriert seit
    29.08.2018
    Beiträge
    1.749


    • Systeminfo
      • Motherboard:
      • Asus PRIME B350-PLUS
      • CPU:
      • A10 9700
      • Gehäuse:
      • Billigsdorfer
      • RAM:
      • 16GB DDR4-3200 (SC)
      • Grafik:
      • A10 9700
      • Storage:
      • Crucial MX300 275GB, SATA
      • Betriebssystem:
      • Windows 10 Pro

    Standard

    Zitat Zitat von estros Beitrag anzeigen
    TGP für das Netzteil.
    Nicht unbedingt!
    Die vielen Trolle hier mögen mich wohl nicht:O

  26. #25
    Korvettenkapitän Avatar von cypher_botox
    Registriert seit
    29.12.2005
    Ort
    Obertshausen
    Beiträge
    2.182


    • Systeminfo
      • Motherboard:
      • Gigabyte 990FXA-UD3 Rev 3.3
      • CPU:
      • AMD FX-8350 @ 4GHz
      • Systemname:
      • Ragnarøk
      • Kühlung:
      • 3x Enermax Cluster 120mm
      • Gehäuse:
      • Inter-Tech IPC 4U-4316L
      • RAM:
      • Corsair Ven.LP, 16GB DDR3-1600
      • Grafik:
      • XFX HD7970
      • Storage:
      • 256GB SSD, 2TB SATA-3 HDD
      • Monitor:
      • Dell U2713HM
      • Netzwerk:
      • 40G Infiniband, 8G FC
      • Netzteil:
      • 800 Watt
      • Betriebssystem:
      • Win7-64 pro
      • Handy:
      • S5 Neo

    Standard

    Ich habe Hardware noch NIE nach Stromverbrauch gekauft. Weder bei meinen Servern, noch der Workstation oder dem Spielerechner. Erst Recht nicht bei der GraKa.
    Auf die Leistung schaue ich nur bei den Netzteilen!

Seite 1 von 3 1 2 3 LetzteLetzte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •