Upgrade vom Office zum Gamer PC

krampf

Neuling
Thread Starter
Mitglied seit
26.12.2010
Beiträge
286
Moin,

ich hatte mir Anfang letzten Jahres einen kleinen PC für Office und simple Spiele besorgt. Mehr Power sollte er nicht haben, da ich mir eine PS4 anschaffen wollte. Das hatte ich dann zwischenzeitlich auch gemacht, aber bald gemerkt, dass Konsole nicht so das Richtige für mich ist.

Daher wollte ich meinen Office PC jetzt mal ein bisschen pimpen.

Ausgangslage:

1 x Western Digital WD Red 4TB, 3.5", SATA 6Gb/s (WD40EFRX)
1 x Samsung SSD 840 Evo 120GB, SATA (MZ-7TE120BW)
1 x AMD A10-6800K, 4x 4.10GHz, boxed (AD680KWOHLBOX)
1 x Gigabyte GA-F2A88XN-WIFI
1 x Thermalright HR-02 Macho Rev. B (100700726)
1 x BitFenix Phenom schwarz, Mini-ITX (BFC-PHE-300-KKXKK-RP)
1 x be quiet! Pure Power L8 400W ATX 2.4 (BN222)

RAM: 2 x 4 GB 2400er, geschuldet durch die CPU.

Ich wollte jetzt Board und CPU tauschen und eine Graka einbauen. Als Monitor dient mir ein LG 21:9 29": LG 29EA73 IPS-Monitor mit 21:9 UltraWide Format und daneben hängt ein 0815 24" mit HD Auflösung, den ich aber nur für die Arbeit nutze.

Ich wollte jetzt folgende Komponenten einbauen:

1 x Intel Xeon E3-1231 v3, 4x 3.40GHz, Sockel 1150, boxed (BX80646E31231V3)
1 x Sapphire Radeon R9 390 Nitro + Backplate, 8GB GDDR5, DVI, HDMI, 3x DisplayPort, lite retail (11244-01-20G)
1 x Gigabyte GA-Z97N-Gaming 5

Ob das mit dem Macho passt müsste ich mal sehen, die Graka passt, da ich den HDD-Käfig eh ausgebaut habe.

Ist das im Ganzen so eine vernünftige Entscheidung? Könnte ich mein Geld anders/besser investieren?

Vielen Dank für euer Feedback.

Grüße

krampf
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich würde ein H97 oder B85 Mainbaord wählen. Generell kann man aber so wechseln.
 
Wie mein Vorredner schon sagt, Z Board weg und auf ein H / B Board wechseln. Je nach Preferenz eine GTX 970 wählen, die 8GB Vram wirst du mit FullHD kaum füllen können.
 
Eine 8-GB-Grafikkarte kann in der Konfiguration nicht ganz überzeugen. Entsprechenden Einstellungen, die von dem großen Speicher tatsächlich profitieren würden, ist sie wohl leistungsmäßig nicht ganz gewachsen. Die Auflösung des Monitors von 2560 x 1080 Pixeln erfordert solche Speichermengen auch nicht unbedingt, das ist ja lediglich ein Plus von 1/3 gegenüber FullHD.

Falls Du Nvidia nicht generell ausschließt, ergäbe die Wahl einer GTX 970 eine sinnvollere Zusammenstellung. Das hätte überdies den Vorteil, daß Du Dein Netzteil (ist ja ein ganz gutes) problemlos weiternutzen könntest. Für das Geld, welches Du nicht in eine neue PSU stecken mußt, könntest Du sogar mal einen Blick auf die GTX 980 riskieren, die ja immernoch deutlich sparsamer arbeitet als eine 390er-Karte.
 
1 x Intel Xeon E3-1231 v3, 4x 3.40GHz, Sockel 1150, boxed (BX80646E31231V3)
1 x Sapphire Radeon R9 390 Nitro + Backplate, 8GB GDDR5, DVI, HDMI, 3x DisplayPort, lite retail (11244-01-20G)
1 x ASRock B85M-ITX (90-MXGPM0-A0UAYZ)
--------------------
~668€

Da steht leider nicht, wie viel Speicher du hast.
Solltest du den Speicher nicht für die neue Hardware nutzen, könntest du auch direkt 16GB dazu kaufen (kostet momentan fast nichts).
Je nach Board 1600er, oder beim Z Board 2400 (G.Skill Ares für 80€)

Mit der alten Hardware könnte man sich auch einen kleinen Internet PC bauen.
 
Vielen Dank für das bisherige konstruktive Feedback.

Dass der RAM nicht in der Aufzählung ist hatte ich leider übersehen, ich habe 2 x 4 GB 2400er drin wegen der 6800er CPU, die ja von dem Speichertakt profitiert. Würden sich 16 GB spürbar auf das System auswirken?

Der Unterschied beim Strombedarf bei der GPU von AMD oder Nvidia war mir so nicht bewusst.

Somit wäre ich dann hier angelangt:

1 x Intel Xeon E3-1231 v3, 4x 3.40GHz, Sockel 1150, boxed (BX80646E31231V3)
1 x MSI GTX 970 Gaming 4G, GeForce GTX 970, 4GB GDDR5, 2x DVI, HDMI, DisplayPort (V316-001R)
1 x ASRock Z97M-ITX/ac (90-MXGW00-A0UAYZ)
 
Zuletzt bearbeitet:
16gb sind (NOCH) nicht erforderlich für Gaming. Je nach dem ob du dein Office System weiternutzen willst, kannst du über eine Anschaffung von anderem Ram (16gb) nachdenken. Da du ja eh auf 2 Slots limitiert bist. Also quasi die Apu mit dem Ram so lassen.
Ansonsten kann man grad im Prodigy eine 390er verbauen, da das Gehäuse relativ geräumig ist. Wär aufjedenfall stärker als die 970. Wär meine Wahl.

Du brauchst kein Z-Board und vorallem brauchst du aber ein neues Netzteil ! Ein Seasonic 550er z.b. oder bequiet je nachdem.

Für Gaming brauchst du auch nicht unbedingt auf den Xeon setzen. Ein Skylake i5 tuts auch. Evtl sogar der 6600k mit Z170 Board. Ist preislich sehr ähnlich.
Außerdem könntest du dann direkt 16gb DDR4 besorgen. Falls Xeon tuts auch das H97M-Itx/ac. Man muss halt nur schauen, Asrock hat die Sockelposition weit oben.
Und du hast nen großen Kühler.

Nochmals mein Tipp zusammengefasst:
Gigabyte Z170 ITX (130 ca.) + i5 6600k (250~) + 16gb DDR4 (~100) + Netzteil !!! (70+)
Sparen könnte man wie gesagt beim Xeon mit dem B85/H97 da du nicht OC kannst. Beim Skylake kann man auch den i5 6500 für knapp 200 nehmen und ein B150 Board, wenn kein OC oder einfach die K Version mit Z Board und dann auf 4,3ghz+ da haste auch mehr Power fürs Gaming als mit Hyperthreading.

Edit: Was zu der 3.5gb 970 vs 8gb 390 gesagt wurde, stimmt so auch überhaupt nicht. Der VRAM Bedarf hat fast gar nichts mit der Auflösung zu tun, sondern eher mit Texturgrößen (Ultra Details oder Mods (siehe Skyrim)) und Qualitäts-Settings. Ich behaupte mal, eine R9 390 wird länger "halten" als eine GTX 970 aufgrund von DX12 und eben den 8GB.
Der Verbrauch ist auch nur auf den Base-Clock bezogen so sehr unterschiedlich. Im Alltag mit einer Custom GTX und Boost bei 1,4-1,5ghz oder OC sieht das alles anders aus. Da verbraucht auch die NV mehr. Und vorallem muss man sich überlegen ob 50W Unterschied so wichtig sind, wenn man nicht jeden Tag 24/7 zockt.
 
Zuletzt bearbeitet:
Dass der RAM nicht in der Aufzählung ist hatte ich leider übersehen, ich habe 2 x 4 GB 2400er drin wegen der 6800er CPU, die ja von dem Speichertakt profitiert. Würden sich 16 GB spürbar auf das System auswirken?

Ah ok, dann macht ein Z Board ja Sinn.

Kommt drauf an was du mit dem Rechner sonst noch machst.

4GB reichen zum Spielen eigentlich aus.

Sagen wir es mal so:

4GB: Minimum.

8GB: Vernünftig

16GB: Haben ist besser als brauchen :) (Windows freut sich drüber)

Anfang des Jahren kauf ich auch neu und ich werde direkt 16, oder 32GB als Arbeitsspeicher nehmen. Natürlich je nach Preislage.
 
Edit: Was zu der 3.5gb 970 vs 8gb 390 gesagt wurde, stimmt so auch überhaupt nicht. Der VRAM Bedarf hat fast gar nichts mit der Auflösung zu tun, sondern eher mit Texturgrößen (Ultra Details oder Mods (siehe Skyrim)) und Qualitäts-Settings. Ich behaupte mal, eine R9 390 wird länger "halten" als eine GTX 970 aufgrund von DX12 und eben den 8GB.
Das ist evtl. auf meinen Post bezogen, wobei ich mir unsicher bin welcher Teil meiner Aussage Deiner Meinung nach "überhaupt nicht stimmt". Hinter meinem Hinweis standen die Bedenken, daß die R9 390 für Aufgaben, die ihren Grafikspeicher von 8 GB tatsächlich ausnutzen würden, nicht genug Rechenleistung liefert. Die von Dir genannten speicherhungrigen Texturen (ob man von deren "Größe" oder "Auflösung" spricht, läuft übrigens auf das Gleiche hinaus) erfordern nun einmal auch eine gewisse Rechenleistung. Diese ist bei beiden Karten jedoch nahezu gleich. Soweit ich das beurteilen möchte, hat die R9 390 insgesamt allenfalls leichte Vorteile - je nach Taktung des jeweiligen Modells sowie des Spiel liegt auch mal die GTX 970 vorn.

Die Leistung unter DX12 läßt sich zum jetzigen Zeitpunkt leider noch nicht sinnvoll abzuschätzen und ist äußerst spekulativ. Der größere VRAM, da hast Du vollkommen recht, ist durchaus erst mal ein Vorteil. Ich fürchte jedoch, daß der kaum zur Wirkung kommen kann. Da wird sich natürlich die ein oder andere Ausnahme finden lassen, wo exakt die Situation eintritt, daß der VRAM-Bedarf sehr groß ist und dennoch genügend Reservern bei der Rechenleistung vorhanden sind, um das 2560 x 1080 Display ruckelfrei mit Bildern zu füttern. Aber wird das die Regel sein? - Wohl eher nicht. Ich würde daher auch niemandem die Hoffnung machen wollen, die Leistung der R 390 würde länger ausreichen. Aller Erfahrung nach wird irgendwann die Rechenleistung den Ansprüchen nicht mehr gerecht und da ist es dann egal ob auf der Karte AMD oder Nvidia steht - wenn die jeweiligen Modelle nahezu die identische Leistung bringen, werden sich auch zum gleichen Zeitpunkt das Spielvergnüngen limitieren.

Der Verbrauch ist auch nur auf den Base-Clock bezogen so sehr unterschiedlich. Im Alltag mit einer Custom GTX und Boost bei 1,4-1,5ghz oder OC sieht das alles anders aus. Da verbraucht auch die NV mehr. Und vorallem muss man sich überlegen ob 50W Unterschied so wichtig sind, wenn man nicht jeden Tag 24/7 zockt.

Der Mehrverbrauch an sich wird wohl niemanden gleich verarmen lassen. Aber abgesehen davon, daß der Unterschied ceteris paribus näher an 150 (!) Watt - und nicht etwa 50 - liegt, würde durch eine R9 390 eben auch noch eine zusätzliche Komponente gekauft werden müssen, nämlich ein neues Netzteil. Spätestens an dieser Stelle kann man der R9 390 dann ehrlicherweise keine Vorteile mehr zuschreiben, da man sich ein minimales Leistungsplus zum Preis eines neuen Netzteils erkaufen müßte. Meine Meinung: Das ist die Karte schlichtweg nicht wert. (Überlegenswert wäre das allenfalls, wenn sowieso ein neues Netzteil gekauft werden soll.)
 
Zuletzt bearbeitet:
Ähm, ne 970gtx an nem 400W L8?
Prost Mahlzeit.
Das L8 ist nicht mehr neu, die FSP-APN-Plattform ist auch kein Glanzstück für so ne Art Belastung, dass würde ich lassen!
ne 970 sollte ein DC-DC Netzteil bekommen, kein altes Gruppenreguliertes, dessen Plattform schon seit den L6 als Basis der PurePower Reihe (300-400W) dient!
Das Netzteil wird diese Belastung nicht ohne Nebenwikungen auf andere Komponenten mitgehen.Bitte nicht vergessen, ne Maxwell-Karte schaltet im Millisekundenbereich zwischen leerlauf udn Hochlast hin und her, wenn die last so kommt. jedesmal springt die Regelung des L8 an und mit Pech erreicht man ein Crossload und ziehmlich doofe werte auf 3,3V oder 5V.
Ein L8 ist in meinen augen gerad enoch bei ner 960 ode rner 380 tragbar, darüber ist DC-DC in meinen Augen einfach pflicht.

Egal ob r9 390 oder gtx970, da ist ein neues NT fällig!

http://geizhals.eu/?cat=WL-593194&wlkey=164d7245891363b5d69d8bf9ba230a2f

Just my 2 Cents.
 
Vielen Dank bezüglich des Hinweises zur PSU. Wie viel Watt sollte ich denn einrechnen?
 
Ab 500w bist du versorgt für jedes setup mit einee grafikkarte.
Bei der nicht empfehlenswerten 970 täte es das e10 400w, aber, ich würde gleich n 500er nehmen und die r9
 
Ähm, ne 970gtx an nem 400W L8?
Prost Mahlzeit.
Das L8 ist nicht mehr neu, die FSP-APN-Plattform ist auch kein Glanzstück für so ne Art Belastung, dass würde ich lassen!
ne 970 sollte ein DC-DC Netzteil bekommen, kein altes Gruppenreguliertes, dessen Plattform schon seit den L6 als Basis der PurePower Reihe (300-400W) dient!
Das Netzteil wird diese Belastung nicht ohne Nebenwikungen auf andere Komponenten mitgehen.Bitte nicht vergessen, ne Maxwell-Karte schaltet im Millisekundenbereich zwischen leerlauf udn Hochlast hin und her, wenn die last so kommt. jedesmal springt die Regelung des L8 an und mit Pech erreicht man ein Crossload und ziehmlich doofe werte auf 3,3V oder 5V.
Ein L8 ist in meinen augen gerad enoch bei ner 960 ode rner 380 tragbar, darüber ist DC-DC in meinen Augen einfach pflicht.

Egal ob r9 390 oder gtx970, da ist ein neues NT fällig!

http://geizhals.eu/?cat=WL-593194&wlkey=164d7245891363b5d69d8bf9ba230a2f

Just my 2 Cents.
Ja genau kann ich voll unterstützen, beim PSU kommt es eben nicht nur auf die Watt an!
Deshalb ja auch 390 weil du sowieso ein neues Netzteil brauchst.
Das L8 kannst du ja noch gebraucht verkaufen, oder nutzen falls du den Office PC weiterverwenden willst.
 
Zuletzt bearbeitet:
Ähm, ne 970gtx an nem 400W L8?
Prost Mahlzeit.
Das L8 ist nicht mehr neu, die FSP-APN-Plattform ist auch kein Glanzstück für so ne Art Belastung, dass würde ich lassen!
Das technische Design des vorhandenen Netzteils ist tatsächlich nicht gerade modernes High-End. Auch die Aufteilung der 12V-Leitungen würde man heute wohl nicht mehr so gestalten. Insbesondere für stromhungrige Grafikkarten ist das keine Idealvorstellung. Allerdings ist die GTX 970 eben gerade kein stromfressendes High-End Monster, sondern eine zeitgemäße, effiziente Grafikkarte.

Das Netzteil wird diese Belastung nicht ohne Nebenwikungen auf andere Komponenten mitgehen.
Diese Aussage ist unbegründet. Nur weil modernere und hochwertigere Technik erhältlich ist, wird vormals durchaus gern empfohlene Technik nicht unbrauchbar. User mit solchen pauschalen Aussagen zu verunsichern, erscheint schlicht unseriös. Abgesehen davon implementiert auch das L8 400 alle wünschenswerten Schutzschaltungen und da ist es nun wirklich nicht schlüssig, irgendwelche Horrorszenarien zu suggerieren.

Bitte nicht vergessen, ne Maxwell-Karte schaltet im Millisekundenbereich zwischen leerlauf udn Hochlast hin und her, wenn die last so kommt. jedesmal springt die Regelung des L8 an und mit Pech erreicht man ein Crossload und ziehmlich doofe werte auf 3,3V oder 5V.
Mit so viel Pech könnten noch ganz andere Dinge passieren. ;) (Und mit ganz viel Glück gewinnt man im Lotto. Warum nur habe ich ein komisches Gefühl bei so einem "Argument"?)

Ich möchte nun auch keineswegs vom Kauf eines besseren, moderneren Netzteils abraten. Ja, es gibt technisch bessere, flexilbere, leistungsfähigere und überhaupt fortschrittlichere Modelle und man muß dafür nicht einmal zwingend 100 EUR oder mehr ausgeben. Für eine GTX 970 ist so ein Netzteil evtl. wünschenswert, jedoch nicht obligatorisch. Klar, mit Pech gibt's einen Riß im Raum-Zeit-Kontinuum und das Netzteil zieht den ganzen Rechner mit um ungefähr 23 Jahre in die Zukunft. Vorstellbar ist das zweifellos und da muß jeder für sich selbst einschätzen ob er dieses Risiko wirklich eingehen will. :)
 
@squall: Nur weil er 2400Mhz Ram hat, macht das Z Board trotzdem keinen Sinn. Gerade bei 1150 ITX Boards ist die Z Variante ein gutes Stück teurer.

@Sunny: Ich meinte damit : " Die Auflösung des Monitors von 2560 x 1080 Pixeln erfordert solche Speichermengen auch nicht unbedingt, das ist ja lediglich ein Plus von 1/3 gegenüber FullHD."

Dies ist leider völlig falsch, denn ob HD oder 4k hat nicht primär was mit dem VRAM Verbrauch zu tun! Mehr Auflösung ist nicht gleich mit mehr VRAM Bedarf gleichzusetzen. Das gilt in beide Richtungen. Es gibt auch Settings wo ein Spiel in 720p über 4gb VRAM voll machen kann.
Zu dem 2. Punkt. AMD Karten altern in der Regel besser als Nvidia Pendants. Sei es weil AMD Treiber hinten raus immer schneller werden oder weil NVidia die "alten" Generationen nicht pflegt (siehe Kepler vs Maxwell). Dazu kommen die DX12 Features in Hardware etc...
Aber das soll auch nicht der größte Negativpunkt hier sein. Hier möchte ich eher darauf hinaus, dass 1. die R9 390 sind etwas günstiger 2. 8gb Ram 3. meist schneller (unabhängig vom Vram) 4. der Verbrauchsunterschied (wo es mir auch eher um Kühlung/Lautstärke geht, als um Kosten) liegt NIEMALS bei 150Watt.

@ Netzteil: Das L8 400Watt sollte schon ausgetauscht werden, auch wenn deine Wahl zur GTX 970 gehen sollte (was ja auch keine schlechte Karte wär).
Es geht hier nicht darum, dass man das neueste Silent Netzteil hat oder damit du die aktuelle Empfehlung besitzt, sondern um einen sicheren störungsfreien Betrieb der Kiste zu gewährleisten.

Ob der Rechner mit dem alten Netzteil booten würde oder dich in ein Wurmloch reißt... kein Kommentar :hmm:
 
sunny, beschäftige dich bitte mit Regelkreis, gruppenregulierung und crossroad bei gruppenreguliert en Netzteilen. wenn du dann noch immer für ne gtx 970, welche real mal fix 220 zieht, auch wenns kaum einer wahr haben will, n gruppenreguliert es Netzteil empfehlen magst...

Ich machs nicht, die Gefahr, dass eine der beiden kleinen Spannungen nict passen, ist hoch genug. das dadurch nicht gleich schaden entsteht ist auch klar, aber Instabilität, seltsame Reaktionen vom PC ...

und zum Thema 970gtx, das geilste da ist, dass einige Versionen mit einem 6 Pin kommen, die Karte aber mal eben fast 150w drüber saugen kann...
bei der 970gtx passt einiges nicht ;) und das ist nicht nur die infolge zum Speicher ;)
das macht die Karte nicht gleich schlecht, aber man sollte sich da sehr genau informieren. und nicht jede angebotene Karte ist empfehlenswert. das aber nur nebenbei.
 
@Sunny: Ich meinte damit : " Die Auflösung des Monitors von 2560 x 1080 Pixeln erfordert solche Speichermengen auch nicht unbedingt, das ist ja lediglich ein Plus von 1/3 gegenüber FullHD."

Dies ist leider völlig falsch, denn ob HD oder 4k hat nicht primär was mit dem VRAM Verbrauch zu tun! Mehr Auflösung ist nicht gleich mit mehr VRAM Bedarf gleichzusetzen. Das gilt in beide Richtungen. Es gibt auch Settings wo ein Spiel in 720p über 4gb VRAM voll machen kann.
Ich glaube Dir durchaus, daß es solche Settings gibt. Man muß sich nur fragen wie relevant so etwas dann wirklich ist. Möglicherweise kann man sich auch für eine Ausgabe in VGA-Auflösung entsprechende Texturen ins Spiel patchen. In der Praxis wird man jedoch eher für die jeweilige Auflösung (in der das Spiel dargestellt wird) sinnvolle Einstellungen wählen. Das UltraHiRes-Texturenpack wird wahrscheinlich von begrenzter Bedeutung für 720p-Spieler sein.

Zudem sei mir der Hinweis gestattet, daß im Videospeicher der Karte nicht allein Texturen lagern und sehr wohl ein Zusammenhang zur Auflösung des Spiels besteht. Schließlich gibt es auch noch Geometriedaten und die Programme der Vertex- und Pixelshader. Wenn Du von der Spieleauflösung angemessenen Einstellungen ausgehst, wird die Auslastung des Grafikspeichers bei 4K-Auflösung daher höher ausfallen als für die erwähnten 720p. Das weißt Du sicherlich selbst und darum bin ich mir unsicher, weshalb Du meine Aussage als "völlig falsch" bezeichnest. Weil man mit jeweils angepaßten Einstellungen für 720p größeren Speicherbedarf provozieren kann als in 4K? Klar kann man das machen, das wird sogar in den meisten Spielen klappen. Aber das hat dann nichts mehr mit Vergleichbarkeit zu tun und ebensowenig mit Praxisrelevanz.

Apropos Praxis: Die hat uns doch über die Jahre hinweg erst gezeigt wie der Hase läuft - nämlich daß die Anforderungen an Rechenleistung und Videospeicher gemeinsam wachsen. Der leistungsschwächste Faktor limitiert sodann den weiteren Nutzen, weshalb 8 GB Speicher nicht zwangsläufig länger ausreichen. Klar, die 8 GB an sich würden schon länger reichen, aber es fehlt dann halt an der Rechenleistung. Aus diesem Grund wurde ja immer wieder vor dem Nepp mit den Einsteigerkarten mit riesigem Videospeicher gewarnt. Selbst wenn die AMD-Karte 16 GB Speicher hätte, würde das nicht groß weiterhelfen, weil der Schuh an einer ganz anderen Stelle drückt. Selbst die aktuellen Top-Karten (beider Hersteller) kommen heute in der 4K-Disziplin an ihre Grenzen und erfordern das Herabsetzen von Details für eine flüssige Darstellung fordernder Spiele. Es gibt natürlich auch mal einen Fall wo der Speicher limitiert, aber das ist insgesamt betrachtet die absolute Ausnahme. Woran es mangelt ist 1. Rechenleistung, 2. Rechenleistung, 3. Rechenleistung ...

Zu dem 2. Punkt. AMD Karten altern in der Regel besser als Nvidia Pendants. Sei es weil AMD Treiber hinten raus immer schneller werden oder weil NVidia die "alten" Generationen nicht pflegt (siehe Kepler vs Maxwell). Dazu kommen die DX12 Features in Hardware etc...
Was ist denn mit den Kepler-Karten, soweit ich weiß werden die doch weiterhin unterstützt? War es nicht sogar eher so, daß Nvidia länger Treiber für ältere Kartengenerationen anbot? Ich möchte mich da aber nicht festlegen, da ich jahrelang ausschließlich AMD- (bzw. ATI-) Karten genutzt hatte und mich erst durch Maxwell zu Nvidia durchringen konnte (allein aufgrund der Effizienz, denn übermäßig sympatisch tritt die Firma ja nicht gerade auf). DX12-Features sollten doch alle Karten der aktuellen Generationen haben (GCN von AMD seit '13, Maxwell 2. Gen ab letztes Jahr)?

Aber das soll auch nicht der größte Negativpunkt hier sein. Hier möchte ich eher darauf hinaus, dass 1. die R9 390 sind etwas günstiger 2. 8gb Ram 3. meist schneller (unabhängig vom Vram) 4. der Verbrauchsunterschied (wo es mir auch eher um Kühlung/Lautstärke geht, als um Kosten) liegt NIEMALS bei 150Watt.
Da man für die R9 390 ein größeres Netzteil kaufen müßte (welches teurer ist), kann ich mir nicht vorstellen, daß die AMD-Karte unterm Strich tatsächlich günstiger ist solange man diesen Umstand berücksichtigt. Was die Leistungsaufnahme angeht: Da gibt es unabhängige Messungen, das habe ich mir nicht ausgedacht (hier auf die Schnelle ein Beispiel). Ist sogar eine realistische Last im Spielebetrieb und zufällig ist dort sogar die hier im Thread empfohlene R9 390 Nitro aufgeführt. Verbrauch des Systems mit R9 390 - 397 Watt, mit GTX 970 - 244 Watt (Differenz: 153 Watt).

Ob der Rechner mit dem alten Netzteil booten würde oder dich in ein Wurmloch reißt... kein Kommentar :hmm:
Nun, ich würde darauf wetten, daß er bootet - und nicht nur das; er würde dabei nicht mal ein Wurmloch reißen. (Wer vom Gegenteil überzeugt ist, darf die Wette gern annehmen. Mein Einsatz wäre ein Jahres-Abo der c't. :d)
 
Wie ich sehe, gehen die Messungen ja doch arg auseinander. Hier: AMD Radeon R9 390X, 390 und 380 im Test ist der Hwluxx Test zum R9 390 Release. Unter Last 70 Watt Differenz. Die Wahrheit liegt wohl irgendwo dazwischen.

Zu den Kepler Karten ala GTX 780. Da gab es einen Protest in der Community, sodass Nvidia mit einem neueren Treiber die Performance "wieder" erhöhen musste, da sie offensichtlich die Leistung der Karten künstlich gedrosselt hatten, damit die Leute die neuen 900er kaufen. Hunderte Posts im Nvidia Forum und auch einige Artikel dazu gab es zu lesen. Außerdem ist immer wieder zu beobachten, wie AMD Karten ihr Nvidia Pendant mit der Zeit ein- und überholen gegen Ende ihrer Laufzeit. Das ist schon ein länger anhaltender Trend.

Zum DX12 Thema gab es ja neulich erst ausführliche Informationen. DirectX 12 & Nvidia-Grafikkarten - Laut Oxide Games fehlt ein wichtiges Feature (Update) - GameStar

Der Link mal als Beispiel.

Zum VRAM Thema: Erfahrungsbericht VRAM-Usage aktueller Titel - ComputerBase Forum

So nun erstmal gut mit der Theorie. Konkrete Vorschläge zum Upgrade hatte ich ja anfangs erwähnt. Eventuell hat jemand Gegenvorschläge. Wir sollten das hier nicht noch mehr ausarten lassen :bigok:
 
sunny, beschäftige dich bitte mit Regelkreis, gruppenregulierung und crossroad bei gruppenreguliert en Netzteilen. wenn du dann noch immer für ne gtx 970, welche real mal fix 220 zieht, auch wenns kaum einer wahr haben will, n gruppenreguliert es Netzteil empfehlen magst...
Ich möchte vorweg schicken, daß ich keinesfalls ein gruppenreguliertes Netzteil empfohlen habe. Ich würde dies angesichts dessen wie sich die Lasten entwickelten, die den Netzteilen heute abgefordert werden, auch nicht mehr tun. Als unbedarfter Anwender hätte ich durch Deine eindringliche Warnung vor der Weiterverwendung des vorhandenen Netzteils, jedoch geradezu Angst bekommen, das Ding würde mir sogleich um die Ohren fliegen.

Diese Gefahr sehe ich nicht. Ja, das BeQuiet baut auf dieser APN-Plattform auf. Es ist aber deutlich hochwertiger ausgestattet als die reine OEM-Variante. Damit auch zur Gruppenregulierung: Du hast Dich ja offenbar schon ausgiebig mit dem Problem auseinandergesetzt. Daher ist Dir wahrscheinlich bewußt, daß die Spannungsstabilität bei relativ geringen Lasten (wie sie typischerweise bei einem 400-Watt-Netzteil auftreten und in der geplanten Konfiguration zu erwarten sind) weitaus weniger gefährdet ist.

Angesichts der vernünftigen Ausführung des BeQuiet-Netzteils halte ich eine weitere Verwendung für vertretbar (nicht mehr und nicht weniger). Wohlgemerkt: Bei größeren Netzteilen/stärkeren Belastungen würde auch ich explizit von der Verwendung eines gruppenregulierten Designs abraten. Die Plattform wird solch hohen Lasten schlicht nicht mehr gerecht. Mit der R9 390 würde ich das nicht einmal versuchen, doch selbst da sind nicht gleich Schäden zu erwarten. Die typischste Reaktion wäre, wie Du ja ganz richtig geschrieben hast, eine höhere Instabilität, was sich etwa darin äußern könnte, daß sich die Kiste beim Start eines Spiels einfach aufhängt.

und zum Thema 970gtx, das geilste da ist, dass einige Versionen mit einem 6 Pin kommen, die Karte aber mal eben fast 150w drüber saugen kann...
Gibt es so etwas tatsächlich? Das halte ich auch nicht für angemessen, aber was kann die GTX 970 an sich dafür? (Und welcher Hersteller verbaut so etwas?)

Ich wußte, daß die offizielle TDP von 145 W auch überschritten wird, soweit ich mich erinnere war das auch ein signifikanter Betrag, ich glaube bis zu 30 Watt mehr. Von den 220 W, die Du oben erwähnt hast, habe ich allerdings noch nirgendwo gelesen. Und das ist ein reguläres Modell unter Realbedingungen und keine gemoddete Pixelschleuder aus einer Overclocker-Bude in einem synthetischen Belastungstest für eine Millisekunde?

bei der 970gtx passt einiges nicht ;) und das ist nicht nur die infolge zum Speicher ;)
Was diese Geschichte angeht bin ich voll bei Dir, da war ein unverschämtes Theater, was Nvidia da aufgeführt hat. Es ist halt schwierig, weil man in dieser Leistungsklasse gerade nichts rundum gutes empfehlen kann. Nvidia gehört eigentlich abgestraft für die 970er-Aktion, aber die Alternative in dieser Klasse ist leider nur eine etwas abgestandene Architektur mit einer Effizienz auf dem Level von vor 3 Generationen. Das ist auch deshalb schade, weil AMD damit nicht so richtig aus diesem Nvidia-Beschiss profitieren kann obwohl man es ihnen umso mehr gönnen würde.

Letztlich muß sich da jeder User selbst entscheiden. Man kann hier im Prinzip nur für jede Entscheidung Verständnis haben - wenn jemand lieber in ein Verstärkung von Netzteil und Kühlung investieren möchte als Nvidia zu unterstützen, geht das in Ordnung; wer aufgrund der enormen Leistungsaufnahme bei AMD nicht extra Kühlkonzept und Komponenten anpassen möchte, dem kann man auch keinen Vorwurf machen.
 
Wir sollten das hier nicht noch mehr ausarten lassen :bigok:

Ich finde das eigentlich ganz amüsant und informativ, bewegt sich doch alles in einem geordneten Rahmen.

Aber ich stimme dir zu, dass ich hier so viel zu lesen bekomme auf meine Nachfrage erstaunt mich doch ein wenig.

Thumps up @ll.
 
Zu den Kepler Karten ala GTX 780. Da gab es einen Protest in der Community, sodass Nvidia mit einem neueren Treiber die Performance "wieder" erhöhen musste, da sie offensichtlich die Leistung der Karten künstlich gedrosselt hatten, damit die Leute die neuen 900er kaufen. Hunderte Posts im Nvidia Forum und auch einige Artikel dazu gab es zu lesen. Außerdem ist immer wieder zu beobachten, wie AMD Karten ihr Nvidia Pendant mit der Zeit ein- und überholen gegen Ende ihrer Laufzeit. Das ist schon ein länger anhaltender Trend.
Das mit den Kepler-Karten war mir so nicht bekannt. Was die Treiber angeht, gab es ja immer wieder mal Vergleichstests darüber wie sich die Leistung der Karten mit den Treiberversionen von Release an entwickelte. Soweit ich mich erinnere, gab es da durchgehend Steigerungen zu beobachten (bei beiden Herstellern, ob bei AMD vielleicht stärker müßte ich mal nachschauen).


Ist denn jetzt raus ob es wirklich fehlt (in Hardware) oder der (vorhandenen) Hardware nur die Anpassung des Treibers fehlt? Da steht, diese eine Berechnung wäre zur Zeit problematisch bei Nvidia und AMD unterstützt 12.1 gar nicht. Ich glaube, hier müssen wir einfach abwarten, weil es ja noch keine richtigen DirectX-12-Spiele gibt. Eine interessante Entwicklung ist das allemal, man kann halt nur noch gar nicht abschätzen wie sich das jeweils auswirken wird. Ich befürchte nur, bis zur breiten Verfügbarkeit von DX-12-Spielen wird ohnehin die nächste Kartengeneration in aller Munde sein, da kräht dann kein Hahn mehr nach den alten Karten und in den Foren schlagen sie sich die Köpfe längst mit neuerer Hardware ein. :)
 
Zuletzt bearbeitet:
Moin Sunny,

also erst mal, so weit auseinander sind wir da nicht von der Meinung, daß war mir eh klar.

Thema Strombedarf: Das mit den 220w ist definitiv nur Peak, bei ner Werks-OC Karte. trotzdem zeigt es, was da kurzfristig vom Netzteil verlangt wird.
Das es einzelne 6 Pin auf der gtx gibt, dafür kann nvidia was, die ja die Spezifikationen zum Chip raus geben und natürlich der Hersteller, der die Karte fertigt/vertreibt.
Wenn ich dann noch überlege, welche oc - Reserven in Maxwell schlummern, schwant mir immer böses in bezug auf uninformierte User, die einfach occen ;)


aber genug zur 970, Prädikat nicht empfehlenswert für jedermann. im Einzelfall ist s ok, ich nehm die Dinger nächstes jahr, wenn die verschleudert werden, mit kusshand ;) ich hab aber auch das know how drum, und nehm nicht blind alles wo 970 drauf steht ;)

Zum thema Gruppenregulierung und die niedrigeren Wattbereiche. Ja klar, ein crossload entsteht so natürlich schon schwerer, da ja immer noch das mainbord und die ssd die 3,3V belasten und ne hdd die 5V. ... Das ist bei o ner kleinen Wattzahl natürlich Anteilschein mehr als bei 500-600w.
Nichtsdestotrotz wäre mir das zu heikel, auch mit nem guten Gruppe NT wie dem l8 300w 400w
Aber immerhin ist es kein L8-CM oder ein L8 mit mehr als 400w, da ist die Plattform ne andere, leider schlechter.

Ich kann natürlich eh nur meine Meinung nennen. Am Ende lebt das hier alles ja durch eine Diskussion wie mit dir und genau das ist auch der große Vorteil. Ich denke, die Infos sind alle genannt, der TE kann sich entscheiden und es gibt sogar die Info, dass wenn hinterher seltsame Reaktionen des PC kommen, es vom Netzteil kommen kann. Natürlich sollte man dann vorher Treiberprobleme ausschließen, aber der Ansatz zur Fehlersuche ist dann auch bekannt ;)

Wie auch immer sich derv TE entscheidet, das System wird ihm auch mit dem l8 sicher weder abbrennen noch in die Luft fliegen...

@TE
ich hoffe die Diskussion war nicht zu viel des Guten, bei Fragen immer raus damit.
@Sunny, schön das man mit dir so sachlich schreiben kann, ohne dass es in Beschimpfungen ausartet, das hab ich auch schon anders gehabt ;)
 
Da es hier gerade so nett zugeht, habe ich mal versucht, die unterschiedlichen Angaben zu den Verbrauchswerten irgendwie erklärbar zu machen. Ich habe dazu nach Tests gesucht, welche die Leistungsaufnahme direkt an der Grafikkarte messen, um andere Einflüsse weitestgehend zu minimieren.

Schon mal vorweg: Alle hatten recht. - Also gut, daß wir uns nicht gleich gegenseitig der Ahnunglosigkeit bezichtigt haben.

Ich habe schließlich bei techPowerUp ein paar ganz übersichtliche Tabellen gefunden, die das für alle nachvollziehbar machen sollten. Vermessen wurden hier eine GTX 970 (OC) und eine R9 390. Wenn man etwas auf den verlinkten Seiten scrollt, kommt man zur Übersicht der Messungen unter Last - jeweils mit Durchschnitts- und Maximalwerten für den Spielebetrieb und Furmark-Angaben. Die Werte der GTX 970 liegen zwischen 161 und 179 Watt, bei der R9 390 zwischen 231 und 323 Watt. Die Unterschiede spiegeln ziemlich gut die bisherigen Angaben wider, Lord Vader hatte ja zuvor 70 Watt genannt und ich hatte selbst einen Test mit 150 Watt Differenz verlinkt.

Außerdem habe ich noch die entsprechenden c't-Artikel rausgesucht, von c't wußte ich, daß sie direkt messen. Man findet die Angaben in den Ausgaben 23/14 (GTX 970) und 18/15 (R 390). Die Messungen für die GTX 970 bestätigen die Werte von techPowerUp im Großen und Ganzen. Es wurden 175 Watt unter Last gemessen (MSI Gaming, bei Furmark sogar 194 Watt, welche nach Einberechnung der Netzteilverluste schon ziemlich nah an die 220 Watt von [W2K]Shadow kommen sollten). Der Verbrauch der GTX 980 lag übrigens auf gleichem Level und im Furmark-Test sogar darunter, aber das nur am Rande.

Bei den R9 390 wurde wiederum die hier schon empfohlene Sapphire Nitro vermessen mit Angaben zu 3D, Furmark und Peakwert und 253, 307 und 375 Watt.

Auffällig ist, daß die Meßwerte der R9 390 sehr weit auseinander gehen. So kommt es auch zu den scheinbar widersprüchlichen Angaben, von denen ich vorher niemals angenommen hätte, daß alle richtig sein könnten. Je nach Test und Spiel und der damit verbundenen Leistungsanforderung sind solche Abweichungen bei den Messungen also tatsächlich einleuchtend, zumal noch die Unterschiede der jeweiligen Modelle berücksichtigt werden müssen.

Ok, dann können sich jetzt alle einmal auf die Schulter klopfen weil sie richtig lagen. :d
 
Zuletzt bearbeitet:
Ich schau auch gern bei ht4u.net , die messen die Grafikkarte einzeln aus und nicht das Gesamtsystem. Aber ich denke mal, die R9 390 verbraucht je nach Last unterschiedlich viel, da sie quasi ein richtiges "Rechenwerk" ist verglichen mit der Nvidia Karte. Die GTX ist im Endeffekt eine schlanke Gamer Karte und kann auch nichts anderes. Ob das gut oder schlecht ist, ist die Frage.
Stichwort Double Precision. Die ganzen AMD Karten wurden ja auch fürs Bitcoin Mining genutzt. Denke mal, dass das daher rührt.
Dann sind wir wieder beim Thema Zukunft... ob die R9 daraus irgendwann einen Vorteil daraus ziehen kann mit dx12 etc. etc.

Ich persönlich finde die Karte technisch etwas interessanter wenn man so will. Das Grundproblem was ich habe, ist eher, dass ich nicht mit bestem Gewissen Ende 2015 eine GTX 970 empfehlen möchte aufgrund der "Aktionen" von Nvidia und den Umstand, dass die Karte eher verkrüppelt ist. Trotzdem liefert sie gute FPS keine Frage.
Es ist einfach schwierig^^ Vorallem bei 300€+
 
Da es hier gerade so nett zugeht, habe ich mal versucht, die unterschiedlichen Angaben zu den Verbrauchswerten irgendwie erklärbar zu machen. Ich habe dazu nach Tests gesucht, welche die Leistungsaufnahme direkt an der Grafikkarte messen, um andere Einflüsse weitestgehend zu minimieren.

Schon mal vorweg: Alle hatten recht. - Also gut, daß wir uns nicht gleich gegenseitig der Ahnunglosigkeit bezichtigt haben.

Ich habe schließlich bei techPowerUp ein paar ganz übersichtliche Tabellen gefunden, die das für alle nachvollziehbar machen sollten. Vermessen wurden hier eine GTX 970 (OC) und eine R9 390. Wenn man etwas auf den verlinkten Seiten scrollt, kommt man zur Übersicht der Messungen unter Last - jeweils mit Durchschnitts- und Maximalwerten für den Spielebetrieb und Furmark-Angaben. Die Werte der GTX 970 liegen zwischen 161 und 179 Watt, bei der R9 390 zwischen 231 und 323 Watt. Die Unterschiede spiegeln ziemlich gut die bisherigen Angaben wider, Lord Vader hatte ja zuvor 70 Watt genannt und ich hatte selbst einen Test mit 150 Watt Differenz verlinkt.

Außerdem habe ich noch die entsprechenden c't-Artikel rausgesucht, von c't wußte ich, daß sie direkt messen. Man findet die Angaben in den Ausgaben 23/14 (GTX 970) und 18/15 (R 390). Die Messungen für die GTX 970 bestätigen die Werte von techPowerUp im Großen und Ganzen. Es wurden 175 Watt unter Last gemessen (MSI Gaming, bei Furmark sogar 194 Watt, welche nach Einberechnung der Netzteilverluste schon ziemlich nah an die 220 Watt von [W2K]Shadow kommen sollten). Der Verbrauch der GTX 980 lag übrigens auf gleichem Level und im Furmark-Test sogar darunter, aber das nur am Rande.

Bei den R9 390 wurde wiederum die hier schon empfohlene Sapphire Nitro vermessen mit Angaben zu 3D, Furmark und Peakwert und 253, 307 und 375 Watt.

Auffällig ist, daß die Meßwerte der R9 390 sehr weit auseinander gehen. So kommt es auch zu den scheinbar widersprüchlichen Angaben, von denen ich vorher niemals angenommen hätte, daß alle richtig sein könnten. Je nach Test und Spiel und der damit verbundenen Leistungsanforderung sind solche Abweichungen bei den Messungen also tatsächlich einleuchtend, zumal noch die Unterschiede der jeweiligen Modelle berücksichtigt werden müssen.

Ok, dann können sich jetzt alle einmal auf die Schulter klopfen weil sie richtig lagen. :d

Das machen wir aber gegenseitig, sonst ist es Eigenlob, und das riecht bekanntlich ;)
 
@squall: Nur weil er 2400Mhz Ram hat, macht das Z Board trotzdem keinen Sinn. Gerade bei 1150 ITX Boards ist die Z Variante ein gutes Stück teurer.

Es mach dahingegen Sinn, das er den Speicher schon hat.

Im Grunde steht zur Auswahl:

B85 Board für ~84€
H97 Board für ~95€
Z97 Board für ~100€

Für 15€ mehr, kann er seinen 2400er Speicher ausnutzen.
Er wollte sogar am Anfang ein Board für 140€ nehmen.

Ich würde z.B. so kaufen:

1 x Intel Xeon E3-1231 v3, 4x 3.40GHz, Sockel 1150, boxed (BX80646E31231V3)
1 x G.Skill Ares DIMM Kit 16GB, DDR3-2400, CL11-13-13-31 (F3-2400C11D-16GAB)
1 x ASRock Z97M-ITX/ac (90-MXGW00-A0UAYZ)
------------
~430€

Im Vergleich zu dem mit B85 Board:

1 x Intel Xeon E3-1231 v3, 4x 3.40GHz, Sockel 1150, boxed (BX80646E31231V3)
1 x Crucial Ballistix Sport DIMM Kit 16GB, DDR3-1600, CL9-9-9-24 (BLS2CP8G3D1609DS1S00)
1 x ASRock B85M-ITX (90-MXGPM0-A0UAYZ)
------------------
~412€

Wobei bei mir noch bei beiden Board für 10-15€ Enzotech Mosfet-Kühler dazu kommen würden.
 
Also der 2400er Ram läuft ja auch auf dem B85 Board. Nur als 1600er dann. Kein Problem.
Wieso tust du dann Ram mit in die Konfig und keine Grafikkarte?

Erstmal sollte der TE uns sagen, ob er den Ram und das Netzteil für die APU weiterverwenden will oder nicht :)
 
Wirklich nett hier in dem Thread geworden darf ich mal anmerken, für euch alle ein Fleißbienchen.

Bei dem Speicher würde ich es zuerst belassen, 8 GB reichen denke ich, ich mach dann mal später das Upgrade auf 16 GB.

Ich würde dann derzeitig wohl doch eher zur 390er tendieren und dafür auch in ein neues Netzteil investieren. Derzeitiges Setup ist jetzt:

1 x Intel Xeon E3-1231 v3, 4x 3.40GHz, Sockel 1150, boxed (BX80646E31231V3)
1 x Sapphire Radeon R9 390 Nitro + Backplate, 8GB GDDR5, DVI, HDMI, 3x DisplayPort, lite retail (11244-01-20G)
1 x ASRock Z97M-ITX/ac (90-MXGW00-A0UAYZ)
1 x Cooler Master G550M 550W ATX 2.31 (RS-550-AMAAB1)

Der Grund für das Asrock ist die Position des Sockels, der ist sehr weit oben und ich hoffe, dass es deshalb mit dem Macho passt, den ich ungern tauschen würde. Ich muss das aber mal genau ausmessen am Wochenende wenn ich mal die Zeit habe die Kiste aufzumachen und alles zu messen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh