Welcher AMD Sockel ist zu empfehlen?

Natürlich ist in 90% der fälle die CPU der Flaschenhals. Aber es ist ja meist nicht das Problem die GPUs ans Limit zu bringen.

Wenn ich das Board noch günstiger gewählt hätte muss ich sagen is das das Preiswerteste Gaming System das ich je gebaut habe. Wenn AMd noch ein wenig mehr aus dem FM2+ Sockel geholt hätte wäre das wirklich ne super Alternative gewesen.
Also ganz ehrlich.. das halte ich für nicht viel mehr als eine nette Machbarkeitsstudie.
Ich meine, wo ist der Sinn dahinter, über 500 für die GPUs auszugeben und dann in die CPU nur 70 zu investieren?

Ganz davon abgesehen dass du mit 2 R9 290 wohl sicher enthusiastisch gamen willst, richtig? Das heisst in spätestens 2 Jahren wirst du neue GPUs wollen.
Hättest du jetzt zu einer leistungststärkeren CPU gegriffen, müsstest du dann nicht auch die CPU und das Board austauschen, denn dann wird die CPU ziemlich sicher noch mehr bremsen als jetzt.

Edit: Außerdem ist das doch kein Argument dass man die GPUs "ans Limit bringen kann". Klar, dass kann man wahrscheinlich sogar mit nem Pentium 4 mittels Furmark.
Frage ist, spielst du so dass du im ausgeglichenen Limit bist oder gar die GPUs limitieren?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Macht es Sinn, sich gebraucht einen i5 2400 + Board und GTX 770 für zusammen ~270€ zu holen?

Gezockt wird zur Zeit nur LoL aber möglicherweise ändert sich das mal. Ansonsten halt das übliche (Surfen, Videos schauen, nichts rechenintensives).
 
@CrazyWurscht
Naja, mit einem G-Sync Monitor bestimmt kein schlechte Wahl, aber für Kinnladen fallen lassen reicht es nicht.
Ein I5 mit 4GHz ist schon recht flott, aber zuviel, darf man da auch nicht erwarten: https://youtu.be/t9UACXikdR0?t=30s
 
Also ganz ehrlich.. das halte ich für nicht viel mehr als eine nette Machbarkeitsstudie.
Ich meine, wo ist der Sinn dahinter, über 500 für die GPUs auszugeben und dann in die CPU nur 70 zu investieren?

Ganz davon abgesehen dass du mit 2 R9 290 wohl sicher enthusiastisch gamen willst, richtig? Das heisst in spätestens 2 Jahren wirst du neue GPUs wollen.
Hättest du jetzt zu einer leistungststärkeren CPU gegriffen, müsstest du dann nicht auch die CPU und das Board austauschen, denn dann wird die CPU ziemlich sicher noch mehr bremsen als jetzt.

Edit: Außerdem ist das doch kein Argument dass man die GPUs "ans Limit bringen kann". Klar, dass kann man wahrscheinlich sogar mit nem Pentium 4 mittels Furmark.
Frage ist, spielst du so dass du im ausgeglichenen Limit bist oder gar die GPUs limitieren?

ich bin von einem 4790K und 2 GTX 970 im SLI auf den 860K und 290 CF geswitcht. Treibertechnisch für mich viel sinnvoller. Von der CPU Leistung her merk ich nur in Star Citizen was.. das is aber Pre Alpha und kann nicht als referenz genommen werden.

Dying light läuft jetzt nicht immer mit 60 fps ... was es vorher getan hat. nun hin und wieder 45 min fps.

Mann muss einfach mal sehen das neue Games die 4 Threats echt gut nutzen. Und von daher ist die Leistung im verlgeich zum 4790K gar nich mal schlecht. Wenn mann den preis sieht.. sogar Absolut Bombastisch. Ich kann wirklich jedes Game zocken. für einen Bruchteil des Preises meines Ersten Systems.

Aber du hast natürlich recht. Meine Komponenten sind alle eher aus Fun gewählt. Kühle auch mit einer Corsair H105 die ja teuerer ist als die CPU selbst. Wenn ich wieder Aufrüste/Umrüste dann entweder Berufsbedingt auf Notebook. Oder in 2 Jahren für Star citizen. Momentan gibts für mich keine Games wo es sich lohnt einen Teuren CPU zu verbauen... Also behalt ich das teil jetzt.. auch wenns nich so geplant war.. aber die kleine CPU hat mich wirklich überrascht.

Mann wird quasi gebranntmarkt mit den Ausagen in den Foren das nur Intel was taugt ect. Aber ob ich in WoW in der STadt nun 40 fps habe oder vorher 60 is nich sehr dragisch für mich.


ich meinte auch nciht ans limit bringen mit Furmark.. eher wenn ich Crysis zocke und Downsample... das juckt die CPU ja nicht.. die Grafikkarten geben mir aber massig Bildqualität.
 
@CrazyWurscht
Naja, mit einem G-Sync Monitor bestimmt kein schlechte Wahl, aber für Kinnladen fallen lassen reicht es nicht.
Ein I5 mit 4GHz ist schon recht flott, aber zuviel, darf man da auch nicht erwarten: https://youtu.be/t9UACXikdR0?t=30s

Schon klar dass das nur für Lol zu hoch gegriffen ist, aber möglicherweise will ich auch noch was anderes Spielen. Ich versteh aber leider nicht, was das Video mit meinem Vorschlag zu tun hatte?
 
Naja die Aussage ist wohl etwas übertrieben. Aber richtig, single Thread Anwendungen bzw. Anwendungen die maximal 2 Threads bedienen, werden auf einem i3 deutlich schneller laufen. Werden alle 4 Threads des i3 oder des X4 genutzt, dreht sich die Sache zu Gunsten des X4.

Das wage ich zu bezweifeln. Der 860k ist letztendlich auch nur ein Zweikerner mit CMT. Aber als frisch gebackener i3 Besitzer bin ich unter Umständen biased. ;)

Der Wechsel vom AMD Phenom II X6 zum i3 X2 war für mich jedenfalls ein mega upgrade. Und das obwohl ich dachte, es würde in Teilen ein Side- oder Downgrade werden. Aber der X6 wird vom X2 total zerblasen - und das obwohl der AMD X6 noch ein echter X6 war. Hammer, ich werde mal einen extra Thread dazu aufmachen...

EDIT: Hier nun der Thread: http://www.hardwareluxx.de/communit...-intel-i3-x2-3-5-ghz-ein-upgrade-1067660.html
 
Zuletzt bearbeitet:
Jede Dual GPU nutzt einen PLX Chip und nun sind diese Karten auch verarsche weil sie mehr Leisten? :rofl:
Jede GPU nutzt eine PLX Chip? Wo findest du die ganze PLX Chips, ich sehen nur einen und der muss 3 PCIe 3.0 Slots anbinden, ein Chip pro Slots wäre auch totaler Blödsinn, denn dann könnte er nicht einmal den Traffic zwischen den Slots beschleunigen, wobei die Frage ist wie viel das bei der jeweiligen Konfiguration denn im Verhältnis zum Traffic von der NB denn nun ist. Außerdem hat der PLX PEX 8747 ja nur 48 also 3x16 Lanes und da ist der Uplink schon dabei. Es bleiben also 32 für die 3 Slots und damit bei Nutzung von allen 3 Slots nur x16/x8/x8. Mehr als noch ein zweiter 8747 um wirklich in jedem Fall 16 Lanes für alle drei Slots zu bieten, würde also sowieso keinen Sinn machen.

wie wenn man eine Dual GPU mit PLX Chip über einen 8x PCIe 3.0/16x PCIe 2.0 Slot an die CPU klemmen würde...
Der PLX Chip ist mit PCIe 2.0 x16 an die NB angebunden, beim AM3+ sind ja die PCIe Lanes noch nicht in der CPU.

Für die Anbindung zwischen den Steckkarten ist das ganze schon brauchbar -> für mehr Speed allerdings nicht wirklich.
Was man allerdings dadurch gewinnt, ist Flexibilität -> man kann dort ja nicht nur Grafikkarten betreiben, die an der Bandbreite weniger klammern, sondern auch irgendwelche Controllerkarten, wo Durchsatz durchaus zählt.
Wenn man da Controllerkarten wie eine RAID Controller einbaut, dann hat man gleich gar keine Vorteil, denn die Grakas mögen bei stimmten Konfigurationen noch von der Fähigkeit des PLX profitieren auch eine Kommunikation nur zwischen den Karten zu ermöglichen, aber die Controller werden nie untereinander kommunizieren und selbst wenn man darüber die Daten liest die dann zur Graka gehen, wird das immer über die CPU gesteuert erfolge, einen Treiber der was anderes könnte, wäre mir nicht bekannt. Bei I/O Karten wäre also der PCIe 2.0 x16 dann immer der Flaschenhals wo alles durch muss.
mit nem Brückenchip dazwischen besteht sozusagen nur noch der Nachteil der minimal schlechteren Latenz, allerdings mit dem Vorteil der Flexibilität.
Nicht so wirklich, denn der Uplink ist ein Flaschenhals und damit hast Du nicht nur eine erhöhte Latenz (wenn auch nur 100ns), sondern auch eine geringere Gesamtbandbreite als die Summe der Bandbreiten der einzelnen Slots.
Mit dem Teil wäre es potentiell möglich zwei Grafikkarten (in Summe über die Bandbreite von PCIe 2.0 16x) anzubinden, zusätzlich nen 8x PCIe 3.0 Raidcontroller zu betreiben und den letzten Slot noch mit ner PCIe SSD zu bestücken -> und alle Geräte hätten eine anständige Anbindung.
Aber alle müssten sich die Anbindung zur NB und damit zur CPU von PCIe 2.0 x16 teilen. Die beiden Grakas könnten noch untereinander kommunizieren, die müssten dann auch in je einem Slots der am PLX hängt betrieben werden, aber ein RAID Controller und eine SSD in Slots am PLX wurden das niemals tun, selbst wenn die Daten von einem zum anderen kopiert werden, die Treiber unterstützen es nicht, die SW puffert sowieso im RAM und nur auf dem Weg über die CPU kann der Virenfinder die Daten auch überhaupt prüfen.

Die Verbindung zur CPU braucht nicht so viel Bandbreite
Das hängt aber sehr von der Konfiguration ab! Bei einer einzelnen Graka am PLX bringt der null und nichts, bei einer Graka und I/O Karten dann nur eine Flaschenhals, die Bandbreite über alle 3 PCIe 3.0 Slots des Boards zu NB (CPU) ist eben nur PCIe 2.0 x8 und damit ein Viertel der 32 PCIe 3.0 Lanes die er für die 3 PCIe x16 Slots maximal bieten kann.

Da liegt für mich auch die Verarsche bei dem Board, denn es ist eben eine ganz andere Sache als wenn man wirklich drei PCIe 3.0 x16 Slots mit Lanes direkt aus der CPU hat, wie es er S. 2011(-3) (ggf. mit entsprechender CPU) bietet, auch wenn da ebenfalls nicht 3 Slots mit 16 Lanes einer CPU versorgt werden können, sondern nur maximal 2 und einer dann auf 8x beschränkt ist. Hier kann aber eine einzelne Karte nur maximal die Bandbreite von PCIe 2.0 x16 zu NB/CPU nutzen und alle 3 Slots zusammen eben auch nicht mehr.
 
Jede GPU nutzt eine PLX Chip? Wo findest du die ganze PLX Chips, ich sehen nur einen und der muss 3 PCIe 3.0 Slots anbinden, ein Chip pro Slots wäre auch totaler Blödsinn, denn dann könnte er nicht einmal den Traffic zwischen den Slots beschleunigen, wobei die Frage ist wie viel das bei der jeweiligen Konfiguration denn im Verhältnis zum Traffic von der NB denn nun ist. Außerdem hat der PLX PEX 8747 ja nur 48 also 3x16 Lanes und da ist der Uplink schon dabei. Es bleiben also 32 für die 3 Slots und damit bei Nutzung von allen 3 Slots nur x16/x8/x8. Mehr als noch ein zweiter 8747 um wirklich in jedem Fall 16 Lanes für alle drei Slots zu bieten, würde also sowieso keinen Sinn machen.
Da hast du aber ein Wort überlesen.
Phantomias88 sagte jede dual GPU nutzt einen PLX Chip! Dabei ist solch ein Chip auf dem PCB der Grafikkarte selbst und sorgt für die Verbindung zwischen den beiden GPUs wo der größere Traffic notwendig ist.
Wobei die Anbindung zur CPU antürlich auch nicht zu vernachlässigen ist, wobei eine PCi 2.0 x16 Anbindung ja eigentlich auch dicke reicht, soweit ich mich an Tests erinnere.
Also nur wegen PCi3.0 würde ich eigtnlcih bei einem heim PC nicht unbedingt das System tauschen (wenn die restliche Leistung ausreicht).
 
Zuletzt bearbeitet:
Na ja, ich hab hier im 2t Rechner an dem meine Frau des öfteren mit zockt (und folglich nicht sooo die ansprüche hat) noch ein FX 6300 @ 4,5 GHz und eine 280x drin.

Die Geschichte läuft , besonders für den Preis, absolut aus P/L sicht rund. @ Full HD und vollen Details (AA etc, mal ausen vor gelassen, ist ja mehr Graka abhängig) mit den Anspruch an 60 FPS.

Die rede ist hier von Spielen ala City Skylines / Battlefield / Borderlands / Diablo 3, also schon ein gewisses Spektrum.

BF hat @ 64 Server gerne mal drops CPU bedingt verursacht, allerdings - dank Mantle ist auch das passe.
Zeigt dennoch das man sich am Limit bewegt.

Fürs Zocken bietet der 8350 in der Regel auch keine wirklichen Vorteile da die meisten Games keine vollen 8 Threads nutzen und demnach man mit dem 6er FX P/L mässig meistens besser läuft.

Insgesamt würde ich also AMD wenn man ein kleines Budget hat noch empfehlen.

Dennoch wird auch der bald durch mein jetzigen 2700k ersetzt, weniger aus notwendigkeit als vielmehr weil ich was neues haben möchte ;) und meine "alte" hw meistens in der Kiste meine Frau landet.

Wäre vll auch eine Möglichkeit, gebraucht nach einem Sandy / Ivy ausschau zu halten. Kriegt man meist zum guten Preis und sind, lahmenden Fortschritts sei dank, kaum langsamer als die aktuellen Boliden.
 
Zuletzt bearbeitet:
Das hängt aber sehr von der Konfiguration ab! Bei einer einzelnen Graka am PLX bringt der null und nichts, bei einer Graka und I/O Karten dann nur eine Flaschenhals, die Bandbreite über alle 3 PCIe 3.0 Slots des Boards zu NB (CPU) ist eben nur PCIe 2.0 x8 und damit ein Viertel der 32 PCIe 3.0 Lanes die er für die 3 PCIe x16 Slots maximal bieten kann.

Da liegt für mich auch die Verarsche bei dem Board, denn es ist eben eine ganz andere Sache als wenn man wirklich drei PCIe 3.0 x16 Slots mit Lanes direkt aus der CPU hat, wie es er S. 2011(-3) (ggf. mit entsprechender CPU) bietet, auch wenn da ebenfalls nicht 3 Slots mit 16 Lanes einer CPU versorgt werden können, sondern nur maximal 2 und einer dann auf 8x beschränkt ist. Hier kann aber eine einzelne Karte nur maximal die Bandbreite von PCIe 2.0 x16 zu NB/CPU nutzen und alle 3 Slots zusammen eben auch nicht mehr.
Auch bei Nutzung einer einzelnen Karte im PCI-E 2.0 Slot, welcher ebenfalls vorhanden ist (insgesamt sind es 4 Stück) ist der Verbrauch unter Spiel Last ~7W höher als am PLX 3.0 Slot, mit Crossfire sind es ~15W.
In den PCIe 2.0 x16 könnte man dann eine PCIe SSD nutzen, da sie nicht über den PLX Chip läuft. ;)

Beim Sockel 2011-3 hast wieder das Problem das die Signale weitere Wege (Slot -> CPU -> Slot) haben, die unterste Karte ist dann das schwächste Glied.
 
Wäre vll auch eine Möglichkeit, gebraucht nach einem Sandy / Ivy ausschau zu halten. Kriegt man meist zum guten Preis und sind, lahmenden Fortschritts sei dank, kaum langsamer als die aktuellen Boliden.

Hatte ich schon einmal etwas weiter oben gepostet. Lohnt sich da ein Core i5 2400 für ~80€?
 
Hatte ich schon einmal etwas weiter oben gepostet. Lohnt sich da ein Core i5 2400 für ~80€?
Nein, da dich diese CPU, auch mit einem Super Mainboard, von vorn herein einschränkt. (keine K CPU)
Ich würde unter einem I5-3570K keine mühe investieren. :)
 
Der PLX Chip ist mit PCIe 2.0 x16 an die NB angebunden, beim AM3+ sind ja die PCIe Lanes noch nicht in der CPU.
Die Aussage war eine Veranschaulichung für DragonTear... Nicht mehr und nicht weniger.

Wenn man da Controllerkarten wie eine RAID Controller einbaut, dann hat man gleich gar keine Vorteil, denn die Grakas mögen bei stimmten Konfigurationen noch von der Fähigkeit des PLX profitieren auch eine Kommunikation nur zwischen den Karten zu ermöglichen, aber die Controller werden nie untereinander kommunizieren und selbst wenn man darüber die Daten liest die dann zur Graka gehen, wird das immer über die CPU gesteuert erfolge, einen Treiber der was anderes könnte, wäre mir nicht bekannt. Bei I/O Karten wäre also der PCIe 2.0 x16 dann immer der Flaschenhals wo alles durch muss.
Es geht um die Flexibilität... Hast du nur 16 PCIe 3.0 Lanes, wie bei Intel im Mainstream aktuell, musst du dich ansträngen, deine Hardware entsprechend anzubinden. Das ist bei Gamerkisten kein wirkliches Problem, machst du mehr damit, allerdings schon.
Das der Brückenchip keine Bandbreite dazuzaubert, ist logisch und jedem hier klar. Er bietet allerdings einen Flexibilitätsvorteil.

Nicht so wirklich, denn der Uplink ist ein Flaschenhals und damit hast Du nicht nur eine erhöhte Latenz (wenn auch nur 100ns), sondern auch eine geringere Gesamtbandbreite als die Summe der Bandbreiten der einzelnen Slots.
...
Aber alle müssten sich die Anbindung zur NB und damit zur CPU von PCIe 2.0 x16 teilen. Die beiden Grakas könnten noch untereinander kommunizieren, die müssten dann auch in je einem Slots der am PLX hängt betrieben werden, aber ein RAID Controller und eine SSD in Slots am PLX wurden das niemals tun, selbst wenn die Daten von einem zum anderen kopiert werden, die Treiber unterstützen es nicht, die SW puffert sowieso im RAM und nur auf dem Weg über die CPU kann der Virenfinder die Daten auch überhaupt prüfen.
Dein Argument baut einzig und allein darauf, dass du NUR Bandbreite untereinander benötigst... Die Realität sieht da eher anders aus. Da brauchst du die Bandbreite bspw. von der SSD, aber nicht vom Raidcontroller, dann mal vom Raidcontroller, aber nicht von der SSD. -> es wird häufig einfach nicht gleichzeitig die Bandbreite zugeschoben. Genau so wenig, wie wenn du dann noch mit der Kiste spielst, deine beiden HighEnd GPUs am Limit tuckern, du gleichzeitig noch Daten von der PCIe SSD zum Raidcontroller und zurück überträgst.

Wie gesagt, der Uplink wird nicht breiter -> das bestreiter aber auch niemand. Es geht um die Flexibilität, die man gewinnt.


PS: aber selbst wenn du das gleichzeitig wollen würdest -> PCIe ist FullDulex fähig, nur so nebenbei... Das heist, die Bandbreite ist pro Richtung gleichzeitig nutzbar -> das macht 8GB/sec beim PCIe 2.0 16x Uplink im Up- UND! im Download. -> Ein Copyjob von der fiktiven PCIe SSD mit 4x 3.0 Anbindung zu einem Raidcontroller (mit sagen wir SAS SSDs) würde im Zweifelsfall also eher an der Leseleistung der PCIe SSD als am Uplinkslot scheitern.
Ohne PLX Chip sähe eine mögliche Lösung allerdings so aus, dass die PCIe SSD bestenfalls an einem nativen PCIe Slot klemmen würde, der Raidcontroller ebenso -> je nach Laneanzahl vom Board -> 16 bei Intel und FM2(+) von AMD sowie 32 bei AM3+ würdest du da schnell ziemlich alt aussehen. Nämlich weil es nicht genügend Lanes gibt, um deine Geräte mit vollem Speed anzubinden. Um so neuer die Geräte, desto besser -> blöd wirds bspw., wenn dein Raidcontroller noch PCIe 1.x oder 2.0 8x nutzt... Dann BRAUCHST du die Lanes native -> ein Brückenchip würde dir diesen Zwang abnehmen.
Versuch gern mal ein System mit zwei GPUs + anständigem Raidcontroller + PCIe SSD aufzubauen. -> da bleibt atm nur x99 -> und selbst das ist schon schwierig, weil die Laneaufteilung ohne Brückenchip oftmals total für den Hintern ist... GPUs im Doppelpack direkt untereinander und sowas wird dort gern gemacht. Abschalten der anderen Slots bei Bestückung usw. usf.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh