PciE Anbindung 4870x2

Status
Für weitere Antworten geschlossen.

Amareth

Neuling
Thread Starter
Mitglied seit
19.04.2008
Beiträge
154
Ort
Bonn
Hallo liebe Community,

ich habe hier ein kleines Problem und zwar besitze ich eine 4870x2 auf einem asus p5q deluxe gepowered von einem Corsair 650 Watt PSU. Ich habe vor kurzem entdeckt, dass verschiedene Programme (zB cpu-z, gpu-z und everest) nur eine Anbindung von PCIE 2.0@ x2 auf einem Adapter anzeigen, der andere wird mit x16 angebunden.

Hier mal das Everest Log:

[ PCI Express 2.0 x16: ATI Radeon HD 4870 X2 GDDR5 ]

Grafikprozessor Eigenschaften:
Grafikkarte ATI Radeon HD 4870 X2 GDDR5
BIOS Version 011.007.000.000.029564
BIOS Datum 07/14/08 14:48
GPU Codename R700 XT
Teilenummer 113-B50902-100
PCI-Geräte 1002-9441 / 1002-2542 (Rev 00)
Transistoren 956 Mio.
Fertigungstechnologie 55 nm
Gehäusefläche 260 mm2
Bustyp PCI Express 2.0 x16 @ x2
Speichergröße 1 GB
GPU Takt 300 MHz (Original: 750 MHz)
RAMDAC Takt 400 MHz
Pixel Pipelines 16
Textureinheiten (TMU) / Pipeline 1
Unified Shaders 800 (v4.1)
DirectX Hardwareunterstützung DirectX v10.1
Pixel Füllrate 4800 MPixel/s
Texel Füllrate [ TRIAL VERSION ]

[ PCI Express 2.0 x16: ATI Radeon HD 4870 X2 GDDR5 ]

Grafikprozessor Eigenschaften:
Grafikkarte ATI Radeon HD 4870 X2 GDDR5
BIOS Version 011.007.000.000.029564
BIOS Datum 07/14/08 14:48
GPU Codename R700 XT
Teilenummer 113-B50902-101
PCI-Geräte 1002-9441 / 1002-2042 (Rev 00)
Transistoren 956 Mio.
Fertigungstechnologie 55 nm
Gehäusefläche 260 mm2
Bustyp PCI Express 2.0 x16 @ x16
Speichergröße 1 GB
GPU Takt 300 MHz (Original: 750 MHz)
RAMDAC Takt 400 MHz
Pixel Pipelines 16
Textureinheiten (TMU) / Pipeline 1
Unified Shaders 800 (v4.1)
DirectX Hardwareunterstützung DirectX v10.1
Pixel Füllrate 4800 MPixel/s
Texel Füllrate [ TRIAL VERSION ]

Was mich verwundert ist, dass die Graka ja nur einen PCI E Slot benötigt, wie also kann es sein, dass ein Adapter mit x16 und einer nur mit x2 angebunden ist. Eine Formatierung, Bios Flash, CMOS reset, andere Treiber, anderes OS haben nichts gebracht. Wie kann ich herrausfinden, ob dies nur ein Anzeigefehler ist?

EDIT:
Achja, habe mal zum Test eine Single GPU geforce 9600eingebaut, diese wurde sofort mit x16 angebunden.

Das hier zeigt er mir an, wenn ich bei Everst unter dem Reiter Mainboard ---> Chipsatz schaue:
PCI Express Controller:
PCI-E 2.0 x16 port #2 Belegt @ x16 (PLX Technology ExpressLane PEX 8647 48-Lane 3-Port PCI Express 2.0 Switch --> PLX Technology ExpressLane PEX 8647 48-Lane 3-Port PCI Express 2.0 Switch --> ATI Radeon HD 4870 X2 GDDR5 Video Adapter, PLX Technology ExpressLane PEX 8647 48-Lane 3-Port )
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Um zu sehen, wie schnell die HD 4870 X2 läuft, kannste zum Beispiel mal 3D Mark 06 und/oder Vantage laufen lassen und dein Ergebnis mit dem von CB (mit HD 4870 X2 Launchtreiber) vergleichen (hier wurde ein QX9770 @ 4 GHz gefahren). Beim 06er kann man quasi den Hauptdurchlauf benchen, der Vantage wurde da in der Free-Version beschnitten - damit geht glaub ich nur 1 (Teil-)Lauf.

Test: ATi Radeon HD 4870 X2 (Seite 7) - 12.08.2008 - ComputerBase

Haste deutlich weniger Marks, dann läuft die Karte tatsächlich nur als PCI-E x2.

Steck die Karte dann am besten mal in den unteren PCI-E x16 Slot und schau nach, ob dann x16 angezeigt wird (oder x8 falls er elektrisch so angebunden ist).

Ist dies der Fall, dann hat dein oberer Slot einen weg.


E: Wie man hier sieht sollten beide GPUs mit x16 angesprochen werden -> über den PEX Chip:

http://www.computerbase.de/artikel/...eon_hd_4870_x2/3/#abschnitt_technik_im_detail


E2: Alternative wäre, dass zum Beispiel der PEX Chip die 2. GPU - warum auch immer - nicht mehr mit x16 ansprechen kann.
Dann würde es an der Karte liegen.


mfg
Edge
 
Zuletzt bearbeitet:
Gerade keine Zeit für nen ausführlichen post deswegen kurzform:

-im obersten pcie port eingesteckt? manche boards streiken wenn er nich im obersten ist.
-erhöh mal den pcie takt im bios auf 101-102 mhz.
-unwahrscheinlich aber vll ne "stromsparfunktion" wenn die karte runtertaktet?
 
Ich würde meinen, das ist ein Auslese fehler...

Ich hatte vor ner weile auch mal ne X2 im Rechner, mein PCIe Bus auf dem Tyan Board kann nur PCIe 1.1... Dennoch zeigten alle Programme PCIe 2.0 16x@16x an. Liegt wohl daran, weil man eben hinter den PLX Chip schaut und dort fragt, was denn anliegt.

Ich würde mir da keine großen sorgen machen. Wenn die Leistungswerte dehnen einer X2 entsprechen, dann ist alles gut und das ganze nur ein Auslesefehler...
 
Hiho,

habe jetzt mal 3dmark06 und vantage durchlaufen lassen.
Mein Sys:
E8400@ 4GHZ
4gb Gskill 1066ddr2
Asus P5q deluxe
4870x2

Hier die Ergebnisse:

3Dmark06:19337 Punkte
SM2.0 8474
SM3.0 10734
Cpu score 3678

Vantage Performance Preset: 12924 Punkte
Cpu 8361
Grafik 15797

Edit:
- auch in den andren pcie ports wird die graka nur mit 2x geschwindigkeit angezeigt.
- auch wenn ich "force maximum performance clocks" im ccc aktiviere bleibts bei x2
- pcie takt im bios erhöhen hat auch nichts gebracht

wie man übrigens in meinem sys profile sehen kann,welches schon älter ist, hat gpu z 0.2.7 pcie 2.0 @16x festgestellt
hab eben nochmal gpuz 0.2.7 runtergeladen und es zeigt nur x2 an
 
Zuletzt bearbeitet:
Hm...12924 Punkte im Vantage....das CB System mit QX9770 @ 4 GHz und alten Treibern hatte P22128 (mit Asbach-Treiber).
Klar, ein Quad macht schon was aus, aber so wenige Punkte bei der X2 und dem E8400 @ 4 GHz - normal ist das nicht.

Dort im Test wär ja selbst die HD 4870 (512 MB müsst das sein) flotter.

mfg
Edge
 
Zuletzt bearbeitet:
Hm...12924 Punkte im Vantage....das CB System mit QX9770 @ 4 GHz und alten Treibern hatte P22128 (mit Asbach-Treiber).

mfg
Edge

skalliert Vantage stark mit der Coreanzahl der CPU?
Er hat ja "nur" nen 4GHz DC...


Ich würde aber hier anstatt 3DMark zu nehmen viel eher mal auf richtige Benches setzten. 3DMark egal in welcher Version lassen sich von so vielen kleinen Details extrem beeinflussen, da spielt man hier und da rum, und es springen unmengen mehr Punkte bei rum... Das macht vergleiche schwer.

Ich würde eher auf möglichst CPU unabhängige Benches setzen. Beispielsweise Heaven oder ähnliches.

EDIT:
wenn man mal im ORB seitens Futuremark schaut, finden sich auch solche Systeme:
http://service.futuremark.com/resultComparison.action?compareResultId=499749&compareResultType=19

über 5GHz auf nem C2D, und GPUs der X2 auf 800/900MHz?
Und auch nur knapp über 13k
 
Zuletzt bearbeitet:
Schon spürbar, aber nicht soo stark, dass es ~ 10k Marks Unterschied wär (hatte neulich mal mit meinem X3350 getestet -> 2660 MHz vs. 3600 MHz -> knapp 3000 Punkte mehr (mit PhysX)).

Siehe meine Ergänzung.

E: Stimmt schon - lieber Games und so benchen - aber um mal schnell die Bandbreite der Karten zu testen, reicht 3D Mark dicke - auch wenn es der alte 06er (CPU Mark ^^) ist.
 
Zuletzt bearbeitet:
schau nochmal in mein Edit... So abwegig sind die ~12k nicht, zumindest finden sich im ORB auch vergleichbare Systeme mit mehr Takt und nur unwesentlich mehr Punkten...
Alles was deutlich drüber geht, also 15k, 16k oder noch mehr sind dann idR zwei X2 Karten, wie man an den GPU Punkten sehen kann.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Am besten wäre ein VRAM Bench... Um die Anbindung zu testen. Aber ich glaub sowas gibts nicht wirklich...
 
vllt baut Orbmu2k ja mal was zusammen...

Basierend auf OpenCL sollte da auf jedenfall was machbar sein. Ist ja denke ich auch nicht sooo schwer sowas zu programmieren, theoretisch müsste man nur drauf achten, das eben einmal ohne Speicherüberlauf (sprich Auslagerung) getestet wird, und einmal mit massivem Überlauf.

Interessant wäre in diesem Atemzug wohl gleich noch, was von der theoretischen Bandbreite schlussendlich wirklich anliegt...
 
Soo einmal Unigine gebencht unter folgenden Einstellungen:

Render:
direct3d10
Mode:
1920x1200 fullscreen
Shaders:high
Textures:high
Filter:trilinear
AA: disabled
Anisotropy:16x
Occlusion:enabled
Refraction:enabled
Volumetric:enabled
Replication: disabled
Tessellation: disabled

FPS:
63.1
Scores:
1590

----------------------------------------------------------------------------------

Hier die Benchergbenisse von Stalker:
Preset: Ultra
Renderer: Enhanc. full dyn lighting (DX10)
Video Mode 1920x1200
MSAA: 4x
MSAA for A tested obj.: DX10.1 style
SSAO Mode: HDAO
SSAO Quality: Ultra(ps version)
Use DX 10.1: check

Day Min FPS 24
Day Avg FPS 35
Day Max FPS 50

Night Min FPS 18
Night Avg FPS 27
Night Max FPS 40

Rain Min FPS 19
Rain Avg FPS 28
Rain Max FPS 42

SunShafts Min FPS 15
SunShafts Avg FPS 22
SunShafts Max FPS 34
 
Zuletzt bearbeitet:
probier mal einen Run mit DX10, 4xAA/8xAF, HighRes und nur 1680x1050... Ich geb dir dann mal Vergleichswerte mit einer HD4870 Single GPU. Ebenso finden wir hier im Forum im Benchthread Vergleichswerte...
Wenn dann nur paar wenige Prozenz raus springen, läuft da was falsch.
 
Hier der Run:



cpu stimmt nicht, ist auf 4ghz

hier noch screenies von gpuz und cpuz:
 
Zuletzt bearbeitet:
Das sieht normal aus...

Mit zwei Single HD4870 1GB Karten kommt man in etwa auf 54FPS... Das passt also.

Ich würde sagen, zumindest für diesen Bench gibt es keine Bandbreitenprobleme...
 
Kann eventuell jemand was zu den Stalker Benches sagen, bzw kennt jemand noch andere Benchmarks? wie wärs zum beispiel mit dem resident evil 5 benchmark? eignet der sich zum vergleichen? bzw hat da jemand vergleichswerte?

Edit :

Anbei noch meine DXdiag, falls jemand was damit anfangen kann:

http://www.file-upload.net/download-2576189/DxDiag.txt.html

---------------------------------------------------------

Habe mal RE5 gebencht hier das Ergebnis mit 8x AA :

 
Zuletzt bearbeitet:
Ich denke der RE5 Bench passt -> das Ergebnis vom aktuellen Luxx Review (GTX 465 Review)
für die HD 5850 lautet 79 fps (1920x1200 8xAA/16xAF in DX10), allerdings werkelt dort ein i7 965X @ 3.2 GHz (und das Game ist eh CPU limitert !).

http://www.hardwareluxx.de/index.ph...15460-test-zotac-geforce-gtx-465.html?start=6

Wenn du willst, könnt ich den Stalker Bench mit der 295er @ 2 CPU Cores in 1680 mal gegenbenchen. Auf 4 GHz krieg ich den aber nicht ->
C1 Stepping + Luftgekühlt - 3.6 GHz war aber Prime-stable. ;)

Aber am besten nicht mit AA - ohne AA sind die Unterschiede bei geringer Bandbreite höher als mit (siehe TechPowerUp Review mit der HD 5870 -> hier am Beispiel Far Cry 2 -> http://www.techpowerup.com/reviews/AMD/HD_5870_PCI-Express_Scaling/11.html)

mfg
Edge
 
Zuletzt bearbeitet:
Ja wenn du gegenbenchst wär super. Ich könnt meine cpu auch einfach auf default 3GHZ laufen lassen, wenn das was bringt. Sag mir einfach genau welche Einstellungen du benutzt hast. Ist Stalker denn eher cpu oder gpu abhängig?

Danke übrigens für eure Hilfe und Tips :)
 
Eher GPU abhängig - ich werde es erstmal mit stock (2.66 GHz - 4 Cores) laufen lassen.
Soweit ich weiß, profitiert es nicht wirklich von mehr Kernen - nun ja, das werden wir ja sehen.

1ku1b.png


Alles erstmal @ stock und @ Quadcore. Derzeit sind zwar nur 2 GB RAM @ Single Channel eingebaut -> ein Kit muss ich später wohl in RAM schicken (wenn ich Ersatz habe), aber afaik braucht Stalker eh höchstens 1.6 GB RAM @ Win x64 - das wird also reichen.




E: So - hier das Ergebnis (wie ich in den Tabs nach jedem Einzelbench gesehen habe war die CPU Auslastung nur bei maximal 36% - sprich, das Game unterstützt in der Hauptsache nur 1 Core !). Bench einfach mal mit 3 GHz gegen.

Die HD 4870 X2 könnte hier etwas flotter als die 295er sein (auch die HD5k Karten schlagen sich unter DX11 sehr gut) - die 3 GHz sollten sich auch positiv bemerkbar machen.
Sind die fps besser oder etwa in der Region von meinem System, dann ist es wohl nur ein Auslesefehler.

Ich denke nicht, dass ich dann nochmal mit 3 GHz gegenbenchen müsste - 1 Run dauert ja auch bald seine 10 Minuten oder so (hab btw. auch noch bissl am PC zu tun für die FH.) ;)

3j6pb.png



E: Nachtrag -> in dem NV Controlpanel hab ich 16xAF sowie Hohe Qualität (Texturfilterung Qualität) global eingestellt. Das kostet wohl auch ein paar fps.

mfg
Edge
 
Zuletzt bearbeitet:
Hab hier nochmal den RE5 Bench ohne AA :


Stalker kommt gleich
 
Das sieht doch nicht schlecht aus - ich denke mal, 1920x1200 ohne AA kann man in etwa mit dem Ergebnis in 1680x1050 mit 4xAA vergleichen -> dort hat die HD 5850 110 fps
(Luxx Review -> i7 965X @ 3.2 GHz).

mfg
Edge
 
Jetzt versteh ich garnix mehr, hab gerade @stock gebootet und aufeinmal isses 8x.
Das Ding ist ich hab schon öfter stock gebootet, da war es trotzdem 2x...

Hier mal Gpu z und cpu z

 
Hm...aber irgend eine andere tiefgreifende Veränderung im BIOS hatteste nun @ stock ja auch nicht vollzogen, oder?

Nun ja - kannst ja nochmal Stalker CoP benchen und wenn das Ergebnis dort auch gut aussieht, dann stimmt mit der Karte alles.

mfg
Edge
 
Zuletzt bearbeitet:
Wie anfangs schon gesagt, ich vermute stark, das ist ein Auslesefehler... Die Benches passen ja auch soweit.

Mach dir keine Gedanken drüber und freu dich an der Karte ;)
 
Hier die Ergebnisse meines Stalker Benches mit folgenden Einstellungen @E8400 3ghz mit angeschaltetem 16x AF



Ergebniss:



Und übgrigens im Bios hab ich nix andres gemacht als Load Default Settings
 
Zuletzt bearbeitet:
Ok - jo, wie fdsonne schon sagte - es ist wohl nur ein Auslesefehler. :)

Die Benches sehen insgesamt doch ordentlich aus (wär gut möglich, dass bei Stalker @ DX10.1 teils ein wenig erweiterte Effekte genutzt werden
(afaik diente es in Clear Sky aber etwas der Performanceverbesserung für die ATi Karten) - das Ergebnis ist auf jeden Fall ok).

In Sachen fps biste in etwa durchgängig mit der HD 5850 gleich auf (also bis max. DX10.1), die ja durch die neueren Treiber einen Sprung gemacht hat,
wie auch die HD 5870 (zum Launch war die HD 4870 X2 ja in etwa noch gleich schnell wie die 5870er @ max. DX10.1 halt, nun ist es umgekehrt).

Kannste also beruhigt weiterzocken. :d

mfg
Edge
 
Zuletzt bearbeitet:
Hab nochmal mit 4ghz Stalker gebencht, war nur eine leichte verbesserung bei den minimum frames und eine minimale bei den max frames. auf 4ghz zeigt er übrigens immer noch 8x Pcie an XD, versteh das einer...

Aber nach dem ganzen hin und her bin ich beruhigt, dass alles in Ordnung zu sein scheint ^^ und vielen vielen dank nochmals für die ganze arbeit und hilfe :)

Hier fühlt man sich gut aufgehoben :d
 
Gern geschehen ! ;)

Ja - so soll es sein -> zufriedene User (nach Beratung) im Forum ! :d

Ich mach dann mal dicht. :wink:

Falls - warum auch immer - auf einmal ein starker Leistungseinbruch auftreten sollte, PN an mich (oder einen Kollegen, etwa fdsonne) -> dann würden wir den Thread auch wieder auf machen.
Aber da es sich zu 99%iger Wahrscheinlichkeit um einen Auslesefehler gehandelt hat, sollte dies wohl nicht der Fall sein. :)

mfg
Edge
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh