[Sammelthread] F@H Quatschthre(a)d

Also das Board ist ein Asus TUF Gaming B650-E Wifi

Die 5070ti ist mit PCIe X16 5.0 @ X16 5.0 (laut GPUz) angebunden
Die 3070 ist mit PCIe X16 4.0 @ X1 4.0 angebunden

In alten PC wird sie eher mit PCIe X1 1.0 angebunden sein :d da baue ich sie gleich wieder hin um, dann editier ich das hier nochmal rein

Und wie Neo schreibt, es ist ein Gaming System und erst in Zweitnutzung zum Falten da
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also das Board ist ein Asus TUF Gaming B650-E Wifi

Die 5070ti ist mit PCIe X16 5.0 @ X16 5.0 (laut GPUz) angebunden
Die 3070 ist mit PCIe X16 4.0 @ X1 4.0 angebunden

In alten PC wird sie eher mit PCIe X1 1.0 angebunden sein :d da baue ich sie gleich wieder hin um, dann editier ich das hier nochmal rein

Und wie Neo schreibt, es ist ein Gaming System und erst in Zweitnutzung zum Falten da
... war nur rein informativ. Wenn die 3070 an Gen4 x1 angebunden ist, dann ist das der Flaschenhals und die CPU muss nicht viel vorkauen. Du müsstest aber über den Chipsatz auch noch nen Slot Gen4 x4 haben. Da bekommt sie mehr Daten und die PPDs sowie die CPU-Last steigen.

Meine neue Hardware ist nun da: MSI pro Z890 S Wifi mit Intel 245KF mit 32GB 6000er Ram. Picars Images läuft darauf. Morgen wird eine 5070 eingebunden. Die läuft dann ein paar Tage ohne Limits an CPU, PCIe Gen5 und GPU. Danach ziehe ich PCIe runter auf Gen4 x16. Wieder laufen lassen. Dann kommt eine zweite 5070 dazu mit Gen5 x4 oder wenn ich es hinbekomme beide GPUs auf Gen5 x8. Danach drossel ich langsam den CPU Takt. Bin gespannt.
 
anstelle von 8x+8x hab ich auf meinem DarkHero auch X16+X4.
1. sind das am Ende mehr Lanes in Summe und
2. ist so einfach die Kühlung besser, die X16 GPU muss ja auch atmen

Also das Board ist ein Asus TUF Gaming B650-E Wifi

Die 5070ti ist mit PCIe X16 5.0 @ X16 5.0 (laut GPUz) angebunden
Die 3070 ist mit PCIe X16 4.0 @ X1 4.0 angebunden
bei der Konstellation müsstest Du ja den mittleren X1 Slot mit einem Riser X1->X16 benutzen, das riecht sehr nach Mining-Konstellation :hust:
1763765477663.png

Die untere wäre auch X4

Aargh, ist doch X1 und dann auch noch über PCH, aber was läuft das läuft :bigok:

1763765585442.png



Ich hab noch irgengendwo ein Strix rumliegen, zwischen meinen Crosshairs, was aktuell keine Verwendung hat ;)
 
Ich wage zu prophezeien, dass alles ab PCIE 3.0 8x / 4.0 4x / 5.0 2x keinerlei Einfluss auf Folding haben wird, wenn es das bei Spielen im unteren 1-stelligen Prozentbereich hat.
5.0 1x zu testen fände ich jedoch auch mal interessant.
 
Ich wage zu prophezeien, dass alles ab PCIE 3.0 8x / 4.0 4x / 5.0 2x keinerlei Einfluss auf Folding haben wird, wenn es das bei Spielen im unteren 1-stelligen Prozentbereich hat.
5.0 1x zu testen fände ich jedoch auch mal interessant.
Gen3 x8 vs Gen3 x16 hast du definitiv nen Unterschied.
 
@atreyuaudiomedics hat in rekordverdächtiger Zeit (weniger als vier Monate!) den acht Milliarden Milestone weggeknüllt. :love: Bin mir ziemlich sicher, dass bisher noch niemand so nen fulminanten Blitzstart ins Fuzzi-Team hingelegt hat. :hail:
1000016361.jpg


animiertes-danke-thank-you-smilies-bild-0001.gif


Ach ja, ein neuer User namens "CWB1311" hat heute seine erste WU bei uns gemacht. War vorher u.a. im Heise Team, allerdings relativ inaktiv. Aber egal, jede WU zählt ... welcome im Fuzzi-Team. 👍
 
Gibt Videos auf Youtube zu. Und bei GPUs mit wenig RAM kann mehr Bandbreite helfen. Gibts auch schon Tests zu.
 
Gibt Videos auf Youtube zu. Und bei GPUs mit wenig RAM kann mehr Bandbreite helfen. Gibts auch schon Tests zu.
Interessant. Hättest du nen Link oder zwei? Denn meine Tests brachten mindestens 5-7% weniger bei x8. Bei x4 war bei 30-50%. Ist aber schon ein paar Jahre her. Deswegen möchte ich es mit Gen5 und Gen 4 testen.
 
So. Ich hab jetzt die Gewissheit: mein Netzteil ist tot. Hat in der Nacht noch bis ca. 3 Uhr funktioniert. Seit dem tut es nicht mehr. Auch mit anderen Komponenten nix 😔
 
... und noch ein Milestone: Unser leider unbekannter "Bootsmann" rudert wie ein Weltmeister und hat den 200 Millionen Milestone voll gemacht. :bigok:
1000016363.jpg
 
nimm die CPU-Kerne raus, die sind quasi wirkungslos, aber bremsen die GPU aus und jagen den Stromzähler hoch ;)
 
nimm die CPU-Kerne raus, die sind quasi wirkungslos, aber bremsen die GPU aus und jagen den Stromzähler hoch ;)
... da bin ich bei der 245KF noch am Testen. Zumal ordentlich für die GPU vorgehalten wird.

Update:20251123_124851.jpg
Beitrag automatisch zusammengeführt:

... final soll Board und CPU 2x 5070er befeuern. Muss nur das mögliche OC und UV bei Linux noch ausloten.

Übrigens habe ich Linux ohne das Images aufgesetzt, nur mit Anleitung von Picar. War easy und fix gemacht.
 
Zuletzt bearbeitet:
Interessant. Hättest du nen Link oder zwei? Denn meine Tests brachten mindestens 5-7% weniger bei x8. Bei x4 war bei 30-50%. Ist aber schon ein paar Jahre her. Deswegen möchte ich es mit Gen5 und Gen 4 testen.
Klar. z.B. bei Igor, YouTube, TechPowerup (mit einer 5090 tatsächlich deutliche Unterschiede!)

... teurer, mehr Abwärme für mich für Folder ohne Aufgabe.
Kannst Du ja problemlos im BIOS deaktivieren. Hat mich beim 9800X3D auch überrascht, dass der eine hat.
 
Zuletzt bearbeitet:
Wie weit kommst du denn mit dem Verbrauch bei der 5070er runter? Je nachdem wäre eine 5080er bestimmt effizienter als 2 5070er und hätte auch Overall mehr ppd. Sofern halt eine Neuanschaffung im Raum steht, wenn’s die Karten schon gibt ist’s was anderes 🙃
 
Wie weit kommst du denn mit dem Verbrauch bei der 5070er runter?
Unter Windows kannste dir hier anschauen.


... man muss halt immer wissen was man konkret möchte. Sweetspot Verbrauch vs Takt, Sweetspot Verbrauch vs PPDs aso.

Unter Linux werden die Werte anders sein, da höhere Last. Aber das teste ich gerade.
Je nachdem wäre eine 5080er bestimmt effizienter als 2 5070er und hätte auch Overall mehr ppd. Sofern halt eine Neuanschaffung im Raum steht, wenn’s die Karten schon gibt ist’s was anderes 🙃
Eine 5080er wäre eine Option, aber ich bin an die zwei 5070er günstiger rangekommen und außerdem wollte ich was haben was sich leichter kühlen lässt ;o)
 
Zuletzt bearbeitet:
Unter Windows kannste dir hier anschauen.
das Video hatte ich mir schonmal erlaubt hier zu verlinken ;)

Unter Linux werden die Werte anders sein, da höhere Last. Aber das teste ich gerade.
womit taktest Du unter Linux???? 🤔

Eine 5080er wäre eine Option, aber ich bin an die zwei 5070er günstiger rangekommen und außerdem wollte ich was haben was sich leichter kühlen lässt ;o)
bei der 5080 ist der Chip recht klein und daher die Temp je mm² recht hoch, hab ich festgestellt

Der 5090 Chip ist wohl doppelt so groß, aber natürlich auch erheblich teurer, hat dadurch aber auch das bessere °C/mm² Verhältnis
 
das Video hatte ich mir schonmal erlaubt hier zu verlinken ;)


womit taktest Du unter Linux???? 🤔
Ik meld mir mit Infos per Video ;)
bei der 5080 ist der Chip recht klein und daher die Temp je mm² recht hoch, hab ich festgestellt
Ok.
Der 5090 Chip ist wohl doppelt so groß, aber natürlich auch erheblich teurer, hat dadurch aber auch das bessere °C/mm² Verhältnis
Ja, Preise ab der 5070 sind völlig überzogen. Ich bin weg davon Flagschiffe zu kaufen seit sie mehr als 1200€ kosten.
 
ich hab gerade mal wieder eine 4090 mit Deinem Vid undervoltet :love:
Mega geile Methode, vielleicht bekomme ich die auch mal in meinem Hohlschädel gespeichert :lol:

Leider ist dabei eine WU ☠️🪦💀
Beitrag automatisch zusammengeführt:

Update:
Letzte 10 Minuten
1763951133550.png

letzte Stunde
1763951263777.png 1763951164402.png

gut erkennbar, wo die WU geschrottet wurde und dass ich kurz das Folding pausiert hatte
 
Zuletzt bearbeitet:
Die Methode funktioniert bei der Strix 4080 nicht so richtig... ich bekomme bis auf 700mv runter eine gerade Linie, aber damit läuft natürlich nix :LOL: und die GPU geht auch nicht unter 925mv.
 
Zuletzt bearbeitet:
Die Methode funktioniert bei der Strix 4080 nicht so richtig... ich bekomme bis auf 700mv runter eine gerade Linie, aber damit läuft natürlich nix :LOL: und die GPU geht auch nicht unter 925mv.
... das kann gut sein. Ich habe in der Vergangenheit schon mehrfach feststellen müssen, dass ich bspw. eine Grafikkarte von ZOTAC mit 800mV aber eine von KFA nur ab 925mV untervolten konnte. Das wird über das Biosprofil gesteuert. Auffällig war, das oftmals die OC-Varianten nur höhere minimal Spannungen zuließen. Ist aber für mich auch verständlich.
 
@sptn.
Hab da so ein Bild vor Augen, wie Du Deine Tage "fokussiert" vorm Monitor verbringst.
Dank meiner Minutiös geführten Exceltabelle hab ich alles im Blick ;)

[..]aber bremsen die GPU aus [...]
Dieses Phänomen konnte ich bis jetzt auch nur bei AMD CPUs beobachten. Bei Intel konnte ich das noch nicht nachweisen. Meine Vergleichsgruppe ist aber auch nur relativ klein :d
 
Dieses Phänomen konnte ich bis jetzt auch nur bei AMD CPUs beobachten. Bei Intel konnte ich das noch nicht nachweisen. Meine Vergleichsgruppe ist aber auch nur relativ klein :d
Bei AMD GPUs kenne ich das, weil das OpenCl wohl keine Prozessorlast erzeugt, anders als NV CUDA scheinbar
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh