Xeon wirklich besser für Digital Content Creation?

ob sie anders sind, keine Ahnung... Warscheinlich nicht... Die DIEs laufen ja alle vom "selben" Band. Und werden dann hinterher nur einfach benannt...
Und wenn vorn wohl Xeon-E3 drauf steht, muss hinten auch P4xxx drauf stehen.
Unter der Decke ist das die gleiche Technik... Ob man hier und da noch ne Funktion speziell (de)aktivert, weis ich allerdings nicht.

Mir gings eher damit nur um die Treiber, weil gesagt wurde, man findet nix. Stimmt nicht ganz. Ist nur nur etwas unglücklich benannt im Downloadportal. Wobei die Xeon GPUs ja trotzdem "HD" heißen. Sprich so ganz falsch ist der Weg zum Treiberdownload im Portal ja auch nicht... Eigentlich muss man nur wissen, wie die Dinger richtig heißen und die "Augen aufmachen" :fresse:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und mir ging es darum, dass man vielleicht nichts findet, weil Intel das mit ein und dem selben Treiber abfrühstückt. ;)
 
@numerobis,
übertakten möchte ich nicht. Die Dinger sind doch auch so schon schnell genug. Und weil ich freiberuflich arbeite und die neue Kiste dafür auch benutzen will, will ich nicht das Risiko ein instabilen Systems eingehen, wenn das Ding übertaktet ist. Der ganz normale Takt reicht also.

@all,
habe neuerdings auch irgendwo gelesen, dass sich die Grafik im i7 ebenfalls mit diesem Zusatz "P" schmückt. Ich erinnere mich, dass es sogar auf einer Intel-Seite stand. Wenn dies der Fall ist und die beiden nun wirklich den gleichen Grafikkern haben, dann haben die scheinbar eher im Xeon etwas deaktiviert.

Guckt ihr hier:

Einmal der i7. Guckt euch mal die Grafik-Specs an:
ARK | Intel® Core

Und einmal der Xeon. Seine Grafik-Specs fallen kürzer aus:
ARK | Intel® Xeon® Processor E3-1245 v3 (8M Cache, 3.40 GHz)

---------- Post added at 21:46 ---------- Previous post was at 21:37 ----------

PS: Und was mich bei BEIDEN etwas wundert, sind die nur 16 Lanes. Die gehen doch schon für die Grafikkarte drauf, wenn man eine verwendet. Da bleibt doch dann nichts mehr für andere PCIe-Steckplätze übrig? Oder wird die PCIe x16 Grafik z.B. gleich auf x8 gedrosselt, sobald irgend wo schon eine weitere PCIe x1 Karte drin steckt, weil die neue Karte auch Lanes braucht?
 
Zuletzt bearbeitet:
Naja, ich selbst habe wohl etwas Glück, weil ich tatsächlich nur eine PCIe x16 Grafikkarte brauche und sonst keine weiteren PCIe-Karten verbauen werde. Die einzige Karte, die sonst noch bei mir rein kommt, ist eine PCI-Karte. Soweit ich weiß, nehmen sich aber PCI-Karten keine Lanes von PCI-Express.

Leute, die mehr PCIe-Karten einbauen wollen, werden mit dem Sockel 1150 Haswell und seinen nur 16 Lanes vielleicht nicht so glücklich?

Trotzdem danke Dir für Deine Tipps! Ich weiß Deinen Rat zu schätzen. :)
 
Zuletzt bearbeitet:
Erstens gibt es ja noch Brückenchips, Zusatzschips und so einen Spaß (Kenne kein Intel Board mit nur einem Pcie x16-Slot :d ) und zweitens ist das auch eine Frage der Bandbreite, PCie3.0 bietet doppelt so viel wie Pcie2.0 und der reale Bandbreiten bedarf von GÜPUs ist niedriger als es sich die meistens erträumen. Mit vielen Zusatzkarten dürfte es ähnlich aussehen. Wer dann immer noch mehr braucht muss halt zum Sockel 2011.
 
Ich habe da von Gigabyte tatsächlich ein Board gefunden, welches nur einen PCIe x16 Slot hat und dann noch einen PCIe x4 Slot. Sonst noch vier PCI Slots. Die laufen wohl über so einen Brückenchip.

Apropos PCIe x16 Grafikkarte: Da muss ich ja auch noch eine passende finden. Bin Mediengestalter und arbeite daher mit Photoshop, Premiere Pro, After Effects und Cinema 4D. Irgendwie habe ich das Gefühl, dass da eine OpenGL-Karte a la Quadro angesagt ist. Ich weiß aber nicht, ob eine vernünftige GeForce nicht auch reicht, weil z.B. die Adobe-Sachen jetzt nicht für alles OpenGL fordern...

---------- Post added at 23:31 ---------- Previous post was at 23:13 ----------

Größter Unterschied ist die Zertifizierung, nur sagt die ja nicht aus, dass die Non-P-iGPUs nicht genauso gut laufen... ;) Ich könnte mir gut vorstellen, dass das relative gleiche iGPUs sind, ob die sich jetzt als P4600, HD 4600 oder Hans Dieter meldet ist ja nur ein kleiner Eintrag in die Registry.

Sehe ich auch so. Und im i7 ist sogar auch die P4600 Grafik drin. Nur dass der i7 kein ECC unterstützt, was aber auch egal ist, weil ein Desktop-Mainboard es ja auch nicht tut. ;)

Also, ich habe mich jetzt die ganze Zeit durch sämtliche Seiten gelesen und alles mögliche bei Google gesucht. Alles, was ich gefunden habe:
Der Unterschied zwischen der P4600 Grafik des i7 und des Xeons sind:
1) Xeon hat ECC, der i7 nicht
2) Xeon hat dieses Flexible Display Interface (FDI), was der i7 nicht hat
3) Der i7 hat dafür ein paar Grafik-Features, die der Xeon nicht hat

Ergo: Wenn man unbedingt die Zertifizierung des Xeons und seinen ECC-Vorteil haben möchte, dann muss man auch konsequenter Weise ein Board kaufen, welches ECC unterstützt, sowie die passenden ECC-Speichermodule. Tut man dies nicht, fällt der ECC-Vorteil (wenn er denn einer ist) weg und es bleibt "nur noch" diese Zertifizierung übrig, wobei dann aber Features fehlen, die der i7 hat.
 
Zuletzt bearbeitet:
Bitten nicht OpenGL mit OpenCL verwechseln.

Was mit nVidia's CUDA begann, mündet derzeit in der Open Computing Language und ermöglicht den Programmen die Berechnung von vielen Programmabschnitten über die deutlich leistungsfähigere GPU - wenn die Software diese nutzt.

Ein Test aus 2010 - i7-980X (3.33GHz, 12 Threads) vs. GTX480 (1.5GB) in Adobe CS4/CS5
Test Configuration - Adobe CS5: 64-bit, CUDA-Accelerated, And Threaded Performance
Hier profitieren die Adobe-Anwendungen nur in bestimmten Renderabschnitten/Programmbestandteilen von CUDA - aber wenn, dann brutal gut.

Ein Test von Anfang 2013 - FX-6300 (3 Module, 6 Threads) vs. mehrere nVidia
Adobe Premiere CC, CS6, CS5.5 and CS5 Video Cards with CUDA Acceleration Mercury Playback Unlock Enable MPE Hack Mod Tip OpenCL David Knarr
Leider ist die Aufgabe im Benchmark nicht sehr anspruchsvoll, aber alles ab einer GTX550Ti überflügelt den FX-6300 mit mehr als der doppelten Leistung. Der Abstand wäre größer und deutlicher, wenn der Benchmark umfangreicher gewesen wäre...

In Adobe's aktueller Creative Cloud Suite hält nun endlich auch OpenCL Einzug. CUDA wird natürlich weiterhin unterstützt. Auf die Schnelle konnte ich keine ersten Benchmarks finden. Aber wenn AMDs Vorankündigung ( AMD Performance Screams with Adobe Photoshop CC and Premier Pro CC | techPowerUp ) Recht behält, dann sind bereits AMD-APUs Dank integrierter Grafik deutlich schneller als das Software-Rendering auf den Intel Cores.

Wir sehen also die Tendenz der Entwicklung, die die "Digital Content Creation" nimmt.

Fakt ist aber auch, dass in der "Digital Content Creation" noch immer Aufgabenbereiche existieren, die von einer leistungsfähigen CPU übernommen werden müssen. Irgendwann wird alles von den GPUs übernommen. Aber bis dahin müssen die CPUs herhalten. Und ob man dafür tatsächlich noch 6, 8 oder 12 Threads braucht, erscheint fragwürdig.

In meinen Augen fährt man aus einer Kombination von Intel Xeon E3-1230V2, 4x 3.30GHz, Sockel-1155, boxed (BX80637E31230V2) Preisvergleich | Geizhals Deutschland oder Intel Xeon E3-1230V3, 4x 3.30GHz, Sockel-1150, boxed (BX80646E31230V3) Preisvergleich | Geizhals Deutschland und einer MSI N650Ti-1GD5V1 GeForce GTX 650 Ti, 1GB GDDR5, VGA, DVI, HDMI (V280-058R) Preisvergleich | Geizhals Deutschland am besten und sichersten.
 
Guter Beitrag! Danke Dir dafür. :)

OpenGL und OpenCL kann ich schon auseinander halten. ;)
Trotzdem fand ich Deine Links sehr gut, denn gekauft habe ich noch nichts an Hardware und habe mich auch schon insgeheim gefragt, ob die Adobe-Programme wirklich die neueste (und teuerste) Hardware brauchen.

Klar ist es verlockend, nach einigen Jahren der Nutzung eines Rechners mal was ganz neues zusammen zu stellen. Wenn ich dann aber diverse Preisunterschiede sehe und mich dann frage, ob Photoshop, Premiere und After Effects wirklich was mit der neuesten Hardware anfangen können, überlegt man sich die Sache zweimal.

Dass die GPU (also die der Grafikkarte meine ich jetzt) zum Teil schon mit genutzt wird, wusste ich schon. Braucht man da noch als "dritte treibende Kraft" neben der reinen CPU noch die iGPU des Prozessors? Oder kann man sich die schenken, weil die Adobe-Programme damit vielleicht noch weniger anfangen können?

Ich finde, dass Adobe selbst auch eher schwammige Infos darüber hinaus bringt. Genauso verwaschen, wie vieles auf der Intel- oder Nvidia-Seite klingt...
 
Ich habe da von Gigabyte tatsächlich ein Board gefunden, welches nur einen PCIe x16 Slot hat und dann noch einen PCIe x4 Slot. Sonst noch vier PCI Slots. Die laufen wohl über so einen Brückenchip.

Apropos PCIe x16 Grafikkarte: Da muss ich ja auch noch eine passende finden. Bin Mediengestalter und arbeite daher mit Photoshop, Premiere Pro, After Effects und Cinema 4D. Irgendwie habe ich das Gefühl, dass da eine OpenGL-Karte a la Quadro angesagt ist. Ich weiß aber nicht, ob eine vernünftige GeForce nicht auch reicht, weil z.B. die Adobe-Sachen jetzt nicht für alles OpenGL fordern...

Die CPU stellt 16 Lanes bereit und der Chipsatz nochmal 4, allerdings sind diese dann nur 2.0 und auch sonst recht limitiert durch das direct media interface des Chipsatzes mit dem er mit dem Prozessor kommuniziert. Auch reichen, wie Mick schon angedeutet hat, normalerweise selbst 8 PCIe-2.0-Lanes aus. Die hat die Grafikkarte dann auch nur zur Verfügung, wenn man einen weiteren PCIe-x16-Slot mit einer Karte bestückt.

Du brauchst keine Quadro. Adobe beschleunigt oft genug nur die Oberfläche via OpenGL und Cinema4D sollte auch längst einen DirectX-Renderpfad haben.
 
Danke für den Hinweis. :)

Ich habe bis jetzt immer an Rechnern gearbeitet, die ältere Quadros drin hatten oder an Macs, die dann oft Atis drin hatten. Ich habe zu Hause auch eine ältere Quadro, die aber nicht mehr viel reißt. Deswegen weiß ich leider nicht, wie sich die aktuellen GeForces zu den aktuellen Quadros verhalten und was das Adobe-Zeugs mit all diesen aktuellen Grafikchips wirklich anfangen kann. Bis jetzt habe ich (oder wir) unsere Sachen auch immer so fertig gestellt bekommen. Ich habe leider keine Praxiserfahrung, ob sich die Kosten für aktuelle Grafikkarten wirklich lohnen würden.

PS: Jetzt muss ich schmunzeln, denn das eigentliche Thema war ja der Xeon. ;)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh