Xe-GPU(s): Intel-Dokument zeigt Chiplet-Design mit bis zu 500 W

Thread Starter
Mitglied seit
06.03.2017
Beiträge
112.375
intel-dg1-sdv.jpg
Im Januar zeigte Intel erstmals einen aktuellen Entwicklungsstand für die nächste Generation der GPU-Architektur alias Xe. Als integrierte Lösung sollen die kommenden Tiger-Lake-Prozessoren damit ausgestattet sein. In einer ersten Umsetzung präsentierte Intel ein Software Development Vehicle (SDV) der DG1 (Discret Graphics).
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wir haben gerade zwei Kommentar-Threads. Bitte einfach hier weiter kommentieren.
 
Bin ja Mal gespannt wie die 500W in Leistung umgesetzt werden.
Müsste ja ein echtes Monster werden.

Ich fürchte aber eher, dass da etwas mit der Brechstange in einen Effizienzbereich jenseits von Gut und Böse getrieben wird.
 
Bin ja Mal gespannt wie die 500W in Leistung umgesetzt werden.
Müsste ja ein echtes Monster werden.

Ich fürchte aber eher, dass da etwas mit der Brechstange in einen Effizienzbereich jenseits von Gut und Böse getrieben wird.

Alles über 300 W dürfte für den Endkundenbereich keine Rolle mehr spielen. Im Datacenter lässt sich so etwas je nach Package nach umsetzen.
 
Ambitioniert wirkt Intel hier ja schon Mal. Wäre schön, wenn auch entsprechend Leistung rüberkäme.
 
Ich fürchte aber eher, dass da etwas mit der Brechstange in einen Effizienzbereich jenseits von Gut und Böse getrieben wird.
Wenn Intel ein MCM Design verwendet kann das auch nur bedeuten das sie ganz viele kleine Chips aneinanderkleben. Also quasi der Threadripper der Grafikbeschleuniger.
So ein 64Kerner hat ja auch eine hohe Leistungsaufnahme und ist nicht wesentlich ineffizienter als ein 8 Core Ryzen.
 
Dann hoffe ich doch mal das vielleicht auch mal die Preis bei Nvidia sich reduzieren.
 
Abwarten. Sicher ist das nichts sicher ist. Wenn Intel denn wirklich solch ein riesen Sprung bei der gpu macht, das muss man erst mal abwarten. Denke mal das es schon was wird. Aber ob das reicht um nvidia und AMD konkurenz zu machen, das ist nicht sicher. Aber denke mal wenn der erste wurf nicht so gelingt, das dann der zweite schon besser sein wird.
 
Das würde dann heißen "nie". Welcher Hersteller investiert heutue noch länger als zwei Jahre in eine Technologie die Nichts abwirft..
 
Nvidia beispielsweise bei 3DVision und SLI :fresse2:.
Intel kopiert hier mit dem Exascale den AMD und Nvidia Ansatz gleichzeitig, ziemlich intelligent.
Das Ganze wird halt durch den fehlenden 7nm Shrink auch stark verlangsamt.
Diese Zeit wird man hoffentlich in der Lage sein mit guter Treiber arbeit zu verkürzen, ich denke das wird auch für den Normalo so eine Art Workstation Karte geben und dann so wie bei AMD wird man versuchen über Computing-Power sich dann im Spiele-Markt FPS für FPS zu holen.
 
Reiß mal nicht die Kommentare aus dem Kontext:
Ich nahm Bezug auf Decksteins Vermutung, dass es womöglichlich noch lange dauern kann, bis Intels CPUs brauchbar werden. Und mein Kommentar sollte eben sagen, dass es, falls es wirklich so lange dauern würde, wahrscheinlich gar nicht mehr dazu kommen wird.
3D Vision und SLI haben sicherlich Einnahmen generiert. Der Bedarf nach einer mal eben doppelt so schnellen (=drei Mal so teueren) Grafikkarten für 3D Vision, oder gar zwei Grafikkarten für SLI, kostet doch ordentlichen Aufpreis. Dafür bekommen die Käufer aber auch einen Mehrwert. Dies mit einer möglicherweise unreifen GPU gleichzusetzen, die schlimmstenfalls weniger FPS bei mehr Stromaufnahme bringt als die Konkurrenz, ist doch kein angemesserner Vergleich.
 
Ich rechne dass konkurrenzfähige produkte erst in 7 jahren da sind
Hat Intel nicht vor wenigen Jahren von der AMD und Nvidia-GPU Abteilungen Personal abgeworben? Wenn Intel sich das nötige Know-How "zugekauft" hat könnte es doch noch schneller gehen als man denkt. Für uns Kunden wäre das super wenn auf einmal 3 grössere Marken auf dem Markt wären und sich die Preise hoffentlich mal wieder normalisieren.
 
Reiß mal nicht die Kommentare aus dem Kontext:
Ich nahm Bezug auf Decksteins Vermutung, dass es womöglichlich noch lange dauern kann, bis Intels CPUs brauchbar werden. Und mein Kommentar sollte eben sagen, dass es, falls es wirklich so lange dauern würde, wahrscheinlich gar nicht mehr dazu kommen wird.
3D Vision und SLI haben sicherlich Einnahmen generiert. Der Bedarf nach einer mal eben doppelt so schnellen (=drei Mal so teueren) Grafikkarten für 3D Vision, oder gar zwei Grafikkarten für SLI, kostet doch ordentlichen Aufpreis. Dafür bekommen die Käufer aber auch einen Mehrwert. Dies mit einer möglicherweise unreifen GPU gleichzusetzen, die schlimmstenfalls weniger FPS bei mehr Stromaufnahme bringt als die Konkurrenz, ist doch kein angemesserner Vergleich.
3D Vision und SLI hatten nie Mehrwert für 99% GeForce Nutzer geschweige denn Nvidia selbst, deshalb sind diese Features auch so gut wie verschwunden, trotzdem hat Nvidia lange Support geleistet. Ich hatte selbst 3D Vision + GeForce + 3D Monitor und hab es nie verwendet.
Deine Rant-Signatur um dann zur Radeon zu schauen ist eigentlich Satire im Zusammenhang mit dem 2 Jahres Statement und unreifer GPU, die Radeon Sparte macht bei AMD wahrscheinlich schon länger als 2 Jahre gut minus.

Ist auch völlig normal in der Entwicklung, je nach dem was Intel hier abliefert wird das ziemlich gefährlich für die Mittelklasse, auch wenn es speziell fürs High-End Gaming erstmal nicht reichen wird mit Treiber und Multi-GPU Design.
 
Unauffällig die Ebene wechseln? ;)
Bei der Frage wie lange eine Technologie unterstützt wird, geht es nur um die Einnahmen bzw. Rentabilität für den Hersteller, nicht um die Frage ob Technologien für die Leute, die sie gar nicht kaufen, einen Mehrwert darstellen. Und egal wie wenige (angeblich) 3D Vision oder SLi damals genutzt haben, so ist doch offensichtlich der Kauf mehrerer Grafikkarten (wenn auch an wenige Personen) ein siginifikanter Vorteil.
Zu AMD bzw. Radeon habe ich überhaupt Nichts geschrieben, keine Ahnung was du meinst. Falls du die Signatur meinst, dann ist das doch völlig an den Haaren herbei gezogen. Eine Forensignatur hat bekanntermaßen keinen Bezug zu einem Thread.
 
Ob das dann bei Intel genauso läuft?

:fresse: :shot:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh