Aktuelles

Xe-GPU(s): Intel-Dokument zeigt Chiplet-Design mit bis zu 500 W

Thread Starter
Mitglied seit
06.03.2017
Beiträge
11.688
intel-dg1-sdv.jpg
Im Januar zeigte Intel erstmals einen aktuellen Entwicklungsstand für die nächste Generation der GPU-Architektur alias Xe. Als integrierte Lösung sollen die kommenden Tiger-Lake-Prozessoren damit ausgestattet sein. In einer ersten Umsetzung präsentierte Intel ein Software Development Vehicle (SDV) der DG1 (Discret Graphics).
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Don

[printed]-Redakteur, Tweety
Mitglied seit
15.11.2002
Beiträge
33.556
Wir haben gerade zwei Kommentar-Threads. Bitte einfach hier weiter kommentieren.
 

drakrochma

Enthusiast
Mitglied seit
21.07.2006
Beiträge
4.569
Ort
Mainz-KH
Bin ja Mal gespannt wie die 500W in Leistung umgesetzt werden.
Müsste ja ein echtes Monster werden.

Ich fürchte aber eher, dass da etwas mit der Brechstange in einen Effizienzbereich jenseits von Gut und Böse getrieben wird.
 

Don

[printed]-Redakteur, Tweety
Mitglied seit
15.11.2002
Beiträge
33.556
Bin ja Mal gespannt wie die 500W in Leistung umgesetzt werden.
Müsste ja ein echtes Monster werden.

Ich fürchte aber eher, dass da etwas mit der Brechstange in einen Effizienzbereich jenseits von Gut und Böse getrieben wird.

Alles über 300 W dürfte für den Endkundenbereich keine Rolle mehr spielen. Im Datacenter lässt sich so etwas je nach Package nach umsetzen.
 

Elmario

Enthusiast
Mitglied seit
21.01.2006
Beiträge
4.919
Ambitioniert wirkt Intel hier ja schon Mal. Wäre schön, wenn auch entsprechend Leistung rüberkäme.
 

bimini

Enthusiast
Mitglied seit
01.05.2011
Beiträge
1.247
Ort
Berlin
Ich fürchte aber eher, dass da etwas mit der Brechstange in einen Effizienzbereich jenseits von Gut und Böse getrieben wird.
Wenn Intel ein MCM Design verwendet kann das auch nur bedeuten das sie ganz viele kleine Chips aneinanderkleben. Also quasi der Threadripper der Grafikbeschleuniger.
So ein 64Kerner hat ja auch eine hohe Leistungsaufnahme und ist nicht wesentlich ineffizienter als ein 8 Core Ryzen.
 

Crusha

Enthusiast
Mitglied seit
11.10.2009
Beiträge
1.176
Dann hoffe ich doch mal das vielleicht auch mal die Preis bei Nvidia sich reduzieren.
 

Latiose

Experte
Mitglied seit
11.06.2019
Beiträge
1.715
Abwarten. Sicher ist das nichts sicher ist. Wenn Intel denn wirklich solch ein riesen Sprung bei der gpu macht, das muss man erst mal abwarten. Denke mal das es schon was wird. Aber ob das reicht um nvidia und AMD konkurenz zu machen, das ist nicht sicher. Aber denke mal wenn der erste wurf nicht so gelingt, das dann der zweite schon besser sein wird.
 

Elmario

Enthusiast
Mitglied seit
21.01.2006
Beiträge
4.919
Das würde dann heißen "nie". Welcher Hersteller investiert heutue noch länger als zwei Jahre in eine Technologie die Nichts abwirft..
 

Infi88

Enthusiast
Mitglied seit
09.09.2010
Beiträge
1.049
Ort
Köln
Nvidia beispielsweise bei 3DVision und SLI :fresse2:.
Intel kopiert hier mit dem Exascale den AMD und Nvidia Ansatz gleichzeitig, ziemlich intelligent.
Das Ganze wird halt durch den fehlenden 7nm Shrink auch stark verlangsamt.
Diese Zeit wird man hoffentlich in der Lage sein mit guter Treiber arbeit zu verkürzen, ich denke das wird auch für den Normalo so eine Art Workstation Karte geben und dann so wie bei AMD wird man versuchen über Computing-Power sich dann im Spiele-Markt FPS für FPS zu holen.
 

Elmario

Enthusiast
Mitglied seit
21.01.2006
Beiträge
4.919
Reiß mal nicht die Kommentare aus dem Kontext:
Ich nahm Bezug auf Decksteins Vermutung, dass es womöglichlich noch lange dauern kann, bis Intels CPUs brauchbar werden. Und mein Kommentar sollte eben sagen, dass es, falls es wirklich so lange dauern würde, wahrscheinlich gar nicht mehr dazu kommen wird.
3D Vision und SLI haben sicherlich Einnahmen generiert. Der Bedarf nach einer mal eben doppelt so schnellen (=drei Mal so teueren) Grafikkarten für 3D Vision, oder gar zwei Grafikkarten für SLI, kostet doch ordentlichen Aufpreis. Dafür bekommen die Käufer aber auch einen Mehrwert. Dies mit einer möglicherweise unreifen GPU gleichzusetzen, die schlimmstenfalls weniger FPS bei mehr Stromaufnahme bringt als die Konkurrenz, ist doch kein angemesserner Vergleich.
 

thegian

Enthusiast
Mitglied seit
08.08.2005
Beiträge
5.896
Ort
Zürich
Ich rechne dass konkurrenzfähige produkte erst in 7 jahren da sind
Hat Intel nicht vor wenigen Jahren von der AMD und Nvidia-GPU Abteilungen Personal abgeworben? Wenn Intel sich das nötige Know-How "zugekauft" hat könnte es doch noch schneller gehen als man denkt. Für uns Kunden wäre das super wenn auf einmal 3 grössere Marken auf dem Markt wären und sich die Preise hoffentlich mal wieder normalisieren.
 

Infi88

Enthusiast
Mitglied seit
09.09.2010
Beiträge
1.049
Ort
Köln
Reiß mal nicht die Kommentare aus dem Kontext:
Ich nahm Bezug auf Decksteins Vermutung, dass es womöglichlich noch lange dauern kann, bis Intels CPUs brauchbar werden. Und mein Kommentar sollte eben sagen, dass es, falls es wirklich so lange dauern würde, wahrscheinlich gar nicht mehr dazu kommen wird.
3D Vision und SLI haben sicherlich Einnahmen generiert. Der Bedarf nach einer mal eben doppelt so schnellen (=drei Mal so teueren) Grafikkarten für 3D Vision, oder gar zwei Grafikkarten für SLI, kostet doch ordentlichen Aufpreis. Dafür bekommen die Käufer aber auch einen Mehrwert. Dies mit einer möglicherweise unreifen GPU gleichzusetzen, die schlimmstenfalls weniger FPS bei mehr Stromaufnahme bringt als die Konkurrenz, ist doch kein angemesserner Vergleich.
3D Vision und SLI hatten nie Mehrwert für 99% GeForce Nutzer geschweige denn Nvidia selbst, deshalb sind diese Features auch so gut wie verschwunden, trotzdem hat Nvidia lange Support geleistet. Ich hatte selbst 3D Vision + GeForce + 3D Monitor und hab es nie verwendet.
Deine Rant-Signatur um dann zur Radeon zu schauen ist eigentlich Satire im Zusammenhang mit dem 2 Jahres Statement und unreifer GPU, die Radeon Sparte macht bei AMD wahrscheinlich schon länger als 2 Jahre gut minus.

Ist auch völlig normal in der Entwicklung, je nach dem was Intel hier abliefert wird das ziemlich gefährlich für die Mittelklasse, auch wenn es speziell fürs High-End Gaming erstmal nicht reichen wird mit Treiber und Multi-GPU Design.
 

Elmario

Enthusiast
Mitglied seit
21.01.2006
Beiträge
4.919
Unauffällig die Ebene wechseln? ;)
Bei der Frage wie lange eine Technologie unterstützt wird, geht es nur um die Einnahmen bzw. Rentabilität für den Hersteller, nicht um die Frage ob Technologien für die Leute, die sie gar nicht kaufen, einen Mehrwert darstellen. Und egal wie wenige (angeblich) 3D Vision oder SLi damals genutzt haben, so ist doch offensichtlich der Kauf mehrerer Grafikkarten (wenn auch an wenige Personen) ein siginifikanter Vorteil.
Zu AMD bzw. Radeon habe ich überhaupt Nichts geschrieben, keine Ahnung was du meinst. Falls du die Signatur meinst, dann ist das doch völlig an den Haaren herbei gezogen. Eine Forensignatur hat bekanntermaßen keinen Bezug zu einem Thread.
 

iLLuminatusANG

Legende
Mitglied seit
05.01.2008
Beiträge
5.243
Ort
Heilbronn
Hat Intel nicht vor wenigen Jahren von der AMD ....GPU Abteilungen Personal abgeworben?

Raja Koduri, mitverantwortlich für das Vega Design. Deshalb schreit die Xe Beschreibung förmlich nach ihm ;)
 

undervolter19

Experte
Mitglied seit
26.03.2019
Beiträge
892
Ob das dann bei Intel genauso läuft?

:fresse: :shot:
 
Oben Unten