Aktuelles

Xe-GPU(s): Intel-Dokument zeigt Chiplet-Design mit bis zu 500 W

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Don

[printed]-Redakteur, Tweety
Mitglied seit
15.11.2002
Beiträge
31.921
Wir haben gerade zwei Kommentar-Threads. Bitte einfach hier weiter kommentieren.
 

drakrochma

Well-known member
Mitglied seit
21.07.2006
Beiträge
4.317
Ort
Mainz-KH
Bin ja Mal gespannt wie die 500W in Leistung umgesetzt werden.
Müsste ja ein echtes Monster werden.

Ich fürchte aber eher, dass da etwas mit der Brechstange in einen Effizienzbereich jenseits von Gut und Böse getrieben wird.
 

Don

[printed]-Redakteur, Tweety
Mitglied seit
15.11.2002
Beiträge
31.921
Bin ja Mal gespannt wie die 500W in Leistung umgesetzt werden.
Müsste ja ein echtes Monster werden.

Ich fürchte aber eher, dass da etwas mit der Brechstange in einen Effizienzbereich jenseits von Gut und Böse getrieben wird.
Alles über 300 W dürfte für den Endkundenbereich keine Rolle mehr spielen. Im Datacenter lässt sich so etwas je nach Package nach umsetzen.
 

Infi88

Active member
Mitglied seit
09.09.2010
Beiträge
472
Evtl. wird der Chiller direkt mitgeliefert :o .
 

Elmario

Well-known member
Mitglied seit
21.01.2006
Beiträge
4.267
Ambitioniert wirkt Intel hier ja schon Mal. Wäre schön, wenn auch entsprechend Leistung rüberkäme.
 

bimini

Active member
Mitglied seit
01.05.2011
Beiträge
1.213
Ort
Berlin
Ich fürchte aber eher, dass da etwas mit der Brechstange in einen Effizienzbereich jenseits von Gut und Böse getrieben wird.
Wenn Intel ein MCM Design verwendet kann das auch nur bedeuten das sie ganz viele kleine Chips aneinanderkleben. Also quasi der Threadripper der Grafikbeschleuniger.
So ein 64Kerner hat ja auch eine hohe Leistungsaufnahme und ist nicht wesentlich ineffizienter als ein 8 Core Ryzen.
 

Crusha

Member
Mitglied seit
11.10.2009
Beiträge
768
Dann hoffe ich doch mal das vielleicht auch mal die Preis bei Nvidia sich reduzieren.
 

Latiose

Active member
Mitglied seit
11.06.2019
Beiträge
584
Abwarten. Sicher ist das nichts sicher ist. Wenn Intel denn wirklich solch ein riesen Sprung bei der gpu macht, das muss man erst mal abwarten. Denke mal das es schon was wird. Aber ob das reicht um nvidia und AMD konkurenz zu machen, das ist nicht sicher. Aber denke mal wenn der erste wurf nicht so gelingt, das dann der zweite schon besser sein wird.
 

DeckStein

Well-known member
Mitglied seit
08.05.2018
Beiträge
2.148
Ich rechne dass konkurrenzfähige produkte erst in 7 jahren da sind
 

Elmario

Well-known member
Mitglied seit
21.01.2006
Beiträge
4.267
Das würde dann heißen "nie". Welcher Hersteller investiert heutue noch länger als zwei Jahre in eine Technologie die Nichts abwirft..
 

Infi88

Active member
Mitglied seit
09.09.2010
Beiträge
472
Nvidia beispielsweise bei 3DVision und SLI :fresse2:.
Intel kopiert hier mit dem Exascale den AMD und Nvidia Ansatz gleichzeitig, ziemlich intelligent.
Das Ganze wird halt durch den fehlenden 7nm Shrink auch stark verlangsamt.
Diese Zeit wird man hoffentlich in der Lage sein mit guter Treiber arbeit zu verkürzen, ich denke das wird auch für den Normalo so eine Art Workstation Karte geben und dann so wie bei AMD wird man versuchen über Computing-Power sich dann im Spiele-Markt FPS für FPS zu holen.
 

Elmario

Well-known member
Mitglied seit
21.01.2006
Beiträge
4.267
Reiß mal nicht die Kommentare aus dem Kontext:
Ich nahm Bezug auf Decksteins Vermutung, dass es womöglichlich noch lange dauern kann, bis Intels CPUs brauchbar werden. Und mein Kommentar sollte eben sagen, dass es, falls es wirklich so lange dauern würde, wahrscheinlich gar nicht mehr dazu kommen wird.
3D Vision und SLI haben sicherlich Einnahmen generiert. Der Bedarf nach einer mal eben doppelt so schnellen (=drei Mal so teueren) Grafikkarten für 3D Vision, oder gar zwei Grafikkarten für SLI, kostet doch ordentlichen Aufpreis. Dafür bekommen die Käufer aber auch einen Mehrwert. Dies mit einer möglicherweise unreifen GPU gleichzusetzen, die schlimmstenfalls weniger FPS bei mehr Stromaufnahme bringt als die Konkurrenz, ist doch kein angemesserner Vergleich.
 

thegian

Active member
Mitglied seit
08.08.2005
Beiträge
5.754
Ort
Zürich
System
Details zu meinem Desktop
Prozessor
AMD Ryzen3950X
Mainboard
ASUS Rog Strix X570-E Gaming
Grafikprozessor
NVIDIA TitanX(Pascal) @2012Mhz Watercooled
SSD
Samsung 860
Gehäuse
NZXT H700i BLACK
Netzteil
Corsair AX860
Betriebssystem
Win10
Ich rechne dass konkurrenzfähige produkte erst in 7 jahren da sind
Hat Intel nicht vor wenigen Jahren von der AMD und Nvidia-GPU Abteilungen Personal abgeworben? Wenn Intel sich das nötige Know-How "zugekauft" hat könnte es doch noch schneller gehen als man denkt. Für uns Kunden wäre das super wenn auf einmal 3 grössere Marken auf dem Markt wären und sich die Preise hoffentlich mal wieder normalisieren.
 

Infi88

Active member
Mitglied seit
09.09.2010
Beiträge
472
Reiß mal nicht die Kommentare aus dem Kontext:
Ich nahm Bezug auf Decksteins Vermutung, dass es womöglichlich noch lange dauern kann, bis Intels CPUs brauchbar werden. Und mein Kommentar sollte eben sagen, dass es, falls es wirklich so lange dauern würde, wahrscheinlich gar nicht mehr dazu kommen wird.
3D Vision und SLI haben sicherlich Einnahmen generiert. Der Bedarf nach einer mal eben doppelt so schnellen (=drei Mal so teueren) Grafikkarten für 3D Vision, oder gar zwei Grafikkarten für SLI, kostet doch ordentlichen Aufpreis. Dafür bekommen die Käufer aber auch einen Mehrwert. Dies mit einer möglicherweise unreifen GPU gleichzusetzen, die schlimmstenfalls weniger FPS bei mehr Stromaufnahme bringt als die Konkurrenz, ist doch kein angemesserner Vergleich.
3D Vision und SLI hatten nie Mehrwert für 99% GeForce Nutzer geschweige denn Nvidia selbst, deshalb sind diese Features auch so gut wie verschwunden, trotzdem hat Nvidia lange Support geleistet. Ich hatte selbst 3D Vision + GeForce + 3D Monitor und hab es nie verwendet.
Deine Rant-Signatur um dann zur Radeon zu schauen ist eigentlich Satire im Zusammenhang mit dem 2 Jahres Statement und unreifer GPU, die Radeon Sparte macht bei AMD wahrscheinlich schon länger als 2 Jahre gut minus.

Ist auch völlig normal in der Entwicklung, je nach dem was Intel hier abliefert wird das ziemlich gefährlich für die Mittelklasse, auch wenn es speziell fürs High-End Gaming erstmal nicht reichen wird mit Treiber und Multi-GPU Design.
 

Elmario

Well-known member
Mitglied seit
21.01.2006
Beiträge
4.267
Unauffällig die Ebene wechseln? ;)
Bei der Frage wie lange eine Technologie unterstützt wird, geht es nur um die Einnahmen bzw. Rentabilität für den Hersteller, nicht um die Frage ob Technologien für die Leute, die sie gar nicht kaufen, einen Mehrwert darstellen. Und egal wie wenige (angeblich) 3D Vision oder SLi damals genutzt haben, so ist doch offensichtlich der Kauf mehrerer Grafikkarten (wenn auch an wenige Personen) ein siginifikanter Vorteil.
Zu AMD bzw. Radeon habe ich überhaupt Nichts geschrieben, keine Ahnung was du meinst. Falls du die Signatur meinst, dann ist das doch völlig an den Haaren herbei gezogen. Eine Forensignatur hat bekanntermaßen keinen Bezug zu einem Thread.
 
Oben Unten