Gerüchte aus Taiwan: Intels diskrete Xe-GPU soll bei TSMC gefertigt werden

Thread Starter
Mitglied seit
06.03.2017
Beiträge
112.372
intel-dg1-sdv.jpg
Aus Taiwan stammt eine Meldung, die sich auf die Fertigung der dedizierten Xe-GPU von Intel bezieht. Diese soll nicht durch Intel selbst, sondern durch TSMC gefertigt werden. TSMC ist aktuell der größte Auftragsfertiger und bietet auch Packaging-Lösungen an, die auf Niveau anderer Hersteller sind. Hinsichtlich der Fertigung ist man also eine Art Branchenführer.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mhh mal sehen ob das ne Full-Size Gaming Karte wird. Treiber werden am Anfang sicherlich horrendous, aber das wird man sich antun müssen um sich in dem Markt durch zusetzten.
 
Mhh mal sehen ob das ne Full-Size Gaming Karte wird. Treiber werden am Anfang sicherlich horrendous, aber das wird man sich antun müssen um sich in dem Markt durch zusetzten.
Das bezweifle ich stark. Ich glaube dass intel, wenn sie RICHTIG kohle in die hand nehmen, in ca. 7 jahren mit amd und nVidia mitmischen können
 
Es wird gemunkelt AMDs GPU-Sparte hat bis heute nicht mal den Kaufpreis von ATi erwirtschaftet, das klappt schon.
 
Dafür hätte ich gerne mal einen Beleg.
Ist wahrscheinlich auch stark davon abhängig, wie man das rechnet. Lässt man zB alles weg, wo AMD sonst noch profitiert hat, wie bei den APUs, neue gute Mitarbeiter usw. könnte es schon stimmen. Rechnet man hingegen die übernommenen Werte wie Patente, Mitarbeiter, Marketing usw. zusammen, hat AMD sicher profit gemacht.

Und bei den intel GPUs, ich denke schon das die in 1-3 Generationen oben mitspielen werden. Kommt auch auf die Strategie von intel an. Im Server Bereich müssen sie ja oben mitspielen (so schnell wie möglich), sonst macht das alles kein Sinn für intel. Gamer hingegen, auch wenn das vielen nicht passt: Für uns gibt es nur noch das was über bleibt (selbst von nVidia, gibt ja für Gamer nur noch die 102er Chips und nicht mehr die 100er).
OEMs, mit denen intel ja stark zusammenarbeitet, haben auch keine große Verwendung für High End Gaming. Man verdient mit Mid-Range und darunter viel mehr Geld.
 
Es gibt von Turing kein TU-100. Allgemein haben die Nummern-Bezeichnung der GPU nicht immer zwingend etwas mit Aufbau der GPU zu tun, schlicht nur da wo sie Verwendung findet. Ampere wird gemunkelt auch wieder etwas mehr Compute bekommen, Tendenz steigend auch für die GeForce.

Dafür hätte ich gerne mal einen Beleg.
Belege wie für deinen P/L Renner Radeon 7 :fresse2: ?
Für meinen Vergleich möchte ich die jährlichen Geschäftszahlen von AMD ins Feld führen, wobei man sogar da meist den "Radeons" den Gefallen tut sie nicht separat aufzulisten, man demütigt nicht seine eigenen Mitarbeiter.

Dafür hat amd aber wichtige patente erhalten...
Wenn man bedenkt das auch Nvidia damals einen Wert nach Marktkapitalisierung von auch etwa 5.5 Milliarden USD hatte und man es schlucken wollte um mit der GPU Expertise Intel zu überholen im Prinzip ein doppelter Fehlpass. AMD insgesamt jetzt nach der "Erholung" vom nahezu-Kollaps fast 40 M USD Börsenwert(wahrscheinlich noch mit Schulden) Nvidia schwankend 130 M USD, Intel etwa 250 M USD. Einziger Bereich wo ich mir vorstellen kann wo man profitabel war sind die Konsolen-Deals.

Trotz des 10nm Debakels wird Intel noch volle Taschen haben, und wenn man ne ausgereifte Lösung speziell mit 6nm von TSMC bringt würde ich mir eher in die Hose machen anstatt ins Horn zu blasen wie Deckstein und Konsorten.
Aber wie geschrieben Treiberarbeit ist nicht zu unterschätzen, die Low-Level DPIs die jetzt aber weiter Verbreitung finden kommen da Intel aber sicherlich etwas entgegen. Integriert man das GUI so wie bei der iGPU sieht es optisch schon mal besser aus als bei Nvidia 8-).
 
Zuletzt bearbeitet:
Gamer hingegen, auch wenn das vielen nicht passt: Für uns gibt es nur noch das was über bleibt (selbst von nVidia, gibt ja für Gamer nur noch die 102er Chips und nicht mehr die 100er).
OEMs, mit denen intel ja stark zusammenarbeitet, haben auch keine große Verwendung für High End Gaming. Man verdient mit Mid-Range und darunter viel mehr Geld.

Das kann man so oder so sehen... Gemessen am Pascal (es gibt ja keinen Volta GV100 Gamer Gegenspieler) ist der GP100 nicht besser als ein GP102 für Games geeignet. Eher im Gegenteil. Die GPU ist viel fetter, weil FP64 unnötig fürs Gaming hätte mitgeschleppt werden müssen, was einen recht großen Anteil Chipfläche verschlingt.
Selbst wenn man GV100 und TU102 in eine Riege schmeißt, so ist der Volta Chip immernoch deutlich größer (~815mm² vs. ~750mm²) und bringt es einfach auch nicht auf schneller, weil ihm oben der Takt ausgeht um noch weiter zu skalieren über die ALUs. Mehr Einheiten bringen also auch dort nicht sonderlich Punkte.

Die Trennung ansich ist schon mMn gut. Und kann für den Spieler am Ende nur Vorteile haben. Genau so für NV. Denn sie gehen mit dem nächsten GA100 sicher wieder in die vollen, was DIE Size angeht. Das Ding wird arsch teuer bei der Größe, dafür effizient wenn nix komisches passiert. Früher oder später fliegt vielleicht sogar der ganze Balast für "Graphics" noch raus, sodass das reine Compute Chips werden.
Bei AMD spekulierte man doch sowas in der Richtung?? Könnte mich aber irren.


Was Intel angeht, die Frage ist, ob Intel den HighEnd Markt überhaupt (vorerst) anpeilt. In dem Markt zählt nicht zwingend die aller Beste Performance, sondern eben auch das Drum rum. "L" in P/L steht nicht nur für absolute FPS, sondern auch für weitere Features und Parameter, die gerade im HighEnd Bereich über Kauf- oder Nichtkauf entscheiden können. Damit man sowas "vergisst" muss die Performance deutlich über dem bisher dagewesenen liegen. Oder wenigstens deutlich günstiger sein. Beides halte ich vorerst für Wunschdenken aus Intels GPU Abteilung. Selbst eine AMD beißt sich daran seit Jahren schon die Zähne aus. Mal wollten sie nicht, mal konnten sie nicht, das mag sein, aber um so weiter oben im Regal, desto dünner wird die "Luft" für einfach nur "gleich gut"...
 
Was Intel angeht, die Frage ist, ob Intel den HighEnd Markt überhaupt (vorerst) anpeilt. In dem Markt zählt nicht zwingend die aller Beste Performance, sondern eben auch das Drum rum. "L" in P/L steht nicht nur für absolute FPS, sondern auch für weitere Features und Parameter, die gerade im HighEnd Bereich über Kauf- oder Nichtkauf entscheiden können. Damit man sowas "vergisst" muss die Performance deutlich über dem bisher dagewesenen liegen. Oder wenigstens deutlich günstiger sein. Beides halte ich vorerst für Wunschdenken aus Intels GPU Abteilung. Selbst eine AMD beißt sich daran seit Jahren schon die Zähne aus. Mal wollten sie nicht, mal konnten sie nicht, das mag sein, aber um so weiter oben im Regal, desto dünner wird die "Luft" für einfach nur "gleich gut"...
Den Kauf und nicht Kauf hat man sich bei AMD aber selbst zu zuschreiben, so wird es Intel auch gehen (y) .
Und da man bei den CPUs erstmal gehörig zu tun hat seitens der Blauen hat man wohl einen kleinen Deal für den Entry-Markt bei TSMC eingefädelt. Allein der Kundenstamm der teils sagen wir mal fast gar keine Ahnung hat könnte den Marktanteil der Radeons pulverisieren. Die Xe sollte keine High-End Karte seien, selbst wenn Intel das könnte, ich denke man ist sich der Treiber-Problematik und Day1 Performance etc.pp schon im klaren. Theoretisch kann es auch tatsächlich eine Art Chiplet GPU sein, halt ich aber fürs Gaming auch für unwahrscheinlich.
 
Es wird gemunkelt AMDs GPU-Sparte hat bis heute nicht mal den Kaufpreis von ATi erwirtschaftet, das klappt schon.
Dann argumentiere ich mal gegen: Hätte AMD ATI nicht gekauft, würde es AMD heute nicht mehr geben. Die Grafikkarten haben AMD über die FX CPU Durststrecke gebracht...
 
Dann argumentiere ich mal gegen: Hätte AMD ATI nicht gekauft, würde es AMD heute nicht mehr geben. Die Grafikkarten haben AMD über die FX CPU Durststrecke gebracht...
AMD musste sämtliche Produktionsanlagen usw. veräußern und andere Assets, inklusive Wiederverkauf der CPUGPU Sparte von ATI für Smartphones bzw. den Ultra-Mobile Markt wo sich Qualcomm die Taschen dann mit vollgemacht hat. Das zu der Zeit ein Boom bei den Radeons stattgefunden haben soll der die Firma rettet bleibt deine These, das der Bulldozer fast alles planiert hat da stimm ich dir allerdings zu :eek:.

Frag mich nur in wie fern deine Nostalgie etwas mit der Xe und den Einfluss auf die Wirtschaftlichkeit von GPUs zu tun hat, du erkennst keine Lücke bei den Radeons/Instincts wo Intel vorstoßen könnte?
 
das offtopic hast du doch ins spiel gebracht!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh