Aktuelles

So sollen Intels Arc-Grafikkarten aussehen

Thread Starter
Mitglied seit
06.03.2017
Beiträge
39.980
intel_arc.jpg
YouTuber Moore's Law Is Dead liefert eine neue Runde an Leaks zu den Gaming-Grafikkarten, die Intel ab Anfang 2022 in den Markt bringen will. Geplant war wohl mal das erste Quartal 2022, inzwischen aber deutet sich eine Verschiebung in das zweite Quartal an – zumindest wenn es um die Marktverfügbarkeit geht. Vorgestellt werden sollen die Arc-Karten aber noch immer im ersten Quartal.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Richard88

Experte
Mitglied seit
05.11.2020
Beiträge
969
mir sieht das etwar schwummerig aus. so dünne rotorblätter, und dann so dichte kühlfinnen....

da ssieht mehr nach einem lüfterdesign für hohen volumenstrom aus, wie die gehäuselüfter von noctua (dünne blätter, hoher abstand hoher anstellwinkel).
 

MENCHI

Anime und Hardware Otaku
Mitglied seit
23.08.2008
Beiträge
18.016
Ort
Winterlingen
Die Leistung zählt am Ende. Sobald GTX1080(Ti) erreicht wird, bin ich dabei.
AMD... würg / NV... :wut:
 

Holzmann

The Saint
Mitglied seit
02.05.2017
Beiträge
31.592
Ort
dieser thread
Es wurde ja bereites über die Leistung etwa um einer 3070 spekuliert, nur wird das noch reichen, wenn die Karte so spät kommt?
 

edenjung

Experte
Mitglied seit
22.03.2015
Beiträge
1.006
Ort
NRW
Persönlich denke ich nicht das die den MArkt auch nur irgendwie beruhigen werden.
Dafür ist die Wahrscheinlichkeit einfach zu hoch, dass es sie nicht in angemessener Menge geben wird, da die Dinger ja bei TSMC gebaut werden sollen (in 6nm finfet).
Damit hat sich für mich das Thema erledigt egal wie gut die Leistung und wie der Verbrauch wird.

Und auch die UVP sollen ja sehr hoch werden (oder dem Markt entsprechend.

Klar werden die weggehen wie warme Semmeln, aber ganz ehrlich, das ist kein Heiland für die Probleme die der Markt hat.

Was mich viel mehr anspricht ist die aussicht auf MCM-Gpus.
Damit werden die flexibel werden. Klar braucht dann mehr platz aber die idee ist gut.
Generell finde ich chiplet design wesentlich interessanter als die Monolithischen.
Ich denke, dass diese auf dauer ausgedient haben im High-End bereich.
 

Holzmann

The Saint
Mitglied seit
02.05.2017
Beiträge
31.592
Ort
dieser thread
Persönlich denke ich nicht das die den MArkt auch nur irgendwie beruhigen werden.

Die Karten, wenn sie denn mal kommen, werden eh direkt in den Mining Markt wandern, so vermute ich, dass sie eher auf hohe hashraten optimiert werden, als aufs Gaming.
 

Mezzo

Experte
Mitglied seit
18.09.2014
Beiträge
516
Ort
Gelsenkirchen
Die Karten, wenn sie denn mal kommen, werden eh direkt in den Mining Markt wandern, so vermute ich, dass sie eher auf hohe hashraten optimiert werden, als aufs Gaming.
Das Befürchte ich auch aber nur so lange es noch kein ETH 2.0 gibt aber es gibt ja auch noch ander Crypto die mit Grafikarten arbeiten da blebt nur zu hoffen das sich dann es nicht lohnt
 
Zuletzt bearbeitet:

Shihatsu

Enthusiast
Mitglied seit
16.08.2005
Beiträge
3.224
Was mich an der Sache mit am meisten interessiert ist die Unterstützung von Linux mit Open Source Treibern und ggfls. Vulkan-Unterstützung - hier ist Intel ja sehr stark, was z.B. Kernelcode oder den Netzwerkstack angeht. Das könnte sehr interessant werden...


(Ja, ich game unter Linux, ich Idiot).
 

edenjung

Experte
Mitglied seit
22.03.2015
Beiträge
1.006
Ort
NRW
Das Befürchte ich auch aber nur so lange es noch ein ETH 2.0 gibt aber es gibt ja auch noch ander Crypto die mit Grafikarten arbeiten da blebt nur zu hoffen das sich dann es nicht lohnt
Ach die reden viel von PoS, aber bis die das einführen wird es ewig dauern.

Das problem ist einfach, dass die Karten Produktionsmittel sind die sich selbst bezahlen.
Denen sind die Preise egal.

Und den Unternehmen ist es auch egal an wen sie verkaufen. Die verkaufen an alle, macht ja auch Sinn für sie (abgesehen davon, dass Milton Friedmanns idiotische Idee absolut fehl am Platz ist).
Das man damit auf lange sicht die Kundenbasis vernichtet ist denen egal.
 

Betabrot

Experte
Mitglied seit
26.04.2015
Beiträge
1.585
Ort
Augsburg
Es ist, sagen wir einmal ein anderes Design. Irgendwie wirkt es recht wenig nach "Gamer" und sogar viel zu brav.
Und ich schließe mich dem an: Solange es Cryptomining mit GPUs gibt und sich die Karten selbst abbezahlen, wird es keine Vernünftigen Preise für uns echte Nutzer geben. Dazu müssten nVidia, AMD und intel mehr Karten auf den Markt bringen, als Miner Karten verbauen können.
Es gibt da nur 2 Hoffnungen: a) Die Cryptoblase platzt endlich oder b) Es kommt doch noch ein ASIC der mit den GPUs den Boden so böse aufwischt, dass die sich nicht mehr lohnen.
 

SchneeLeopard

Urgestein
Mitglied seit
10.10.2003
Beiträge
4.728
Ort
Berlin
Das Design haut einen nicht wirklich vom hocker, wie von AMD & nVidia auch.
Aber aufgrund des Siliziummangels bei den Chipfertigern, wird man nicht so viele im Handel finden und die dann da sind, haben sie auch Mondpreise.
 

DragonTear

Enthusiast
Mitglied seit
06.02.2014
Beiträge
15.211
Ort
Im sonnigen Süden
Was habt ihr denn designmässig erwartet? Eine GPU aus Glas oder mit gebogenem PCB? :d

Denke die sieht ganz okay aus. Einfach eine neutral gehaltene Karte.

Dass sie nicht in Intels eigenen Fabs hergestellt wird ist natürlich weniger Toll in Sachen verfügbarkeit. Ebenso dass man noch nichts von einer Miningbremse hört.
Intel will ja schon Features in CPUs extra verkaufen - da wäre es doch sehr naheliegend dies mit dem Mining auf GPUs ebenso zu tun.

Naja, mal sehen was Intel damit reissen kann. Hoffentlich viel Erfahrung in Sachen Gaming Treiber.
 

edenjung

Experte
Mitglied seit
22.03.2015
Beiträge
1.006
Ort
NRW

plitzkra

Profi
Mitglied seit
11.02.2021
Beiträge
430
Naja, der Kühler sieht schon ziemlich minderwertig aus ... und damit mein ich nicht das Design, sondern die 2 ... was mögen das wohl sein? 80mm Lüfter? Da sehen die Mini Karten teilweise nach besserer Kühllösung aus ...
 

wiesel201

MSI-Fan
Mitglied seit
26.08.2007
Beiträge
2.053
Ort
Mecklenburg
Es wurde ja bereites über die Leistung etwa um einer 3070 spekuliert, nur wird das noch reichen, wenn die Karte so spät kommt?
Es ist ein Markteinstieg. Die Marke Intel gibt es bislang im Bereich der Grafikkarten nicht. Und sollte die Leistung einer 3070 erreicht werden, so wäre das für einen Newcomer eine beachtliche Leistung. Es reicht natürlich nicht ansatzweise für den Griff nach der Leistungskrone, aber im Bereich der "oberen Mittelklasse" könnte Intel mitspielen, und sie wären plötzlich im umsatzstärksten Bereich der Grafikkarten ein ernstzunehmender Wettbewerber. Den Kampf um die Leistungskrone muss man aktuell nicht erwarten, aber 3-4 Generationen später könnte es auch hier interessant werden.
 

Mr.Mito

Admiral, Altweintrinker
Mitglied seit
03.07.2001
Beiträge
26.308
Ort
127.0.0.1
Selbst wenn sie die Leitung einer 3070 liefern sollten, was ich ehrlich gesagt bezweifle, so werden die Treiber zu Anfang das Hauptproblem sein. Ich hoffe Intel überzeugt, mehr Konkurrenz ist immer gut.
 

L0rd_Helmchen

Der Saft ist mit euch!
Mitglied seit
01.01.2007
Beiträge
9.964
Ort
Exil
Man muss sich anschauen was die GPU auf dem Wafer in Anspruch nimmt. Der Chip ist massiv größer als Navi 22 und sogar leicht größer als der GA104, bei wesentlich kleinerer und teurerer Fertigung. Dazu soll DG2 dann auch noch mehr VRAM als 6700 und 3070 bieten. Das Ding wird daher in der Herstellung viel zu kostspielig sein, um zu den Wunschpreisen einiger verramscht zu werden. Wenn man nicht die Leistung liefern kann, um bei den Preisen mit NV und AMD mitgehen zu können, wird es diese Generation wohl nicht lange geben.
 

Elmario

Urgestein
Mitglied seit
21.01.2006
Beiträge
5.102
Naja, nur dass nvidia seit ein paar Jahren extreme Preise vorlegt heißt ja nicht, dass solche Technologie nicht auch für wesentlich geringere Preise Gewinn einfahren könnte.
Prinzipiell basiert die leider schon recht breite Akzeptanz der überzogenen UVPs auf einer seit Jahren erfolgreich betriebenen Propaganda/Gehirnwäsche. All die Tricksereien wie z.B. mit mehreren "Titan"-Generationen usw, wo den Leuten beim Kauf abgespeckter x90 GPUs suggeriert wurde sie würden ein Topmodell kaufen (und dementsprechend auch die Modelle darunter höher einordnen, als sie wirklich sind), haben offensichtlich Wirkung gezeigt.

Nvidia glänzt mit einem Rekordgewinn nach dem Anderen, was die Rechtfertigung der Preiserhöhungen wegen gestiegener Ressourcenkosten und Aufwandes als mindestens fadenscheinig aufzeigt.
Der GF114 der GTX560ti z.B. war mit 332 mm² ähnlich groß, wie der GA104, und wurde für 240€ UVP verkauft - und damals hat man auch schon Gewinn damit gemacht und nicht als Wohlfahrt Hardware verschenkt, was innerhalb vertretbarer Gewinnspannen auch OK ist.
Und aus Inflation und Resourcenmangel etc. resultiert seither realistisch eine Erhöhung von ein paar zig Prozent maximal - aber doch keine Fast-Verdreifachung, wie es für die 3070ti (GA104 im Vollausbau) mit 619€ mal eben verlangt wird.
Nvidia handelte über Jahre klar erkennbar unter Ausnutzung der Vorteile eines (Teil-)monopols.
Was fehlt ist der Wettbewerb, weil AMD leider zu lange nichts Gescheites an GPUs bewerkstelligt hat. Und so ist neue Konkurrenz durch Intel vielleicht die letzte Hoffnung.
Es gibt keinen für Konsumenten vernünftigen Grund, den Herstellern eine Rechtfertigung für Wucherpreise zu "schenken".
Warten bis die Preise wieder auf dem Boden angekommen sind, und dann kaufen heißt die Devise!
Ich behaupte: Selbst die RTX 3090 könnte man für 500€ mit ordentlich Gewinn verkaufen. Aber das verlangt man als PC-Gamer heute ja nicht mal mehr ..
 
Zuletzt bearbeitet:

L0rd_Helmchen

Der Saft ist mit euch!
Mitglied seit
01.01.2007
Beiträge
9.964
Ort
Exil
lol, 332mm² sind erstmal durchaus deutlich kleiner als 392mm² und du vergleichst da 40nm mit 6nm :fresse: Es ist natürlich absoluter Quatsch, mit der UVP einer Karte aus billiger, ausgereifter 40nm Produktion von anno dazumal um die Ecke zu kommen. Bei dir sind R&D Kosten offenbar ein Fremdwort und du scheinst nicht verstehen zu können, dass die Kosten für moderne state of the art EUV Fertigung enorm gestiegen sind. Nicht bloß akut durch Ressourcenmangel, sondern schon allein durch den Entwicklungsaufwand. Das skaliert leider nicht einfach so weiter. Die Verkleinerung wird immer schwieriger umzusetzen und bevor man heutzutage auch nur eine GPU produziert, muss man etliche Milliarden aufwenden, um einen neuen Prozess überhaupt marktfähig zu bekommen (frag mal bei Intel nach!) - das lässt TSMC natürlich bezahlen, fürstlich sogar, da sie momentan klarer Marktführer sind. Von den Entwicklungskosten der GPU selbst mal ganz abgesehen, da haben wir auch nicht mehr 2010. Logisch schlagen die Händler und Distris momentan nochmal ordentlich was oben drauf, weil der Markt es halt einfach hergibt - aber das ändert nichts daran, dass die Kosten für die Hersteller faktisch massiv gestiegen sind und dass man im Jahr 2022 eine fast 400m² große 6nm GPU nicht um mehrere hundert Euro günstiger anbieten kann als die Konkurrenz :rolleyes:
 

Elmario

Urgestein
Mitglied seit
21.01.2006
Beiträge
5.102
lol, 332mm² sind erstmal durchaus deutlich kleiner als 392mm²
Keine 20% weniger.. Rechne die drauf und du bist immer noch Lichtjahre von einer nachvollziehbaren Preissteigerung entfernt. Wir könnten die aktuellen GPUs gar mit einem viel größeren 520mm² GF110 vergleichen, und es sähe immer noch nach Verarschung aus!
Ich kann dir aber genau sagen, seit wann die Preise begannen so pervers zu steigen:
Seitdem AMD nicht mehr mitkam in der Spitzenklasse. So einfach ist das.
und du vergleichst da 40nm mit 6nm :fresse:
Verwechsele nicht Einmalinvestitionen mit laufenden Produktionskosten.
Das ist ganz normaler technischer Fortschritt. Die Straßen stehen, und wäre es nicht möglich damit rentable Produkte herzustellen, hätte man sie gar nicht erst gebaut.

Es ist natürlich absoluter Quatsch, mit der UVP einer Karte aus billiger, ausgereifter 40nm Produktion von anno dazumal um die Ecke zu kommen. Bei dir sind R&D Kosten offenbar ein Fremdwort und du scheinst nicht verstehen zu können, dass die Kosten für moderne state of the art EUV Fertigung enorm gestiegen sind. Nicht bloß akut durch Ressourcenmangel, sondern schon allein durch den Entwicklungsaufwand. Das skaliert leider nicht einfach so weiter. Die Verkleinerung wird immer schwieriger umzusetzen und bevor man heutzutage auch nur eine GPU produziert, muss man etliche Milliarden aufwenden, um einen neuen Prozess überhaupt marktfähig zu bekommen (frag mal bei Intel nach!) - das lässt TSMC natürlich bezahlen, fürstlich sogar, da sie momentan klarer Marktführer sind. Von den Entwicklungskosten der GPU selbst mal ganz abgesehen, da haben wir auch nicht mehr 2010. Logisch schlagen die Händler und Distris momentan nochmal ordentlich was oben drauf, weil der Markt es halt einfach hergibt - aber das ändert nichts daran, dass die Kosten für die Hersteller faktisch massiv gestiegen sind und dass man im Jahr 2022 eine fast 400m² große 6nm GPU nicht um mehrere hundert Euro günstiger anbieten kann als die Konkurrenz :rolleyes:
R&D fanden schon immer statt und Entwicklungskosten steigen nicht pro gefertigem Chip, sind also für Produktpreise und nötige Gewinnmargen sekundär. Gerade bei drastisch gestiegen Absatzzahlen wird dieser Faktor noch irrelevanter, im Vergleich zu füheren Zeiten wo deutlich geringer Stückzahlen verkauft wurden. EUV gibt's seit 2008, und da waren die Preise noch im üblichen Rahmen.
Und nochmal: NVIDIA MACHT REKORDGEWINNE! Wie wäre das denn möglich, wenn es soooo teuer wäre? Die lieben selbstlosen Nvidia-Chefs stellen genauso "unrentabel" wie damals her, und der Rest des gestiegenen Gewinns kommt einfach so daher geflatter? Klingt logisch..

Was die Entwickler der letzten GPU-Generationen leisteten ist üblicher iterativer Fortschritt, und auch nicht wertvoller, als das was ihre Vorgänger leisteten. Eher im Gegenteil - seit der Idee der Unified-Shader hat sich kaum Etwas Wesetliches getan, außer "kleiner machen und mehr davon". Primär verlässt man sich eben auf kleinere Strukturen zur Leistungssteigerung. Mehr oder weniger sinnvolle Gimmicks wie z.B. Tesselation oder RayTracing waren bis auf die den aktuellen GPUs übrigens auch noch nie ein akzeptabler Grund für Preissteigerungen und bis kürzlich fand das eben auch nicht statt.
Ich hatte das schon mal irgendwo im Forum überschlagen: Deiner Ideologie nach, dass weiterentwickelte Technik in Form einer Nachfolgetechnologie zwingend teurer sein muss als die Vorgängertechnologie, müssten sämtliche Produkte die seit einigen Jahrzehnten weiterentwickelt werden eben etliche Tausend Euro pro Stück kosten. Und das ist eben weder Sinn noch Funktionsweise der Massenfertigung.

Wie kann es nur so schwierig sein das einzusehen?
-auch wenn nvidia mit Sicherheit seinen Gewinn verdient hat - was seit ein paar Jahren geschieht ist einfach nur noch unverschämteste Abzocke seitens beider Hersteller. Ist es die Angst davor sich für dumm verkauft zu fühlen wenn man zu solchen Preisen Etwas gekauft hat?
 
Zuletzt bearbeitet:

edenjung

Experte
Mitglied seit
22.03.2015
Beiträge
1.006
Ort
NRW

Bitmaschine

Experte
Mitglied seit
01.03.2013
Beiträge
1.240
Hört sich ja alles schön an, aber ich warte so lange, bis Kompatibilitätsprobleme seitens Treiber, Hardware und Spielecode aus dem Weg geräumt wurden und valide Langzeittests und Fakten auf dem Tisch liegen. AMD und NV werden auch nicht untätig bleiben. Strafzölle zwischen Ami-Land und EU werden in manchen Bereichen wegfallen.

Ich denke, dass Intel die Preise, nach dem aktuellen Marktgeschehen, nach oben anpassen wird und Intel Mining gegenüber sich nicht sperren darf. In Moment lässt sich damit am meisten verdienen, weil Farmen jeden Preis zahlen. Das ist eigentlich eine Win-win-Situation für Intel und Miner. Wenn die Umstellung auf Speicherkapazität für Mining vollzogen wurde, dann werden Hersteller von mechanischen Festplatten wieder einen Auftrieb bekommen, die brauchen deutlich weniger Energie und der operative Gewinn im Jahr kommt viel schneller. Eigentlich jetzt große Festplatten bis 18 TB fürs Datengrab kaufen. In Moment werden diese recht billig auf den Markt geschmissen.
Ist euch eigentlich aufgefallen, dass 4K Monitore zunehmend zweitrangig im Handel angepriesen werden? Das Zauberwort heißt jetzt Gaming in HD und WQHD oder intelligent hochskaliert. Von daher ist die Intel Grafikkarte eigentlich ideal. 🤪
 

Maxxx

Enthusiast
Mitglied seit
27.05.2001
Beiträge
71
Ort
In meinem PC
Das Befürchte ich auch aber nur so lange es noch kein ETH 2.0 gibt aber es gibt ja auch noch ander Crypto die mit Grafikarten arbeiten da blebt nur zu hoffen das sich dann es nicht lohnt
Natürlich lohnen sich auch andere Coins, etwas weniger Gewinn, aber immer noch gut. Zb. Raven Coin, 3080 macht dort Strombereinigt knapp 7$ pro Tag, ETH 9$.

So an die 10 Coins lassen sich im Moment recht profitabel Minern.
 

Nozomu

Legende
Mitglied seit
11.03.2011
Beiträge
10.524
Intel will nun auch Gewinn durch Miner haben. Die Gamer sind allen egal.
 

Infi88

Enthusiast
Mitglied seit
09.09.2010
Beiträge
1.117
Warten wir einfach auf den Grafikbeschleuniger von Elmario.
 

Richard88

Experte
Mitglied seit
05.11.2020
Beiträge
969
Elmario hat aber im grossen und ganzen recht.

(dass ich diesen tag mal erlebe...)
 
Oben Unten