Intel gibt Vorschau auf Arc-Desktop-Karte

Der Mehrspeicherbedarf durch die Auflösung ist gar nicht mal so hoch, jedoch benötigen Spiele heutzutage locker 6-8 GB VRAM selbst in FullHD. 4 GB reichen je nach Titel wenn nur noch knapp mit verringerten Details.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich meine es kommt drauf an ob es vorgerenderte Bilder sind oder in der Laufzeit erzeugt werden. Ich muss auch sagen, ich kenne mich damit nicht so aus. Z. B Raytracing, es gibt statische Reflektionen die Kosten keine/wenig Rechenzeit und eben dynamische die werden in Echtzeit erzeugt. Final fantasy 7 Remake/Resident Evil aktuell können ganz schön viel Speicher brauchen.
 
Wenn man bedenkt das Topmodell Intel Arc 780 in etwa RTX 3070 (Ti) niveau erreichen soll, werden sich weder AMD, noch nVidia da ernsthaft sorgen machen.
Was Raytracing angeht, muss man sehen welchen weg Intel da geht, da sich sogar AMD's und nVidia's RTX Performancetechnisch unterscheiden.
 
Wenn man bedenkt das Topmodell Intel Arc 780 in etwa RTX 3070 (Ti) niveau erreichen soll, werden sich weder AMD, noch nVidia da ernsthaft sorgen machen.
Was Raytracing angeht, muss man sehen welchen weg Intel da geht, da sich sogar AMD's und nVidia's RTX Performancetechnisch unterscheiden.
Das glaube ich erst, wenn ich sehe.
Ich sehe Intel eher mit dem höchsten Ausbau im Mittelfeld, das wars aber auch schon.
 
Weitere Details über Arc Desktop aufgetaucht, Hinweise über Start im Spätsommer:
 
A770 Desktop Grafikkarte zeigt sich in Geekbench:
Ich bin mir nicht mal sich ob das kein Fake ist. Wie soll Geekbench das gegen validieren.

Im Normalfall sind die Testbenches nicht im Internet und isoliert.
 
Ich bin mir nicht mal sich ob das kein Fake ist
Kann man fast nur hoffen auf einen Fake, denn unglücklicherweise hätte man dann auch 40% weniger Leistung als eine 3070, allerdings dann auch bei ca. 60% weniger Energieverbrauch was wiederum ein Lichtblick ist.

Jedenfalls sieht es so aus, dass man die Leistung etwas nach unten korrigieren muss, wenn aber Preis und Effizienz dennoch stimmen, ginge sich das trotzdem noch aus für Intels schnellste Desktop Grafikkarte. :)
 
Kann man fast nur hoffen auf einen Fake, denn unglücklicherweise hätte man dann auch 40% weniger Leistung als eine 3070, allerdings dann auch bei ca. 60% weniger Energieverbrauch was wiederum ein Lichtblick ist.

Auf jeden Fall sieht es so aus, dass man die Leistung etwas nach unten korrigieren muss, wenn aber Preis und Effizienz dennoch stimmen, ginge sich das trotzdem noch aus für Intels schnellste Desktop Grafikkarte. :)
Also ja Preis Einstieg und Einstieg in die Mittel-Klasse wäre schon okay.
Aber das ewige hin und her... Die Leute hätten doch auch Nachsicht mit den schlechten Treibern, dass wichtige ist Stabilität. Ich denke dort gibt's auch noch Probleme, wobei die Notebook Variante ganz okay läuft.
Das ewige aufschieben, wird das Produkt doch auch scheitern lassen.
 
Zuletzt bearbeitet:
Kann man fast nur hoffen auf einen Fake, denn unglücklicherweise hätte man dann auch 40% weniger Leistung als eine 3070, allerdings dann auch bei ca. 60% weniger Energieverbrauch was wiederum ein Lichtblick ist.

Jedenfalls sieht es so aus, dass man die Leistung etwas nach unten korrigieren muss, wenn aber Preis und Effizienz dennoch stimmen, ginge sich das trotzdem noch aus für Intels schnellste Desktop Grafikkarte. :)

OpenCL und gaming Performance musst du trennen, von den Geekbench Ergebnissen lassen sich überhaupt keine Rückschlüsse auf die gaming performance treffen, zumal sich bei der OpenCL Performance noch viel ändern kann.


Ich bin mir nicht mal sich ob das kein Fake ist. Wie soll Geekbench das gegen validieren.

Im Normalfall sind die Testbenches nicht im Internet und isoliert.


Es gab schon immer Geekbench Einträge von noch nicht erhältlichen CPUs und GPUs, warum sollte das diesmal anders sein. Das ist jetzt absolut nicht ungewöhnlich.
 
Da die nvidia Chips ja mehrere Modelle abdecken kann es auch ein langsamer Chip von Intel schnellere Chips von nvidia in Bedrängnis bringen.
Ein Intel Chip zwischen 3050 und 3060 welcher sich den gleichen Chip GA106 teilt kann auch den 3060 beeinflussen.
 

Die Preise sehen falls sie so am Endkunden Markt ankommen schonmal nicht schlecht aus.
 
Das Ding ist: die Treiber müssen funktionieren. Nicht maximale Performance, sondern Stabilität. Ne 750er für 350€ in der Liga einer 6600xt bis 3060 12gb ist nett, aber nutzlos wenn die Treiber rumzicken.
 
Mit einer Arc A750 im Bereich von 350 Euro wäre Intel ein Erfolg sicher.
Weiterhin ist davon aus zu gehen, dass die Verspätung auf die Optimierung der Treiber zurück zu führen sind, sollte die Karte aber nun im Juni kommen liegt man auch noch gut im Rennen.
 
Kommt auf die Leistung an. Eine ~5700 für 200 € würde ich mir wünschen. Etwas wie die 480 damals. Die hatte anfangs auch grausame Treiber ist aber extrem gut gereift und hatte zudem schon 8 GB VRAM. In 2016 war das eine wirkliche Ansage in der Mittelklasse.
 
Abwarten die ganze Welt wartet inzwischen auf diese Karten, die Nachfrage wird gigantisch sein, der Preis ist realistisch.
Die Dayone Treiber werden auch den letzten Zweifler überzeugen können.

Sollten aber alle Stricke reißen, was ich nicht glaube, kann Intel die Grafikkarten immer noch mit ihren Prozessoren als Bundles in großen Stückzahlen an Firmen, die Fertig-PCs anbieten, verkaufen.
 
Spielt das Optimieren der entsprechenden Anwendungen auf die Treiber nicht auch eine gewichtige Rolle?

Ich hoffe die Intel GPUs schlagen ein wie ein Bombe... ein Roundhouse-Kick für NV und AMD.
 
AV1 encoding will ich unbedingt ausprobieren, dafür hätte mir die kleine A380 ausgereicht. Jetzt könnten A780 und A580 zuerst kommen, dann wird es wohl eine der beiden werden bei mir.
 
Wird auf jedenfall ne richtig spannende zweite Jahreshälfte. So viel Bewegung auf einmal gab es dann wohl noch nie. Vielleicht noch zu 3dfx Zeiten.
 
Ich erwarte eigentlich nur einen Preisknaller, schöne Brot&Butter Karten. AMD ist sich ja jetzt zu fein dafür.
 
Joa aber weckt mich wenn die erste Desktop Karte getestet wird. :d
 
Das schaut ja schon einmal nicht schlecht aus:
Mir fehlt nur ein wenig der Power Draw. Leistung schaut schon interessant aus. Nur wenn die iARC halt 45W säuft, während Nvidias 3050 nur 35W zur Verfügung hat.....
Der Verwendete HP Spectre x360 läuft mit Max-Q, daneben macht die CPU schon ordentlich unterschied mit 12MB vs 24MB Cache (MSI mit ARC)... wie man bei anderen Szenarien gesehen hat scheint cache nicht unwesentliche Performance zu bringen, auch bei niedrigerer Stromaufnahme und macht schon den Unterschied.
Aber selbst wenn man noch nicht konkret die Notebooks fair gegenüber setzt. (gleiche CPU unterschiedliche GPU) bei gleicher oder ähnliche Power Draw.
Scheint doch eine gewisse Leistung drin zu stecken die auf jeden Fall flotter ist als IGPU.:unsure:

Also ein wirklicher Vergleich ist meiner Meinung nicht möglich.
 
Einblick in Intel ARC:
 
Intel mit Performance Vorschau auf A750 und peilt RTX 3060 an:

Darüber rangiert ja noch die A770 als TOP-Dog da wären wie vermutlich schon Richtung RTX3070 oder sogar darüber unterwegs.
 
@Holzmann
Kam schon der Check von Kaduri diesen Monat? 🤣

Ich glaub das erst alles wenn es unabhängige Benchmarks beispielsweise von CB gibt.
 
Preise wären mal eher interessant. RT ist unnötig. Was wir brauchen ist ein Preisbrecher. Da nimmt man dann auch gern Treiberprobleme in Kauf wie bei der 5700 XT damals. Die war anfangs fehlerbehaftet, aber eine solide Architektur, die dieselbe Leistung fast zum halben Preis bot. Da wär ich gerne dabei. Für um die 200 € würde sich sowas gut als Notfall-GPU machen, wie die 480 damals. Mittlerweile erwarte ich aber mindestens die doppelte Leistung in dem Preisbereich, weshalb es auch so enttäuschend ist, da zB AMD in der Preisklasse 6 Jahre später ein minderwertigeres Produkt anbietet. Dabei reicht eine 5700-Leistung locker für 4K mit 60 FPS mit Optionen auf mehr, wenn man bereit ist ein paar Details runterzuschrauben.
 
reiberprobleme in Kauf wie bei der 5700 XT damals. Die war anfangs fehlerbehaftet
Hier waren es nicht primär die Treiber.
Zu Beginn lag es an der Hardware und Codierung. Das mit den Streifen kam aber unmittelbar danach auf.
Aktuell immernoch ne gute Karte wenn man die für 150 Euro bekommt.
 
150? Da würd ich mir glatt eine für holen. Mein letzter Stand waren eher so 600+.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh