> > > > Intel Sandy Bridge: Integrierte Grafikeinheit doppelt so schnell wie bisher?

Intel Sandy Bridge: Integrierte Grafikeinheit doppelt so schnell wie bisher?

DruckenE-Mail
Erstellt am: von

intel32011 soll Intels neue CPU-Architektur namens Sandy Bridge kommen. Die 32-nm-Prozessoren sollen dabei wieder mit einem integrierten Grafikkern ausgestattet sein, wie dies bei den aktuellen Clarkdale- und Arrandale-Chips der Fall ist. Jedoch soll dann eine deutlich stärkere GPU eingesetzt werden, die zudem mit der CPU auf einem Die verschmilzt. Folglich soll der Grafikkern auch über eine Strukturbreite von 32 nm verfügen. Wie fudzilla.com nun erfahren haben will, soll Intel von einer zweifachen Leistungssteigerung im Zusammenhang mit der Grafikeinheit von Sandy Bridge gesprochen haben. Dabei sei aber nicht ganz klar, auf was sich die Verdopplung bezieht. Sofern man davon ausgeht, dass dabei die Leistung der aktuellen IGPs (45 nm) von Clarkdale/Arrandale verglichen wird, die durchaus als ordentlich zu betrachten ist, klingt dies äußerst vielversprechend. So lange vor dem Launch der neuen Intel-Architektur sollte man aber mit solchen Einschätzungen vorsichtig sein, denn die offiziellen Informationen zu Sandy Bridge sind noch spärlich und erst im Laufe des Jahres dürften konkretere Hinweise auftauchen.

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (31)

#22
Registriert seit: 23.08.2004

Flottillenadmiral
Beiträge: 5663
Zitat [email protected];13935357
Die im Benchmark aufgeführten Grafikkarten sind doch ein ganzes Stück leistungsfähiger (und stromhungriger) als die Intel IGPs.
Auch bei verdoppelter Leistung der i3/i5 GPUs (möglicherweise bezieht sich die Aussage ja auch auf X4500 IGPs) wäre der Abstand noch deutlich. Aus dem verlinkten Test kann ich wirklich keine Informationen ziehen, die meine Einschätzung irgendwie beeinflussen würden.


Öhm, dadurch das die Grafikkarten leistungsfähiger sind, wird diese Problematik doch noch verstärkt! Bei einer IGP wird der Verbrauchsunterschied zwischen idle und load (in Form von z.B. BR abspielen) noch geringer sein als bei einer dezidierten Grafikkarte, die dafür evntl ihren 2D-Modus verlassen muss (siehe z.B. die HD5000er Karten).

Ein Streamprozessor einer GPU ist für bestimmte Aufgaben nuneinmal einfach viel effizienter als eine CPU dies sein kann. ;)

Weiterhin: Wenn die nächste Generation einer IGP statt in 45nm in 32nm kommt, wird auch der Verbrauch bei weiter gesteigerter Leistung nicht sonderlich wachsen, ebenso wie die Die-Fläche.
#23
Zitat Undertaker 1;13935479
Öhm, dadurch das die Grafikkarten leistungsfähiger sind, wird diese Problematik doch noch verstärkt! Bei einer IGP wird der Verbrauchsunterschied zwischen idle und load (in Form von z.B. BR abspielen) noch geringer sein als bei einer dezidierten Grafikkarte, die dafür evntl ihren 2D-Modus verlassen muss (siehe z.B. die HD5000er Karten).

Ein Streamprozessor einer GPU ist für bestimmte Aufgaben nuneinmal einfach viel effizienter als eine CPU dies sein kann. ;)

Weiterhin: Wenn die nächste Generation einer IGP statt in 45nm in 32nm kommt, wird auch der Verbrauch bei weiter gesteigerter Leistung nicht sonderlich wachsen, ebenso wie die Die-Fläche.


Das HD5xxx Karten nebenbei was ganz tolles können ist ja schön, aber für die IGP des Sandy-Bridge Prozessors in etwa so bedeutend wie der berühmte Sack Reis in China.

Wie kommst du darauf das eine GPU bei bestimmten Aufganben zwingend effizienter ist?
Gerade eine onDie GPU die auf den gleichen Speicher zurückgreifen muss wie die CPU, womit ein großer Vorteil fürs GPU-rechnen (ordentliche Speicherbandbreite und Latenz) wegfällt.
Wir reden in diesem Thread über eine IGP die doppelt so schnell wird wie eine mit 40 Shader-Prozessoren. Machen wir mal über SSE operationen mit Vektoren die 8 Elemente haben. bei 4 SSE Einheiten sind das 4*8=32 operationen wenn sich eien Operation in einem Takt erledigen lässt. Nebenbei gibts ne große überprüfung auf Korrektheit des Ergebnisses.
40 Shadereinheiten erledigen max. 40 operationen in einem Takt. Und jetzt rechne das mal mit den Taktfrequenzen von IGPs und CPUs hoch.

Es gibt durchaus eine Existenzberechtigung für leistungsfähige Grafikkarten. Aber wer hat was davon wenn eine langsame Grafikeineheit schneller aber immer noch für neue Anwendungszwecke zu langsam wird?
#24
Registriert seit: 23.08.2004

Flottillenadmiral
Beiträge: 5663
Nochmal: Thema Stromverbrauch. Was wird ein Quad in deinem Beispiel für so eine Rechnung brauchen? 40, 50W oder noch mehr? Was eine IGP? 5W,6W?

Und dann können wir ja auch noch CPU und IGP kombinieren, um Rechnugen zu beschleunigen.
#25
Zitat Undertaker 1;13936220
Nochmal: Thema Stromverbrauch. Was wird ein Quad in deinem Beispiel für so eine Rechnung brauchen? 40, 50W oder noch mehr? Was eine IGP? 5W,6W?

Und dann können wir ja auch noch CPU und IGP kombinieren, um Rechnugen zu beschleunigen.


Nur das ein Core gerne mal damit beschäftigt ist die Rechnungen der GPU vorzubereiten und die Daten in den passenden Häppchen zur GPU zu schieben.
GPU und CPU zu kombinieren und am gleichen Problem zu rechnen ist aktuell denke ich eher wunschdenken. Funktioniert meineswissens mit keinem aktuellen Speichermodell und davon abgesehen wäre der Aufwand bei der Programmierung gewaltig.
Ich halte es halt für überflüssig 2 nahezu gleichwertige rechenkerne auf den gleichen Chip zu pressen, die sich auch noch gegenseitig beeinflussen wenn sie zeitgleich genutzt werden.

Laut news auf xtremesystems http://www.xtremesystems.org/forums/showthread.php?t=244879 sollen es auch 2 GPUs werden. Dual GMA4500 ;-)
Na wer da wohl die Ziele vorghibt, Marketing oder ein technisch versierter Kollege? ...
#26
Registriert seit: 23.08.2004

Flottillenadmiral
Beiträge: 5663
Zitat [email protected];13956363
Nur das ein Core gerne mal damit beschäftigt ist die Rechnungen der GPU vorzubereiten und die Daten in den passenden Häppchen zur GPU zu schieben.
GPU und CPU zu kombinieren und am gleichen Problem zu rechnen ist aktuell denke ich eher wunschdenken. Funktioniert meineswissens mit keinem aktuellen Speichermodell und davon abgesehen wäre der Aufwand bei der Programmierung gewaltig.
Ich halte es halt für überflüssig 2 nahezu gleichwertige rechenkerne auf den gleichen Chip zu pressen, die sich auch noch gegenseitig beeinflussen wenn sie zeitgleich genutzt werden.


Es muss dabei ja nicht um die identische Rechnungen gehen - vielmehr kann die IGP für diverse Aufgaben genutzt werden (z.B. Flashbeschleunigung beim surfen), während die CPU-Leistung für andere Aufgaben verfügbar bleibt.

Zitat [email protected];13956363
Laut news auf xtremesystems http://www.xtremesystems.org/forums/showthread.php?t=244879 sollen es auch 2 GPUs werden. Dual GMA4500 ;-)
Na wer da wohl die Ziele vorghibt, Marketing oder ein technisch versierter Kollege? ...


Ich ergänze mal die originale Newsmeldung:

http://www.fudzilla.com/content/view/17576/1/

Letztlich wäre das keine überraschende Entwicklung - schlicht fortschreitende Modularisierung für eine einfachere Skalierbarkeit des Designs. Interessant wird eher, auf welcher logischen Ebene ein solcher Entwurf basieren würde, ein SLI von Intel brauchen wir nicht wirklich auch noch. Dennoch eine höchstgradig spekulative News. Und das mit der GMA X4500 ist natürlich totaler Unfug.
#27
Registriert seit: 10.02.2005

Vizeadmiral
Beiträge: 6624
Da es hier gerade einen Sandy Thread gibt, Charlie schreibt was zum Sandy Sockel R:

Angeblich 2011 Pins ... wozu die wohl gut sein sollen ... wenn es Power/Grd Pins wären könnte das nichts Gutes zum Stromverbrauch bedeuten, aber naja, mal abwarten.

http://www.semiaccurate.com/2010/02/05/intels-next-socket-nearly-doubles-pin-counts/
#28
customavatars/avatar118076_1.gif
Registriert seit: 13.08.2009

Korvettenkapitän
Beiträge: 2479
Zitat [email protected];13956363
Nur das ein Core gerne mal damit beschäftigt ist die Rechnungen der GPU vorzubereiten und die Daten in den passenden Häppchen zur GPU zu schieben.
GPU und CPU zu kombinieren und am gleichen Problem zu rechnen ist aktuell denke ich eher wunschdenken. Funktioniert meineswissens mit keinem aktuellen Speichermodell und davon abgesehen wäre der Aufwand bei der Programmierung gewaltig.


Also beim Viodeorendern kann mit ATI Stream/CUDA schon richtig die Post abgehen. Damit sind die Filme 3x schneller gerendert. Da scheint die Aufgabenteilung zwischen CPU und Stream GPUs sehr gut zu klappen. Nur muss das Programm halt die Funktion unterstützen - leider tun das nicht alle Programme.

Siehe z.B. diesen Test:
http://www.tomshardware.com/de/ATi-Stream-AMD-gpgpu,testberichte-240350-4.html
#29
Registriert seit: 10.02.2005

Vizeadmiral
Beiträge: 6624
Zitat Grummel;13957627
Also beim Viodeorendern kann mit ATI Stream/CUDA schon richtig die Post abgehen. Damit sind die Filme 3x schneller gerendert. Da scheint die Aufgabenteilung zwischen CPU und Stream GPUs sehr gut zu klappen. Nur muss das Programm halt die Funktion unterstützen - leider tun das nicht alle Programme.

Na das wird schon noch, man ist ja erst am Anfang, siehe auch hier:
http://www.planet3dnow.de/photoplog/file.php?n=8165&w=o
#30
customavatars/avatar25664_1.gif
Registriert seit: 01.08.2005
Berlin
Vizeadmiral
Beiträge: 7221
ich schätze das schnellere IGPs das Problem haben das sie den kleineren Karten ihre Daseinsberechtigung nehmen.

Außerdem dürften diese Chips sicher auch teuerer sein, was die Boardhersteller sicher nicht wollen.
Die Dinger haben alle eh nur ne 32 oder 64bit Speicheranbindung, das bremst eh gnadenlos aus.

Intel kann das ja egal sein, da sie keine dezidierten Grafikkarten verkaufen =)
Auch der die schnellere Verbindung zum Ram dürfte da eine Rolle spielen.

Leistungssteigerung kann man nur begrüßen, bringt vielleicht schwung in den Markt.
IGPs sind nun wirklich nicht schnell, selbst auf ATI3300 läuft cs 1.6 nicht anständig.
und das spiel ist nun wirklich kein grafikmonster.

und bei nvidia sah es da nicht besser aus mit dem 8200 den ich hatte
#31
Zitat Grummel;13957627
Also beim Viodeorendern kann mit ATI Stream/CUDA schon richtig die Post abgehen. Damit sind die Filme 3x schneller gerendert. Da scheint die Aufgabenteilung zwischen CPU und Stream GPUs sehr gut zu klappen. Nur muss das Programm halt die Funktion unterstützen - leider tun das nicht alle Programme.

Siehe z.B. diesen Test:
http://www.tomshardware.com/de/ATi-Stream-AMD-gpgpu,testberichte-240350-4.html


Bei dem test sieht man ganz gut, das ein Kern mit der Vorbereitung der Rechnung gut zu tun hat.
Ich sage ja auch garnicht, dass GPU rechnen keinen Sinn hat nur mit einer verstümmelten IGP habe ich halt so meine Zweifel. Und rückschlüsse von HD48xx und Geforce GTX280 auf das potential der nächsten Intel IGP zu zeihen halte ich für sehr gewagt.
Da ist nur ein bruchteil der Rechenleistung vorhanden und es gibt halt keinen eigenen Speicherbus.

Und was sind die Vorteile beim GPU-rechnen?

1. Sie haben viele Recheneinheiten, parallelisierbare Aufgaben die nicht auf Ergebnissen vergangener Rechnungen basieren lassen sich flott bearbeiten. De/Encoden sind perfekte Aufgaben.
2. Es ist massig Speicherbandbreite vorhanden. Und der Speicher hat relativ geringe Latenzen.
3. Auf die Grafikkarte ist exklusiver Zugriff möglich.

Bei in den Prozessor integrierten GPUs mit wenig Recheneinheiten entfallen fast alle Vorteile. Es sind wenig Recheneinheiten, Speicheranbindung ist lahm und wenn die CPUs Speicherbandbreite brauchen wirds noch langsamer als es mit dem verhältnismäßig langsamen Speicher auf Mainboards eh schon ist. Zumindest wenn die sich nicht was einfallen lassen wie Cache für die GPUs oder einen eigenen Speicherkanal.

An den CPUs der letzten Jahre hat sich (bis auf mehr Kerne) nicht besonders viel geändert außer Sprungvorhersage und Caches. Die Leistungssteigerung ist schon ordentlich wenn man bedenkt das sich die Taktraten kaum verändert haben.
Ein CPU-Kern wird vom Scheduler des OS ständig mit verschiedenen Aufgaben genervt. Dabei werden Registerinhalte in den Speicher geschrieben und neue geladen. Und Speicherzugriffe sind halt extrem langsam, kosten viele viele Takte. Seiteneffekte wie das ein anderer Kern mal zeitgleich Daten transferiert, caches die gewünschten Daten nicht enthalten oder das die Sprungvorhersage versagt verschwenden viel Zeit. Rechnen geht schnell und ist einfach, die Herausforderung ist eine Hardwarearchitektur die es schafft alle Einheiten ohne Engpässe zu versorgen und dabei auch Software schnell auszuführen die nicht optimiert ist.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Test: Intel Xeon E3-1230 v5 (Skylake)

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/XEON-E3-1230V5/LOGO_XEON

Vor ein paar Tagen stellte Intel die Xeon-Prozessoren mit Sockel 1151 aus der Skylake-Familie vor. Diese sind hauptsächlich für den Workstation- und Entry-Level-Server-Bereich gedacht, die Vorgänger-CPUs fanden sich aber auch in vielen PCs unserer Leser wieder. Der Clou der Prozessoren ist das... [mehr]

Skylake richtig einstellen: Was man machen sollte, was man lassen sollte

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/XEON-E3-1230V5/LOGO_XEON

Intels Skylake-Chips wurden vor nunmehr vier Monate vorgestellt und sind leider immer noch nur spärlich verfügbar. Nach unserem Test der Core i7-6700K- und Core i5-6600K-Prozessoren zum Launch haben wir uns bereits diverse Z170-Boards angesehen, die Mobilversionen getestet und sind aufs... [mehr]

Core i7-6950X im Test: Dicker Motor, alte Karosse

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/6950X/6950X-LOGO

Intels letzter CPU-Launch ist schon eine Weile her - Ende Oktober 2015 testeten wir den Xeon E5-1230v5 auf Skylake-Basis, seitdem war zumindest im Desktop-Bereich nichts neues mehr vom Marktführer zu hören. Am heutigen Tag aktualisiert Intel endlich die High-End-Plattform und bringt mit dem Core... [mehr]

Intel 'Kaby Lake': Die siebte Core-Generation im Detail vorgestellt

Logo von IMAGES/STORIES/LOGOS-2016/INTEL_7TH_CORE_GEN

Im Zuge der kommenden "Kaby Lake"-Plattform, deren breite Verfügbarkeit für das erste Quartal 2017 erwartet wird, nutzt Intel heute die Gelegenheit, die siebte Core-Generation offiziell im Detail vorzustellen und bereits ein paar Prozessoren auf den Markt zu bringen. Wir konnten uns bereits vor... [mehr]

So schnell ist Kaby Lake: Erste eigene Benchmarks zum i7-7500U

Logo von IMAGES/STORIES/REVIEW_TEASER/INTEL_KABY_LAKE

Offiziell vorgestellt hat Intel die 7. Generation der Core-Prozessoren bereits Ende August, doch erst jetzt ist Kaby Lake in Form des ersten Notebooks verfüg- und damit testbar. Dabei handelt es sich um das Medion Akoya S3409 MD60226, in dem ein Core i7-7500U verbaut wird. Während das Notebook... [mehr]

Delid Die Mate im Test

Logo von IMAGES/STORIES/IMAGES/STORIES/GALLERIES/REVIEWS/2016/DDM/DDM

Seit der Ivy-Bridge-Generation verlötet Intel Die und Heatspreader nicht mehr miteinander, was leider in deutlich schlechteren Kern-Temperaturen resultiert. Abhilfe dagegen schafft nur das Delidding (das sogenannte „Köpfen“) der CPU sowie der anschließende Austausch der Wärmeleitpaste durch... [mehr]