> > > > Intel Sandy Bridge: Integrierte Grafikeinheit doppelt so schnell wie bisher?

Intel Sandy Bridge: Integrierte Grafikeinheit doppelt so schnell wie bisher?

Veröffentlicht am: von

intel32011 soll Intels neue CPU-Architektur namens Sandy Bridge kommen. Die 32-nm-Prozessoren sollen dabei wieder mit einem integrierten Grafikkern ausgestattet sein, wie dies bei den aktuellen Clarkdale- und Arrandale-Chips der Fall ist. Jedoch soll dann eine deutlich stärkere GPU eingesetzt werden, die zudem mit der CPU auf einem Die verschmilzt. Folglich soll der Grafikkern auch über eine Strukturbreite von 32 nm verfügen. Wie fudzilla.com nun erfahren haben will, soll Intel von einer zweifachen Leistungssteigerung im Zusammenhang mit der Grafikeinheit von Sandy Bridge gesprochen haben. Dabei sei aber nicht ganz klar, auf was sich die Verdopplung bezieht. Sofern man davon ausgeht, dass dabei die Leistung der aktuellen IGPs (45 nm) von Clarkdale/Arrandale verglichen wird, die durchaus als ordentlich zu betrachten ist, klingt dies äußerst vielversprechend. So lange vor dem Launch der neuen Intel-Architektur sollte man aber mit solchen Einschätzungen vorsichtig sein, denn die offiziellen Informationen zu Sandy Bridge sind noch spärlich und erst im Laufe des Jahres dürften konkretere Hinweise auftauchen.

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (31)

#22
Registriert seit: 23.08.2004

Flottillenadmiral
Beiträge: 5676
Zitat [email protected];13935357
Die im Benchmark aufgeführten Grafikkarten sind doch ein ganzes Stück leistungsfähiger (und stromhungriger) als die Intel IGPs.
Auch bei verdoppelter Leistung der i3/i5 GPUs (möglicherweise bezieht sich die Aussage ja auch auf X4500 IGPs) wäre der Abstand noch deutlich. Aus dem verlinkten Test kann ich wirklich keine Informationen ziehen, die meine Einschätzung irgendwie beeinflussen würden.


Öhm, dadurch das die Grafikkarten leistungsfähiger sind, wird diese Problematik doch noch verstärkt! Bei einer IGP wird der Verbrauchsunterschied zwischen idle und load (in Form von z.B. BR abspielen) noch geringer sein als bei einer dezidierten Grafikkarte, die dafür evntl ihren 2D-Modus verlassen muss (siehe z.B. die HD5000er Karten).

Ein Streamprozessor einer GPU ist für bestimmte Aufgaben nuneinmal einfach viel effizienter als eine CPU dies sein kann. ;)

Weiterhin: Wenn die nächste Generation einer IGP statt in 45nm in 32nm kommt, wird auch der Verbrauch bei weiter gesteigerter Leistung nicht sonderlich wachsen, ebenso wie die Die-Fläche.
#23
Registriert seit: 28.03.2008

Oberbootsmann
Beiträge: 826
Zitat Undertaker 1;13935479
Öhm, dadurch das die Grafikkarten leistungsfähiger sind, wird diese Problematik doch noch verstärkt! Bei einer IGP wird der Verbrauchsunterschied zwischen idle und load (in Form von z.B. BR abspielen) noch geringer sein als bei einer dezidierten Grafikkarte, die dafür evntl ihren 2D-Modus verlassen muss (siehe z.B. die HD5000er Karten).

Ein Streamprozessor einer GPU ist für bestimmte Aufgaben nuneinmal einfach viel effizienter als eine CPU dies sein kann. ;)

Weiterhin: Wenn die nächste Generation einer IGP statt in 45nm in 32nm kommt, wird auch der Verbrauch bei weiter gesteigerter Leistung nicht sonderlich wachsen, ebenso wie die Die-Fläche.


Das HD5xxx Karten nebenbei was ganz tolles können ist ja schön, aber für die IGP des Sandy-Bridge Prozessors in etwa so bedeutend wie der berühmte Sack Reis in China.

Wie kommst du darauf das eine GPU bei bestimmten Aufganben zwingend effizienter ist?
Gerade eine onDie GPU die auf den gleichen Speicher zurückgreifen muss wie die CPU, womit ein großer Vorteil fürs GPU-rechnen (ordentliche Speicherbandbreite und Latenz) wegfällt.
Wir reden in diesem Thread über eine IGP die doppelt so schnell wird wie eine mit 40 Shader-Prozessoren. Machen wir mal über SSE operationen mit Vektoren die 8 Elemente haben. bei 4 SSE Einheiten sind das 4*8=32 operationen wenn sich eien Operation in einem Takt erledigen lässt. Nebenbei gibts ne große überprüfung auf Korrektheit des Ergebnisses.
40 Shadereinheiten erledigen max. 40 operationen in einem Takt. Und jetzt rechne das mal mit den Taktfrequenzen von IGPs und CPUs hoch.

Es gibt durchaus eine Existenzberechtigung für leistungsfähige Grafikkarten. Aber wer hat was davon wenn eine langsame Grafikeineheit schneller aber immer noch für neue Anwendungszwecke zu langsam wird?
#24
Registriert seit: 23.08.2004

Flottillenadmiral
Beiträge: 5676
Nochmal: Thema Stromverbrauch. Was wird ein Quad in deinem Beispiel für so eine Rechnung brauchen? 40, 50W oder noch mehr? Was eine IGP? 5W,6W?

Und dann können wir ja auch noch CPU und IGP kombinieren, um Rechnugen zu beschleunigen.
#25
Registriert seit: 28.03.2008

Oberbootsmann
Beiträge: 826
Zitat Undertaker 1;13936220
Nochmal: Thema Stromverbrauch. Was wird ein Quad in deinem Beispiel für so eine Rechnung brauchen? 40, 50W oder noch mehr? Was eine IGP? 5W,6W?

Und dann können wir ja auch noch CPU und IGP kombinieren, um Rechnugen zu beschleunigen.


Nur das ein Core gerne mal damit beschäftigt ist die Rechnungen der GPU vorzubereiten und die Daten in den passenden Häppchen zur GPU zu schieben.
GPU und CPU zu kombinieren und am gleichen Problem zu rechnen ist aktuell denke ich eher wunschdenken. Funktioniert meineswissens mit keinem aktuellen Speichermodell und davon abgesehen wäre der Aufwand bei der Programmierung gewaltig.
Ich halte es halt für überflüssig 2 nahezu gleichwertige rechenkerne auf den gleichen Chip zu pressen, die sich auch noch gegenseitig beeinflussen wenn sie zeitgleich genutzt werden.

Laut news auf xtremesystems http://www.xtremesystems.org/forums/showthread.php?t=244879 sollen es auch 2 GPUs werden. Dual GMA4500 ;-)
Na wer da wohl die Ziele vorghibt, Marketing oder ein technisch versierter Kollege? ...
#26
Registriert seit: 23.08.2004

Flottillenadmiral
Beiträge: 5676
Zitat [email protected];13956363
Nur das ein Core gerne mal damit beschäftigt ist die Rechnungen der GPU vorzubereiten und die Daten in den passenden Häppchen zur GPU zu schieben.
GPU und CPU zu kombinieren und am gleichen Problem zu rechnen ist aktuell denke ich eher wunschdenken. Funktioniert meineswissens mit keinem aktuellen Speichermodell und davon abgesehen wäre der Aufwand bei der Programmierung gewaltig.
Ich halte es halt für überflüssig 2 nahezu gleichwertige rechenkerne auf den gleichen Chip zu pressen, die sich auch noch gegenseitig beeinflussen wenn sie zeitgleich genutzt werden.


Es muss dabei ja nicht um die identische Rechnungen gehen - vielmehr kann die IGP für diverse Aufgaben genutzt werden (z.B. Flashbeschleunigung beim surfen), während die CPU-Leistung für andere Aufgaben verfügbar bleibt.

Zitat [email protected];13956363
Laut news auf xtremesystems http://www.xtremesystems.org/forums/showthread.php?t=244879 sollen es auch 2 GPUs werden. Dual GMA4500 ;-)
Na wer da wohl die Ziele vorghibt, Marketing oder ein technisch versierter Kollege? ...


Ich ergänze mal die originale Newsmeldung:

http://www.fudzilla.com/content/view/17576/1/

Letztlich wäre das keine überraschende Entwicklung - schlicht fortschreitende Modularisierung für eine einfachere Skalierbarkeit des Designs. Interessant wird eher, auf welcher logischen Ebene ein solcher Entwurf basieren würde, ein SLI von Intel brauchen wir nicht wirklich auch noch. Dennoch eine höchstgradig spekulative News. Und das mit der GMA X4500 ist natürlich totaler Unfug.
#27
Registriert seit: 10.02.2005

Vizeadmiral
Beiträge: 6624
Da es hier gerade einen Sandy Thread gibt, Charlie schreibt was zum Sandy Sockel R:

Angeblich 2011 Pins ... wozu die wohl gut sein sollen ... wenn es Power/Grd Pins wären könnte das nichts Gutes zum Stromverbrauch bedeuten, aber naja, mal abwarten.

http://www.semiaccurate.com/2010/02/05/intels-next-socket-nearly-doubles-pin-counts/
#28
customavatars/avatar118076_1.gif
Registriert seit: 13.08.2009

Korvettenkapitän
Beiträge: 2479
Zitat [email protected];13956363
Nur das ein Core gerne mal damit beschäftigt ist die Rechnungen der GPU vorzubereiten und die Daten in den passenden Häppchen zur GPU zu schieben.
GPU und CPU zu kombinieren und am gleichen Problem zu rechnen ist aktuell denke ich eher wunschdenken. Funktioniert meineswissens mit keinem aktuellen Speichermodell und davon abgesehen wäre der Aufwand bei der Programmierung gewaltig.


Also beim Viodeorendern kann mit ATI Stream/CUDA schon richtig die Post abgehen. Damit sind die Filme 3x schneller gerendert. Da scheint die Aufgabenteilung zwischen CPU und Stream GPUs sehr gut zu klappen. Nur muss das Programm halt die Funktion unterstützen - leider tun das nicht alle Programme.

Siehe z.B. diesen Test:
http://www.tomshardware.com/de/ATi-Stream-AMD-gpgpu,testberichte-240350-4.html
#29
Registriert seit: 10.02.2005

Vizeadmiral
Beiträge: 6624
Zitat Grummel;13957627
Also beim Viodeorendern kann mit ATI Stream/CUDA schon richtig die Post abgehen. Damit sind die Filme 3x schneller gerendert. Da scheint die Aufgabenteilung zwischen CPU und Stream GPUs sehr gut zu klappen. Nur muss das Programm halt die Funktion unterstützen - leider tun das nicht alle Programme.

Na das wird schon noch, man ist ja erst am Anfang, siehe auch hier:
http://www.planet3dnow.de/photoplog/file.php?n=8165&w=o
#30
customavatars/avatar25664_1.gif
Registriert seit: 01.08.2005
Berlin
Vizeadmiral
Beiträge: 7230
ich schätze das schnellere IGPs das Problem haben das sie den kleineren Karten ihre Daseinsberechtigung nehmen.

Außerdem dürften diese Chips sicher auch teuerer sein, was die Boardhersteller sicher nicht wollen.
Die Dinger haben alle eh nur ne 32 oder 64bit Speicheranbindung, das bremst eh gnadenlos aus.

Intel kann das ja egal sein, da sie keine dezidierten Grafikkarten verkaufen =)
Auch der die schnellere Verbindung zum Ram dürfte da eine Rolle spielen.

Leistungssteigerung kann man nur begrüßen, bringt vielleicht schwung in den Markt.
IGPs sind nun wirklich nicht schnell, selbst auf ATI3300 läuft cs 1.6 nicht anständig.
und das spiel ist nun wirklich kein grafikmonster.

und bei nvidia sah es da nicht besser aus mit dem 8200 den ich hatte
#31
Registriert seit: 28.03.2008

Oberbootsmann
Beiträge: 826
Zitat Grummel;13957627
Also beim Viodeorendern kann mit ATI Stream/CUDA schon richtig die Post abgehen. Damit sind die Filme 3x schneller gerendert. Da scheint die Aufgabenteilung zwischen CPU und Stream GPUs sehr gut zu klappen. Nur muss das Programm halt die Funktion unterstützen - leider tun das nicht alle Programme.

Siehe z.B. diesen Test:
http://www.tomshardware.com/de/ATi-Stream-AMD-gpgpu,testberichte-240350-4.html


Bei dem test sieht man ganz gut, das ein Kern mit der Vorbereitung der Rechnung gut zu tun hat.
Ich sage ja auch garnicht, dass GPU rechnen keinen Sinn hat nur mit einer verstümmelten IGP habe ich halt so meine Zweifel. Und rückschlüsse von HD48xx und Geforce GTX280 auf das potential der nächsten Intel IGP zu zeihen halte ich für sehr gewagt.
Da ist nur ein bruchteil der Rechenleistung vorhanden und es gibt halt keinen eigenen Speicherbus.

Und was sind die Vorteile beim GPU-rechnen?

1. Sie haben viele Recheneinheiten, parallelisierbare Aufgaben die nicht auf Ergebnissen vergangener Rechnungen basieren lassen sich flott bearbeiten. De/Encoden sind perfekte Aufgaben.
2. Es ist massig Speicherbandbreite vorhanden. Und der Speicher hat relativ geringe Latenzen.
3. Auf die Grafikkarte ist exklusiver Zugriff möglich.

Bei in den Prozessor integrierten GPUs mit wenig Recheneinheiten entfallen fast alle Vorteile. Es sind wenig Recheneinheiten, Speicheranbindung ist lahm und wenn die CPUs Speicherbandbreite brauchen wirds noch langsamer als es mit dem verhältnismäßig langsamen Speicher auf Mainboards eh schon ist. Zumindest wenn die sich nicht was einfallen lassen wie Cache für die GPUs oder einen eigenen Speicherkanal.

An den CPUs der letzten Jahre hat sich (bis auf mehr Kerne) nicht besonders viel geändert außer Sprungvorhersage und Caches. Die Leistungssteigerung ist schon ordentlich wenn man bedenkt das sich die Taktraten kaum verändert haben.
Ein CPU-Kern wird vom Scheduler des OS ständig mit verschiedenen Aufgaben genervt. Dabei werden Registerinhalte in den Speicher geschrieben und neue geladen. Und Speicherzugriffe sind halt extrem langsam, kosten viele viele Takte. Seiteneffekte wie das ein anderer Kern mal zeitgleich Daten transferiert, caches die gewünschten Daten nicht enthalten oder das die Sprungvorhersage versagt verschwenden viel Zeit. Rechnen geht schnell und ist einfach, die Herausforderung ist eine Hardwarearchitektur die es schafft alle Einheiten ohne Engpässe zu versorgen und dabei auch Software schnell auszuführen die nicht optimiert ist.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

16 Threads für 550 Euro: AMD RYZEN 7 1800X im Test

Logo von IMAGES/STORIES/LOGOS-2017/AMD_RYZEN_TEASER_100

Eine neue Ära – so beschreibt AMD selbst den Start der RYZEN-Prozessoren. Die dazugehörige Zen-Architektur soll ein Neustart für AMD sein und das auf allen wichtigen Märkten. Den Anfang machen die RYZEN-Prozessoren auf dem Desktop. Die Zen-Architektur soll AMD aber auch zu einem Neustart auf... [mehr]

AMD Ryzen 7 1700 im Test und übertaktet - der interessanteste Ryzen

Logo von IMAGES/STORIES/LOGOS-2017/AMD_RYZEN_TEASER_100

Mit dem Ryzen 7 1800X und Ryzen 7 1700X haben wir uns die beiden neuen Flaggschiff-Prozessoren von AMD näher angeschaut. Nun fehlt nur noch das dritte Modell im Bunde, das für viele Umrüst-Interessenten sicherlich der interessanteste Ryzen-Prozessor ist. Die Rede ist natürlich vom Ryzen 7 1700... [mehr]

Intel vs. AMD, Akt 2: Skylake-X und Kaby-Lake-X im Test gegen Ryzen

Logo von IMAGES/STORIES/2017/7900AUFMACHER

In den letzten Monaten wurde die CPU-Vorherrschaft von Intel gebrochen und den Prozessormarkt durcheinandergewirbelt. Nach dem Ryzen-Tornado blieb Intel nichts anderes über, als mit schnell vorgestellten neuen Multikern-Prozessoren aus der X-Serie auf sich aufmerksam zu machen. Mit dem Core i9... [mehr]

AMDs Ryzen 7 1700X im Test: Der beste Ryzen?

Logo von IMAGES/STORIES/LOGOS-2017/AMD_RYZEN_TEASER_100

In unserem ausführlichen Testbericht zu AMDs Ryzen 7 1800X in der letzten Woche hatten wir bereits angekündigt, dass wir weitere Artikel rund um AMDs neues Flaggschiff bringen werden. Den Anfang macht ein Kurztest zum Ryzen 7 1700X, der mit knapp 120 Euro weniger Kaufpreis momentan als das... [mehr]

Threadripper: AMDs Ryzen Threadripper 1950X und 1920X im Test

Logo von IMAGES/STORIES/2017/THREADRIPPER_TEASER

AMD strotzt vor Selbstbewusstsein: Wie lässt es sich sonst erklären, dass man ein Produkt mit einem so coolen Namen ausstattet? Die als "Threadripper" bezeichneten Ryzen-Prozessoren sollen AMD in den Benchmarks an den ersten Rang katapultieren - zumindest in Thread-intensiven Benchmarks. Wir... [mehr]

Intel Core i7-7700K im Test - keine großen Sprünge mit Kaby Lake

Logo von IMAGES/STORIES/LOGOS-2016/KABYLAKE

Am heutigen 3. Januar stellt Intel die Desktop-Modelle der Kaby-Lake-Architektur vor. Wir haben natürlich den Launch-Test: Intels Flaggschiff, der Core i7-7700K, wurde von uns in den letzten Tagen durch diverse Benchmarks gejagt und gegen die Vorgänger verglichen. Allerdings sollte... [mehr]