> > > > Intel: GPUs sind schneller als CPUs

Intel: GPUs sind schneller als CPUs

Veröffentlicht am: von

intel3Was die Rechenleistung aktueller Prozessoren angeht, haben die Grafikprozessoren - oder GPUs - im Vergleich zu den CPUs deutlich aufgeholt und können diese bei bestimmten Aufgaben sogar weit überflügeln. Der Prozessor-Hersteller Intel wollte mit dem Mythos aufräumen, dass GPUs 100-mal schneller seien als CPUs und hatte diesbezüglich einen Vergleichstest angefertigt. Dabei wurde die Leistung eines Intel Core i7-960 der NVIDIA-Grafikkarte GeForce GTX 280 gegenübergestellt. Als Ergebnis der Untersuchung konstatierte Intel, dass die GPU im Schnitt lediglich etwa 2,5-mal schneller als der Vier-Kern-Prozessor war und nicht 100-mal-schneller. Auch wenn Intel damit aufzeigen will, dass die Differenz zwischen den verschiedenen Chips deutlich geringer ausfällt als anderswo kolportiert wird, tätigt der Konzern damit indirekt die Aussage: GPUs sind schneller als CPUs.

Somit könnte man Intels Aufklärungsversuch auch als Eigentor werten. Die Reaktion des GPU-Entwicklers NVIDIA auf das Resultat fällt zudem durchaus positiv aus, wie Golem berichtet. Demnach erklärte ein führender Mitarbeiter von NVIDIAs GPU-Computing-Team in einem Blog: "Es kommt in der Technikwelt selten vor, dass einer deiner Konkurrenten auf einer Konferenz erklärt, deine Technik sei nur 14-mal schneller als ihre." So etwas habe er in den 26 Jahren, die er in der Industrie sei, nicht erlebt. (Auszug von Golem.de)

Mancher mag dazu anmerken, dass bei Intels Versuch ja auch noch ein älterer Grafikchip zum Einsatz kam und das Ergebnis bei Verwendung einer aktuellen Fermi-GPU noch weitaus schlechter hätte ausfallen müssen. Allerdings musste der Aufsatz für die Konferenz bereits im November 2009 eingereicht werden, als Fermi noch lange nicht auf dem Markt war. Sowohl Intel als auch NVIDIA führten zudem bei diesem und anderen Tests an, dass die Optimierung der Software auf ihre Chips unzureichend gewesen sei und somit das Potenzial nicht vollständig genutzt werden konnte. Daher kann man abschließend zusammenfassen, dass im Endeffekt überwiegend die Software und das Anwendungsgebiet darüber entscheiden, ob eine CPU oder eine GPU schneller ist.

Weiterführende Links:

Social Links

Kommentare (63)

#54
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6250
Zitat fdsonne;14868039
Willst du also x86 ablösen, dann muss jegliche Software neu geschrieben werden, alle vorhandenen Bibliotheken und frei verwendbarer Programmcode kann in die Tonne wandern und man fängt absolut von Null an und baut alles neu...

Also ganz so schlimm ist es nicht. Hochsprachencode ist ja meistens unabhängig von der darunterliegenden Hardware. Es gibt auch eine Reihe von Projekten, die für unterschiedlichste Plattformen gepflegt werden. Aber wie so oft, der Fehlerteufel steckt im Detail. Auf die Entwickler käme trotzdem enorm viel Arbeit zu, von Build Tools, über SDKs und Bibliotheken bis hin zur eigentlichen Anwendung. Eine Transition, die viele Jahre dauern würde. Die Zeit hast du in diesem Business eigentlich nicht.

Zitat Luebke;14880601
@mr.dude: auch du scheinst zu glauben, dass sowas auf komando und von einem tag auf den anderen gemacht wird.

Nein, tue ich nicht. Mir ist schon klar, dass du einen ausgedehnten Zeitrahmen meinst. Es wird trotzdem nicht passieren. x86 wird nicht verschwinden. Nicht auf absehbare Zeit. Und die Märchen, die du hier ständig verbreitest, x86 wäre stromhungrig, veraltet, bla bla bla, entsprechen genauso wenig den Tatsachen. Ich kann dir nur empfehlen, dich wirklich mal mit diversen ISAs und Mikroarchitekturen auseinander zu setzen. Dann wirst du schnell merken, dass alles seine Vor- und Nachteile hat. Das gilt für x86 genauso wie für ARM. ;)
Irgendwie habe ich das Gefühl, du suchst einen Vorwand, damit nVidia keine eigene x86 CPU braucht. Das werden sie aber definitiv, wenn sie gegen AMDs Fusion oder Intels GPU Integration konkurrieren wollen. Tegra alleine wird gar nichts ausrichten. Und dass immer mehr potenzielle Kunden Tegra aufgeben, zuletzt Nintendo, macht es nicht besser.

Zitat Luebke;14880601
sie kaufen immer das, was für sie besser ist. und wenn ein netbook mit arm mit 14 stunden akkulaufzeit weniger kostet als ein netbook mit intel atom und 10 stunden akkulaufzeit, dann werden sich sicher viele für ersteres entscheiden.

Da bist du aber äusserst naiv. Bis auf versierte Kunden, die einen sehr geringen Prozentsatz ausmachen, kaufen Kunden das, was von der Werbung angepriesen oder vom Verkäufer angeboten wird.
#55
customavatars/avatar43872_1.gif
Registriert seit: 31.07.2006

Fregattenkapitän
Beiträge: 3035
Aus der Perspektive hab ich das garnicht betrachtet. Ja, es wird sehr sehr eng für NV im PC-Markt, sollte NV keinen x86er entwickeln können. Wenn NV behauptet, man kann mit einem kleinen Arm und einer GPU einen PC ersetzen ist das pures Marketing ohne wirkliches Konzept. Denn den Markt für PCs wird NV damit definitiv nicht erreichen. Man erinnere sich daran, dass sogar Intel versucht hat, einen neuen Befehlssatz durchzusetzen und daran trotz 80%igem Marktanteil scheiterte, weil die Nachfrage nach Kompatibilität gewaltig ist und x86 eben in Wirklichkeit (vor allem in der x64 Version) keine technischen Nachteile mit sich bringt.
#56
customavatars/avatar132096_1.gif
Registriert seit: 26.03.2010

Oberleutnant zur See
Beiträge: 1457
Zitat
Irgendwie habe ich das Gefühl, du suchst einen Vorwand, damit nVidia keine eigene x86 CPU braucht.

wie kommst du jetzt dadrauf? Oô warum du jetzt versuchst mich in eine fanboyschublade zu stecken, musste mir mal erklären. dass ich mich gegen intels monopol ausspreche, macht mich nicht automatisch zu einem nvidia-fanboy. wenn dann zu einem amd-fanboy (was bis zum core2duo sogar gestimmt hätte).

Zitat
Da bist du aber äusserst naiv. Bis auf versierte Kunden, die einen sehr geringen Prozentsatz ausmachen, kaufen Kunden das, was von der Werbung angepriesen oder vom Verkäufer angeboten wird.

mit der werbung hast du recht. wobei ich auch apple eine gute werbecampgne zutraue.
#57
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6250
Zitat Luebke;14881487
wie kommst du jetzt dadrauf? Oô warum du jetzt versuchst mich in eine fanboyschublade zu stecken, musste mir mal erklären. dass ich mich gegen intels monopol ausspreche, macht mich nicht automatisch zu einem nvidia-fanboy. wenn dann zu einem amd-fanboy (was bis zum core2duo sogar gestimmt hätte).

Davon habe ich kein Wort geschrieben. Aber es ist schon seltsam, wie du hier gegen x86 schiesst. Und nVidia ist der einzige der grossen GPU Hersteller, der diesbezüglich nichts zu bieten hat. Deshalb liegt der Gedanke nahe. Aber vielleicht kannst du ja mal ganz konkret erklären, warum x86 verschwinden wird. Und bitte mehr als oberflächliche Floskeln wie x86 Rechner wären klobig oder x86 wäre stromhungrig. Das sind Meinungen bzw Vorurteile, keine Fakten.
#58
customavatars/avatar43872_1.gif
Registriert seit: 31.07.2006

Fregattenkapitän
Beiträge: 3035
Apple wagte den Schritt zu einer neuen ISA vor ein paar Jahren. Allerdings betrachte ich Apple als geschlossenes System, von daher war eine Portierung möglich. Übrigens ist das auch ein schönes Beispiel, dass x86 eben doch effektiv ist. Denn Apple wechselte, weil die PPCs nicht mehr konkurrenzfähig waren. Die x86er waren einfach besser. Warum sollte sich jetzt also Arm besser eignen als x86? Du siehst, wie wenig Einfluss der Befehlssatz eigentlich hat. PPC galt jahrelang als effektiver und besser als x86, die Apple-Jünger wurden nicht müde, sich darüber auszulassen, wie man auf so einem uneffektiven PC arbeiten kann. Und dann kam der Wechsel... Es lag eben nicht an der ISA, sondern am Prozessordesign. Intel war einfach ein besserer Prozessorhersteller als IBM für diese Art an Desktop/Mobilrechnern.
Es gibt bisher keine Arm-Konkurrenz im PC-Markt. Es gibt nicht mal ansatzweise einen Versuch, einen 3GHz-OoO-Prozessor mit Arm-Befehlssatz zu bauen. Warum sollte Apple umsteigen? Weder Nutzer noch Hersteller werden auf die Performance freiwillig verzichten, die heutige PC-Prozessoren bieten. Sicher, das Wachstum der Nachfrage nach mehr Leistung verlangsamt sich, aber die Fertigung entwickelt sich auch weiter, somit kann man mit x86er weiter nach Unten in den Markt, siehe Atom, Nano, Neo und Ontario. x86 wildert also eher im Arm-Gefielden, nicht umgekehrt.
Aber Apple erwägt offenbar wieder den Hersteller zu welchseln, weil AMD effektivere GPUs baut und Apple ein Auge auf Fusion geworfen hat ;). Da die GPU in die CPU integriert wird, wird auch die Leistung für viele Anwendungen interessanter werden. Im Grunde könnten GPUs eher die FPUs ersetzen, als die CPUs.
#59
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6250
Zitat [HOT];14881608
Es lag eben nicht an der ISA, sondern am Prozessordesign.

Jup, Prozessordesign und Fertigungstechnik sind im Endeffekt entscheidender als die ISA. Die beste ISA nützt dir nichts, wenn du diese nicht in effizientes Silizium umsetzen kannst, und zwar langfristig.
#60
customavatars/avatar132096_1.gif
Registriert seit: 26.03.2010

Oberleutnant zur See
Beiträge: 1457
@mr.dude: der erste, der davon profitieren würde, wäre apple. zugegeben ich bin kein großer intel-fan und hab in meinem bekanntenkreis früher doch recht erfolgreich amd-rechner empfohlen, so dass letzten endes keiner meiner bekannten sich einen netburst angetan hat. eigentlich bin ich generell gengen monopolisten, was wohl sicher meine ansicht bezüglich x86 negativ beeinflusst.
auf der anderen seite wird dir sicher nicht entgangan sein, dass intel auch amd immer wieder mit der x86-lizens unter druck setzt (siehe diverse rechtsstreite gegen amd, zuletzt androhung von lizensentzug, weil amd nicht mehr selbst fertigt sondern durch die veräußerung von gf jetzt offiziell fremdfertigen lässt). glaubst du wirklich, dass amd dankbar für diese abhängigkeit ist?
dennoch ist es zumindest so, dass die nackte rechenleistung je watt bei heutigen gpus deutlich höher im schnitt ausfällt als bei x86-cpus und dass eine x86-cpu nicht sparsam genug sein kann, um in einem smartphone untergebracht und mit einem arm konkurrieren zu können, sonst hätte intel (die ja in dem bereich auch entwickeln und forschen) schon sicherlich längst einen "atom-light" für ultramobile geräte rausgebracht. an den zahlen von apple, die vorwiegend auf ipod und ipad sowie dem iphone beruhen, sieht man gut, wie wichtig dieser markt inzwischen geworden ist.

wie gesagt, die anwendungen auf arm-systemen kommen immer näher an die (einfacheren) anwendungen auf x86-systemen heran (win ce, ms office, diverse browser, portierungen von pc-spielen...), auf der anderen seite werden besonders rechenintensive anwendungen immer häufiger auf die gpu ausgelagert.

das ergibt für mich, dass für die einfachen aufgaben ein sparsamer arm vollkommen reicht, für besonders rechenintensive aufgaben häufig die gpu die schnellere und effizientere alternative ist.
#61
Registriert seit: 23.08.2004

Flottillenadmiral
Beiträge: 5676
So einfach ist es leider nicht. Es gibt Unmengen von Tasks, die eine schnelle serielle Befehlsabarbeitung benötigen - dafür ist weder ein einfacher ARM noch eine auch noch so schnelle GPU geeignet.
#62
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6250
Zitat Luebke;14882365
der erste, der davon profitieren würde, wäre apple.

Wieso sollte Apple davon profitieren? Das musst du mir erklären.

Zitat Luebke;14882365
auf der anderen seite wird dir sicher nicht entgangan sein, dass intel auch amd immer wieder mit der x86-lizens unter druck setzt

Ehrlich gesagt habe ich davon noch nie etwas mitbekommen. Intel versucht zwar schon mal ein bisschen Stress deswegen zu machen. Aber das hat letztendlich keine Basis. Deswegen braucht sich AMD keine Gedanken machen. Nicht zuletzt, da sie x86-64 in der Hinterhand haben. Und spätestens nach dem letzten Abkommen sollte auch das Thema ad acta gelegt sein. AMD kann nun seine CPUs bei GloFo fertigen, wie sie lustig sind. Unabhängig davon, dass die Werke nun ausgegliedert sind.

Zitat Luebke;14882365
dennoch ist es zumindest so, dass die nackte rechenleistung je watt bei heutigen gpus deutlich höher im schnitt ausfällt als bei x86-cpus und dass eine x86-cpu nicht sparsam genug sein kann, um in einem smartphone untergebracht und mit einem arm konkurrieren zu können, sonst hätte intel (die ja in dem bereich auch entwickeln und forschen) schon sicherlich längst einen "atom-light" für ultramobile geräte rausgebracht.

Erstmal sind GPUs hauptsächlich für parallelisierbare Workloads auf ILP Ebene gut. Es gibt und wird immer Workloads geben, die auf dieser Ebene jedoch nicht parallelisierbar sind. Viele alltäglich genutzte Algorithmen wie Suchen/Sortieren oder Datenstrukturen wie Binärbäume lassen sich so oft schwierig oder teilweise gar nicht parallelisieren. Da nützt dir eine GPU dann nichts, mag sie für ihre Aufgabengebiete auch noch so effizient sein.
Und zeige mir erstmal eine ARM CPU, die die gleiche Performance wie eine x86 CPU liefert. Dann können wir uns nochmal über Performance pro Watt unterhalten. Die Steigerung der Performance ist bei gleichem Grad an Parallelisierung immer mit exponentieller Leistungsaufnahme verbunden. Das sind keine Neuigkeiten. Zudem übersiehst du das wichtigste. Niemand nutzt nur die CPU, es gehört immer eine Plattform dazu. Und wenn die CPU zwar nur 1 Watt braucht, der Rest der Plattform aber 20 Watt, dann ist das kein Fortschritt gegenüber einem System, wo die CPU 5 Watt braucht und der Rest nur 15 W. Ganz im Gegenteil, wenn das letztere System dazu auch noch das deutlich schnellere und reaktionsfreudigere ist, dann nimmt man die paar Watt mehr für die CPU gerne in Kauf.
#63
customavatars/avatar43872_1.gif
Registriert seit: 31.07.2006

Fregattenkapitän
Beiträge: 3035
Zitat Luebke;14882365
[...]

das ergibt für mich, dass für die einfachen aufgaben ein sparsamer arm vollkommen reicht, für besonders rechenintensive aufgaben häufig die gpu die schnellere und effizientere alternative ist.


Genau da liegt aber das Problem. Die meisten Aufgaben kann die GPU eben nicht besser lösen, selbst wenn sie viel Parallelität benötigen. Man siehe z.B. ein Spiel, dass verschiedene Steuer- und Arbeitsthreads hat. Diese Struktur ist so komplex und voneinander abhängig, dass eine GPU nicht damit umgehen kann. Die GPU kann nur eines: Viele nicht voneinander unabhängige Aufgaben rechnen. Eine GPU kann z.B. die Rechenlast wie in Programmen wie Cinema4D übrnehmen, aber sie können keine KI-Strukturen berechnen. Dinge, die sich mit SIMD (Single Instruction Multiple Data), maximal aber MIMD lösen lassen, kann die GPU übernehmen, sonst nix. Grob gesagt kann eine GPU genau das verarbeiten, was die CPU zur FPU schickt, aber nicht mehr.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

16 Threads für 550 Euro: AMD RYZEN 7 1800X im Test

Logo von IMAGES/STORIES/LOGOS-2017/AMD_RYZEN_TEASER_100

Eine neue Ära – so beschreibt AMD selbst den Start der RYZEN-Prozessoren. Die dazugehörige Zen-Architektur soll ein Neustart für AMD sein und das auf allen wichtigen Märkten. Den Anfang machen die RYZEN-Prozessoren auf dem Desktop. Die Zen-Architektur soll AMD aber auch zu einem Neustart auf... [mehr]

AMD Ryzen 7 1700 im Test und übertaktet - der interessanteste Ryzen

Logo von IMAGES/STORIES/LOGOS-2017/AMD_RYZEN_TEASER_100

Mit dem Ryzen 7 1800X und Ryzen 7 1700X haben wir uns die beiden neuen Flaggschiff-Prozessoren von AMD näher angeschaut. Nun fehlt nur noch das dritte Modell im Bunde, das für viele Umrüst-Interessenten sicherlich der interessanteste Ryzen-Prozessor ist. Die Rede ist natürlich vom Ryzen 7 1700... [mehr]

Intel vs. AMD, Akt 2: Skylake-X und Kaby-Lake-X im Test gegen Ryzen

Logo von IMAGES/STORIES/2017/7900AUFMACHER

In den letzten Monaten wurde die CPU-Vorherrschaft von Intel gebrochen und den Prozessormarkt durcheinandergewirbelt. Nach dem Ryzen-Tornado blieb Intel nichts anderes über, als mit schnell vorgestellten neuen Multikern-Prozessoren aus der X-Serie auf sich aufmerksam zu machen. Mit dem Core i9... [mehr]

AMDs Ryzen 7 1700X im Test: Der beste Ryzen?

Logo von IMAGES/STORIES/LOGOS-2017/AMD_RYZEN_TEASER_100

In unserem ausführlichen Testbericht zu AMDs Ryzen 7 1800X in der letzten Woche hatten wir bereits angekündigt, dass wir weitere Artikel rund um AMDs neues Flaggschiff bringen werden. Den Anfang macht ein Kurztest zum Ryzen 7 1700X, der mit knapp 120 Euro weniger Kaufpreis momentan als das... [mehr]

Intel Core i7-7700K im Test - keine großen Sprünge mit Kaby Lake

Logo von IMAGES/STORIES/LOGOS-2016/KABYLAKE

Am heutigen 3. Januar stellt Intel die Desktop-Modelle der Kaby-Lake-Architektur vor. Wir haben natürlich den Launch-Test: Intels Flaggschiff, der Core i7-7700K, wurde von uns in den letzten Tagen durch diverse Benchmarks gejagt und gegen die Vorgänger verglichen. Allerdings sollte... [mehr]

Threadripper: AMDs Ryzen Threadripper 1950X und 1920X im Test

Logo von IMAGES/STORIES/2017/THREADRIPPER_TEASER

AMD strotzt vor Selbstbewusstsein: Wie lässt es sich sonst erklären, dass man ein Produkt mit einem so coolen Namen ausstattet? Die als "Threadripper" bezeichneten Ryzen-Prozessoren sollen AMD in den Benchmarks an den ersten Rang katapultieren - zumindest in Thread-intensiven Benchmarks. Wir... [mehr]