> > > > Intel: GPUs sind schneller als CPUs

Intel: GPUs sind schneller als CPUs

DruckenE-Mail
Erstellt am: von

intel3Was die Rechenleistung aktueller Prozessoren angeht, haben die Grafikprozessoren - oder GPUs - im Vergleich zu den CPUs deutlich aufgeholt und können diese bei bestimmten Aufgaben sogar weit überflügeln. Der Prozessor-Hersteller Intel wollte mit dem Mythos aufräumen, dass GPUs 100-mal schneller seien als CPUs und hatte diesbezüglich einen Vergleichstest angefertigt. Dabei wurde die Leistung eines Intel Core i7-960 der NVIDIA-Grafikkarte GeForce GTX 280 gegenübergestellt. Als Ergebnis der Untersuchung konstatierte Intel, dass die GPU im Schnitt lediglich etwa 2,5-mal schneller als der Vier-Kern-Prozessor war und nicht 100-mal-schneller. Auch wenn Intel damit aufzeigen will, dass die Differenz zwischen den verschiedenen Chips deutlich geringer ausfällt als anderswo kolportiert wird, tätigt der Konzern damit indirekt die Aussage: GPUs sind schneller als CPUs.

Somit könnte man Intels Aufklärungsversuch auch als Eigentor werten. Die Reaktion des GPU-Entwicklers NVIDIA auf das Resultat fällt zudem durchaus positiv aus, wie Golem berichtet. Demnach erklärte ein führender Mitarbeiter von NVIDIAs GPU-Computing-Team in einem Blog: "Es kommt in der Technikwelt selten vor, dass einer deiner Konkurrenten auf einer Konferenz erklärt, deine Technik sei nur 14-mal schneller als ihre." So etwas habe er in den 26 Jahren, die er in der Industrie sei, nicht erlebt. (Auszug von Golem.de)

Mancher mag dazu anmerken, dass bei Intels Versuch ja auch noch ein älterer Grafikchip zum Einsatz kam und das Ergebnis bei Verwendung einer aktuellen Fermi-GPU noch weitaus schlechter hätte ausfallen müssen. Allerdings musste der Aufsatz für die Konferenz bereits im November 2009 eingereicht werden, als Fermi noch lange nicht auf dem Markt war. Sowohl Intel als auch NVIDIA führten zudem bei diesem und anderen Tests an, dass die Optimierung der Software auf ihre Chips unzureichend gewesen sei und somit das Potenzial nicht vollständig genutzt werden konnte. Daher kann man abschließend zusammenfassen, dass im Endeffekt überwiegend die Software und das Anwendungsgebiet darüber entscheiden, ob eine CPU oder eine GPU schneller ist.

Weiterführende Links:

Social Links

Kommentare (63)

#54
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Flottillenadmiral
Beiträge: 5834
Zitat fdsonne;14868039
Willst du also x86 ablösen, dann muss jegliche Software neu geschrieben werden, alle vorhandenen Bibliotheken und frei verwendbarer Programmcode kann in die Tonne wandern und man fängt absolut von Null an und baut alles neu...

Also ganz so schlimm ist es nicht. Hochsprachencode ist ja meistens unabhängig von der darunterliegenden Hardware. Es gibt auch eine Reihe von Projekten, die für unterschiedlichste Plattformen gepflegt werden. Aber wie so oft, der Fehlerteufel steckt im Detail. Auf die Entwickler käme trotzdem enorm viel Arbeit zu, von Build Tools, über SDKs und Bibliotheken bis hin zur eigentlichen Anwendung. Eine Transition, die viele Jahre dauern würde. Die Zeit hast du in diesem Business eigentlich nicht.

Zitat Luebke;14880601
@mr.dude: auch du scheinst zu glauben, dass sowas auf komando und von einem tag auf den anderen gemacht wird.

Nein, tue ich nicht. Mir ist schon klar, dass du einen ausgedehnten Zeitrahmen meinst. Es wird trotzdem nicht passieren. x86 wird nicht verschwinden. Nicht auf absehbare Zeit. Und die Märchen, die du hier ständig verbreitest, x86 wäre stromhungrig, veraltet, bla bla bla, entsprechen genauso wenig den Tatsachen. Ich kann dir nur empfehlen, dich wirklich mal mit diversen ISAs und Mikroarchitekturen auseinander zu setzen. Dann wirst du schnell merken, dass alles seine Vor- und Nachteile hat. Das gilt für x86 genauso wie für ARM. ;)
Irgendwie habe ich das Gefühl, du suchst einen Vorwand, damit nVidia keine eigene x86 CPU braucht. Das werden sie aber definitiv, wenn sie gegen AMDs Fusion oder Intels GPU Integration konkurrieren wollen. Tegra alleine wird gar nichts ausrichten. Und dass immer mehr potenzielle Kunden Tegra aufgeben, zuletzt Nintendo, macht es nicht besser.

Zitat Luebke;14880601
sie kaufen immer das, was für sie besser ist. und wenn ein netbook mit arm mit 14 stunden akkulaufzeit weniger kostet als ein netbook mit intel atom und 10 stunden akkulaufzeit, dann werden sich sicher viele für ersteres entscheiden.

Da bist du aber äusserst naiv. Bis auf versierte Kunden, die einen sehr geringen Prozentsatz ausmachen, kaufen Kunden das, was von der Werbung angepriesen oder vom Verkäufer angeboten wird.
#55
customavatars/avatar43872_1.gif
Registriert seit: 31.07.2006

Fregattenkapitän
Beiträge: 2859
Aus der Perspektive hab ich das garnicht betrachtet. Ja, es wird sehr sehr eng für NV im PC-Markt, sollte NV keinen x86er entwickeln können. Wenn NV behauptet, man kann mit einem kleinen Arm und einer GPU einen PC ersetzen ist das pures Marketing ohne wirkliches Konzept. Denn den Markt für PCs wird NV damit definitiv nicht erreichen. Man erinnere sich daran, dass sogar Intel versucht hat, einen neuen Befehlssatz durchzusetzen und daran trotz 80%igem Marktanteil scheiterte, weil die Nachfrage nach Kompatibilität gewaltig ist und x86 eben in Wirklichkeit (vor allem in der x64 Version) keine technischen Nachteile mit sich bringt.
#56
customavatars/avatar132096_1.gif
Registriert seit: 26.03.2010

Leutnant zur See
Beiträge: 1135
Zitat
Irgendwie habe ich das Gefühl, du suchst einen Vorwand, damit nVidia keine eigene x86 CPU braucht.

wie kommst du jetzt dadrauf? Oô warum du jetzt versuchst mich in eine fanboyschublade zu stecken, musste mir mal erklären. dass ich mich gegen intels monopol ausspreche, macht mich nicht automatisch zu einem nvidia-fanboy. wenn dann zu einem amd-fanboy (was bis zum core2duo sogar gestimmt hätte).

Zitat
Da bist du aber äusserst naiv. Bis auf versierte Kunden, die einen sehr geringen Prozentsatz ausmachen, kaufen Kunden das, was von der Werbung angepriesen oder vom Verkäufer angeboten wird.

mit der werbung hast du recht. wobei ich auch apple eine gute werbecampgne zutraue.
#57
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Flottillenadmiral
Beiträge: 5834
Zitat Luebke;14881487
wie kommst du jetzt dadrauf? Oô warum du jetzt versuchst mich in eine fanboyschublade zu stecken, musste mir mal erklären. dass ich mich gegen intels monopol ausspreche, macht mich nicht automatisch zu einem nvidia-fanboy. wenn dann zu einem amd-fanboy (was bis zum core2duo sogar gestimmt hätte).

Davon habe ich kein Wort geschrieben. Aber es ist schon seltsam, wie du hier gegen x86 schiesst. Und nVidia ist der einzige der grossen GPU Hersteller, der diesbezüglich nichts zu bieten hat. Deshalb liegt der Gedanke nahe. Aber vielleicht kannst du ja mal ganz konkret erklären, warum x86 verschwinden wird. Und bitte mehr als oberflächliche Floskeln wie x86 Rechner wären klobig oder x86 wäre stromhungrig. Das sind Meinungen bzw Vorurteile, keine Fakten.
#58
customavatars/avatar43872_1.gif
Registriert seit: 31.07.2006

Fregattenkapitän
Beiträge: 2859
Apple wagte den Schritt zu einer neuen ISA vor ein paar Jahren. Allerdings betrachte ich Apple als geschlossenes System, von daher war eine Portierung möglich. Übrigens ist das auch ein schönes Beispiel, dass x86 eben doch effektiv ist. Denn Apple wechselte, weil die PPCs nicht mehr konkurrenzfähig waren. Die x86er waren einfach besser. Warum sollte sich jetzt also Arm besser eignen als x86? Du siehst, wie wenig Einfluss der Befehlssatz eigentlich hat. PPC galt jahrelang als effektiver und besser als x86, die Apple-Jünger wurden nicht müde, sich darüber auszulassen, wie man auf so einem uneffektiven PC arbeiten kann. Und dann kam der Wechsel... Es lag eben nicht an der ISA, sondern am Prozessordesign. Intel war einfach ein besserer Prozessorhersteller als IBM für diese Art an Desktop/Mobilrechnern.
Es gibt bisher keine Arm-Konkurrenz im PC-Markt. Es gibt nicht mal ansatzweise einen Versuch, einen 3GHz-OoO-Prozessor mit Arm-Befehlssatz zu bauen. Warum sollte Apple umsteigen? Weder Nutzer noch Hersteller werden auf die Performance freiwillig verzichten, die heutige PC-Prozessoren bieten. Sicher, das Wachstum der Nachfrage nach mehr Leistung verlangsamt sich, aber die Fertigung entwickelt sich auch weiter, somit kann man mit x86er weiter nach Unten in den Markt, siehe Atom, Nano, Neo und Ontario. x86 wildert also eher im Arm-Gefielden, nicht umgekehrt.
Aber Apple erwägt offenbar wieder den Hersteller zu welchseln, weil AMD effektivere GPUs baut und Apple ein Auge auf Fusion geworfen hat ;). Da die GPU in die CPU integriert wird, wird auch die Leistung für viele Anwendungen interessanter werden. Im Grunde könnten GPUs eher die FPUs ersetzen, als die CPUs.
#59
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Flottillenadmiral
Beiträge: 5834
Zitat [HOT];14881608
Es lag eben nicht an der ISA, sondern am Prozessordesign.

Jup, Prozessordesign und Fertigungstechnik sind im Endeffekt entscheidender als die ISA. Die beste ISA nützt dir nichts, wenn du diese nicht in effizientes Silizium umsetzen kannst, und zwar langfristig.
#60
customavatars/avatar132096_1.gif
Registriert seit: 26.03.2010

Leutnant zur See
Beiträge: 1135
@mr.dude: der erste, der davon profitieren würde, wäre apple. zugegeben ich bin kein großer intel-fan und hab in meinem bekanntenkreis früher doch recht erfolgreich amd-rechner empfohlen, so dass letzten endes keiner meiner bekannten sich einen netburst angetan hat. eigentlich bin ich generell gengen monopolisten, was wohl sicher meine ansicht bezüglich x86 negativ beeinflusst.
auf der anderen seite wird dir sicher nicht entgangan sein, dass intel auch amd immer wieder mit der x86-lizens unter druck setzt (siehe diverse rechtsstreite gegen amd, zuletzt androhung von lizensentzug, weil amd nicht mehr selbst fertigt sondern durch die veräußerung von gf jetzt offiziell fremdfertigen lässt). glaubst du wirklich, dass amd dankbar für diese abhängigkeit ist?
dennoch ist es zumindest so, dass die nackte rechenleistung je watt bei heutigen gpus deutlich höher im schnitt ausfällt als bei x86-cpus und dass eine x86-cpu nicht sparsam genug sein kann, um in einem smartphone untergebracht und mit einem arm konkurrieren zu können, sonst hätte intel (die ja in dem bereich auch entwickeln und forschen) schon sicherlich längst einen "atom-light" für ultramobile geräte rausgebracht. an den zahlen von apple, die vorwiegend auf ipod und ipad sowie dem iphone beruhen, sieht man gut, wie wichtig dieser markt inzwischen geworden ist.

wie gesagt, die anwendungen auf arm-systemen kommen immer näher an die (einfacheren) anwendungen auf x86-systemen heran (win ce, ms office, diverse browser, portierungen von pc-spielen...), auf der anderen seite werden besonders rechenintensive anwendungen immer häufiger auf die gpu ausgelagert.

das ergibt für mich, dass für die einfachen aufgaben ein sparsamer arm vollkommen reicht, für besonders rechenintensive aufgaben häufig die gpu die schnellere und effizientere alternative ist.
#61
Registriert seit: 23.08.2004

Flottillenadmiral
Beiträge: 5663
So einfach ist es leider nicht. Es gibt Unmengen von Tasks, die eine schnelle serielle Befehlsabarbeitung benötigen - dafür ist weder ein einfacher ARM noch eine auch noch so schnelle GPU geeignet.
#62
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Flottillenadmiral
Beiträge: 5834
Zitat Luebke;14882365
der erste, der davon profitieren würde, wäre apple.

Wieso sollte Apple davon profitieren? Das musst du mir erklären.

Zitat Luebke;14882365
auf der anderen seite wird dir sicher nicht entgangan sein, dass intel auch amd immer wieder mit der x86-lizens unter druck setzt

Ehrlich gesagt habe ich davon noch nie etwas mitbekommen. Intel versucht zwar schon mal ein bisschen Stress deswegen zu machen. Aber das hat letztendlich keine Basis. Deswegen braucht sich AMD keine Gedanken machen. Nicht zuletzt, da sie x86-64 in der Hinterhand haben. Und spätestens nach dem letzten Abkommen sollte auch das Thema ad acta gelegt sein. AMD kann nun seine CPUs bei GloFo fertigen, wie sie lustig sind. Unabhängig davon, dass die Werke nun ausgegliedert sind.

Zitat Luebke;14882365
dennoch ist es zumindest so, dass die nackte rechenleistung je watt bei heutigen gpus deutlich höher im schnitt ausfällt als bei x86-cpus und dass eine x86-cpu nicht sparsam genug sein kann, um in einem smartphone untergebracht und mit einem arm konkurrieren zu können, sonst hätte intel (die ja in dem bereich auch entwickeln und forschen) schon sicherlich längst einen "atom-light" für ultramobile geräte rausgebracht.

Erstmal sind GPUs hauptsächlich für parallelisierbare Workloads auf ILP Ebene gut. Es gibt und wird immer Workloads geben, die auf dieser Ebene jedoch nicht parallelisierbar sind. Viele alltäglich genutzte Algorithmen wie Suchen/Sortieren oder Datenstrukturen wie Binärbäume lassen sich so oft schwierig oder teilweise gar nicht parallelisieren. Da nützt dir eine GPU dann nichts, mag sie für ihre Aufgabengebiete auch noch so effizient sein.
Und zeige mir erstmal eine ARM CPU, die die gleiche Performance wie eine x86 CPU liefert. Dann können wir uns nochmal über Performance pro Watt unterhalten. Die Steigerung der Performance ist bei gleichem Grad an Parallelisierung immer mit exponentieller Leistungsaufnahme verbunden. Das sind keine Neuigkeiten. Zudem übersiehst du das wichtigste. Niemand nutzt nur die CPU, es gehört immer eine Plattform dazu. Und wenn die CPU zwar nur 1 Watt braucht, der Rest der Plattform aber 20 Watt, dann ist das kein Fortschritt gegenüber einem System, wo die CPU 5 Watt braucht und der Rest nur 15 W. Ganz im Gegenteil, wenn das letztere System dazu auch noch das deutlich schnellere und reaktionsfreudigere ist, dann nimmt man die paar Watt mehr für die CPU gerne in Kauf.
#63
customavatars/avatar43872_1.gif
Registriert seit: 31.07.2006

Fregattenkapitän
Beiträge: 2859
Zitat Luebke;14882365
[...]

das ergibt für mich, dass für die einfachen aufgaben ein sparsamer arm vollkommen reicht, für besonders rechenintensive aufgaben häufig die gpu die schnellere und effizientere alternative ist.


Genau da liegt aber das Problem. Die meisten Aufgaben kann die GPU eben nicht besser lösen, selbst wenn sie viel Parallelität benötigen. Man siehe z.B. ein Spiel, dass verschiedene Steuer- und Arbeitsthreads hat. Diese Struktur ist so komplex und voneinander abhängig, dass eine GPU nicht damit umgehen kann. Die GPU kann nur eines: Viele nicht voneinander unabhängige Aufgaben rechnen. Eine GPU kann z.B. die Rechenlast wie in Programmen wie Cinema4D übrnehmen, aber sie können keine KI-Strukturen berechnen. Dinge, die sich mit SIMD (Single Instruction Multiple Data), maximal aber MIMD lösen lassen, kann die GPU übernehmen, sonst nix. Grob gesagt kann eine GPU genau das verarbeiten, was die CPU zur FPU schickt, aber nicht mehr.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Core i7-6950X im Test: Dicker Motor, alte Karosse

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/6950X/6950X-LOGO

Intels letzter CPU-Launch ist schon eine Weile her - Ende Oktober 2015 testeten wir den Xeon E5-1230v5 auf Skylake-Basis, seitdem war zumindest im Desktop-Bereich nichts neues mehr vom Marktführer zu hören. Am heutigen Tag aktualisiert Intel endlich die High-End-Plattform und bringt mit dem Core... [mehr]

So schnell ist Kaby Lake: Erste eigene Benchmarks zum i7-7500U

Logo von IMAGES/STORIES/REVIEW_TEASER/INTEL_KABY_LAKE

Offiziell vorgestellt hat Intel die 7. Generation der Core-Prozessoren bereits Ende August, doch erst jetzt ist Kaby Lake in Form des ersten Notebooks verfüg- und damit testbar. Dabei handelt es sich um das Medion Akoya S3409 MD60226, in dem ein Core i7-7500U verbaut wird. Während das Notebook... [mehr]

Intel 'Kaby Lake': Die siebte Core-Generation im Detail vorgestellt

Logo von IMAGES/STORIES/LOGOS-2016/INTEL_7TH_CORE_GEN

Im Zuge der kommenden "Kaby Lake"-Plattform, deren breite Verfügbarkeit für das erste Quartal 2017 erwartet wird, nutzt Intel heute die Gelegenheit, die siebte Core-Generation offiziell im Detail vorzustellen und bereits ein paar Prozessoren auf den Markt zu bringen. Wir konnten uns bereits vor... [mehr]

Delid Die Mate im Test

Logo von IMAGES/STORIES/IMAGES/STORIES/GALLERIES/REVIEWS/2016/DDM/DDM

Seit der Ivy-Bridge-Generation verlötet Intel Die und Heatspreader nicht mehr miteinander, was leider in deutlich schlechteren Kern-Temperaturen resultiert. Abhilfe dagegen schafft nur das Delidding (das sogenannte „Köpfen“) der CPU sowie der anschließende Austausch der Wärmeleitpaste durch... [mehr]

Intel Core i7-7700K (Kaby Lake) nun ebenfalls in Benchmark gesichtet

Logo von IMAGES/STORIES/LOGOS-2015/INTEL3

Mittlerweile sind die ersten Benchmarks zum kommenden Intel Core i7-7700K (Kaby Lake) aufgetaucht und ergänzen damit die Werte zum Core i7-7500U. Die Ergebnisse wirken durchaus sehr glaubhaft, denn sie sind in der offiziellen Datenbank von Geekbench 4 zu finden. Getestet wurde der neue Prozessor... [mehr]

AMD nennt architektonische Details zu Zen - Summit Ridge mit Broadwell-E...

Logo von IMAGES/STORIES/LOGOS-2016/AMD-ZEN

Alle Journalisten, die von Intel auf das IDF eingeladen wurden, bekamen von AMD eine Einladung für ein eigenes Event im Hotel gegenüber. Also machte sich der Tross auf den Weg, um in einer Pressekonferenz neue Details über AMDs kommende Zen-Architektur und die Prozessoren zu erfahren. Erstmals... [mehr]