CES 2013: GPU-Performance - Tegra 4 langsamer als A6X des iPad

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
26.596
<p><img src="/images/stories/logos/apple_logo.gif" width="100" height="100" alt="apple logo" style="margin: 10px; float: left;" />Vorgestern <a href="index.php/news/consumer-electronics/handys/25047-nvidia-stellt-tegra-4-prozessor-vor-ia.html" target="_blank">präsentierte NVIDIA den Tegra-4-Prozessor</a> und verspricht eine Performance-Verbesserung durch Cortex-A15-CPUs sowie 72 GeForce-GPU-Kerne. Besonderen Wert will man auch auf die 3D-Performance gelegt haben. Nun sind erste Benchmarks aufgetaucht, die allerdings schon wieder gelöscht wurden. Eingetragen wurden sie von einem Benutzer namens "Buildbrain", der Name eines automatisierten Testsystems für NVIDIA-Entwickler. Zugegeben, die Ergebnisse repräsentieren nur eine bestimmte Software und es ist zu bezweifeln, dass NVIDIA die...<br /><br /><a href="/index.php/news/hardware/prozessoren/25135-gpu-performance-tegra-4-langsamer-als-a6x-des-ipad.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenigstens lässt NVidia den nicht bei seiner Konkurrenz herstellen ;)

Also @Apple: Zurück an die Marketingschule
 
Hm Beta Hard- und Software ist ja immer mit etwas Vorsicht zu sehen.
Und Tegra 3 bietet trotz etwas schwächerer Rohleistung die beste Spielegrafik auf Mobilgeräten -> Da hat Nvidia einfach an der richtigen Stelle die Entwickler unterstützt.
 
Hm Beta Hard- und Software ist ja immer mit etwas Vorsicht zu sehen.
Und Tegra 3 bietet trotz etwas schwächerer Rohleistung die beste Spielegrafik auf Mobilgeräten -> Da hat Nvidia einfach an der richtigen Stelle die Entwickler unterstützt.

ditto

Einfach mal abwarten bis es wirklich so weit ist. Zumal es wenn ich mich recht erinnere ein bechmark ist der in der jeweiligen Displayauflösung rendert. Sprich höhere Auflösung = geringeres Ergebnis.
 
dafür extra registriert? ich bitte dich..

Ist Esgaron nicht putzig. :d

Naja, NVIDIA schafft dadurch schon Morgen die Leistung von Gestern. Bis Tegra 4 auf dem Markt ist gibt es schon den A7X und dann beginnt das Spiel von Neuem.

Zumindest das Marketing von NVIDIA ist auf Augenhöhe mit Apple ... und das ist wahrlich eine Leistung.

AppleRedX

PS: Bei dem Test handelt es sich immer auch um einen Offscreen Test, d.h. man berechnet 1080p ohne wirklich was darzustellen um vergleichbare Werte zu erzielen.
http://www.glbenchmark.com/compare....re Dalmore&D2=Apple iPad 4&D3=Google Nexus 10
 
Zuletzt bearbeitet:
Ich les hier nur billige Apple-Propaganda.
Warum sonst ist da oben der angebissene Apfel und nicht das Nvidia-Logo zusehen?

Solche Messungen mit Alpha-Treibern haben doch Null Relevanz.
 
Soll der Tegra 4 nicht auch in Smartphones kommen ? Ich finde das kann man schlecht mit einem Tablet Prozessor vergleichen.
 
So wie der A6X auch in dem kommenden iPhone verbaut werden soll. Also Vergleichbar ... zudem sich Phone und Tablet größenmäßig immer mehr annähern wenn ich mir die kommenden 5" Bomber so ansehe
 
So wie der A6X auch in dem kommenden iPhone verbaut werden soll. Also Vergleichbar ... zudem sich Phone und Tablet größenmäßig immer mehr annähern wenn ich mir die kommenden 5" Bomber so ansehe

Quelle? Es ist noch nie einer der "X" in einem Handy verbaut worden, die "X" waren immer die aufgebohrten Tablet-Prozessoren, die saugen alle, inklusive dem A6X zu viel saft für die kleinen Handyakkus!

Das iPad3/4 hat einen 42,5 Wh!!! Akku (ich glaube den größten den es in Tablets gibt), ein iPhone 4s/5 hat aber nur 5,3 Wh... die Milchmädchen-Rechnung zeigt dir da, dass das nächste iPhone keinen A6X verwenden wird, immerhin ist das Handy auch immer auf Funkstandby und Empfangsbereit im Gegensatz zu einem Tablet.

Nvidia hat da schon recht mit ihrem Argument, der Grafikteil des A6X würde um einiges mehr verbrauchen.
Nichtsdestotrotz, hat Nvidia beim Tegra 3 so extrem geschlampt mit dem Speicherinterface, da waren die Exynox und die Dualcore S4 allesamt besser und auch merklich schneller was das laden von Applikationen und Laderuckler angeht... Die Grafikanwendung selbst lief noch überall flüssig.

Ich weiß ehrlich gesagt nicht, mit was Nvidia hier werben will...
Der CPU-Part ist erfreulicherweise endlich auf 28 nm und A15, bleibt abzuwarten ob sie da den S4 Pro (ebenfalls 28 nm Quadcore und Mischung aus A8 und A15) oder den Exynos 5 (32nm A15 Dualcore) (beide schon erhältlich) schlagen werden..

Der Ram-Part springt von Single- Channel 667 MHz über das Level vom S4 (Dual-channel 500 MHz LPDDR2) auf das Level das Samsung im Nexus 10 schon hat: Dual-channel 800 MHz LPDDR3!!!

Und Grafik ist der einzige Teil in dem sie jetzt wirklich Punkten könnten... Da stehts dann Tegra 4 vs Adreno 320 (S4 Pro), erhältlich vs ARM Mali-T604 (Exynos 5), erhältlich...

Es stimmt leider, dass Google bei der Effizienz weit hinter WP und iOS liegt... Man bekommt auf einem iPad einfach kein PDF zum ruckeln oder stocken.... Es liegt aber zum großen Teil nicht an Android selbst, sondern daran, wie die Hersteller ihre Apps schreiben... Es gibt manche Apps in denen flüssiges Scrollen durch hochauflösende Bilder möglich ist und andere bei denen sogar das Text-Menü stockt...
 
Ist Esgaron nicht putzig. :d

Da kenn ich noch einen

Lesen u verstehen ist wohl mal wieder nicht angesagt

die Ergebnisse repräsentieren nur eine bestimmte Software und es ist zu bezweifeln, dass NVIDIA die Gelegenheit hatte die Software bzw. Treiber darauf anzupassen

stattdessen im Kreis hüpfen wie Rumpelstilzchen und sowas vom Stapel lassen wie im Post 2
 
Zuletzt bearbeitet:
Da kenn ich noch einen

Lesen u verstehen ist wohl mal wieder nicht angesagt

Oh Du schon wieder. Ohne persönlich zu werden gehts bei Dir net mehr, oder? Sind wir schon bei Dutzend Aufforderungen dies zu unterlassen?

NVIDIA ist selber Schuld wenn Sie die Treiber nicht gut genug anpassen, die Tests kennen Sie ja schon vom den Tegra Vorgängern. Sind doch sonst die Treibergötter (und Testoptimierungskönige) wie Du doch immer propagierst.

AppleRedX
 
NVIDIA ist selber Schuld wenn Sie die Treiber nicht gut genug anpassen,

Das kennen wir zu Genüge auch von Apple Releases,und da waren Produkte bereits Final und nicht im Pre Beta Stadium wie hier auf der Messe,also halt einfach die Bälle flach u produzier nicht so nen Quatsch wie dort oben

Zumal hätte man das erkennen können,wenn man sich mal mit dem Text auseinander gesetz hätte,nein statt dessen kommt dieser flache Spruch
Das war wohl nix @Nvidia. Zurück ins Labor. :d

Naja, NVIDIA schafft dadurch schon Morgen die Leistung von Gestern.

der nichtmal im Ansatz das Geschriebene von Don versucht zu analysieren
 
Zuletzt bearbeitet:
Was willst Du eigentlich, "Zurück ins Labor" passt doch. Dort Treiber weiter Optimieren und neuer Versuch. *ballzuwerf ^^

Naja, NVIDIA schafft dadurch schon Morgen die Leistung von Gestern.

Wenn Tegra 4 irgendwann Q2 (Morgen) erhältlich ist schaffen Sie es eventuell nach Optimierungen die Leistung des A6X (Oktober 2012 = Gestern) zu erreichen.
Besser so? Habe wohl zu viel Mitdenken zu solch später Stunde vorrausgesetzt....
 
Zuletzt bearbeitet:
Der A6X ist nicht für den Einsatz in Smartphones gedacht,das wurde auch oben dir schonmal präsentiert

Zudem zum jetzigen Zeitpunkt über die Leistungsentfaltung zu philosopieren ist Quatsch,da noch nichts aber wirklich gar nix von einem finalen Produkt zu sehen ist

Das was du hier machst ist in Rumpelstilzchenmanier,schadenfroh über was zu lästern,von dem dir jedwede Daten fehlen

Schau dir mal Post 5 an,da ist ein korrektes Resümee
 
Zuletzt bearbeitet:
Links zum ev. EInsatz eines A6X im iPhone 5S/6 habe ich auch präsentiert btw.

Der Tegra 4 wird in Tablets eingesetzt werden und daher muss er sich mit dem A6X messen. Die ersten Leistungsdaten (aus einem automatisierten Testsystem für Nvidia-Entwickler) sind nun mal da, auch wenn Sie einem verständlicherweise nicht in den Kram passen. Wie weit diese vom Finalen Produkt entfernt sind wird sich bald zeigen.

AppleRedX
 
Nett zu lesen, mit ein paar Hintergrundinfos zur Achillesverse und den Benchmarks.

http://www.brightsideofnews.com/new...cs-disappoint2c-nvidia-in-defensive-mode.aspx

Direktlink macht derzeit Probleme, Google Cache nicht:

http://webcache.googleusercontent.c...ia-in-defensive-mode.aspx&hl=de&tbo=d&strip=1

...

However, after all is said and done, Tegra 4 might have an Achilee's heel in the making. While the company representatives often stated that Tegra 3 competitiveness was stifled by the lack of 4G LTE supporting hardware (HTC One X+ 4G LTE smartphone combines Tegra 3 and Intel/ex-Infineon baseband chip), Tegra 4 might be suffering from another issue: lack of API support. Back in 2010, when Nvidia disclosed its roadmap for the future, it was stated that the desktop architectures will move inside Tegra as well, and that future parts such as Wayne (T40, Tegra 4) and Logan ("Wolverine", T50, Tegra 5) will offer computational capabilities.

We asked Nvidia what APIs (Application Programming Interface) are supported, since their competition from Qualcomm (Adreno 300 Series), ARM (Mali-T600) now supports DirectX 11.0, OpenCL, latest OpenGL, latest OpenGL ES etc. The response we got from Nvidia's Tegra 4 team was underwhelming:

"Kepler isn't in Tegra 4, but Tegra 4's GPU leverages multiple GeForce architectures and elements - including Kepler and others."

"Tegra 4 uses our most advanced mobile GPU ever. It adds amazing features like true HDR rendering and supports ultra-efficient computation, like what is done for the computational photography architecture and the first "Always On" HDR camera. It is our fifth generation mobile GPU and 6x the power of Tegra 3's GPU - a major leap in capability (for reference Tegra 3 was 1.5x the horsepower compared to Tegra 2)."

In order to understand this answer, you have to understand that original GeForce ULP used on Tegra 2 and Tegra 3 was based on the NV4X architecture (GeForce 6/7 Series), launched in 2004. This is the GPU architecture that powers all PlayStation 3 consoles (RSX is a 2005 GeForce 7800 GTX "NV47" chip with a 128-bit memory controller and continuously updated manufacturing process).

"Tegra 4 has 6x the number of GPU shader cores in Tegra 3 (72 vs. 12), and includes various cache and pipeline optimizations. In actual game testing -- with other factors at play, such as game code efficiencies, driver stacks, CPU processing, memory subsystem operations - users should see about 3x - 4x delivered performance improvements for graphics-based benchmarks."

While it is great to see HDR capabilities going from specialized hardware such as RED Epic and Scarlet cameras to commodity hardware such as Tegra 4 (naturally, capabilities widely differ, but the concept is the same), the troublesome part was lack of any color on API support, as it is obvious that Always On HDR was an Nvidia feature and not exactly exposed to 3rd party developers. The last part of answer brought an answer to our question:

"Today's mobile apps do not take advantage of OCL (OpenCL), CUDA or Advanced OGL (OpenGL), nor are these APIs exposed in any OS. Tegra 4's GPU is very powerful and dedicates its resources toward improving real end user experiences."

To put this answer in perspective, Nvidia - a company almost always known for innovation in the desktop and mobile computing space - does not consider that API's such as OpenCL and its own CUDA are important for ultra-efficient computing. This attitude already resulted in a substantial design win turn sour, as the company was thrown out of BMW Group, a year and a few quarters after it triumphantly pushed Intel out of BMW's structure.

...

Witnessing that the company does not believe in CUDA (currently), does not believe in OpenCL (currently) and furthermore, has an issue with believing in success of Windows RT / Windows 8 as it does not support DirectX higher than 9. This will probably end up being painfully exposed through next-generation cross-platform benchmarks from Futuremark (next-gen 3DMark is cross-platform: WinRT/8, Android, iOS) and Rightware (Basemark X), all coming out in the upcoming weeks.

Will the company change the tune with Logan (T50, Tegra 5) or Stark (T60, Tegra 6), future chips based on Project Denver, a custom 64-bit ARM core in which the company invested lot of resources (and credibility) and a Maxwell GPU core, or are we going to see "a backup version" with 64-bit Cortex-A57 and 1xx-core GPU based on combination of architectures? Only time will tell.
 
Zuletzt bearbeitet:
Das hier ist doch interessanter als alle Tablet Geräte der Welt.
PCGH fragt nach: Details zu AMDs neuen Tablet-SoCs Temash und Kabini

4 Kerne @1,0 GHz mit iGPU, IMC und FCH in einem DIE bei 3,9 bis 5,9 Watt ist doch Super, jedenfalls finde ich das besser als Nvidias ARM Zeug.

Ist aber doch X86 oder? Von daher gar nicht möglich für nvidia dort mitzumischen,weil die erforderliche Lizensierung fehlt

Zumal da auch mal mir nix dir nix Intel sich einklinken könnte,was die Luft für sowas wieder verängt:)

Obwohl der ARM Markt auch schwer umkämpft ist keine Frage
 
Zuletzt bearbeitet:
Ist aber doch X86 oder? Von daher gar nicht möglich für nvidia dort mitzumischen,weil die erforderliche Lizensierung fehlt

Zumal da auch mal mir nix dir nix Intel sich einklinken könnte,was die Luft für sowas wieder verängt:)

Obwohl der ARM Markt auch schwer umkämpft ist keine Frage

Naja das ist hier jetzt ja quasi auch umkäpftes Gebiet, hier klopeen sich inzwischen ARM und X86 um Marktanteil, entweder drängt x86 ARM hier zurück oder wir lesen wieder was vom schrumpfenden PC-Markt...
 
Das wird für die mobile Sparte wohl nicht zu leicht sein,da stehen auf der einen Seite Inte/AMD,und bei ARM Apple,Nvidia,Samsung

Um jetzt nur mal die großen Spieler zu bringen

Zudem ist die Akzeptanz u der Support für ARM in der mobilen Sparte,doch schon reichlich ausgebaut,sodas man da mit x86 nicht so ohne weiteres reinstechen kann
 
Das wird für die mobile Sparte wohl nicht zu leicht sein,da stehen auf der einen Seite Inte/AMD,und bei ARM Apple,Nvidia,Samsung

Um jetzt nur mal die großen Spieler zu bringen

Zudem ist die Akzeptanz u der Support für ARM in der mobilen Sparte,doch schon reichlich ausgebaut,sodas man da mit x86 nicht so ohne weiteres reinstechen kann

Und nicht das große G vergessen, die Treiben die Android Entwicklung aggressiv voran. Im ARM-Bereich ist im Moment weit mehr Dynamik als im x86-Bereich und selbst da öffnet sich MS lieber ARM um Umsatz zu machen...
 
Wie schneidet eigentlich ein Tegra 3 in dem Benchmark ab, welcher eigentlich Thema des Threads ist? Der müsste ja wegen der wenigen Ausführungseinheiten total untergehen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh