Mittwoch, 11. September 2013 13:48
#13

Registriert seit: 10.02.2008
Admiral
Beiträge: 15046
Zitat unl34shed;21127090
Also ist das ganze IT Zeitalter auch nur reine Theorie, weil überall Software benötigt wird? :wall:
Es wäre doch Theorie wenn es keine Software geben würde, die das kann. Praxis ist wenn es diese Software gibt und sie eingesetzt wird. Was hat das denn mit Automatismus zu tun?
Also nur weil du zumindest Theoretisch in der lage wärst, für GPGPU zu programmieren, es aber praktisch nicht kannst(?) musst du das dann praktisch nicht auf die ganze welt übertragen.... so oder so ähnlich :p
Ich habe mal das entscheidende Wort fett markiert. Setzt einer die Software nicht ein, ist es halt essig, dann kann die GPU theoretisch immer noch mehr, aber es wird nicht abgerufen. Die Auslagerung auf die GPU passiert momentan weder auf Hardware-Ebene noch auf BS-Ebene, es ist abhängig von der Anwendungssoftware. Also ist der Zusatznutzen erstmal theoretisch.
Mittwoch, 11. September 2013 14:02
#14
Registriert seit: 05.11.2007
Neckar-Odenwald Kreis
Kapitän zur See
Beiträge: 3659
Also sind nach deiner Theorie viele Supercomputer der Welt z.B. Titan Mit ~19k Tesla GPUs ziemlich teure und großer Wasserkocher da die GPUs heutzutage nur zur bilddarstellung genutzt werden könne, da es in der praxis keine Software gibt...
Das wenn ist also schon längst erreicht ;) Auch für den Hausgebrauch gibt es immer mehr Programme die von GPGPU profitieren, Rendern, Zip-programme, CUDA, Physik berechnungen,..... das benutzt paktischerweise ja niemand.
Mittwoch, 11. September 2013 14:17
#15

Registriert seit: 17.02.2009
Sachsen, Naunhof b. Leipzig
Admiral
Beiträge: 18079
Du drehst ihm irgendwie jedes Wort schon im Hals um oder?
Er hat überhaupt nicht gesagt das es entsprechende Software nicht gibt - er hat lediglich gesagt das Software benötigt wird die die GPUs zur Rate zieht und das nur so funktioniert da es noch nicht auf Hardwareebene funktioniert.
Was war da schwer zu verstehen? :confused:
Mittwoch, 11. September 2013 14:21
#16

Registriert seit: 10.02.2008
Admiral
Beiträge: 15046
Du willst es nicht verstehen oder? Solange etwas nicht praktisch umgesetzt/eingesetzt wird ist es theoretischer Natur. SMT bringt theoretisch auch 25% Leistungsplus, praktisch beschleunigt es aber viele Programme nicht. Nach deiner Logik bringt SMT dann allerdings praktisch grundsätzlich 25%, weil es ja Software gibt wo dies so ist und es deswegen niemals theoretisch sein kann... :shot:
Mittwoch, 11. September 2013 14:21
#17

Registriert seit: 10.02.2008
Admiral
Beiträge: 15046
Zitat Pirate85;21127231
Was war da schwer zu verstehen? :confused:
Danke! ;)
Mittwoch, 11. September 2013 15:04
#18
Registriert seit: 05.11.2007
Neckar-Odenwald Kreis
Kapitän zur See
Beiträge: 3659
Zitat Pirate85;21127231
Du drehst ihm irgendwie jedes Wort schon im Hals um oder?
Er hat überhaupt nicht gesagt das es entsprechende Software nicht gibt - er hat lediglich gesagt das Software benötigt wird die die GPUs zur Rate zieht und das nur so funktioniert da es noch nicht auf Hardwareebene funktioniert.
Was war da schwer zu verstehen? :confused:
Naja sein erstes Statement war, dass GPGU eine Theorie ist, was sie je de facto nicht ist.
Da ist es doch egal, ob das über das Betriebssystem, Treiber, in Hardware oder sonst wie abläuft. Letzteres (in Hardware) wird es übrigens nie geben, da die Komplexität des Codes darüber entscheidet, was von der GPU beschleunigt wird und was nicht (Parallelisierbarkeit und Art der Aufgabe)
Zitat Mick_Foley;21127249
Du willst es nicht verstehen oder? Solange etwas nicht praktisch umgesetzt/eingesetzt wird ist es theoretischer Natur. SMT bringt theoretisch auch 25% Leistungsplus, praktisch beschleunigt es aber viele Programme nicht. Nach deiner Logik bringt SMT dann allerdings praktisch grundsätzlich 25%, weil es ja Software gibt wo dies so ist und es deswegen niemals theoretisch sein kann... :shot:
GPGPU wird aber praktisch eingesetzt, hab ja oben auch Beispiele genannt, also ist es keine Theorie. Das es nicht jeder immer und überall mit jeder Zeile Code (Software) einsetzt und Otto normal Verbraucher erst recht nicht, ändert daran nichts.
Und über einen Leistungsplus durch GPGPU oder SMT hab ich doch gar nichts gesagt, also bitte ...
Mittwoch, 11. September 2013 15:15
#19

Registriert seit: 10.02.2008
Admiral
Beiträge: 15046
Okay es ist "nicht wollen"... :wink:
Mittwoch, 11. September 2013 19:36
#20

Registriert seit: 31.05.2010
Leutnant zur See
Beiträge: 1080
:D
Donnerstag, 12. September 2013 10:29
#21
Registriert seit: 28.03.2008
Oberbootsmann
Beiträge: 894
Ich habe außerhalb von HPC Rechnungen noch keine klassische "Serveranwendung" gesehen, die GPGPU genutzt hat.
Und ob die kleinen ARMs sich für den HPC bereich eignen werden wird sich noch zeigen müssen.
Und selbst wenn man GPGPU für HPC Rechnungen benutzt, sind das in der Regel seperate Karten mit ausreichend Recheneinheiten und Speicher und keine kleinen integrierten Grafiklösungen die in CPU oder chipsatz integreiert sind.
In relation zu den 15-30W SOCs spielen die auch in einer anderen TDP Klasse.
Geringe TDP, keine Grafik, 10GBit dank Cortex-A57 64Bit genug adressierbarer Speicher, für ARM verhältnisse ordentlich I/O optionen, das ist wirklich verdammt interessant für kleine Server, die keine GPUs brauchen. Auch wenn man irgendwie Fälle konstruieren könnte in denen andere Server von Grafikkarten profitieren.
Donnerstag, 12. September 2013 11:13
#22
Registriert seit: 23.08.2004
Flottillenadmiral
Beiträge: 5677
Bleibt aber noch die Frage, wie effizient das A57-Design letztlich wird. Cortex-A15 ist da doch relativ enttäuschend und nur auf einem ähnlichen Niveau wie AMDs Jaguar, beide wiederum liegen hinter Qualcomms Krait. Und wenn man sieht, was Silvermont leistet, wird die Situation für ARM-basierte Serverchips nicht gerade leichter. Zumal der A57 wohl schon fast gegen 14nm-Atoms antreten muss.