> > > > GF100-Demonstration auf der CES

GF100-Demonstration auf der CES

Veröffentlicht am: von
nvidia

Mit der diesjährige CES (Consumer Electronics Show) startet in wenige Tagen in Las Vegas eine der weltweit größten Messen zur Unterhaltungselektronik. Wie bekannt wurde, will NVIDIA diese vom 7. bis zum 10. Januar andauernde Veranstaltung nutzen, um Messebesuchern einen kurzen Blick auf den GF100 werfen zu lassen. Die darauf basierenden DirectX-11-Grafikkarten der Kalifornier (GeForce GTX 360 und GTX 380) sollen als erste Ableger der neuen Fermi-Architektur auf den Markt kommen (wir berichteten über die mutmaßlichen finalen Spezifikationen) und die lange erwartete Antwort auf AMDs altbekannte Grafikkarten der HD 5000er-Reihe darstellen.

Wie aussagekräftig die GF100-Präsentation genau sein wird und ob sich daraus neue Erkenntnisse über den GF100 ableiten lassen werden, ist noch nicht bekannt.

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (114)

#105
customavatars/avatar29414_1.gif
Registriert seit: 05.11.2005
Hamburg
Admiral
Beiträge: 11687
Zitat fdsonne;13684140
Häää?
Das wiederspricht sich doch total mit der Aussage oben wo du sagtest Furmark arbeitet ähnlich DP Projekten schlecht mit der Architektur des G200 zusammen.

Was denn nu? ;)


Man schaue sie die Flop Zahlen an, http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/2/#abschnitt_technische_daten

hier lieg nVidia unterhalb der 48xx Karten.

Nun gehen wir davon aus das FUR bei beiden Karten die Theoretische Rohleistung sehr gut umsetzen kann, dann ist eine 4870 also schneller als eine GTX285 was in spielen aber meist nie der Fall ist, da dort die Rohleistung einfach nicht so gut umgesetzt werden kann.

Das sieht man bei DC Projekten auch sehr schon an einer 5870 wo sich die Leistung Parallel zu den Anzahl der Shader Verdoppelt hat, in spielen aber nicht.

Vllt bin ich auch gerade voll verdreht im Kopf.
#106
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34176
Zitat DonGeilo;13684245
Nun gehen wir davon aus das FUR bei beiden Karten die Theoretische Rohleistung sehr gut umsetzen kann, dann ist eine 4870 also schneller als eine GTX285 was in spielen aber meist nie der Fall ist, da dort die Rohleistung einfach nicht so gut umgesetzt werden kann.


Ja ich wollte nur anmerken das du oben mit der Aussage:
"Zur Leistung kann ich nur sagen das FUR wohl eine Anwendungs ist ähnlich wie DC Projekte die einfach sehr schlecht mit der Architektur der G200 Karten zusammen Arbeitet."
Das komplette Gegenteil ausgesagt hast ;)
Zum Rest stimme ich vollkommen zu...
#107
customavatars/avatar81608_1.gif
Registriert seit: 05.01.2008
Thüringen
Admiral
Beiträge: 8533
@fdsonne
Ok, ist deine Meinung, das du den Grakaverbrauch seperat messen möchtest. Kannst du auch gerne so machen, hab ich nix dagegen.

Meiner Meinung nach ist das aber sinnfrei und realitätsfern, da die Graka nur ein Teil des Rechners ist. Ich schaue mir in der Zwischenzeit lieber Testberichte (hardwareluxx, computerbase etc.) an, welche man mit Graka A / Graka B usw. im SELBEN Testsystem gebencht hat. Dort sieht man den Leistungsunterschied in diversen Auflösungen + Qualitätsstufen und bekommt sogar noch nen Verbrauchsvergleich präsentiert. DAS ALLES ist für mich praxisnah und ich kann mir ein Bild machen, welche Graka in Zukunft den Weg in meinen PC finden könnte.
Glaube das das die meisten User genauso sehen und vor allem genau solche Tests sehen möchten.
Um es mal mit deinen Worten auszudrücken: alles andere wäre mMn für den Popo ;).
#108
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34176
Nein wenn dann für den Po ;)

Ne Spaß, klar ist das meine Meinung und die vertrete ich auch mit recht. Dennoch kann ich persönlich mit Gesamtsystemmessungen nicht viel anfangen, schon alleine deswegen nicht, weil man durch zu viele unklare Faktoren nie 100% identische Vergleichssituationen schaffen kann.

Und wie oben erwähnt, das große Problem ist nicht die Messung ansich, sondern das drauffolgende Abziehen der Werte voneinander. Mit dem Ergebniss "Graka 1" ist soundsoviel sparsamer/stromhungriger als "Graka 2"
Was eben nicht stimmt, weil nicht geklärt ist, was wirklich alles von der Grafikkarte kommt und was vllt auch durch höhere CPU Last durch den GPU Treiber oder HDD aktivitäten usw. kommt...

Als Beispiel dafür:
Das wäre so, wenn ich in nem Mehrfamilienhaus wohne und mir neue Gerätschaften anschaffe und der Vermieter zu mir meint, also die Anschaffung ist mal total mistig, der Gesamtverbrauch des Hauses ist weit weit höher als noch vor der Anschaffung.
Ich weis in dem Fall auch nicht was Mieter 2 oder 3 oder wer auch immer wärend der Messung vllt noch für Strom verballert hat.
#109
customavatars/avatar81608_1.gif
Registriert seit: 05.01.2008
Thüringen
Admiral
Beiträge: 8533
LOL?
Du holst ja immer weiter aus, lass es mal langsam gut sein, deine Meinung ist bekannt, die musst du net noch weiter ins Detail ausbreiten :fresse:.

Sämtliche von mir geposteten Tests zeigen den tendenziel gleichen Verbrauch. Was willst du noch?
#110
Registriert seit: 25.03.2007

Bootsmann
Beiträge: 685
Zitat fdsonne;13684825
Dennoch kann ich persönlich mit Gesamtsystemmessungen nicht viel anfangen, schon alleine deswegen nicht, weil man durch zu viele unklare Faktoren nie 100% identische Vergleichssituationen schaffen kann.


Also wenn du meinen Post wirklich gelesen hättest, müsste dir doch klar sein, dass du mit Karteneinzelmessungen den direkten Verbrauch zwar am genauesten ermitteln kannst, aber dieser Wert vollkommen uninteressant ist. Der Gesammtverbrauch zählt und der setzt sich aus dem direkten Verbrauch und dem indirekten Verbrauch zusammen. Sprich dem Einfluss der Grafikkarte auf das Restsystem.
Hierzu zählen eben folgende Faktoren:
- Grafikkarte nutzt Speicher des Systems
- Grafikkarte verursacht höhere Cpu-Auslastung
- Grafikkarte beansprucht den Systembus stärker
- Grafikkarte erzeugt mehr Hitze im System und erhöht somit den Stromverbrauch anderer Komponenten.

Nun kommst du mit dem Argument Messungenauigkeiten. Ich stimme dir zu die sind immer ein Problem, aber es gibt ja viele Möglichkeiten diese zu minimieren. Welche Messung ist wohl genauer? Diejenige bei der man alle Daten möglichst Fehlerfrei erfasst oder diejenige bei der man einfach nur die halben Daten misst und meint: Ach die anderen sind mir zu ungenau nehmen wir die mal einfach als 0 an. :fresse:
#111
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6350
Zitat DonGeilo;13684245
Nun gehen wir davon aus das FUR bei beiden Karten die Theoretische Rohleistung sehr gut umsetzen kann, dann ist eine 4870 also schneller als eine GTX285 was in spielen aber meist nie der Fall ist, da dort die Rohleistung einfach nicht so gut umgesetzt werden kann.

Ganz so kann man das nicht formulieren. Auch in Spielen kann Rohleistung gut umgesetzt werden. Das Problem ist nur, in Spielen kommt es noch auf ganze andere Faktoren an, wie Pixel- und Texelfüllraten, also nicht nur Shader Durchsatz. Und da hat nVidia dann öfters mehr Rohleistung.
#112
customavatars/avatar81608_1.gif
Registriert seit: 05.01.2008
Thüringen
Admiral
Beiträge: 8533
Wann gibts denn nun endlich mal Bilder von der "Fermivorführung"? **ungeduldig auf Stuhl rumrutsch** :fresse:
#113
customavatars/avatar39455_1.gif
Registriert seit: 29.04.2006
Bayern/Bayreuth
w.a.t.e.r.c.o.o.l.e.d
Beiträge: 5066
läuft schon
#114
customavatars/avatar34930_1.gif
Registriert seit: 07.02.2006
Frankfurt/Oder
Banned
Beiträge: 1449
Ich musste schon wieder lachen.

"Allerdings stand die sagenumwobene GPU nicht im Mittelpunkt der Präsentation. Ohne neue Informationen wollte Nvidia-CEO Jen Hsun Huang die Fachpresse dann aber doch nicht gehen lassen. "Alle wollen wissen wann sie die GF100 endlichen kaufen können", sagte Huang. "Ich freue mich darüber Ihnen mitteilen zu können, dass die GF100 bereits in der Serienproduktion ist." "

Also so langsam wirds echt eng für den CEO. Wenn er nicht wirklich mal die Karte auspackt.

MFG
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]

  • GeForce RTX 2080 von ASUS, Gigabyte und PNY im Test

    Logo von IMAGES/STORIES/2017/ASUS-GEFORCE-RTX

    Nach dem Test der GeForce RTX 2080 in der Founders Edition, wollen wir uns nun die ersten Custom-Modelle genauer anschauen. Diese stammen von ASUS, Gigabyte sowie PNY. Zwei Modelle verwenden das Referenz-PCB von NVIDIA, eines baut aber auch schon auf einem eigenen PCB des Herstellers auf. Eine... [mehr]

  • ASUS ROG Strix GeForce RTX 2070 OC im Test

    Logo von IMAGES/STORIES/2017/ASUS-ROG-RTX2070

    Nach dem ersten Einstiegsmodell können wir uns nun auch eines der schnelleren Modelle der GeForce RTX 2070 anschauen. Die ASUS ROG Strix GeForce RTX 2070 OC ist eine typische ROG-Strix-Lösung, die das Maximum aus der Hardware herausholen soll. Allerdings gönnt sich ASUS auch einen... [mehr]