G70 Neuigkeiten!

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also ich glaube das nvidia mit dem ganzen Release der Karte ein Fehler gmeacht hat. Warum bringen sie di Karte so früh raus, somit hat ATI viel mehr zeit um eine bessere Karte und kleine Mängle schonmal früh zu beseitigen. Außerdem kann ich ncith verstehen warum SLI nichtmit allen Karten geht, ich mein ein SLI System mit zwei 7800GT würd doch auch schon reichen. Ich find das ein bisschen un überdacht von Nvidia, aber kann mir geal sein ich werd denk ich mal zu ATI greifen, weil zurzeit sieht es für ATI einfach besser aus.
 
@Enomeniepartes: 2,6Ghz sind niemals 4200+ o_O nurmal so nebenbei...

@Topic: warum Gerüchten glauben wie die hersteller sowieso machen was sie wollen( 2 x Gf6600Gt auf 1 Karte - SLI fähig, Gf6600 SLi fähig...)
 
Ist dann ungefahr 30% schneller als ein 6800 Ultra-lohnt sich eigentlich nicht für von ein 6800gt aufrüsten zu ein 7800 Karte!
 
Ich denke nicht das die Karte so schnell auch für AGP zu bekommen sein wird. Ich denke jetzt ist bald der richtige Zeitpunkt um auf PCI-E zu wecheln. :heul:
 
430 Mhz-24Pipes=Roh-Leistung ca 50% mehr-Speicher 150 Mhz mehr(ca 20%) ist nur theorie in Praxis schätz ich mal 30% kann naturlich mehr sein!(mit treiber optimierung)
 
Enomeniepatres du denkst zu viel ;) *hrhr*
eine AGP variante sollte kurz nach der PCIe wenn nich gleich mit ihr herauskommen, der Bridgechip funzt doch tadellos, wo ist das problem?
 
Kann ja auch sein, dass Nvidia ertsmal was zeigt um zu sehen was ATI macht.

Antworten kommen spätestens wenn der G70 verfügbar ist.
 
Hmmm ... 26 Ampere auf der 12 Volt Schiene ... mich würd' interessieren was die Karte alleine benötigt. Ich mein ich hab' ein Enermax 475 Netzteil mit 470 Watt und zwei 12V Schienen mit 16 und 15 Ampere. Die mit 15 ist alleine für die Graka. Sollte doch reichen oder ?
Bzgl. der Geschwindigkeit möcht' ich jetzt gar nicht herumrechnen - denn es ist ja auch ein neuer Chip - die können da durchaus was an der Architektur verändert haben sodaß sie wesentlich performanter als eine vergleichbare 6800er Karte ist.

Ich sag' abwarten ... dann die ATI abwarten ... informieren / Reviews / Vergleichstests schmökern ... und dann entscheiden.
 
mal sehen, wie ATI kontert.
bin gespannt.

jetzt können sie sich ja drauf einstellen und noch etwas an den spannungen und takten schrauben...
 
ATI wird bestimmt seinen R520 mit seiner MVP Technologie bestücken :d
Wenn dann zwei R520er miteinander auskommen, wird ATI nVidia diesmal platt machen :lol:
 
what meint ihr

kann man
nvida wie microsoft vergleichen früher release der karten und dann kontert wie die ps3 durch super technik auch ati ? ;)

was ich aber echt nicht verstehe
NVIDA MACHT DAS GLEICHE WIE INTEL MEHR MHZ mehr STROM MEHR
WÄRME...
wo geht ds hin zu standad Waterkühlung ? :rolleyes:

p.s. wenn ich das lese 400 watt
und jetzt noch ein Intel Pentium Xtrem Edition

= 700 Watt ? :stupid:

Da kaue ich mir lieber

ATI mit max 10 % weniger leistung zu G70 dafür 200 WATT weniger stromverbrauch !!! :coolblue:
 
so könnte man das sehen ;)

Und ATI mit AMD verglichen. Man könnte meinen, das sind die besten Anbieter. ;)Wie man sieht (AMD) kommt man auch ohne MHZ sehr sehr :p gut zurecht.
 
komm 200 watt :fresse:, vielleicht wenn du nen halogenstrahler auf der graka einsteckst
 
Ist das bei den aktuellen highendkarten nicht so, dass die niVida karten n geringeren Takt und ne geringere Verlustleistung als die ATI pedanten haben? *auf die Hardwareluxx test verweis*

MfgICH
 
geringeren takt ja aber mehr power fürn kühler :fresse:
das ist aber nur im idlemodus so, wenn die volle power laufen ist da nur ein kleiner unterschied zwischen
 
Eben - im 3D Betrieb wenn die Karten gefordert werden brauch beide viel Strom. Da ist nicht viel Unterschied. Und @mylid - da geht eher ATI in die Richtung mit mehr MHz. Denn mit 400-450 MHz ist nVidia noch recht weit von ATIs (jetzt schon) > 500 bzw. 550 MHz.
Also es werden beide Karten wieder viel Strom fressen, riesen Kühler haben und viel Leistung besitzen. Ob einer der beiden Grafikchip- Schmieden wo ein Problem mit der Abwärme / Stromaufnahme der Chips hat wird sich erst zeigen.
 
da fällt mir ein

warum verkauft intel keine grafikkarten chip alla pentium M technik ?

:hmm:
 
myild schrieb:
da fällt mir ein

warum verkauft intel keine grafikkarten chip alla pentium M technik ?

:hmm:


Weil Intel eine Prozessor und Mainboard Firma ist und mit Grafikkarten nichts am Hut hat? Wieso sollten sie sich zwischen zwei so starke Firmen drängeln wenn sie nicht mal ihre Hauptprodukte gescheit hinbekommen?
 
Riverna schrieb:
Weil Intel eine Prozessor und Mainboard Firma ist und mit Grafikkarten nichts am Hut hat? Wieso sollten sie sich zwischen zwei so starke Firmen drängeln wenn sie nicht mal ihre Hauptprodukte gescheit hinbekommen?

Nuja - Intel hat da schon mal versucht "leicht" mitzumischen.
Die Intel 740 war eine recht weit verbreitete Grafikkarte die günstig und halbwegs schnell war. Allerdings konnte sie damals schon der TNT oder den ATI Karten bzw. den 3DFX Karten nicht das Wasser reichen.

Und jetzt ist Intel doch eh bei den Grafikkarten voll dabei mit fast 50% Marktanteil im PC Grafikbereich :fresse:
Zumindest im LowBudget Bereich mit Ihren Onboard Lösungen sind sie fast ungeschlagen.
Naja und was will Intel da noch mehr ? Viel Geld und Zeit in die Entwicklung von High End Grafikchips stecken um im High End Bereich wo es derzeit zwei große Anbieter gibt ein paar Prozent mehr gewinnen - denke nicht. Da geb' ich Dir vollkommen recht Riverna.
 
Zuletzt bearbeitet:
endlich mal was gescheites.

Eben intel hat nicht gerade nen kleinen anteil an grafikkarten. Nicht jeder außer den meisten hier im forum ist spieler und hardware freak der mit der neusten generation ausgestattet sind.

Die 30% Mehrleistung klingen imho realistisch, das müsste man morgen mal gegenrechnen und vielleicht ein paar 6800 LE vs 6800 vs 6800 GT benches und daten zu rande ziehen.

Die verlustleistung wär mir erstmal scheiss egal, ich hatte auch schon eine 5800 Ultra. Und bisher dürfte das so ungefähr die spitze gewesen sein.

Passive ram kühler und ne wakü drauf und sie tat keinen mucks mehr :coolblue: Ich weiß keine lösung für jeden aber grafikkarten power wird auf absehbare zeit fast nur durch raw power gebracht werden.

mfg, avalon.one
 
Wenn dann zwei R520er miteinander auskommen, wird ATI nVidia diesmal platt machen

und dann wird nv aufgekauft :maul: :fresse:

aber die neuen ATIs sollen doch in nem kleinerem verfahren hergestellt werden (bei IBM, war das nicht so???)-->weniger abwärme bei gleicher leistung...
 
hier schreibt mal the inquirer mal wieder was nettes, zwar kann man dennen nicht immer glauben, aber ihrgendwie haben sie dann im endeffekt doch recht gehabt mit ihren spekulationen bzw ihrgenwelchen 1. person infos....
im 90nm prozzes soll nun der G70 gebaut werden!
 
Zuletzt bearbeitet:
also im gleichem prozess wie der R520.
sollten sich also beide im "hitzevergleich" nix nehmen...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh