Voodoo5 6000 mit Core i7 @ 4 GHz

Ist schon klar aber alleine dem voodoo kult wegen

:banana:

Ist eigentlich alles ziemlich schade gewesen. Hätte mal gerne gewusst wie sich die Nachfolger der Voodoo 5/6 geschlagen hätten. Paar der Features waren ja schon bekannt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
:banana:

Ist eigentlich alles ziemlich schade gewesen. Hätte mal gerne gewusst wie sich die Nachfolger der Voodoo 5/6 geschlagen hätten. Paar der Features waren ja schon bekannt.

Wir wären heute garantiert schon ein ganzes stückchen weiter bei der grakatechnologie,viele revolutionäre projekte von 3dfx wie Kantenglättung u SLI wurden ja erst viel später wieder von nvidia aufgegriffen leider:(
 
Zuletzt bearbeitet:
Ich wollte schon fast fragen, ob es wirklich keinem auffällt, dass das nur ne V5 5500 is :fresse:

Ansich schwachsinn das Ganze, aktuelle Benchmakrs kann man nicht drauf laufen lassen, genausowenig wie aktuelle Spiele. Die Karte ist veraltet ...

Sollten mal lieber auf aktuellen Systemen uralte Spiele zum laufen bringen ... :d
 
Ich wollte schon fast fragen, ob es wirklich keinem auffällt, dass das nur ne V5 5500 is :fresse:

Ansich schwachsinn das Ganze, aktuelle Benchmakrs kann man nicht drauf laufen lassen, genausowenig wie aktuelle Spiele. Die Karte ist veraltet ...

Sollten mal lieber auf aktuellen Systemen uralte Spiele zum laufen bringen ... :d


Kein schwachsinn sondern retro kult:bigok:

Das ist wie beim commodore 64 der stirbt auch nie aus;)
 
Wir wären heute garantiert schon ein ganzes stückchen weiter bei der grakatechnologie,viele revolutionäre projekte von 3dfx wie Kantenglättung u SLI wurden ja erst viel später wieder von nvidia aufgegriffen leider

Stimmt schon. T&L hatte 3Dfx allerdings vollkommen verschlafen...
 
Shader Softwareseitig......wenn ich mir anschaue das ich ne 4GHz CPU brauche um halbwegs die knapp 300 MHz der PS2 zu emulieren kann man ja ahnen wo das hinführt....

Und mit ner Voodoo 6 ne Geforce 5 mit Shadern emulieren....da kann ich die Karte auch gleich in Brand setzen:shot:

Weis gar net genau, aber ist es nicht so, das bei den PS2 Emulatoren die komplette Grafik von der CPU gerechnet wird?
Wenn das so ist, dann ist klar, warum man ne riesige CPU brauch um überhaupt brauchbares Bild zu haben

Weiterer Nachteil von Konsolen Emulation, man kann idR die Details nicht verändern, sprich das Game läuft immer in vollen Details.
Was ja hier wiederum auch nicht der Fall wäre, denn es geht eher um die Möglichkeit der Lauffähigkeit mit den Voodoos und nicht um max. Details...
Man kann also sicher gut was an Effekten weg lassen um mehr Leistung zu bekommen...
 
Weis gar net genau, aber ist es nicht so, das bei den PS2 Emulatoren die komplette Grafik von der CPU gerechnet wird?

Ich glaube nicht. Mittlerweile wird auch unterstützung von DX9 oder DX10 geboten und Hardwarebeschleunigung lässt auf Berechnungen der Grafikkarte schließen.

Weiterer Nachteil von Konsolen Emulation, man kann idR die Details nicht verändern, sprich das Game läuft immer in vollen Details.

Zum einen wohl irrelevant wenn man sich anschaut was die PS2 auf den Bildschirm zaubert und zum anderen gibt es ein paar Tricks um die Grafik der PS2 anzupassen.

Man kann also sicher gut was an Effekten weg lassen um mehr Leistung zu bekommen...

Ein Spiel wie GT4 wäre heute wohl durch bloßes Softwarerendering der CPU möglich. Das Problem ist aber das ich für das PS2 Spiel auch die gesammte Umgebung der PS2 emulieren muss. Die Performance liegt nicht in zu hohen Anforderungen der Spiele begraben.
 
ich kann mir kein sinnloseres stück hardware vorstellen, vor 2-3 jahren wäre so ein adapter vielleicht noch halbwegs oft gekauft worden aber heute?
 
einen Ferrari von 1960 zu fahren ist auch sinnlos aber trotzdem sexy :P

und ja, wir sind alle nerds :>


ich muss mal schauen ob ich meine Vodoo 1 wieder finde xD
 
Aber ein Ferrari von vor 50 Jahren hat keine Vmax von 5 km/h sondern schon deutlich mehr ;)

Also ist das malwieder Apfel + Birne ..
 
blödsinn isses nich

es ist beides Nostalgie, nicht mehr und nicht weniger.

Der alte Ferrari fährt bei 20l/100km auch nur 170 Spitze, wenn überhaupt. Heute schaffen Sportwagen bei gleichem Verbrauch nahezu das doppelte.
 
Ich hatte selbst ne 5500 und hab sie selber noch ab und an mal gestestet mit den zusammengeschusterten Treibern, allerdings gings dann vor 2 Jahren in den Müll (Das war im großen Hardware-Vernichtungsackt 2007 bei mir :()

:heul: :wall:


Stimmt schon. T&L hatte 3Dfx allerdings vollkommen verschlafen...


Ja ist richtig, allerdings hatte T&L damals nur wenig Bedeutung, genau wie das zuvor von Nvidia beworbene aber von der Performance her kaum nutzbare 32bit.

Die Leute sind allerdings trotzdem darauf reingefallen...

Naja da hat sich im Vergleich zu heute ja nicht viel geändert :d
 
Ja ist richtig, allerdings hatte T&L damals nur wenig Bedeutung, genau wie das zuvor von Nvidia beworbene aber von der Performance her kaum nutzbare 32bit.

Naja, es hat sich durchgesetzt. Aber bis ein Feature es auch ins Spiel schafft dauert es halt.

War es nicht so das Voodoo nur 22 bzw 24bit Farbtiefe darstellen konnte? Oder war das bei Matrox?!?

Naja da hat sich im Vergleich zu heute ja nicht viel geändert

Ach das kann man so nicht sagen. Klar werden neue Dinge immer als Wegweisend angesehen. Lustigerweise dauert es dann meist immer 2 Jahre bis diese Dinge dann auch von Programmen aufgegriffen werden....und für selbige Programme ist die Hardwaregeneration in dene die Technik als erstes zum Einsatz kam dann zu langsam.
 
Ach das kann man so nicht sagen. Klar werden neue Dinge immer als Wegweisend angesehen. Lustigerweise dauert es dann meist immer 2 Jahre bis diese Dinge dann auch von Programmen aufgegriffen werden....und für selbige Programme ist die Hardwaregeneration in dene die Technik als erstes zum Einsatz kam dann zu langsam.

Bei manchen dingen dauerte es noch länger siehe SLI u AA;) Aber das lag ja nicht mehr in 3dfx hand leider u nvidia hat sich erstmal auf den patenten ausgruht,bzw sie in ne schublade gesteckt:(
 
Zuletzt bearbeitet:
Naja, SLI ist nun nicht gerade ne Technik die wirklich wichtig ist....^^
Aber AA war damals revolutionär, genau wie motion Blur. Die Leute von 3Dfx hatten schon gute Ideen und Ansätze, allerdings hat man halt Firmenstrategisch so einige Fehler gemacht. Die Sache mit STB war ja nu wirklich nicht toll!
 
Naja, SLI ist nun nicht gerade ne Technik die wirklich wichtig ist....^^
Aber AA war damals revolutionär, genau wie motion Blur. Die Leute von 3Dfx hatten schon gute Ideen und Ansätze, allerdings hat man halt Firmenstrategisch so einige Fehler gemacht. Die Sache mit STB war ja nu wirklich nicht toll!

Die fehler machen aber auch andere firmen siehe nvidia;) Nur haben sie heute mehr finanzielle mittel um ihre falsche firmenpolitik auszubügeln als das damals bei 3dfx der fall war:shot:
 
Ich hätte damals nicht damit gerechnet das 3Dfx pleite geht. Kennt eigentlich noch jemand die Werbung vom VSA100 die damals im Fernsehen lief?

Edith sagt:

Geil, gefunden:
http://www.youtube.com/watch?v=DmaYH1F6kho

Ich meine aber es gab davon auch ne Version in deutsch, find ich aber nicht.
 
Zuletzt bearbeitet:
Ja ist richtig, allerdings hatte T&L damals nur wenig Bedeutung, genau wie das zuvor von Nvidia beworbene aber von der Performance her kaum nutzbare 32bit.

Die Leute sind allerdings trotzdem darauf reingefallen...

was heißt denn reingfallen?

geometrieberechnungen auf die grafikkarte auszulagern ist ein bahnbrechender meilenstein und die vorlage für die heutigen vertex-shader.
32 bit hat damals zwar viel leistung verschlingt aber war wohl die einfachste lösung dem dithering entgegen zu wirken. sah halt damals deutlich besser aus und 3dfx hatte zu dieser zeit nur den 22bit filter...

mfg
 
was heißt denn reingfallen?

geometrieberechnungen auf die grafikkarte auszulagern ist ein bahnbrechender meilenstein und die vorlage für die heutigen vertex-shader.
32 bit hat damals zwar viel leistung verschlingt aber war wohl die einfachste lösung dem dithering entgegen zu wirken. sah halt damals deutlich besser aus und 3dfx hatte zu dieser zeit nur den 22bit filter...

mfg

Stimmt schon. 3Dfx arbeitete aber schon an einer ähnlichen Technik in Form eines zusätzlichen Chips. Es ging nur darum ob 3Dfx das wirklich verschlafen hatte...

Noch besser als die 6000er ist übrigens jene hier: Quantum3D AAlchemy 8164

q3d_aalchemy.jpg


Ganze 8 Chips mit 512MB Speicher verrichten hier ihren Dienst...
 
was heißt denn reingfallen?

geometrieberechnungen auf die grafikkarte auszulagern ist ein bahnbrechender meilenstein und die vorlage für die heutigen vertex-shader.
32 bit hat damals zwar viel leistung verschlingt aber war wohl die einfachste lösung dem dithering entgegen zu wirken. sah halt damals deutlich besser aus und 3dfx hatte zu dieser zeit nur den 22bit filter...

mfg
Was hat den leuten damals 32bit gebracht ohne die nötige performance dazu:shot:

3dfx hatte zwar nur 22bit aber dafür den modi kantenglättung der wenigstens performancetechnisch lief;)


Geilomat:bigok:

Daran konnte ich mich gar nicht mehr erinnern:haha:
 
Zuletzt bearbeitet:
-soweit ich weiss hat Nvidia zwar das Bild mit 32bit ausgegeben, die Karten konnten aber nur mit 18 bit intern rechnen...

Die Voodoo hat alles mit 22bit gerechnet und am Ende auf 16bit runtergerechnet.
Deshalb sah das Bild auf ner Voodoo auch immer besser aus...


ps: hab atm ne V3 3000pci im Hauptsys sitzen *stolz*
 
Was hat den leuten damals 32bit gebracht ohne die nötige performance dazu:shot:

extra für dich.



scully1234 schrieb:
3dfx hatte zwar nur 22bit aber dafür den modi kantenglättung der wenigstens performancetechnisch lief;)

die kantenglättung (OGSSAA) und 32bit kam bei 3dfx erst mit dem vsa100/101. ich spreche aber von 98/99, zu zeiten des v2-1000 und avengers.

mfg
 
Adapter stellt AMDs Athlon XP die schnellstmögliche CPU dar, für alle schnelleren Plattformen fehlt der AGP-Unterbau.

Also ich hatte vor 2 Jahren noch mein AS Rock 4CoreDual-VSTA mit meinem e4300...das hatte auch n AGP-Slot als meine Graka kaputt war hatte ich ne Geforce 2mx damit laufen..aber die Voodoo würde nich auf sonem Board funzen oder? Was hat die denn für 'nen AGP-Slot?
 
Gelöschter Beitrag

Dieser Beitrag wurde auf Wunsch des Nutzers gelöscht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh