• Hallo Gast!
    Noch bis zum 20.07. kannst Du an unserer Umfrage zum Hersteller des Jahres teilnehmen! Als Gewinn verlosen wir unter allen Teilnehmern dieses Mal eine Grafikkarte Eurer Wahl für bis zu 1.000 EUR - über eine Teilnahme würden wir uns sehr freuen!

Wann wird die "reale" Grafik wohl möglich sein?

kuhnikuehnast

Enthusiast
Thread Starter
Mitglied seit
26.12.2008
Beiträge
279
Hi!
Was meint ihr? Bis jetzt erkennt man bei Pc Spielen ja immernoch, dass es irgendwie "nicht echt" ist... Es sieht ja immernoch nun ja... eben nicht wie Real Life aus... Was denkt ihr, wie lang dauert es noch, bis die Technik so weit ist, dass man Pc Spiele nicht mehr von realen Filmen oder Bildern unterscheiden kann? Den Gedanken hatte ich schon vor einigen Jahren, aber bisher ist es irgendwie immernoch nicht realisiert... :-) Vor allem die Frage: Was passiert dann? In dem Moment wär doch der Grafikkartenmarkt tot, oder nicht?

lg Kuhni
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das wird nie möglich sein...

Vom Aufwand den man in eine derartige Szene investieren müsste mal ganz zu schweigen...
 
Können tut man es schon, aber diese realität hebt man sich für andere gewinnbringendere Technologien auf.

Ob dies jemals für einen PC wie wir ihn kennen noch kommt mag ich deshalb zu bezweifeln.
 
Ich spiel nun seit ca. 1984 Computerspiele und in der Zeit hat sich enorm viel grafikmäßig getan. Glaube das es keine 10 Jahre mehr dauert bis man Spielegrafik hat, die "echt" aussieht :wink:
 
Wie meint ihr jetzt? Wenn ihr mal vergleicht, wie die Spiele vor ca. 10 Jahren waren und wie sie jetzt sind, hat sich doch total viel geändert! Kann es nicht sein, dass ihr da zu kurzfristig denkt? Klar wäre das jetzt total teuer und überzogen und was weiß ich... Aber überlegt mal, wie die Trailer von den Spielen vor 10 Jahren ausgesehen haben... Da hat man gesagt: Boah, wenn die Grafik mal so krass ist... Das wird eeewig dauern... :-) Wenn man sich überlegt, wären in dem Moment auch alle Schauspieler nicht mehr nötig... :-) Wär um einiges billiger... (Ok, nicht am Anfang, aber mit der Zeit, wenn sich die Technik verbilligt hat!)

Glaubt ihr wirklich nciht, dass es sowas in den nächsten 10 Jahren geben wird???
 
Naja wenn man sieht, in wieviel Filmen zig Animationen laufen warum denn nicht?
Die Frage ist nur wann und ob es aus Kostengründen umzusetzen wäre?
 
kommen wird es bestimmt. bis zu perfektion dauerts aber noch. denke das das noch 20 jahre dauern kann oder länger. der grund sind die entwickler. crysis (2007´) - fifa 2010 (2009)aufm pc. unterscheid wie tag und nacht.

crysis sieht zwar schön aus aber mehr nicht wenn man sich mal paar sachen genauer anguckt is das einfach nur pixelbrei. steine und so weiter. das dauert noch
 
Zuletzt bearbeitet:
Wenn ihr mit einer Person in Real spricht, kann man das in Spiele nicht darstellen, sowas gehts niemals!
 
kommen wird es bestimmt. bis zu perfektion dauerts aber noch. denke das das noch 20 jahre dauern kann.

crysis sieht zwar schön aus aber mehr nicht wenn man sich mal paar sachen genauer anguckt is das einfach nur pixelbrei. steine und so weiter. das dauert noch

Und Crysis ist atm die Spitze, andere Spiele sind viel mehr auf durchschnittliche PCs ausgelegt. Soll heißen die Entwicklung verläuft momentan langsam. Auch um den Mainstrammarkt zu erschließen/ zu bedienen. Next Gen Graphics wird noch etwas dauern,10 Jahre sind sehr optimistisch.
 
Ich spiel nun seit ca. 1984 Computerspiele und in der Zeit hat sich enorm viel grafikmäßig getan. Glaube das es keine 10 Jahre mehr dauert bis man Spielegrafik hat, die "echt" aussieht :wink:


So schnell wird es wohl nicht gehen.

Rein aus mathematischer Sicht.

Sehr vereinfachtes Modell: Eine verdoppelunge der Realität (nicht alleine auf die Auflösung bezogen) benötigt die 4 fache Rechenleistung bzw. zu berechnete Datenmenge


Beispiel:
Einfachstes Modell:
Stein fällt ins Wasser und verschwindet
= 2 Wirkungen: Fallen + Verschwinden
Mitteles Modell:
Stein fällt ins Wasser verschwindet und spritzt Wasser
=4 Wirkungen: Fallen + Verschwinden + Wasser spritzen + Wasser fallen
Komplexes Modell:
Stein fällt ins Wasser, verschwindet ,spritzt Wasser, wirft Wellen
= 8 Wirkungen: Fallen + Verschwinden + spritzt Wasser +Wirft Welle + Wassertropfen fallen + Wellen breiten sich auch + Tropfen schlagen aufs Wasser + Tropfen werfen Wellen + Wellen von Stein treffen auf Strand usw.


Je Komplexer die Realität dargestellt wird desto expotenziell nimmt der Rechnenaufwand und Datenmenge zu.

Die Schritte werden immer kleiner der Aufwand immer größer.

In 10 Jahren kriegen wir das nicht hin. Zu mindest so lange Moores Law noch gilt.
 
Und was denkt ihr dann, bis wann es wohl soweit sein wird? (Angenommen moores law ist bis auf weiteres gültig? Das müsste doch theoretisch berechenbar sein, oder? Ich studier leider kein Informatik, sonst wüsst ich bestimmt wie es geht! :-)

lg kuhni
 
Ich schau mal
images4wds.jpg
 
Das lässt sich leider nicht pauschal sagen, da es nicht alleine von der Datenmenge der Berechnung abhängt.
die Grafik muss auch dargestellt werden. Im moment haben die eigntlich die groteske Situation das die CPU's den GPU's deutlich voraus sind.
Im Moment ist es relativ egal ob ich eine 3GHz CPU oder 5GHz CPU habe.
Die meisten Games laufen kaum schneller oder langsamer weil die GPU's nicht mehr können.
Dann ist die Frage wie die Physik Berechnung der nach zuahmenden Umwelt berechnet wird. Da sind wir noch am Anfang.
Im Moment schaffen wir es nicht mal das fallen eines Blattes korrekt in Echtzeit mit vetretbaren Mitteln zu berechnen.
Das ist die derzeite Realität.
 
Mh, die Rechenkapazität muß dabei nichts zwangsläufig höher sein, es gibt Rechenmodelle mit überlagernden Bildern die nur ein paar Kb groß sind und somit nicht das ganze Bild berechnet werden muß.

Das Problem sind aber die Bildschirme gewesen und deren Reaktionszeit um diese ,ich sagmal ausschnitte, für das Auge darstellen zu können.
 
Für unmöglich würde ich es nicht halten, aber eine Zeitangabe ist eben unmöglich.
 
warum sollte man in einem spiel überhaupt reale grafik ála fernsehen wollen? ich will doch aus der realen welt "entfliehen" und während des spielens entspannen, anstatt hier quasi ein reales leben erneut zu spielen. klar, man hätte trotzdem noch andere geschichten etc zu durchlaufen, aber für mich gehört es dazu, dass das ganze irgendwie noch "comichaft" ist. bei spielen wie sims wäre das doch super öde (stell ich mir zumindest vor, habs noch nie gespielt).
nicht falsch verstehen: ich wünsche mir auch schöne spielegrafik. aber real soll es nicht sein. so crysis ist schon nett, aber viel mehr auch nicht.
also gute grafik ja, reale grafik nein.
duvo
 
Das lässt sich leider nicht pauschal sagen, da es nicht alleine von der Datenmenge der Berechnung abhängt.
die Grafik muss auch dargestellt werden. Im moment haben die eigntlich die groteske Situation das die CPU's den GPU's deutlich voraus sind.
Im Moment ist es relativ egal ob ich eine 3GHz CPU oder 5GHz CPU habe.
Die meisten Games laufen kaum schneller oder langsamer weil die GPU's nicht mehr können.
Dann ist die Frage wie die Physik Berechnung der nach zuahmenden Umwelt berechnet wird. Da sind wir noch am Anfang.
Im Moment schaffen wir es nicht mal das fallen eines Blattes korrekt in Echtzeit mit vetretbaren Mitteln zu berechnen.
Das ist die derzeite Realität.

Kommt drauf an aus welcher Sicht man den Fakt betrachtet...
Um die GPU mit Daten zu füttern reichen aktuelle CPUs sicher aus.

Aber das ist nur die eine Seite der Medalie...
Physik und KI oder andere Sachen sind Dinge, die kann man bis ins Unendliche mit Rechenleistung voll Pumpen, das Ergebniss wird immer besser werden.
Problem aktuell ist, es gibt schon seit mitte 2006 keinen signifikanten Leistungssprung im CPU Geschäft. Ein 3GHz Intel QX6800 ist nur einen Bruchteil in Summe langsamer als das heute schnellste Desktop Modell.
GPUs hingegen haben sich ver-x-facht von der Leistung.
Das zeigt auch die Auslegung deraktuellen Games, voll auf Grafik...

Nur gehört zum Aussehen wie Reallive noch weit mehr als nur Grafik dazu ;)


Ich sage, auf Absehbare Zeit unmöglich, wegen der expotentiellen Steigerung der Rechenleistung im vergleich zum Optikgewinn. Irgendwann wird der Optikzugewinn so klein sein, das es sich einfach nicht lohnt mehr Aufwand reinzustecken...

Mh, die Rechenkapazität muß dabei nichts zwangsläufig höher sein, es gibt Rechenmodelle mit überlagernden Bildern die nur ein paar Kb groß sind und somit nicht das ganze Bild berechnet werden muß.

Das Problem sind aber die Bildschirme gewesen und deren Reaktionszeit um diese ,ich sagmal ausschnitte, für das Auge darstellen zu können.

Das Problem ist aber viel eher, vor allem wenn man Landschaften darstellt...
Es wird fast keine Bildfolgen geben, wo ein Großteil des Bildes identisch zum vorhergehenden ist.
Ich stelle mir da grad ne Wiese vor, die im Wind bewegt wird...

Genau so wie du beispielsweise in ner Stadt am heißen Sommertag immer sodde Hitzewellen sehen wirst. Oder im Winter/Herbst den Nebel usw.
Es gibt sogut wie gar keine Szenen die statisch hintereinander abfolgen. Die Leistungseinsparung ist also extrem marginal wenn überhaupt vorhanden.
Klar man könnte das jetzt so machen, aber wir reden hier von RL, sprich 1:1 wie es draußen vor der Tür passiert... Und da wird auch nix weggelassen ;)
 
Zuletzt bearbeitet:
Das wird nie möglich sein...

Wenn leute bei solchen themen "nie" sagen, dann klopf' ich mir immer auf die schenkel, weil auch du dich mit einer solchen behauptung aller wahrscheinlichkeit nach irgendwann in die lange reihe jener einreihen musst, die falsch geraten haben. :haha:

Im moment haben die eigntlich die groteske Situation das die CPU's den GPU's deutlich voraus sind.
Im Moment ist es relativ egal ob ich eine 3GHz CPU oder 5GHz CPU habe.
Die meisten Games laufen kaum schneller oder langsamer weil die GPU's nicht mehr können.

Wieso grotesk? Es ist doch begründet der tatsache, dass die GPU überwiegenden teil der arbeit verrichten muss damit das was dann auf dem schirm erscheint auch gut aussieht und wenn man davon ausgeht, dass sich beide technologien leistungsmässig gleich schnell entwickeln würden (was sie nicht tun), dann wird das kleinere rädchen im getriebe immer schneller drehen als das hauptzahnrad, um es mal etwas blumig zu formulieren.

Es ist doch einfach nicht vergleichbar. Kannst ja auch das eye candy runterdrehen und zuschauen wie sich die GPU langweilt und die CPU schwitzt, weil sie die rohdaten nicht schnell genug zur GPU schaufeln kann.

Oder du zwingst die CPU mit hochwertigen physikberechnungen (statt es auf die GPU abzuwälzen) in die knie und schaust zu wie auch die FPS darunter leidet - dann wäre wohl zumindest auch die arbeitsteilung etwas fairer, grotesker wird die situation aber trotzdem nicht. ;)
 
Ich finde madjims Beispiel gar nicht so schlecht, die Frage nach dem "wann" ist aber unnötig, vor allem wenn man sie vehement stellt nachdem schon versucht wurde das Prinzip zu erklären... :hmm:

Da finde ich Tankmans Antwort ziemlich passend ;)

zu Duvo:

Sachen werden nicht immer aus Sinn gemacht, sondern einfach nur, weils geht. Da würde ich die Frage ob das jemand will oder nicht gar nicht groß stellen, davon abgesehen dass man reale Optik auch wunderbar mit dem Irrealen verbinden kann, wodurch der Effekt viel größert ist. Stichwort Glaubwürdigkeit und/oder Kontrast.

zu Scrush:

Dass Crysis verpixelte Bodentexturen hat kann ja wohl nicht dein Ernst sein, die sind alle hochauflösend. Irgendwas hast du falsch eingestellt :hmm:
Stell dich mal im Spiel in den Dschungel, an eine Stelle wo ein bisschen Licht durchkommt und richte den Blick leicht Richtung Boden, wenn dir das nicht ziemlich realitätsnah vorkommt, leidest du evtl. unter Realitätsverlust :d

Man darf außerdem nicht vergessen dass Crysis knapp 2 Jahre auf dem Buckel hat. Ich hab bislang nichts gesehen was besser aussieht. Zugegeben ich hab nicht -alles- gesehen aber das Spiel ist optisch mit Sicherheit immernoch weit vorne. Außerdem hat das Spiel eine lebhafte Spieldynamik und Plastizität. Die Tendenz ist jedenfalls gut, wenn auch eindeutig verbesserbar.

Aber egal, darum geht es ja auch nicht. Und in einen Crysis pro/contra Thread solls ja auch nicht ausarten.

Tatsache ist, dass die Grafikqualität voranschreitet. Tatsache ist auch, dass dieser Prozess immer langsamer wird. Zu beachten ist auch, dass derzeit immer hohle Körper und Objekte verwendet werden vielleicht geht die Tendenz ja irgendwann wieder Richtung Voxel, damit sollte das 3D noch plastischer wirken. Aber die Rechenleistung müsste dafür sicher ein vielfaches von dem sein, was wir aktuell vorfinden.

Bei Futurama, also im Jahre 3000, gibts immerhin Fernseher mit besserer Auflösung als die Realität. :haha:
 
Zuletzt bearbeitet:
Tatsache ist, dass die Grafikqualität voranschreitet. Tatsache ist auch, dass dieser Prozess immer langsamer wird. Zu beachten ist auch, dass derzeit immer hohle Körper und Objekte verwendet werden vielleicht geht die Tendenz ja irgendwann wieder Richtung Voxel, damit sollte das 3D noch plastischer wirken. Aber die Rechenleistung müsste dafür sicher ein vielfaches von dem sein, was wir aktuell vorfinden.

Evtl wollte Carmack mit der id Tech6 diesen weg beschreiten, jedenfalls gabs dazu mal einen Artikel in der PCGH.

Naja, rein optisch sollte es eigentlich wirklich nicht mehr lange dauern bis es echt aussieht (nicht so lange kann aber auch 20 Jahre heißen!). Allerdings wird es sich erst echt anfühlen bis auch Physik usw stimmig sind. Und dort wird ein großer Teil der Rechenleistung hinfließen noch bevor man das Optimum an Grafik erreicht.
 
Ich finde madjims Beispiel gar nicht so schlecht, die Frage nach dem "wann" ist aber unnötig, vor allem wenn man sie vehement stellt nachdem schon versucht wurde das Prinzip zu erklären... :hmm:

Bei Futurama, also im Jahre 3000, gibts immerhin Fernseher mit besserer Auflösung als die Realität. :haha:

Danke für die Lorbeeren ;)

Ich sage es immer wieder: Kaltblut weis immer was ;)

OT:

So einen Fernseher könnte ich momentan gebrauchen. Ich muss z. Zt. mit meinen Notebook gucken :(
 
@fdsonne
du hast Recht es wird nichts weggelassen, ich kann es hier sehr schwer erklären, aber stell dir vor man kann es so darstellen 1:1 wie im Kinofilm denn mehr realität ist nicht möglich, dass Problem bei einem Flachen Bildschirm ist die Tiefenschärfe und damit auch Unschärfe wie es das Auge in der Realität wahrnimmt - wenn Du unten in den linken Bildschirm schaust und innerhalb eines Augenaufschlages ( zehntel sekunde) in den rechten oberen Bildschirm wird die Tiefenschärfe nicht mit angepasst. Damit würdest Du obwohl alles dargestellt wird und sich auch bewegt kein 3D-Bild mehr erhalten bzw. sehen.

Wo her soll der Rechner auch Wissen wo wir gerade hinschauen, versuch Dich mal vor Deine Landschaft zu stellen und mach dir ein Gesammtbild (Winkel Ausschnitt Tiefe usw.)
und dann schau auf einen 5meter entfernten Stein Strauch oder irgend was - was passiert, was siehst Du dann ? Man könnte das Bild also Bildschirm mitzoomen, dass bekommt man noch hin aber wo her bekommt man die Info das Du nicht wo anders hinschaust ???und nur dann kann ich reali darstellen und berechnen weil es sonst keine ist, so wie Du es (Dein Auge) wahrnimmt oder auch Teile wegläßt
 
@fdsonne
du hast Recht es wird nichts weggelassen, ich kann es hier sehr schwer erklären, aber stell dir vor man kann es so darstellen 1:1 wie im Kinofilm denn mehr realität ist nicht möglich, dass Problem bei einem Flachen Bildschirm ist die Tiefenschärfe und damit auch Unschärfe wie es das Auge in der Realität wahrnimmt - wenn Du unten in den linken Bildschirm schaust und innerhalb eines Augenaufschlages ( zehntel sekunde) in den rechten oberen Bildschirm wird die Tiefenschärfe nicht mit angepasst. Damit würdest Du obwohl alles dargestellt wird und sich auch bewegt kein 3D-Bild mehr erhalten bzw. sehen.

Wo her soll der Rechner auch Wissen wo wir gerade hinschauen, versuch Dich mal vor Deine Landschaft zu stellen und mach dir ein Gesammtbild (Winkel Ausschnitt Tiefe usw.)
und dann schau auf einen 5meter entfernten Stein Strauch oder irgend was - was passiert, was siehst Du dann ? Man könnte das Bild also Bildschirm mitzoomen, dass bekommt man noch hin aber wo her bekommt man die Info das Du nicht wo anders hinschaust ???und nur dann kann ich reali darstellen und berechnen weil es sonst keine ist, so wie Du es (Dein Auge) wahrnimmt oder auch Teile wegläßt

Die Tiefenschärf bzw. Blur Effekt wird ja schon in Crysis nicht einmal schlecht simuliert. Doch wie schon von dir genannt "starr" da der Blickplunkt auf die Mitte des Bildes fixiert ist. Somit stört es eigentlich mehr.
Ich habe es immer abgeschaltet.
 
Das mit dem Auge wäre lösbar ( gibt es jetzt schon ) - die Leistung die erforderlich wäre es auf das Spel anzuwenden gibt es aber auf absehbare Zeit nicht.

Fazit
Wir werden es nicht mehr erleben, oder es bestenfalls im Altenheim bewundern^^
 
Ich bin der Meinung, dass es nicht 100 %ig möglich sein wird die Realität bzw. die "Optik" der Realität abzubilden.

Aber man wird dem sicherlich sehr nahe kommen.

Es gibt ja jetzt schon Dinge wo man aus einiger Entfernung zweimal hinschauen muss...

In den Details steckt der Teufel.
 
Bei Futurama, also im Jahre 3000, gibts immerhin Fernseher mit besserer Auflösung als die Realität. :haha:

naja je nach definition ist das nitmal soo falsch ^^. das auge sind durch die zäpfchen im prinzip ja auch nur pixel ^^

man bräuchte also nur ne gigantisch hohe auflösung ;-)
 
Ich bin der Meinung, dass es nicht 100 %ig möglich sein wird die Realität bzw. die "Optik" der Realität abzubilden.

Aber man wird dem sicherlich sehr nahe kommen.

Es gibt ja jetzt schon Dinge wo man aus einiger Entfernung zweimal hinschauen muss...

In den Details steckt der Teufel.

Ich würde nie nie sagen. Da sind schon viele auf die Schnauze gefallen.

Rein technisch wäre es heute schon möglich mit dem entsprechend vielen Cray Maschinen........
 
Ich meine jetzt auch nicht unbedingt wie das reale Auge es sieht... Ich meine eher, dass es wie im Film aussieht... Noch merkt man eben, dass die Physik und auch die Grafik hinterherhinken... Und mit dem wo das Auge hinblickt würde ich glaub eher davon ausgehen, dass es irgendwann Brillentechnisch geht...
 
Die Tiefenschärf bzw. Blur Effekt wird ja schon in Crysis nicht einmal schlecht simuliert. Doch wie schon von dir genannt "starr" da der Blickplunkt auf die Mitte des Bildes fixiert ist. Somit stört es eigentlich mehr.
Ich habe es immer abgeschaltet.

Genau, Du hast mein Bsp. richtig aufgenommen.

Denn was nützen Dir reale Texturen auf einem Flachbildschirm wenn sie statisch ablaufen und in einem falschen Winkel dargestellt werden.

Und wenn Dein Blickpunkt nicht statisch ist sondern Du in eine Ecke schaust und Deine Mausposition in der anderen blurt das Pixelgeschwader so das du schlecht was erkennst (ich sage immer Augenkrebs)

Zumindest ist der Blureffekt der Versuch einer optischen Verbesserung aber mit real hat der leider noch nichts zu tun

---------- Beitrag hinzugefügt um 18:07 ---------- Vorheriger Beitrag war um 18:04 ----------

Das mit dem Auge wäre lösbar ( gibt es jetzt schon ) - die Leistung die erforderlich wäre es auf das Spel anzuwenden gibt es aber auf absehbare Zeit nicht.

Fazit
Wir werden es nicht mehr erleben, oder es bestenfalls im Altenheim bewundern^^

Wenn Du TrackIR meinst das ist zu grob, müsste wesentlich präziser werden
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh