Seite 1 von 2 1 2 LetzteLetzte
Ergebnis 1 bis 25 von 26
  1. #1
    News Avatar von HWL News Bot
    Registriert seit
    06.03.2017
    Beiträge
    1.290


    Standard Xbox: Entwickler spricht von dedizierter Ray-Tracing-Hardware von AMD

    ray-tracingEs wurde schon viel über die Hardware der kommenden Konsolengenerationen geschrieben. Sowohl Microsoft für die nächste Xbox als auch Sony für die nächste Playstation werden auf einen Custom-Chip von AMD zurückgreifen. In einem
    ... weiterlesen


  2. Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

  3. #2
    Kapitän zur See Avatar von Elmario
    Registriert seit
    21.01.2006
    Beiträge
    3.976


    Standard

    Gähn!

    Hat eigentlich Irgendjemand Rey-Tracing in Spielen gewünscht?
    Da macht ein Hersteller mal Was anders, und schon muss Alles hinterherrennen, ohne zu reflektieren ob die User den Kunden überhaupt wollen. Aber man hat ja heute eh keine Wahl mehr, Friss oder stirb!

  4. #3
    Matrose
    Registriert seit
    19.06.2011
    Beiträge
    23


    • Systeminfo
      • Motherboard:
      • Asus Crosshair 6 Extreme
      • CPU:
      • Ryzen 7 1800x 3,9GHz
      • Systemname:
      • Elaine
      • Kühlung:
      • Wasser
      • Gehäuse:
      • Lian Li PC011
      • RAM:
      • Corsair 32GB 3000mhz LED
      • Grafik:
      • EVGA GTX 1080 SC Hybrid
      • Storage:
      • 2x SAMSUNG SSD 970 evo plus 1TB
      • Monitor:
      • Eizo Foris FS 2735
      • Netzwerk:
      • zyxel telekom standard router
      • Sound:
      • Creative Sound BlasterX AE-5
      • Netzteil:
      • Enermax Platimax DF 1050W
      • Betriebssystem:
      • Windows 10 Pro
      • Sonstiges:
      • 2x Focal Alpha 65 Studiomonitore, Rode NT USB
      • Notebook:
      • Acer Nitro AN15-515-5491
      • Handy:
      • Oneplus 5T 128GB 8GB Ram

    Standard

    Hat eigentlich Irgendjemand Rey-Tracing in Spielen gewünscht?
    Natürlich ist RAYtracing erwünscht und sollte auch so schnell wie möglich optimiert werden und der Standard für realistische Beleuchtungseffekte werden.
    In welchem Hinterweltlerdorf muss man wohnen, um sowas nicht zu wollen.

    Solang man die Option hat, es auszuschalten,
    sollten die Effekte wider allem nicht zusagen oder weil man eben die extra Performance bei kompetetiven Spielen braucht,
    sehe ich da kein Grund zur Beanstandung.

    Weiter so!
    Geändert von Schlafanzug93 (10.09.19 um 18:01 Uhr)

  5. #4
    Kapitänleutnant Avatar von jrs77
    Registriert seit
    17.06.2005
    Beiträge
    1.812


    Standard

    Ich wäre ja dafür, daß man erst mal die Spiele ansich besser macht, bevor man ewig viel Arbeit in die Grafik steckt. Die erfolgrteichsten Spiele der letzten 10 Jahre sind nicht die, die die beste Grafik haben sondern im gegenteil eher mit einer Comic-Grafik daherkommen.
    Jonsbo U2 - AsRock Fatal1ty B450 Gaming-ITX/ac | AMD R7-2700 | Cruicial Ballistix 16GB DDR4-3000 | ASUS Phoenix GeForce RTX 2060 | Samsung 970 Evo Plus M.2 500GB | Kingston UV500 960GB
    Jonsbo U1 - Gigabyte H97N-WiFi | intel i7-5775C | Cruicial Ballistix 16GB DDR3L1600 | Cruicial MX200 250GB | WD Blue 2TB

  6. #5
    Kapitän zur See Avatar von VorauseilenderGehorsam
    Registriert seit
    16.02.2017
    Ort
    Ubi bene, ibi patria
    Beiträge
    3.193


    • Systeminfo
      • Motherboard:
      • Asus Prime X470 Pro
      • CPU:
      • Ryzen 2400G
      • Kühlung:
      • Scythe - Kotetsu Mark II TUF
      • Gehäuse:
      • Cooltek W2 black
      • RAM:
      • Vengeance LPX DDR4 16GB
      • Grafik:
      • onboard
      • Storage:
      • Samsung Evo 970 512GB, Sandisk Extr. Pro 960GB
      • Monitor:
      • Samsung U32H850
      • Sound:
      • SMSL SAD25 - gazza skye - BD DT1770
      • Betriebssystem:
      • Win 10
      • Sonstiges:
      • Panasonic TX-65DXW904
      • Photoequipment:
      • Oly EM-1
      • Handy:
      • Redmi 5 Plus

    Standard

    Wie auch immer erfolgreich angesehen wird.

    Nehmen wir die verkauften Einheiten, für die XBOX One, weil es so schön passt, Zitat von Wikipedia, nicht überprüft.

    1 Call of Duty: Black Ops III 2015 7,38 Millionen
    2 Grand Theft Auto V 2014 7,04 Millionen
    3 Call of Duty: Advanced Warfare 2014 5,29 Millionen
    4 Battlefield 1 2016 4,90 Millionen
    5 Halo 5: Guardians 2015 4,85 Millionen
    6 Fallout 4 2015 4,63 Millionen
    7 Call of Duty: Infinite Warfare 2016 4,60 Millionen
    8 Star Wars Battlefront 2015 4,19 Millionen
    9 Minecraft 2014 4,12 Millionen
    10 FIFA 17 2016 4,06 Millionen

    Jetzt kann sich anhand der Liste mal jeder ein Bild davon machen, was erfolgreich war und wie die Grafik, im Vergleich zu anderen Spielen war/ist.

  7. #6
    Leutnant zur See Avatar von SashaFierce
    Registriert seit
    16.04.2013
    Beiträge
    1.266


    • Systeminfo
      • Motherboard:
      • Asus Rampage Formula x48
      • CPU:
      • Intel Core 2 Duo E8400
      • Kühlung:
      • Alpenföhn Nordwand
      • Gehäuse:
      • Corsair Obsidian 750D
      • RAM:
      • Corsair Dominator 4 GB
      • Grafik:
      • AMD Radeon HD 5770
      • Storage:
      • OCZ Vertex 2 60 GB
      • Monitor:
      • Samsung
      • Netzwerk:
      • Fritzbox
      • Sound:
      • Asus Xonar DGX
      • Netzteil:
      • Be Quiet Dark Power P10 550 W
      • Betriebssystem:
      • Win7 64 Bit
      • Notebook:
      • HP Probook 470G3 + Sony Vaio
      • Photoequipment:
      • Panasonic

    Standard

    Ich denke mal hätte es nicht immer wieder neue Grafik(techniken) gegeben sähen die Spiele jetzt noch so aus wie vor 20 Jahren

  8. #7
    Obergefreiter
    Registriert seit
    13.07.2014
    Ort
    Graz
    Beiträge
    80


    Standard

    Zitat Zitat von Elmario Beitrag anzeigen
    Gähn!

    Hat eigentlich Irgendjemand Rey-Tracing in Spielen gewünscht?
    Geistert der Wunsch nach Echtzeit Raytracing in Videospielen nicht schon viele Jahre, im Internet rum? Damals gabs die Technik nicht, jetzt ist sie da.

  9. #8
    Leutnant zur See
    Registriert seit
    20.07.2017
    Beiträge
    1.248


    Standard

    Zitat Zitat von Elmario Beitrag anzeigen
    Da macht ein Hersteller mal Was anders, und schon muss Alles hinterherrennen, ohne zu reflektieren ob die User den Kunden überhaupt wollen.
    Wenn man sich danach richtet, was der Kunde HEUTE will und alles andere ignoriert, ist man MORGEN Pleite, weil man den Anschluss verloren hat.
    HEUTE will der Kunde das beste was aktuell geht möglichst günstig. Davon was MORGEN gehen könnte, davon hat der keinen Plan, das kann er sich meist noch nichtmal vorstellen. Aber Rückschritte will er nicht hinnehmen, die sind aber bei einem Technologiewechsel häufig erstmal erforderlich.
    Ich kann mich noch an das Aufkommen von LCD-Monitoren erinnern. Die wollte Anfangs auch keiner haben, weil die zu klein, zu träge, zu farbarm und was weiß ich sonst noch alles waren. Nicht zuletzt der Preis. Warum einen 15" LCD-Monitor für 600€ kaufen, wenn man eine 21"-Röhre schon für 200€ kriegt und die dann auch noch "besser" ist?

    Die ersten 3D-Spiele waren auch "meh", weil sie viel viel schlechter aussahen, als derzeitige 2D-Titel. Nach deiner Argumentation hätte man das mit "3D" also lieber gleich bleiben lassen sollen, weil das damals keiner wollte, weil das was man in 2D schon hatte, eh besser war? Was würden wir dann heute wohl spielen?

    Zumal bei Raytracing jetzt schon bekannt ist, dass das Verhältnis von Grafikqualität und Rechenaufwand ab einem gewissen Grad zugunsten von Raytracing kippen wird.
    Bei aktueller Rasterization werden heute schon viele rechenaufwändige "Tricks" angewandt um Effekte hinzuschummeln, z.B. Spiegelungen. Und selbst das hat dabei schon Einschränkungen, wie z.B. das selbst mit Tricks via Rasterization nur mit Elementen geht die Onscreen sind, also sowieso gerendert werden müssen. Raytracing dagegen bringt das inklusive ohne diese Einschränkung.

    Also Beispiel:
    Rechenleistung von 10 - Rasterization - An Raytracing ist noch gar nicht zu denken
    Rechenleistung von 20 - Rasterization aufgehübscht mit Tricks - Raytracing ist immernoch keine Option
    Rechenleistung von 40 - Rasterization mit vielen Tricks - Raytracing wird denkbar
    Rechenleistung von 80 - Rasterization mit noch mehr Tricks - Wird schon mit Raytracing kombiniert, weil es in Teilen effizienter ist und die Rechenleistung ausreicht um es partiell einzusetzen
    Rechenleistung von 160 - Die Tricks von Rasterization lohnen sich nicht mehr, sie bedingen soviele und umständliche workarounds um etwas dann trotzdem nur notdrüftig zu faken, das es mit Raytracing effizienter und besser geht.

    Wenn die Rechenleistung 160 erreicht, willst du als Weltmarktführer in 3D-Hardware aber nicht ohne Raytracing dastehen. Und wenn du dann erst damit anfängst, hast du die Entwicklung schon verpennt.

    - - - Updated - - -

    Zitat Zitat von David B Beitrag anzeigen
    Geistert der Wunsch nach Echtzeit Raytracing in Videospielen nicht schon viele Jahre, im Internet rum? Damals gabs die Technik nicht, jetzt ist sie da.
    Rytracingspielereien gabs afaik schon bevor Spiele überhaupt gerastert wurden. Es hat nur massiv an Rechenleistung gefehlt um das in Echtzeit hinzukriegen.
    Ich habe Mitte der 90er schon mit PovRay rumgespielt, da kam gerade 3D-Rasterization für Spiele auf (PSX und so, nach ersten Versuchen auf z.B. dem SNES (Starwing und so) und so 2,5D-Engines wie Doom). Das was Povray damals schon geliefert hat, war schon dem überlegen, was wir heute spielen. Es fehlte nur an Rechenleistung. Mein 486er damals hat halt zum Rendern einer simplen Szene mit 3 Kugeln (inkl. Spiegelungen) nur eine Stunde gebraucht.
    Oder andersrum gesagt: Raytracing gabs scho vor Rasterization.
    Geändert von Liesel Weppen (10.09.19 um 19:41 Uhr)

  10. #9
    Oberstabsgefreiter
    Registriert seit
    09.03.2008
    Ort
    Schweinfurt
    Beiträge
    492


    Standard

    NVIDIA kann die besonders aufwendigen Berechnungen also auslagern und hält somit die Ressourcen der Shader für das klassische Rasterization-Rendering frei
    Stimmt das? Ich sehe bei Raytracing Benchmarks in denen eine 2080ti in FullHD bei unter 60fps rumkrebst. Wie passt das zusam

    Zitat Zitat von Liesel Weppen Beitrag anzeigen
    Wenn man sich danach richtet, was der Kunde HEUTE will und alles andere ignoriert, ist man MORGEN Pleite, weil man den Anschluss verloren hat.
    HEUTE will der Kunde das beste was aktuell geht möglichst günstig. Davon was MORGEN gehen könnte, davon hat der keinen Plan, das kann er sich meist noch nichtmal vorstellen. Aber Rückschritte will er nicht hinnehmen, die sind aber bei einem Technologiewechsel häufig erstmal erforderlich.
    Ich kann mich noch an das Aufkommen von LCD-Monitoren erinnern. Die wollte Anfangs auch keiner haben, weil die zu klein, zu träge, zu farbarm und was weiß ich sonst noch alles waren. Nicht zuletzt der Preis. Warum einen 15" LCD-Monitor für 600€ kaufen, wenn man eine 21"-Röhre schon für 200€ kriegt und die dann auch noch "besser" ist?

    Die ersten 3D-Spiele waren auch "meh", weil sie viel viel schlechter aussahen, als derzeitige 2D-Titel. Nach deiner Argumentation hätte man das mit "3D" also lieber gleich bleiben lassen sollen, weil das damals keiner wollte, weil das was man in 2D schon hatte, eh besser war? Was würden wir dann heute wohl spielen?

    Zumal bei Raytracing jetzt schon bekannt ist, dass das Verhältnis von Grafikqualität und Rechenaufwand ab einem gewissen Grad zugunsten von Raytracing kippen wird.
    Bei aktueller Rasterization werden heute schon viele rechenaufwändige "Tricks" angewandt um Effekte hinzuschummeln, z.B. Spiegelungen. Und selbst das hat dabei schon Einschränkungen, wie z.B. das selbst mit Tricks via Rasterization nur mit Elementen geht die Onscreen sind, also sowieso gerendert werden müssen. Raytracing dagegen bringt das inklusive ohne diese Einschränkung.
    Na da muss ich aber eine andere Meinung in den Raum werfen:
    Über 1000€ für eine Grafikkarte ist weit ab von günstig. Alles unterhalb einer 2080ti kann man bezüglich Raytracing in die Tonne kloppen.
    Bei TFT damals war nicht zu klein sondern zu teuer das Stichwort. Mein 21" Röhre mit 35kg war günstiger als mein 19" TFT der folgte. Wobei 21" damals schon übel war, in der Firma hat 17" Röhre 17" TFT abgelöst. Das aber in Einklang mit Raytracing und den völlig überteuerten Grafikkartenpreisen zu machen ist schon sehr krude.
    Die ersten 3D Spiele waren geil. Es war aber ungewohnt und manchen wurde schlecht, vor allem weil dann Maussteuerung hinzugekommen ist. Duke3D mit seinem Fake3D/Wolfenstein bzw. Return to Castle Wolfenstein und co. waren schon der Hammer.

    Ich für meinen Teil kann gerne auf RT verzichten bis eine 300€ Grafikkarte es anständig darstellen kann. Bis das passiert sind 4K Monitore Standard und bis das alles flüssig zueinander passt vergehen noch 5-X Jahre.
    Davor: Asus P5W DH Deluxe, Q6600@3GHz
    Aktuell: Asus P8Z77-V, i7-3770K@4,2Ghz@1,168V

    HTPC: ASRock FM2A88X-ITX+, AMD 7850K, 16GB 2400Mhz Ram, mSATA, SSD, 4x 4TB RED, Node 304

  11. #10
    Leutnant zur See
    Registriert seit
    20.07.2017
    Beiträge
    1.248


    Standard

    Zitat Zitat von Numrollen Beitrag anzeigen
    Stimmt das? Ich sehe bei Raytracing Benchmarks in denen eine 2080ti in FullHD bei unter 60fps rumkrebst. Wie passt das zusam
    Das passt insofern zusammen, dass sie nicht alles direkt in Hardware beschleunigen, sondern auch auf Shader zurückgreifen.
    Würden sie das NUR mit Shadern machen, wäre der Performanceeinbruch noch höher.


    Zitat Zitat von Numrollen Beitrag anzeigen
    Na da muss ich aber eine andere Meinung in den Raum werfen:
    Über 1000€ für eine Grafikkarte ist weit ab von günstig. Alles unterhalb einer 2080ti kann man bezüglich Raytracing in die Tonne kloppen.
    Hast du meinen Beitrag den du zitiert hast gar nicht gelesen, oder nur nicht verstanden? Wo habe ich was von günstig (im finanziellen Sinne) geschrieben?


    Zitat Zitat von Numrollen Beitrag anzeigen
    Bei TFT damals war nicht zu klein sondern zu teuer das Stichwort. Mein 21" Röhre mit 35kg war günstiger als mein 19" TFT der folgte. Wobei 21" damals schon übel war, in der Firma hat 17" Röhre 17" TFT abgelöst. Das aber in Einklang mit Raytracing und den völlig überteuerten Grafikkartenpreisen zu machen ist schon sehr krude.
    Ah, bei den Monitoren lags am Preis, aber die Grafikkarten sind zu teuer, was natürlich nichts mit dem Preis zu tun hat.
    Wer zwingt dich denn einen 2080Ti zu kaufen, wenn du eh kein Raytracing haben willst?

    Zitat Zitat von Numrollen Beitrag anzeigen
    Ich für meinen Teil kann gerne auf RT verzichten bis eine 300€ Grafikkarte es anständig darstellen kann. Bis das passiert sind 4K Monitore Standard und bis das alles flüssig zueinander passt vergehen noch 5-X Jahre.
    Richtig, BIS. Und wenn es dann soweit ist, freust du dich wie ein Schnitzel, das andere Leute (Early Adopter) die Entwicklung finanziert haben, andernfalls hättest du dann nämlich gar nichts neues und würdest immernoch spielen wie vor 10 Jahren.

  12. #11
    Kapitän zur See Avatar von Elmario
    Registriert seit
    21.01.2006
    Beiträge
    3.976


    Standard

    Zitat Zitat von Schlafanzug93 Beitrag anzeigen
    Natürlich ist RAYtracing erwünscht und sollte auch so schnell wie möglich optimiert werden und der Standard für realistische Beleuchtungseffekte werden.
    In welchem Hinterweltlerdorf muss man wohnen, um sowas nicht zu wollen.

    Solang man die Option hat, es auszuschalten,
    sollten die Effekte wider allem nicht zusagen oder weil man eben die extra Performance bei kompetetiven Spielen braucht,
    sehe ich da kein Grund zur Beanstandung.

    Weiter so!
    War nur ein Tippfehler, habe schon mit 7 Jahren auf dem Amiga geraytraced
    Ich wollte damit vor Allem auf die nicht vorhandene Innovation hinweisen. Es gibt so wenig neue Ideen, dass gleich Alle immer nachmachen müssen, wenn mal einer eine bringt, wie halt das Echtzeitraytracing in Spielen-
    Und Sinn wird dieses doch die nächsten 5 Jahre noch nicht machen, weil die GPUs einfach zu schwach sind. Deshalb biete es nur minimalistische Effekte, die eher in den Bereich des Marketings als den des wirklichen Nutzens gehören, wie man sämtlichen Tests ja ansehen kann. Und daran werden sicher auch die nächste Xbox und Playstation nichts ändern.
    Geändert von Elmario (10.09.19 um 20:44 Uhr)

  13. #12
    Leutnant zur See
    Registriert seit
    20.07.2017
    Beiträge
    1.248


    Standard

    Zitat Zitat von Elmario Beitrag anzeigen
    Ich wollte damit vor Allem auf die nicht vorhandene Innovsation hinweisen.
    Keine Innovation, weils Raytracing ja schon seit 40 Jahren gibt?

    Zitat Zitat von Elmario Beitrag anzeigen
    Es gibt so wenig neue Ideen, dass gleich Alle immer nachmachen müssen, wenn mal einer eine bringt, wie halt das Echtzeitraytracing in Spielen-
    Raytracing ist sozusagen die physikalisch korrekte Simulation. Damit du etwas also als "Innovation" ansehen würdest, müssten wir erst die Physik sprengen?


    Zitat Zitat von Elmario Beitrag anzeigen
    Und Sinn wird dieses doch die nächsten 5 Jahre noch nicht machen, weil die GPUs einach zu schwach sind.
    Mutige Aussage. Hätte ich 1995 genauso für 3D-Grafik behauptet und wäre um 2000 rum eines besseren belehrt worden.

    Oder dehne es mal etwas. Halflife 2001 - Crysis 2007.... ich wäre vorsichtig mit solchen Prognosen.
    Geändert von Liesel Weppen (10.09.19 um 20:48 Uhr)

  14. #13
    Kapitän zur See Avatar von Elmario
    Registriert seit
    21.01.2006
    Beiträge
    3.976


    Standard

    Zitat Zitat von Liesel Weppen Beitrag anzeigen
    Keine Innovation, weils Raytracing ja schon seit 40 Jahren gibt?
    Nein, weil's nvidia ebenfalls schon in Echtzeit macht. Und dieses Nachmachen in der Industrie geht gehörig auf den Sack. Seit ca 10 Jahren schon gibt es doch keine konkurrierenden neuen Ideen mehr, sondern Jeder springt immer nur auf den bereits fahrenden Hypetrain auf. Wir haben keine bessere Auswahl an wirklich unterschiedlichen Produkten mehr, als es damals in der DDR üblich war.

    Zitat Zitat von Liesel Weppen Beitrag anzeigen
    Raytracing ist sozusagen die physikalisch korrekte Simulation. Damit du etwas also als "Innovation" ansehen würdest, müssten wir erst die Physik sprengen?
    Ist mir ebenfalls seit einstelligem Kindheitsalter bekannt. Ändert aber doch Nichts daran, dass die Hardware dafür einfach noch nicht taugt. Und deshalb ordne ich es bis auf Weiteres als "yet another Verbrauchertäuschung" ein (und man sollte nicht vergessen, dass so eine komplette Konsole deutlich weniger kosten muss, als eine RTX 2080ti solo).

    Zitat Zitat von Liesel Weppen Beitrag anzeigen
    Mutige Aussage. Hätte ich 1995 genauso für 3D-Grafik behauptet und wäre um 2000 rum eines besseren belehrt worden.
    Denke ich nicht, weil die physikalisch korrekte Berechnung eben keine billigen Tricksereien zur massiven Einsparung von Rechenlast zulässt, wie sie bei der Rasterisation an der Tagesordnung sind, denn sonst würde sie ja an Realismus einbüßen, und wäre dementsprechend wieder kein vollwertiges Raytracing, sondern nur ein müder Abklatsch, also eine Täuschung (auch wenn diese Trickserei inzwischen auch bei CGI schon recht beliebt ist, um eben Renderkosten zu sparen..)
    Deshalb ist z.B. dieser AI-Schärfungsmüll auch ein Unding. Auf der einen Seite für mikroskopische Unterschiede durch das Raytracing extreme Aufpreise verlangen, und auf der anderen Seite mit so einem Quatsch wieder das komplette Bild mit Fantasiepixeln "aufwerten".
    Geändert von Elmario (10.09.19 um 21:03 Uhr)

  15. #14
    Leutnant zur See
    Registriert seit
    20.07.2017
    Beiträge
    1.248


    Standard

    Zitat Zitat von Elmario Beitrag anzeigen
    Nein, weil's nvidia ebenfalls schon in Echtzeit macht. Und dieses Nachmachen in der Industrie geht gehörig auf den Sack. Seit ca 10 Jahren schon gibt es doch keine konkurrierenden neuen Ideen mehr, sondern Jeder springt immer nur auf den bereits fahrenden Hypetrain auf.
    Öhm, wenn die Industrie in diese Richtung geht, was willst du dann auch sonst machen? Glaubst du das AMD da jetzt auf dem weißen Ross dahergeritten kommt und... ähm, naja, was denn eigentlich ganz anderes bringen könnte? Quantenphysik zur Simulation auf subatomarer Ebene um optische Erscheinung zu berechnen?

    Zitat Zitat von Elmario Beitrag anzeigen
    Ist mir ebenfalls seit einstelligem Kindheitsalter bekannt. Ändert aber doch Nichts daran, dass die Hardware dafür einfach noch nicht taugt.
    NOCH... lies meinen Beitrag weiter oben nochmal.



    Zitat Zitat von Elmario Beitrag anzeigen
    Denke ich nicht, weil die physikalisch korrekte Berechnung eben keine billigen Tricksereien zur massiven Einsparung von Rechenlast zulässt, wie sie bei der Rasterisation an der Tagesordnung sind.
    Du hast die Aussage eben umgedreht. Die Tricks die man braucht um das mit Rasterization hinzukriegen, übersteigen den Rechenaufwand irgendwann, statt es gleich korrekt zu Raytracen... nicht umgekehrt.
    Und Rasterization spart keine Rechenleistung mit Tricks, sondern die wenden massiv Rechenleistung auf um Zeug zu simulieren, was mit Raytracing frei Haus käme. Nur NOCH reicht die Rechenleistung nicht für echtes, vollständiges Raytracing. Das was jetzt schon mit Raytracing kombiniert wird, kriegst du ohne den Raytracinganteil so gar nicht hin.
    NOCH ist das günstiger, das streite ich ja gar nicht ab. Aber genau das kippt irgendwann.

    Du hast meinen Beitrag wirklich nicht gelesen, oder?
    Geändert von Liesel Weppen (10.09.19 um 21:02 Uhr)

  16. #15
    Kapitän zur See Avatar von Elmario
    Registriert seit
    21.01.2006
    Beiträge
    3.976


    Standard

    Zitat Zitat von Liesel Weppen Beitrag anzeigen
    Öhm, wenn die Industrie in diese Richtung geht, was willst du dann auch sonst machen? Glaubst du das AMD da jetzt auf dem weißen Ross dahergeritten kommt und... ähm, naja, was denn eigentlich ganz anderes bringen könnte? Quantenphysik zur Simulation auf subatomarer Ebene um optische Erscheinung zu berechnen?


    NOCH... lies meinen Beitrag weiter oben nochmal.
    Na siehst, du schon mal eine Alternative
    Es gäbe auch die Möglichkeit seine Entwicklungszeit jetzt nicht mit Raytracing zu verbringen und stattdessen mehr in die klassichen Rastermethoden zu stecken, was gerade für AMD nützlich wäre. Oder z.B. ein Neuaufleben des stereoskopischen Gamings, was ja heute mit 4K-Displays in Verbindung mit Interlaced Polfiltern im Gegensatz zu damals endlich Sinn machen würde, usw.
    Genau dieses "in die Richtung gehen" ist doch das Problem. "Die Industrie" steht heute offensichtlich nicht mehr in einem kreativ stimulierenden Konkurrenzverhältnis, sondern hat eine entwicklungshemmende Gruppendynamik entwickelt.

    Zitat Zitat von Liesel Weppen Beitrag anzeigen
    Du hast die Aussage eben umgedreht. Die Tricks die man braucht um das mit Rasterization hinzukriegen, übersteigen den Rechenaufwand irgendwann, statt es gleich korrekt zu Raytracen... nicht umgekehrt.
    Und Rasterization spart keine Rechenleistung mit Tricks, sondern die wenden massiv Rechenleistung auf um Zeug zu simulieren, was mit Raytracing frei Haus käme. Nur NOCH reicht die Rechenleistung nicht für echtes, vollständiges Raytracing. Das was jetzt schon mit Raytracing kombiniert wird, kriegst du ohne den Raytracinganteil so gar nicht hin.
    NOCH ist das günstiger, das streite ich ja gar nicht ab. Aber genau das kippt irgendwann.

    Du hast meinen Beitrag wirklich nicht gelesen, oder?
    Doch, so lang war er doch nicht. Ich sehe das ja weitestgehend genau so, nur war meine Aussage eben, dass dieses "irgendwann" mit der nächsten Konsolengeneration noch nicht der Fall sein wird.
    (So kam ich auch auf die 5 Jahre, denn so lange wird es ja mindestens dauern, bis deren Nachfolger erscheinen.)
    Geändert von Elmario (10.09.19 um 21:11 Uhr)

  17. #16
    Leutnant zur See
    Registriert seit
    20.07.2017
    Beiträge
    1.248


    Standard

    Zitat Zitat von Elmario Beitrag anzeigen
    Es gäbe auch die Möglichkeit seine Entwicklungszeit jetzt nicht mit Raytracing zu verbringen und stattdessen mehr in die klassichen Rastermethoden zu stecken,
    Du hast Innvoation gefordert und jetzt soll man Entwicklung in die Technik stecken, die schon seit 20 Jahren standard ist?
    Merkst du eigentlich selber, was du hier laberst?

    Zitat Zitat von Elmario Beitrag anzeigen
    was gerade für AMD nützlich wäre. Oder z.B. ein Neuaufleben des stereoskopischen Gamings, was ja heute mit 4K-Displays in Verbindung mit Interlaced Polfiltern im Gegensatz zu damals endlich Sinn machen würde, usw.
    Du bist also AMD-Fan, und deswegen soll man nicht das machen, wo NVidia die Nase vorn hat?
    Stereoskopie hat übrigens nichts mit Rasterization oder Raytracing zu tun. Auch Stereokopie wäre mit Raytracing exakter.
    Und ich hätte selbst mit dem 128K-Display mit Polfilter immernoch das Problem, das ich von den Geisterbildern Kopfschmerzen kriege auch wenn die dann so hoch aufgelöst wären, das ich wirklich keine einzelnen Pixel mehr sehe.
    VR hat das gleiche Problem: Es erfordert nunmal mehr Rechenleistung und VR-Games sehen halt mangels Rechenleistung nicht so pralle aus wie die Monitor-Version. Den Rückschritt wollen viele aber nicht gehen und beschweren sich darüber, das VR schlechter aussieht als das Spiel am Monitor.
    Der "Rückstand" wird aber nicht verschwinden, weil wenn mehr Rechenleistung vorhanden ist, wird man die auch sofort in Rasterization-Tricks stecken und damit auch das Erscheinungsbild am Monitor verbessern und die VR-Darstellung ist wieder hinterher.
    Zumal VR das Problem hat, dass es Optikbedingt nunmal eine wesentlich höhere Auflösung braucht. Derart hohe Auflösungen wären aber auf einem Monitor absolut sinnfrei. Also kann VR gar nicht aufholen.


    Zitat Zitat von Elmario Beitrag anzeigen
    Genau dieses "in die Richtung gehen" ist doch das Problem. "Die Industrie" steht heute offensichtlich nicht mehr in einem kreativ stimulierenden Konkurrenzverhältnis, sondern hat eine entwicklungshemmende Gruppendynamik entwickelt.
    Ist nix neues, sondern war schon immer so. Das liegt daran, das man die vielversprechendste Technologie verfolgt und nicht versucht das Rad nochmal anders neu zu erfinden, nur um sagen zu können, das man halt was anderes macht.


    Zitat Zitat von Elmario Beitrag anzeigen
    Doch, so lang war er doch nicht. Ich sehe das ja weitestgehend genau so, nur war meine Aussage eben, dass dieses "irgendwann" mit der nächsten Konsolengeneration noch nicht der Fall sein wird.
    Ich habe mit keinem Wort irgendwelche Konsolen oder konkrete Hardware erwähnt, noch behauptet, dass das nächstes Jahr mit der vermutlichen nächsten Konsolengeneration schon vollends kommen wird.
    Bleib beim Thema, oder lass es ganz. Aber verdreh nicht meine Aussagen, wie es dir gerade passt.
    Geändert von Liesel Weppen (10.09.19 um 21:19 Uhr)

  18. #17
    Kapitän zur See Avatar von Elmario
    Registriert seit
    21.01.2006
    Beiträge
    3.976


    Standard

    Zitat Zitat von Liesel Weppen Beitrag anzeigen
    Du hast Innvoation gefordert und jetzt soll man Entwicklung in die Technik stecken, die schon seit 20 Jahren standard ist?
    Merkst du eigentlich selber, was du hier laberst?
    Noch weniger innovativ ist es doch zweifelsfrei, das Selbe zu machen wie die Konkurrenz.

    Zitat Zitat von Liesel Weppen Beitrag anzeigen
    Du bist also AMD-Fan, und deswegen soll man nicht das machen, wo NVidia die Nase vorn hat?
    Nö, bin ich nicht. Sie haben es einfach deshalb eher nötig, weil sie leistungstechnisch hinterherhinken.

    Zitat Zitat von Liesel Weppen Beitrag anzeigen
    Stereoskopie hat übrigens nichts mit Rasterization oder Raytracing zu tun. Auch Stereokopie wäre mit Raytracing exakter.
    Und ich hätte selbst mit dem 128K-Display mit Polfilter immernoch das Problem, das ich von den Geisterbildern Kopfschmerzen kriege auch wenn die dann so hoch aufgelöst wären, das ich wirklich keine einzelnen Pixel mehr sehe.
    Das ist klar. Aber die Entwicklung dementsprechender Treiber zur Ausgabe auf Geräten hat ja damit auch für den User gar nichts zu tun.
    Es geht hierbei um die Priorisierung. Nvidia behandelt das Thema ja leider nur noch stiefmütterlich.


    Zitat Zitat von Liesel Weppen Beitrag anzeigen
    Ist nix neues, sondern war schon immer so. Das liegt daran, das man die vielversprechendste Technologie verfolgt und nicht versucht das Rad nochmal anders neu zu erfinden, nur um sagen zu können, das man halt was anderes macht.
    Siehe z.B. damals MD vs. DCC usw. Das sind unterschiedliche Herangehensweisen, wie ich sie meine.

    Zitat Zitat von Liesel Weppen Beitrag anzeigen
    Ich habe mit keinem Wort irgendwelche Konsolen oder konkrete Hardware erwähnt, noch behauptet, dass das nächstes Jahr mit der vermutlichen nächsten Konsolengeneration schon vollends kommen wird.
    Bleib beim Thema, oder lass es ganz. Aber verdreh nicht meine Aussagen, wie es dir gerade passt.
    Ich habe Nichts verdreht, und du hast doch auch gar nichts Konkretes ausgesagt, sondern nur mir widersprochen. Deshalb versuche ich die ganze Zeit doch einfach nur dir klarzumachen, was ich aussagen möchte, weil du keine Möglichkeit auslässt meine Aussagen fehlzuinterpretieren
    Geändert von Elmario (10.09.19 um 21:29 Uhr)

  19. #18
    Leutnant zur See
    Registriert seit
    20.07.2017
    Beiträge
    1.248


    Standard

    Zitat Zitat von Elmario Beitrag anzeigen
    Noch weniger innovativ ist es doch zweifelsfrei, das Selbe zu machen wie die Konkurrenz.
    Wenn die Konkurrenz so stark ist, dass sie den ganzen Markt in diese Richtung drängt, dann kannst du nichts machen. Siehe Mantle und daraus resultieren Vulkan.

    Zitat Zitat von Elmario Beitrag anzeigen
    Nö, bin ich nicht. Sie haben es einfach deshalb eher nötig, weil sie leistungstechnisch hinterherhinken.
    Und genau deswegen nicht die Ressourcen übrig, um was gänzlich neues zu erfinden. Zumal man Innovation nicht befehlen kann. Die kommt entweder oder sie kommt nicht. Und wenn sie nicht kommt, gehts halt nicht.

    Zitat Zitat von Elmario Beitrag anzeigen
    Das ist klar. Aber die Entwicklung dementsprechender Treiber zur Ausgabe auf Geräten hat ja damit auch für den User gar nichts zu tun.
    Es geht hierbei um die Priorisierung.
    Stereoskopie ist zum wievielten Mal jetzt gescheitert? Das bringts einfach nicht. Es ist umständlich, wegen dem Equipment lästig und taugt einfach nicht.
    Die besten Chancen in der Hinsicht hat immernoch VR. Aber das taugt der Masse ja auch nicht. Zu teuer, zu schlecht. Und selbst VR nimmt gefühlt schon den 15ten Anlauf.


    Zitat Zitat von Elmario Beitrag anzeigen
    Siehe z.B. damals MD vs. DCC usw. Das sind unterschiedliche Herangehensweisen, wie ich sie meine.
    Was ist (oder war) MD und DCC?
    Ähnlich wie HD-DVD und Bluray oder VHS und Video2000?
    Der Zweck war der gleiche, nur die technische Implementierung war unterschiedlich. Udn wie man sieht, hat sich nicht zwangsläufig das technisch bessere durchgesetzt.
    Und das ist so auch hier. Nvidia kommt mit RT-Cores, AMD will das gleiche Resultat über wesentlich bessere Shader erreichen. Selber Zweck, unterschiedliche Technik.
    Ein Ryzen ist auch anders aufgebaut als ein Core-I. Der Zweck ist aber der gleiche.

    Zitat Zitat von Elmario Beitrag anzeigen
    Ich habe Nichts verdreht, und du hast auch gar Nichts ausgesagt, außer mir zu widersprechen.
    Mir scheint du missverstehst, dass ich nicht von JETZT spreche, sondern von irgendwann in der Zukunft. Was da sein wird, weiß jetzt noch keiner, aber meistens übertrifft es sogar die Vorstellung.
    Ich habe nur begründet, warum es durchaus jetzt schon Sinn macht Richtung Raytracing zu gehen, auch wenn das jetzt noch nicht vollends funktioniert. Und genau das tut man ja. Und AMD MUSS mitziehen, mit gleicher oder anderer Technik, ist egal.

  20. #19
    Kapitän zur See Avatar von Elmario
    Registriert seit
    21.01.2006
    Beiträge
    3.976


    Standard

    Ja, und ich habe eben die Konkretisierung des Irgendwanns gewagt, indem ich unterstelle, dass es mit der nächsten Konsolengeneration noch Nichts wird.
    Unterschiedliche technische Ansätze zu verfolgen sehe ich als eine Vorraussetzung für eine wirkliche Weiterentwicklung von Technologien. Ansonsten ist es eben das übliche moderne Schema, das ich oben mit "Friss oder stirb" meinte, anstatt dass man als Käufer eine Wahl hätte. Würde sich AMD z.B. die vergangenen Jahre mal um eine anständige Unterstützung der stereoskopischen Ausgabe durch den eigenen Treiber bemüht haben, wäre ich nicht dazu gezwungen immer wieder die überteuerte nvidia Hardware zu kaufen, wo ich auch noch das momentan rudimentäte Raytracing mitbezahlen muss.

  21. #20
    Leutnant zur See
    Registriert seit
    20.07.2017
    Beiträge
    1.248


    Standard

    Zitat Zitat von Elmario Beitrag anzeigen
    Ja, und ich habe eben die Konkretisierung des Irgendwanns gewagt, indem ich unterstelle, dass es mit der nächsten Konsolengeneration noch Nichts wird.
    Unterschiedliche technische Ansätze zu verfolgen sehe ich als eine Vorraussetzung für eine wirkliche Weiterentwicklung von Technologien.
    AMD und NVidia verfolgen doch unterschiedliche Ansätze für den gleichen Zweck: Raytracing.

    Zitat Zitat von Elmario Beitrag anzeigen
    Würde sich AMD z.B. die vergangenen Jahre mal um eine anständige Unterstützung der stereoskopischen Ausgabe durch den eigenen Treiber bemüht haben, wäre ich nicht dazu gezwungen immer wieder die überteuerte nvidia Hardware zu kaufen, wo ich auch noch das momentan rudimentäte Raytracing mitbezahlen muss.
    Ich wiederhole: Stereoskopie hat nichts mit Rasterization oder Raytracing zu tun. Das du gerne Stereoskopie hättest, habe ich verstanden, aber das bedingt keine Entscheidung zwischen Rasterization und Raytracing, also pack deinen Wunsch nach Stereoskopie mal zur Seite, denn das hat überhaupt nichts mit der 3D-Berechnungsweise hier zu tun!
    Das Nvidia RTX durchdrückt, weil man die High-End-Modelle nicht ohne kaufen kann, ist eine ganz andere Frage. Das kann sich aber NVidia auch nur leisten, weil in eben diesem Bereich (selbst ohne Raytracing) kein Konkurrent vorhanden ist.
    Und das da kaum einer Aufwand in Stereoskopie investiert liegt wohl eher daran, dass es ausser dir und 5 anderen Leuten der Rest für untauglich befunden hat und kein Geld dafür bezahlen will.
    Hab ich schon massig im Kino gesehen, meist hats sogar eher genervt und hab ich in Spielen schon auf der PS3 ausprobiert und es hat nix getaugt. Will halt keiner. Das ist nicht die Innovation, die du suchst, sondern das ist der Fail der eben nicht funktioniert und genau deswegen nicht in der Form weiterverfolgt wird, auch wenn du das persönlich super toll finden magst.

  22. #21
    The Saint Avatar von Holzmann
    Registriert seit
    02.05.2017
    Ort
    Luzern
    Beiträge
    12.577


    • Systeminfo
      • Motherboard:
      • Gigabyte Aorus Pro AMD X399
      • CPU:
      • AMD Threadripper 2950X
      • Kühlung:
      • Corsair Hydro H115i Platinum
      • Gehäuse:
      • Corsair 460x
      • RAM:
      • Corsair Dominator Platinum
      • Grafik:
      • AMD Radeon7 by MSI
      • Storage:
      • Corsair NX 500 PCI SSD 400 GB
      • Monitor:
      • Dell
      • Netzteil:
      • Corsair AX 860i
      • Betriebssystem:
      • Win10

    Standard

    Ich denke mal AMD macht es wie damals mit der Tesselation die Berechnungen werden etwas weniger sein und man kann bestimmt wieder über den Treiber einstellen welche Stufe man nutzen will.

  23. #22
    Kapitän zur See Avatar von Elmario
    Registriert seit
    21.01.2006
    Beiträge
    3.976


    Standard

    Zitat Zitat von Liesel Weppen Beitrag anzeigen
    ..
    Ich wiederhole: Stereoskopie hat nichts mit Rasterization oder Raytracing zu tun. Das du gerne Stereoskopie hättest, habe ich verstanden, aber das bedingt keine Entscheidung zwischen Rasterization und Raytracing, also pack deinen Wunsch nach Stereoskopie mal zur Seite, denn das hat überhaupt nichts mit der 3D-Berechnungsweise hier zu tun!
    ..t.
    Darum geht es doch auch gar nicht, habe ich auch nicht so gesagt. Ich habe es lediglich als Alternativbeispiel für einen nach meinen Nutzerwünschen besser angelegte Entwicklungsaufwand dargelegt, weil es a) mehr Effekt bringt als der momentane Stand des Raytracing, und b) mit der momentanen Technologie schon sehr gut machbar wäre. Angesichts der limitierten Resourcen ist es eben doch eine Entscheidung für das Eine oder das Andere, nicht etwa aus technischen Gründen.
    Geändert von Elmario (11.09.19 um 02:50 Uhr)

  24. #23
    Oberbootsmann Avatar von Hyrasch
    Registriert seit
    10.12.2012
    Beiträge
    887


    Standard

    Nicht vergessen das hier John Carmack on Twitter:
    Braucht also den Vergleich mit einer deidizierten rtx 2080 ti im PC nicht scheuen.

    Die Option dies in zukünftigen Spielen an-/ausschalten würde ich mir wünschen:
    - 4k uhd 60 fps
    oder
    - 4k uhd 30 fps mit raytracing.

  25. #24
    Admiral Avatar von reishasser
    Registriert seit
    03.12.2004
    Ort
    Witten, Siegen, Frankfurt
    Beiträge
    10.995


    Standard

    Was viele irgendwie vergessen ist wie stark Raytracing" am Ende in einem Spiel eingesetzt wird. Ich denke das ist pures Marketing und ja wir werden Raytracing sehen aber nicht in der Form wie manche Tech Demos es zeigen.
    Und ganz ehrlich, schaut euch die Anforderungen der Quake 2 RTX Version an und das ist ein sehr sehr altes Spiel was aber sehr gut die Features zeigt.

    Alle aktuellen Spiele währen mit diesem Effektoverload nahezu unspielbar, weshalb wir auch sehr weit entfernt von richtigem Raytracing in Spielen sind.

    Aber hey es ist Raaaaytraaacing.

    Its Ridge Racer bros - YouTube
    Geändert von reishasser (12.09.19 um 13:51 Uhr)
    Mehr Blumen im Leben denn auf den Gräbern sind die vergeben.

  26. #25
    Admiral Avatar von Stefan Payne
    Registriert seit
    25.04.2006
    Ort
    Oben rechts in der Egge (S-H)
    Beiträge
    8.222


    • Systeminfo
      • Motherboard:
      • ASUS Sabertooth 990FX
      • CPU:
      • Phenom II/955
      • Systemname:
      • Mein PC ^_^
      • Kühlung:
      • Deepcool Fiend Shark
      • Gehäuse:
      • CH-07B
      • RAM:
      • 4x2GiB G.Skill PC3/10600
      • Grafik:
      • Sapphire HD5870 Vapor X
      • Storage:
      • Samsung 830, 64GB
      • Monitor:
      • Samsung S24A850, Hyundai W241D
      • Netzwerk:
      • Onboard
      • Sound:
      • Onboard
      • Betriebssystem:
      • Win 7 Ulti
      • Notebook:
      • keins
      • Photoequipment:
      • Nikon D5100
      • Handy:
      • Sony U5I

    Standard

    Raytracing ist überhypter Blödsinn.
    Warum rennt man immer dem Müll, den ein gewisser Herr von sich gibt, immer nach und glaubt den Schrott??
    Macht euch doch mal selbst Gedanken, denkt mal bisserl darüber nach! Aber hey, wenn es diese Seite ist, die ein unsinniges feature, dass nur geringfügige Änderungen bringt, aber die Performance um 50% reduziert, ist das geil!!11
    Zitat Zitat von Hyrasch Beitrag anzeigen
    Nicht vergessen das hier John Carmack on Twitter:
    Braucht also den Vergleich mit einer deidizierten rtx 2080 ti im PC nicht scheuen.
    Der Beitrag ist ~5 Jahre alt.
    Und war deutlich vor Mantle und dementsprechend auch DX12 und Vulkan.
    Vulkan wurde initial erst 2016 veröffentlicht, DX12 mitte 2015.
    Und auch Mantle schaut aus, dass das erst einige Monate nach Johns Posting erschien.

    Nach diesen APIs könnte er seine Meinung geändert haben, denn die "Low Level APIs" sind ja eines der Punkte, warum Konsolen die Hardware besser ausnutzen.

    Zitat Zitat von HardwareFreaky Beitrag anzeigen
    Die Option dies in zukünftigen Spielen an-/ausschalten würde ich mir wünschen:
    - 4k uhd 60 fps
    oder
    - 4k uhd 30 fps mit raytracing.
    Ich nicht.

    Aber schön, dass du selbst sagst, dass Raytracing 50% Performance kostet und das Spiel dann ohne doppelt so schnell läuft
    “Take the risk of thinking for yourself, much more happiness, truth, beauty and wisdom will come to you that way.”
    Christopher Hitchens
    Suche Playstation/360 Spiele u. Controller

Seite 1 von 2 1 2 LetzteLetzte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •