> > > > GeForce RTX 2080 Ti FE kämpft mit Herausforderungen in der Lieferkette (Update)

GeForce RTX 2080 Ti FE kämpft mit Herausforderungen in der Lieferkette (Update)

Veröffentlicht am: von

geforcertx2080tiDie Geschichte rund um Verzögerungen in der Auslieferung der GeForce RTX 2080 Ti in der Founders Edition geht weiter. Bereits mehrfach gab es Verzögerungen, dabei wurden die Karten teilweise direkt nach der Vorstellung Ende August vorbestellt.

Nun gibt es neue Informationen, die vermutlich auch interessierte Kunden in Deutschland betreffen. Im Support-Forum hat sich NVIDIA wie folgt geäußert:

"Today we began shipping GeForce RTX 2080 Ti Founders Edition to those who pre-ordered from NVIDIA.com and had an original ship date in September. These will all ship by October 5th.

GeForce RTX 2080 Ti Founders Edition pre-orders on NVIDIA.com with an original ship date in October will ship by October 10, 2018."

Alle, die noch im September bestellt haben, sollen in den kommenden Tagen ihre Lieferung erhalten. Die Auslieferung soll am morgigen 5. Oktober stattfinden. Wer bis zum aktuellen Zeitpunkt bestellt hat, soll seine Lieferung ab dem 10. Oktober erhalten.

Erstmals äußert sich NVIDIA auch zu möglichen Gründen in den Verzögerungen:

"Our supply chain challenges are resolved, and we will have cards in your hands as soon as possible."

Offenbar gab es Schwierigkeiten bzw. Herausforderungen in der Lieferkette. Wo genau diese zu suchen sind und in welcher Form NVIDIA diese lösen konnte, wird nicht erwähnt.

Update:

Die GeForce RTX 2080 Ti Founders Edition kann ab sofort wieder für 1.259 Euro direkt im Online-Shop von NVIDIA gekauft werden. NVIDIA spricht von einer Lieferung in 1-3 Werktagen. Man darf gespannt sein, ob die Karte nun auch lieferbar bleibt.

Social Links

Kommentare (50)

#41
Registriert seit: 26.04.2015

Oberbootsmann
Beiträge: 882
Performer: Und jetzt schauen wir mal, wie viele Menschen keine Probleme mit 30 FPS auf einem Aldi Fernsehr haben zusammen mit einem 10 € 3. Hersteller Controller. Dein Inputlag interessiert nur eine absolute Minderheit. Das Wort Inputlag hab ich noch NIE, von einem reinen Gamer gehört und das bei Clans mit mehreren 100 Leuten (Spaß Clans).
Schau dir mal an, wie viele Gamer sich eine 5 € Maus und 5 € Tastatur kaufen, glaubst du ernsthaft, dass die sich für "InputLag" interessieren? Ich hab teure Tastauren und Mäuse usw. und bis auf einen, merkt da keiner meiner Freunde einen Unterschied. Die Regel ist, das man mir den Vogel zeigt, für das Geld was da weg gegangen ist.

Und noch einmal: GSync hat nachweislich weniger Inputlag als FreeSync. nVidia hat in der Regel die besseren Frametimes als AMD. Also wenn du schon bei deiner leier und extrem schwachen Argumentation bleiben willst, dann Predige nVidia + GSync (weil auf die paar Euro mehr, kommt es auch nicht mehr an, da du für deine Argumentation sowieso schon mal 200-400 € für Eingabegeräte brauchst). Oder kauf dir endlich Karten von AMD, damit du wenigstens ein klein wenig Glaubhaft rüberkommst. Mittlerweile bin ich mir sicher, das du nur ein kleiner Troll bist.

@Jaimewolf3060: Du hast absolut recht. Den Kommentar mit dem PC bekomme ich sogar von anderen Nerds (und mein PC ist auch ins extrem gezogen - ist halt ein Hobby). Wir sind halt eine absolute Minderheit und das scheinen einige in ihrer Filterblase schon gar nicht mehr wahrzunehmen.

@Perförmchen: Und das Konsolen jetzt FreeSync bekommen liegt einfach daran, dass es schon seit Jahren vorhanden ist (in den Konsolen und sicher auch schon in vielen Controllern, die man bei Fernsehern verwendet). Das ist für alle Hersteller ohne Kosten und nur minimalsten Mehraufwand verbunden. Jetzt überleg dir einmal, wie "wichtig" das sein muss, wenn es erst jetzt kommt....... Wie viele Spieler so etwas angefragt haben, wenn man so viele Jahre den "Schalter" nicht umgelegt hat. FreeSync ist sogar noch billiger als das ehemalige 3D (da musste man immerhin noch eine Folie draufkleben) und man hat früher lieber diese Folie draufgeklebt, als diese einfache Funktion zu aktivieren.....

Und das wort DURCHSETZEN hast du auch nicht kapiert. DURCHSETZEN heist, das man ohne, keine Konsole mehr verkauft bekommt. Also ist dein Kommentar belanglos (wie FreeSync).
#42
customavatars/avatar105480_1.gif
Registriert seit: 31.12.2008
Hessen
Kackbratze
Beiträge: 31039
Zitat
Performer: Und jetzt schauen wir mal, wie viele Menschen keine Probleme mit 30 FPS auf einem Aldi Fernsehr haben zusammen mit einem 10 € 3. Hersteller Controller. Dein Inputlag interessiert nur eine absolute Minderheit. Das Wort Inputlag hab ich noch NIE, von einem reinen Gamer gehört und das bei Clans mit mehreren 100 Leuten (Spaß Clans).
Schau dir mal an, wie viele Gamer sich eine 5 € Maus und 5 € Tastatur kaufen, glaubst du ernsthaft, dass die sich für "InputLag" interessieren? Ich hab teure Tastauren und Mäuse usw. und bis auf einen, merkt da keiner meiner Freunde einen Unterschied. Die Regel ist, das man mir den Vogel zeigt, für das Geld was da weg gegangen ist.


was für ein clan ist dass denn bitte ;)

jeder Zocker der ernsthaft competetive zockt weis was inputlag ist :)

rest stimmt natürlich. kenne einige die mir auch schon gesagt haben ich hätte nen dachschaden. aber ich sage dann meistens nichts dazu weil die es nicht verstehen können und oder wollen xD
#43
Registriert seit: 26.04.2015

Oberbootsmann
Beiträge: 882
Zitat Scrush;26587284
was für ein clan ist dass denn bitte ;)

jeder Zocker der ernsthaft competetive zockt weis was inputlag ist :)


Steht doch in Klammern, ein Spaß Clan. Also ein Clan aus der große Mehrheit der NICHT competiven zocker (und selbst bei competiven Zockern, sind viele doch eher "ich werde damit reich" und 0 plan von nichts, nicht mal dem Spiel). Und war immer der Spaß am Spiel und TS wichtig. Zwanghaft Gewinnen, aus dem Alter bin ich schon lange raus ;) - das ganze Drama und Geschrei und Gezeter und sich gegenseitig die Schuld geben und ständig Splits vom Clan wegen der falschen Farbe im CSS Code usw. muss echt nicht mehr sein.
Das die Zocker, die wirklich ernsthaft zocken das sehr viel eher wissen, weiß ich auch. Wobei auch da, das Wissen sich oft auf das Marketing von Acer, Asus und Razer usw. beschränkt, ohne tieferes Wissen in der Materie. Aber bei der Gruppe zählt ja am Ende auch nur: Inputlag wenig = gut (das wie und warum ist denen egal, denen ist ja das Spiel dann wichtiger ;) )
#44
customavatars/avatar269623_1.gif
Registriert seit: 02.05.2017

BannedForEveR
Beiträge: 9039
Klar wissen Zocker was inputlag ist, aber eher weniger wo es her kommen kann, da finde ich Erklärungen von @Performer sehr hilfreich mit viel Background zu Sache.
Schade ist, das er dafür von einigen oft angegriffen. ):
#45
Registriert seit: 26.04.2015

Oberbootsmann
Beiträge: 882
Was erklärt er den bitte? Nichts, er geht auch auf nichts ein.....
#46
customavatars/avatar1651_1.gif
Registriert seit: 01.04.2002

Frischluftfanatiker
Beiträge: 17045
Zitat Betabrot;26587258
Performer: Und jetzt schauen wir mal, wie viele Menschen keine Probleme mit 30 FPS auf einem Aldi Fernsehr haben

Ich verstehe nicht ganz den Zusammenhang eines Konsolen Gamers am TV mit einem PC Gamer, der beim Monitor Neukauf Interesse an einer Bildsychronisation gefunden hat aber feststellt,
dass er mit der GTX1060 im Rechner einen Fehlkauf gemacht hat weil er nun 150-250€ für Nvidia G-Sync zahlen muss während er mit einer RX580 AMD FreeSync kostenlos bekommen würde.

Und ich bezweifle, dass sich ein Konsolen Gamer nicht über eine Option namens "Adaptive Sync Ein/Aus" freuen würden damit er ohne Bildrisse bei Bewegung (Tearing) am TV zocken kann !?

Zitat Betabrot;26587258
Dein Inputlag interessiert nur eine absolute Minderheit.

Auch da fehlt mir der Zusammenhang denn Konsolen nutzen kein V-Sync also gibt es keinen Input Lag und PC Gamer mit 60Hz Monitor nutzen kein V-Sync wegen dem Input Lag !
Du glaubst doch nicht ernsthaft, dass diese Leute weiterhin auf Sync verzichten würden wenn sie feststellen, dass es eine Bildsynchronisation gibt die keinen Input Lag verursacht !?

Zitat Betabrot;26587258
Und noch einmal: GSync hat nachweislich weniger Inputlag als FreeSync. nVidia hat in der Regel die besseren Frametimes als AMD.

Mit FreeSync/G-Sync hat man je nach Aktualisierungsrate ~20-30ms Input Lag also auf 60Hz mit G-Sync 28ms und mit FreeSync 30ms. Ist das dein "nachweislich weniger" ?
Das ist nicht spürbar und steht in keiner Relation zu den Mehrkosten von 150-250€. Das wäre so als wenn eine Grafikkarte 30 statt 28 FPS schafft aber 150-250€ mehr kostet.

Zitat Betabrot;26587258
Und das Konsolen jetzt FreeSync bekommen liegt einfach daran, dass es schon seit Jahren vorhanden ist

Soweit mir bekannt basiert AMD FreeSync auf dem VESA Standard Adaptive Sync und diese Spezifikation ist noch nicht so alt. Die Industrie braucht eine Weile für die Umsetzung.
Wenn nun ein Hersteller dazwischenfunkt weil er mit einer eigenen Technologie Profit machen will obwohl sie keinen Mehrwert bietet, dann verzögert das natürlich die Verbreitung.

Zitat Betabrot;26587258
Und das wort DURCHSETZEN hast du auch nicht kapiert. DURCHSETZEN heist, das man ohne, keine Konsole mehr verkauft bekommt.

Du scheinst nicht zu begreifen, dass es sich bei FreeSync um ein kostenloses Fortschritts Feature handelt also es muss sich gar nicht durchsetzen wie kostenpflichtige Features.
Von daher ist dein gesamter Einwand völlig falsch aber ich glaube selbst mit einer GTX1060 und einem G-Sync Monitor würdest du immer noch gegen AMD und FreeSync sein.

Und nur rate mal warum ?
#47
Registriert seit: 29.12.2014

Gefreiter
Beiträge: 54
Gsync verursacht keinen inputlag.Meine Bibliothek sind mittlerweile weit über 700 Spiele und da ist kein einziges dabei,in dem ich höheren Inputlag hätte als ohne.Einzig CS zocke ich min Gsync aus,der Rest fast sync.Kein Lag,kein Tearing 144 Hz.Gsync hat wie es mir erklärt wurde den schönen und eben teureren Vorteil,das tatsächlich alle Monitore hart zertifiziert werden.Das Modul ist Hardwäremässig um einiges schneller und vor allem genau,es weiß immer wann es syncen muss,wobei bei Freesync auf günstige Software gesetzt wird und Freesync auch immer raten muss,wie es den Monitor und die Graka syncronisieren muss.Ich habe den Unterschied bei Freesync schon selbt gespürt.Gsync fühlt sich einfach genau an.Freesync fühlt sich nicht ganz so rund an im Vergleich.
Mein kleiner Bro hat dann auch AMD und Freesync Monitor verkauft und ist ins Nvidia Lager gewechselt,nachdem er ein paar mal bei mir gespielt hat.Er ist 15 und hat sich die Taler dafür nochmal hart ersparen müssen.
Mir hat das letztens aber schonmal jemand erzählen wollen,das gsync Inputlag verursachen würde wie vsync.Das stimmt zumindest bei mir nicht und ich bin da sehr empfindlich in der Beziehung.
Ich kanns nur nochmal sagen,ich habe nicht ein einziges Spiel ohne Vsync an,im Treiber ist fast eingestellt als global und ich habe nirgendwo spürbare Verzögerung.
Grüße
Achso und bei Benchmarks isses auch aus :D
#48
customavatars/avatar1651_1.gif
Registriert seit: 01.04.2002

Frischluftfanatiker
Beiträge: 17045
Mit Fast Sync hast du "nur" bis 144FPS G-Sync und ab 145FPS eben Sync ohne FPS Limit und leider mit Mikrorucklern, siehe hier.

FreeSync/G-Sync verursachen einen minimalen meßbaren Input Lag im Vergleich zu No Sync aber das kann man vernachlässigen.

[ATTACH=CONFIG]447722[/ATTACH]
#49
Registriert seit: 29.12.2014

Gefreiter
Beiträge: 54
Bei mir regelt er mit aktiviertem Vsync mit 144 ab.Ich komme nicht aus den Bereich raus.Macht aber Gsync selbstständig.Genau so wie ich es will :D und CSGO ist wie gesagt gsync natürlich komplett aus und riegelt dann mit fps_max 300 ab
#50
customavatars/avatar76607_1.gif
Registriert seit: 08.11.2007

Kapitän zur See
Beiträge: 3201
mit aktiviertem Vsync.....merkste was?
Hier begrenzt also V-Sync die max FPS und nicht G-Sync
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • NVIDIA Titan V: Volta-Architektur im Gaming-Test

    Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

    In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]