> > > > NVIDIA spricht über 40-nm-Prozess

NVIDIA spricht über 40-nm-Prozess

Veröffentlicht am: von

nvidiaWährend AMD seinen neusten Mittelklasse-Chip schon im fortschrittlichen 40-nm-Fertigungsverfahren fertigt, blieb Konkurrent NVIDIA bislang noch bei der 55-nm-Fertigung stecken. Zeitnah werde man aber auch hier auf die 40-nm-Technik umschwenken und somit nicht nur die Leistungsaufnahme seiner kommenden 3D-Beschleuniger senken, sondern auch Produktionskosten einsparen können. Obwohl der Grafikkartenspezialist kaum über seine kommenden Produkte spricht, gab Jen-Hsun Huang, Geschäftsführer von NVIDIA, nun einen kleinen Ausblick. Demnach solle man allerdings nicht nur drei neue Grafikkarten-Modelle in petto haben, sondern auch sehr stark in den neuen Fertigungsprozess investieren. Auch sollen die Kalifornier bereits einen Großteil der Kapazitäten bei TSMC für sich gesichert haben.

Genaueres wird NVIDIA aber wohl erst auf der diesjährigen Computex, welche vom 2. bis 6. Juni 2009 für interresierte Besucher ihre Pforten in Taipei öffnet, preisgeben. Neben einem neuen Einstiegs- oder Mittelklasse-Modell, könnte man vor allem im mobilen Sektor mit neuen Grafikprozessoren überraschen.

 

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (31)

#22
customavatars/avatar58547_1.gif
Registriert seit: 21.02.2007

Korvettenkapitän
Beiträge: 2256
scheiß egal welche Graka besser ist usw...

Hauptsache für uns springen ordentliche Preise dabei raus, durch den Konkurrenzkampf.

Will für meine nächste Graka keine 400 zahlen wie damals :D
Überhaupt für mein nächsten PC.
#23
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat ReBeL1337;12007144
scheiß egal welche Graka besser ist usw...

Hauptsache für uns springen ordentliche Preise dabei raus, durch den Konkurrenzkampf.


Wenn die qualität am ende nicht auf der strecke bleibt,sei es so.

Aber ich möchte keinen 40nm g300 haben den ich alle 2 monate wegen dieses preiskampfes in rma schicken muss:p



Zitat Neurosphere;12007100
Intel;)


Das kann gut sein das intel solche gerüchte verbreitet:haha::haha:
#24
customavatars/avatar58547_1.gif
Registriert seit: 21.02.2007

Korvettenkapitän
Beiträge: 2256
ja da hast du recht ;) davon geh ich jetzt einfach mal aus das es nicht so sein wird :P
#25
customavatars/avatar30622_1.gif
Registriert seit: 02.12.2005
Eutin.OH.SH
Vizeadmiral
Beiträge: 7024
sind die herstellungskosten in den letzten 2-3 jahren eigentlich wirklich so stark gesunken? oder machen ATI und NV momentan
einfach weniger umsatz und gewinn?

vor einigen jahren war es ja gang und gebe das die kleinsten wirklich zum gamen geeigneten karten mit um und bei
150-250€ zu buche schlugen und die performance-highend klasse schon gerne 350-500€ kostete. ich kann mir
irgendwie kaum vorstellen, dass halbe struckturbreiten gleich zu halben preisen führen!

qualität sollte auf jeden fall vorrang haben. lieber zahle ich am releasetag 400€ für die karte und hab dann erstmal
1 1/2-2 jahre ruhe, als ständig angst haben zu müssen das die karte übern jordan geht bzw. die leistung morgen
nicht reicht, weil man zb. nen neuen monitor hat...
#26
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6350
Zitat CommanderDuplex;12005179
der GT-300 basiert keineswegs auf den G80 , der GT-300 ist eine komplette neue Architektur

Nope. GT300 wird weiterhin auf der aktuellen Architektur basieren. Nur bekommen gerade die Shader Einheiten eine etwas stärkere Überarbeitungen. Grundsätzlich ändern wird man diese aber auch nicht. An der restlichen Logik sollte sich hingegen nicht allzu viel ändern. Mal abgesehen von mehr Masse aufgrund des kleineren Fertigungsprozesses.

Zitat CommanderDuplex;12005179
und setzt nicht mehr auf SIMD sonder auf MIMD

SIMD wird weiterhin eine Rolle spielen, wie es auch schon länger MIMD Einheiten in GPUs gibt. Nicht so viel von irgendwelchem Marketing Geblubber täuschen lassen. ;)
#27
Registriert seit: 15.10.2008
Schwabenländle
Bootsmann
Beiträge: 546
der GT-300 wird eben nicht auf der aktuellen Architektur basieren , benutz google und schau dir die ganzen berichte von Nvidia selber an wo sie es selber sagen das es einen komplett neue architektur wird

und was SIMD und MIMD einheiten betrifft ... wikipedia hilft , MIMD sind aufjedenfall die bessere variante und SIMD wirds beim GT-300 mit sicherheit nicht geben

wen du diskutiren willst , du bist gerne willkommen im SpekuThread : http://www.hardware-infos.com/forum/viewtopic.php?f=5&t=3260
#28
customavatars/avatar11382_1.gif
Registriert seit: 17.06.2004
Berlin
Flottillenadmiral
Beiträge: 4517
Du weißt gar nicht so recht, wovon du redest, Commander, oder? ;) Das soll keine Anfeindung sein, aber in mehreren der GT300-Threads ist die SIMD/MIMD-Diskussion schon detaillierter zerkaut worden, als das hier gerade den Anschein hat und mr.dude hat sehr recht mit allem, was er sagt.

Die Basis bleiben die bestehenden Architekturen, weil sich bis auf wenige Details nicht von dem unterscheiden, was wir jetzt zu sehen kriegen werden. Es ändert sich nur die Implementierung, nicht das Konzept selber - wir sehen weiterhin eine sehr ähnlich aufgebaute "Pipeline", bei der lediglich die einzelnen Stages variiert worden sind.

Die Aussage "MIMD sind auf jedenfall die bessere variante" zeugt nicht gerade von besonders viel Einsicht. :) Wenn man jemanden überzeugen will, sollte man das mit Argumenten machen und nicht mit "xxx ist gut/besser/am besten/schlecht/ganzganzmies". Und da ist hier technische Einsicht meist ein ganz guter Ansatzpunkt. Du bist jedenfalls willkommen, dir mal die bisherigen Diskussionen (an denen ich auch beteiligt war) genauer anzusehen und auch mal im Technikthread vorbeizuschauen, wenn dich das Thema wirklich interessiert. Da gibts übrigens gerade eine interessante Frage, die zu beantworten ich nicht fähig genug bin, vielleicht bist du es ja. :)
#29
customavatars/avatar102004_1.gif
Registriert seit: 06.11.2008

Flottillenadmiral
Beiträge: 4311
Zitat
aber in mehreren der GT300-Threads ist die SIMD/MIMD-Diskussion schon detaillierter zerkaut worden


Hatten wir da das Thema SIMD und MIMD nicht schonmal durchgekaut, weiß allerdings nicht obs in dem Thread war...
#30
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Sollte eigentlich jedem bewußt sein jetzt,das MIMD von der architektur immer noch shader sind auch wenn sie ihre berechnungen anderst ausführen als ihre SIMD verwandten.

Genauso wie bananeneis von der architektur immer noch eis ist auch wenn es anderst schmeckt wie schokoeis ums mal vereinfachter auszudrücken:coolblue:
#31
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6350
Zitat CommanderDuplex;12010125
der GT-300 wird eben nicht auf der aktuellen Architektur basieren , benutz google und schau dir die ganzen berichte von Nvidia selber an wo sie es selber sagen das es einen komplett neue architektur wird

Dann poste doch mal ein paar offizielle Quellen. Bisher habe ich jedenfalls noch nichts derartiges von nVidia gelesen. Und inoffizielle Quellen sagen bisher auch nichts anderes. Ich kann mir zudem schwer vorstellen, wie man eine komplett neue Architektur aus dem Boden hätte stampfen wollen. Die dafür notwendigen Strukturen innerhalb des Unternehmens wurden eigentlich erst im vergangenen Jahr geschaffen. Bis es soweit ist, wird also noch die eine oder andere weiterentwickelte Generation das Licht der Welt erblicken.

Zitat CommanderDuplex;12010125
und was SIMD und MIMD einheiten betrifft ... wikipedia hilft , MIMD sind aufjedenfall die bessere variante und SIMD wirds beim GT-300 mit sicherheit nicht geben

Da muss ich die Frage von Lord nochmal aufgreifen. Hast du überhaupt eine Ahnung davon, was SIMD und MIMD bedeutet? Wikipedia mal aussen vorgelassen. Du hörst dich nämlich nicht so an. MIMD ist kein Ersatz für SIMD, sondern lediglich eine Optimierung in bestimmten Situationen. Die Notwendigkeit für SIMD wird aber weiterhin gegeben sein.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • NVIDIA Titan V: Volta-Architektur im Gaming-Test

    Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

    In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]