> > > > Blast from the Past: GPU-Die-Shots aus der 350-, 500- und 600-nm-Welt

Blast from the Past: GPU-Die-Shots aus der 350-, 500- und 600-nm-Welt

Veröffentlicht am: von

Bereits mehrfach haben wir in den News über die Arbeit unseres Foren-Mitglieds OC_Burner gesprochen. Dieser nimmt sich alte und aktuelle Grafikkarten, löst die GPUs von der Platine und sprengt das Package mittels Hitze auf. Danach erfolgt in mehreren Arbeitsschritten ein Abschleifen der verschiedenen Schichten, bis ein Blick auf die eigentliche GPU möglich ist. Über verschiedene Filter und mit etwas fotografischem Können entstehen dabei detaillierte Aufnahmen der GPUs, die wir so meist noch nicht einmal von den Herstellern bekommen.

Bisher berichteten wir zumeist über aktuelle GPUs, wie zum Beispiel die Polaris-10-GPU von AMD, die Fiji-GPUs mitsamt High Bandwidth Memory im Package oder aber die letzten beiden Architekturen von NVIDIA (GM204 und GP104). Nun aber hat OC_Burner sich auch an älteren Karten versucht und katapultiert uns damit in die Zeiten von Fixed Rendering Pipelines und Fertigungsgrößen von 350, 500 oder gar 600 nm. Im Hinblick auf die aktuelle Fertigung in 14/16 nm liegen hier Welten dazwischen, die sich auch auf den Fotos erkennen lassen. Anstatt 8 Milliarden Transistoren kamen 1994 (am Beispiel der ATI Mach 64 GPU) noch nur ein paar Millionen Transistoren zum Einsatz.

Anhand der Fotos wollen wir aber auch einmal erläutern, was damals Stand der Technik war. Wir sprechen hier von 1 oder 2 MB Grafikspeicher, der über ein 64 Bit breites Speicherinterface angebunden ist. Die Taktfrequenzen lagen noch bei ein paar dutzend MHz und nicht wie heute bei 1.000 MHz und mehr. Auf den Fotos zu sehen gibt es folgende GPUs:

  • AMD Mach 64 (ATI 3D Rage, 600 nm, 8 Millionen Transistoren)
  • NVIDIA NV10 (GeForce 256, 220 nm, 17 Millionen Transistoren, 4x4 Renderpipelines)

Die Mach-64-Architektur wurde von ATI allerdings über verschiedene Generationen und Ausbaustufen eingesetzt. Die Fertigung reichte von 600 bis 350 nm. Entsprechend komplex wurden auch die GPUs.  Auf der Rage 128 waren bis zu 32 MB SDRAM vorhanden und anstatt 8 Bit konnten Farben bereits in 16 Bit ausgegeben werden. Sogar kleine Buffer für Texel und Pixel Caches waren bereits vorhanden.

Fixed Rendering Pipeline

Wir wollen aber auch noch einmal zurück auf die Fixed Rendering Pipelines. Sie begleiteten die GPUs über zahlreiche Architekturen und limitierten die Fähigkeiten der GPUs, die heute flexibler als jemals zuvor sind. Shadereinheiten können verschiedene Aufgaben übernehmen und werden inzwischen auch für wissenschaftliche Anwendungen verwendet. Berechnungen können unterschiedlich komplex sein, reichen von einfacher bis doppelter Genauigkeit und selbst kleine 8-Bit-Operationen spielen für Deep-Learning-Netzwerke eine wichtige Rolle.

Früher war dies anders. Die Verdrahtung einer GPU und damit die Arten von Berechnungen, die durchgeführt werden konnten, war festgelegt und konnte nicht verändert werden. Eine bestimmte Beleuchtung, eine Rasterization, Texturen und fertig war die Ausgabe. Eigene Formen von Beleuchtungsberechnungen konnten nicht implementiert werden. Heute sind die Programmierer daran gewöhnt, deutlich flexibler mit der Hardware umgehen zu können.

Einen Blick in diese alte Zeiten machen die Die-Shots der alten GPUs möglich. Auf den Fotos sind die festen Verdrahtungen auch noch einmal sehr schön zu sehen.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (3)

#1
customavatars/avatar139847_1.gif
Registriert seit: 02.09.2010
Bergisch Gladbach
Vizeadmiral
Beiträge: 6927
Die Arbeiten von OC_Burner und Bilder sind schon der Hammer. Vor allem von den Prozessoren, manche sehen auch wie kleine Städte :D.
#2
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 12470
Zitat
Früher war dies anders. Die Verdrahtung einer GPU und damit die Arten von Berechnungen, die durchgeführt werden konnten, war festgelegt und konnte nicht verändert werden. Eine bestimmte Beleuchtung, eine Rasterization, Texturen und fertig war die Ausgabe. Eigene Formen von Beleuchtungsberechnungen konnten nicht implementiert werden. Heute sind die Programmierer daran gewöhnt, deutlich flexibler mit der Hardware umgehen zu können.

Wobei findige Programmierer damals tatsächlich auf die idee gekommen sind, spezielle Daten als 3D Input einzuspeisen und die Ausgabe wieder zu digitalisieren um somit auf diese Weise die GPU für Berechnungen zu nutzen die nichts direkt mit 3D zutun hatten.
Dadurch hatte man überhaupt das Potential von Massive-Parallel computing erkannt.
#3
customavatars/avatar3377_1.gif
Registriert seit: 15.11.2002
www.twitter.com/aschilling
[printed]-Redakteur
Tweety
Beiträge: 30943
Ich kann nur zustimmen. Es sind schicke Fotos und interessante Einblicke in die aktuelle und vorherige Halbleitertechnik.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • NVIDIA Titan V: Volta-Architektur im Gaming-Test

    Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

    In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]