Seite 1 von 2 1 2 LetzteLetzte
Ergebnis 1 bis 25 von 28
  1. #1
    News Avatar von HWL News Bot
    Registriert seit
    06.03.2017
    Beiträge
    1.290


    Standard Weltgrößter Chip soll 400.000 Kerne auf 46.225 mm² Chipfläche bringen

    cerebras-wseDerzeit findet in den USA die Hotchips-Konferenz statt. Auf dieser stellen die Hersteller ihre Neuerungen im Bereich der Chipentwicklung vor – darunter auch AMD, Intel, NVIDIA und viele mehr. Deren Präsentationen werden aber erst in den kommenden Tagen folgen.


    Im Rahmen der Hotchips hat aber auch ein Startup namens Cerebras seine ambitionierten Pläne veröffentlicht. Die von Cerebras geplante Hardware in Form eines Chips setzt das Chiplet-Design extrem um. Anstatt mehrere Chips auf einen Wafer zu packen, die dann voneinander getrennt werden, um möglicherweise später in einem Multi-Chip-System wieder...

    ... weiterlesen


  2. Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

  3. #2
    Leutnant zur See
    Registriert seit
    20.07.2017
    Beiträge
    1.237


    Standard

    Tja, es hat aber durchaus einen Grund, warum man mehrere Chips auf einen Waver packt und das dann zerteilt: Yield/Ausbeute.
    Wenn man einen 30cm-Waver mit nur einem Chip belichtet und da irgendwo der kleinste Fehler passiert, kann man den ganzen Waver wegwerfen. Wenn man das modular macht, wie bei den herkömmlichen CPUs, dann ist von dem Waver nur einer von ~50 Kernen defekt und man kann 49 davon noch weiterverwenden.
    Und wenn sich die Kerne (bzw. CCX) auch noch zusammensetzen lassen, wie afaik bei AMD, warum sollte man dann das Risiko eingehen, einen einzigen riesigen Chip auf einen Waver zu packen?

  4. #3
    Don
    Don ist offline
    [printed]-Redakteur
    Tweety
    Avatar von Don
    Registriert seit
    15.11.2002
    Ort
    www.twitter.com/aschilling
    Beiträge
    31.668


    • Systeminfo
      • CPU:
      • 2x Xeon E5520 (2,26 GHz)
      • Systemname:
      • Mac Pro
      • RAM:
      • 16 GB DDR3 1066 MHz
      • Grafik:
      • ATI Radeon HD 4870
      • Storage:
      • 1x 160 GB SSD + 3x 1 TB HDD
      • Monitor:
      • Apple 24" Cinema-Display
      • Netzwerk:
      • Gigabit
      • Betriebssystem:
      • Mac OS X - Lion
      • Notebook:
      • Apple MacBook Air
      • Photoequipment:
      • Canon EOS 1D Mark II
      • Handy:
      • Apple iPhone

    Standard

    Man könnte auch argumentieren, dass bei WSE nicht alle 400.000 Kerne funktionstüchtig sein müssen, sonders es hier sicherlich auch einen Ausschuss geben darf.

  5. #4
    Leutnant zur See
    Registriert seit
    20.07.2017
    Beiträge
    1.237


    Standard

    Wäre vielleicht in Teilen möglich, ich würde aber vermuten, das hängt davon ab, wo ein Fehler auftritt. Bei einem Rechenkern kann ich mir gut vorstellen das man dann einfach den ganzen Kern deaktiviert. Ein Fehler in den 18GB On-Chip-RAM könnte da schon deutlich schwieriger werden. Und je nach Fehlerquote dürften dann immernoch die wenigsten Chips am Ende auf volle 400.000 Kerne kommen. Das wäre dann eher das theoretische Maximum, oder neudeutsch eine CPU mit "bis zu" 400.000 Kernen.

    Zumal mir jetzt auch nicht klar wurde, was denn jetzt überhaupt der Vorteil davon sein soll, das alles auf einen Waver zu packen, statt aus Chiplets zusammenzusetzen.

    Also ebenso wie man theoretisch auf einen Waver eine CPU mit 400.000 Kernen belichten könnte, könnte doch auch AMD theoretisch 100.000 4-Kern Chiplets zu einer CPU mit 400.000 Kernen zusammensetzen?

    Ich bin mir auch nicht sicher, ob 400.000 Kerne auf 46.000mm² so eine gute Idee sind und es nicht sogar vorteilhaft wäre, wenn zusammengesetzte Chiplets eine größere Fläche hätten. Weil irgendwie wird man das Teil ja wohl auch kühlen müssen und da wird afaik die größe aktueller Chips schon langsam zum Problem.

  6. #5
    The Saint Avatar von Holzmann
    Registriert seit
    02.05.2017
    Ort
    Luzern
    Beiträge
    12.549


    • Systeminfo
      • Motherboard:
      • Gigabyte Aorus Pro AMD X399
      • CPU:
      • AMD Threadripper 2950X
      • Kühlung:
      • Corsair Hydro H115i Platinum
      • Gehäuse:
      • Corsair 460x
      • RAM:
      • Corsair Dominator Platinum
      • Grafik:
      • AMD Radeon7 by MSI
      • Storage:
      • Corsair NX 500 PCI SSD 400 GB
      • Monitor:
      • Dell
      • Netzteil:
      • Corsair AX 860i
      • Betriebssystem:
      • Win10

    Standard

    Mir würden schon 350.000 funktionierende Kerne reichen.

  7. #6
    Matrose Avatar von Shmazed
    Registriert seit
    20.07.2015
    Beiträge
    30


    Standard

    Technologische Singularität incoming. (?) ^^

  8. #7
    Kapitänleutnant
    Registriert seit
    08.05.2018
    Beiträge
    1.573


    Standard

    Zitat Zitat von Liesel Weppen Beitrag anzeigen
    Wäre vielleicht in Teilen möglich, ich würde aber vermuten, das hängt davon ab, wo ein Fehler auftritt. Bei einem Rechenkern kann ich mir gut vorstellen das man dann einfach den ganzen Kern deaktiviert. Ein Fehler in den 18GB On-Chip-RAM könnte da schon deutlich schwieriger werden. Und je nach Fehlerquote dürften dann immernoch die wenigsten Chips am Ende auf volle 400.000 Kerne kommen. Das wäre dann eher das theoretische Maximum, oder neudeutsch eine CPU mit "bis zu" 400.000 Kernen.

    Zumal mir jetzt auch nicht klar wurde, was denn jetzt überhaupt der Vorteil davon sein soll, das alles auf einen Waver zu packen, statt aus Chiplets zusammenzusetzen.

    Also ebenso wie man theoretisch auf einen Waver eine CPU mit 400.000 Kernen belichten könnte, könnte doch auch AMD theoretisch 100.000 4-Kern Chiplets zu einer CPU mit 400.000 Kernen zusammensetzen?

    Ich bin mir auch nicht sicher, ob 400.000 Kerne auf 46.000mm² so eine gute Idee sind und es nicht sogar vorteilhaft wäre, wenn zusammengesetzte Chiplets eine größere Fläche hätten. Weil irgendwie wird man das Teil ja wohl auch kühlen müssen und da wird afaik die größe aktueller Chips schon langsam zum Problem.

    1. Die latenzen dürften hier deutlich vorteilhafter sein.

    2. Kühkung ist egal. Wenn die erhitzung pro mm² zu hoch wird, kommt wasser drauf, interessanter wird es da sich der riesen wafer aufgrund ausdehnung und co siched irgendwann verabschieden wird.

  9. #8
    Leutnant zur See
    Registriert seit
    30.04.2008
    Ort
    Civitas Tautensium, Agri Decumates
    Beiträge
    1.229


    • Systeminfo
      • Motherboard:
      • Apple 830-2337-A
      • CPU:
      • Intel Xeon W3690
      • Gehäuse:
      • Apple 620-4224
      • RAM:
      • 3x Kingston 8GB PC3-10600 ECC
      • Grafik:
      • Gigabyte R9 280X 3GB
      • Storage:
      • Corsair Force MP510 960GB
      • Monitor:
      • NEC MultiSync LCD2690WUXI²
      • Netzwerk:
      • Broadcom BCM94360CD
      • Sound:
      • AppleDesign Powered Speakers
      • Netzteil:
      • Delta Electronics 980W
      • Betriebssystem:
      • MacOS 10.14.6 Mojave
      • Sonstiges:
      • FusionDrive: Samsung XP941 256GB + 2x Toshiba MQ01ABB200

    Standard

    "Der WSE ist also auch hier um Größenordnungen größer und komplexer."

    Das Ding ist nicht komplexer als ein Wafer voll mit belichteten CPUs, SoCs oder GPUs, mit sich wiederholenden Mustern alle paar Quadratzentimeter.

    "Weiterhin nennt Cerebras 1,2 Trillion Transistoren, die im Chip verbaut sein sollen"

    Nix Trillion - amerikanische Zählweise falsch übersetzt.
    Es sind übrigens 26 Mio. T/mm² – Foundry 14/16nm.
    18 GB SRAM entsprechen 77% der angegeben Transistorenmenge.

    @Deckstein
    Warmwasserkühlung. Die Temperatur bleibt immer in einem sehr schmalen Band.
    Geändert von smalM (19.08.19 um 19:31 Uhr)
    Google:
    Every breath you take - Every move you make - Every bond you break - Every step you take
    I’ll be watching you

  10. #9
    Bootsmann Avatar von Bitmaschine
    Registriert seit
    01.03.2013
    Beiträge
    740


    Standard

    Zitat Zitat von Don Beitrag anzeigen
    Man könnte auch argumentieren, dass bei WSE nicht alle 400.000 Kerne funktionstüchtig sein müssen, sonders es hier sicherlich auch einen Ausschuss geben darf.
    Wenn mit so viel Kernen geworben wird und das unter Umständen nicht stimmen kann, würde ich als Käufer oder Sponsor so meine Probleme haben. Da braucht man Garantien und berechenbare Leistung, weil es zig Millionen von Dollar sind die man in ein Startup Firma investieren/zahlen muss

  11. #10
    Stabsgefreiter
    Registriert seit
    26.07.2018
    Beiträge
    278


    Standard

    Zunächst mal ist der Gedankengang nicht falsch.
    Es kann ja tatsächlich sogar der Extremfall vorkommen, dass zwei auf dem Wafer nebeneinander liegende Dies später wieder nebeneinander auf einem CPU-Sockel sitzen. Die mehreren Zwischenschritte könnte man sich rein theoretisch sparen.
    Dass die Prozessorfertigung in der Realität aber einen anderen Weg genommen hat, also eben den, die Wafer doch zu zerschneiden und somit einzelne CPUs zu gewinnen, kommt hingegen auch nicht von ungefähr, sondern hat sich nun mal als die "richtige" Methode erwiesen.

    Mit fehlerhaften Sektoren auf dem Wafer bzw. dann ja der CPU umzugehen, sollte kein gigantisches Problem sein. Das ist in der Speicherbranche (wo aber die Technik deutlich einfacher gestrickt ist) schon lange Tagesgeschäft, siehe ECC. In der Praxis würde das bei einem Prozessor dieser Größenordnung nur eine ziemlich große Einheit zur Fehlerkontrolle erfordern und ob sich das dann noch rentiert, müsste auch erstmal berechnet werden.
    Das Stichwort "rentieren" bietet sich ja auch noch an, denn ein Verkauf einer solchen CPU wäre nicht ganz trivial. Man müsste wahrscheinlich mit Staffelpreisen für Zielbereiche an Funktionalität arbeiten, sprich (bspw.) 95-90 % Funktion des Wafers zum Preis x, 90-85 % für y, 85-80 % für z. Das Konzept wiederum wäre aber mit langwierigem binning jeder fertigen CPU bzw. jedes Wafers verbunden, womit der theoretische Vorteil noch weiter unter Druck geriete.

  12. #11
    Kapitänleutnant Avatar von Nonaamee
    Registriert seit
    15.12.2007
    Ort
    8XXXX
    Beiträge
    1.619


    • Systeminfo
      • Motherboard:
      • MSI X470 Gaming pro Carbon
      • CPU:
      • AMD Ryzen 2600 @4,1 GHz
      • Kühlung:
      • Cooler Master MasterLiquid 240
      • Gehäuse:
      • Aerocool Quartz Pro RGB Black
      • RAM:
      • 16GB Teamgroup 3200MHz CL14
      • Grafik:
      • RX Vega 56@64 Bios
      • Storage:
      • SSD + HDD
      • Monitor:
      • 2x 28´´ (144Hz 1440p IPS, 60Hz UHD TN)
      • Netzteil:
      • Enermax RevoBron 600W
      • Handy:
      • Pocophone F1 + Lineage OS

    Standard

    Ich denke man kann hier ein viel viel geringere Yield/Ausbeute anvisieren, da ja die Stückzahl solcher Chips verdammt gering sein dürfte. Da müssen am Tag nicht 10.000 CPUs aus der Fabrik laufen.

  13. #12
    Leutnant zur See
    Registriert seit
    20.07.2017
    Beiträge
    1.237


    Standard

    Zitat Zitat von Nonaamee Beitrag anzeigen
    Ich denke man kann hier ein viel viel geringere Yield/Ausbeute anvisieren, da ja die Stückzahl solcher Chips verdammt gering sein dürfte. Da müssen am Tag nicht 10.000 CPUs aus der Fabrik laufen.
    Das drückt dann aber gewaltig auf den Preis einer einzelnen CPU und damit wären Chiplets wieder günstiger, sofern das damit auch machbar ist.
    Yield ist ja auch nur eine Preisfrage. Klar kann man diverse Fantastereien fertigen, aber wenn dann nur 50% Yield rauskommen, wirds halt sehr sehr teuer.

  14. #13
    Matrose
    Registriert seit
    31.05.2009
    Beiträge
    26


    Standard

    Also die 1.2 Trillionen Transistoren sind wohl falsch übersetzt worden. 1.2 Trillionen (im Deutschen) sind 1.2 x 10^18, Jeder der 400000 Kerne hätte also angeblich rund 100x mehr Transistoren als ein kompletter EPYC.

  15. #14
    Admiral
    Registriert seit
    05.07.2010
    Beiträge
    18.575


    Standard

    Ein Startup wollte Aufmerksamkeit und hat sie bekommen, den Rest warten wir dann mal ab, wenn es Realität ist, sollte es jemals so weit kommen.
    Je mehr ich in Foren lese, umso mehr stelle ich fest: Geist addiert sich nicht, Dummheit schon!

    "Früher benutzte man im Diskurs sogenannte Argumente, heute wird man im Internet mit Scheiße beworfen, beschimpft, bedroht" Dieter Nuhr (Nuhr im Ersten vom 2. Mai 2019 ab 6:00)

  16. #15
    Flottillenadmiral Avatar von salzCracker
    Registriert seit
    14.05.2008
    Beiträge
    5.241


    • Systeminfo
      • Motherboard:
      • MSI B350 Gaming Pro Carbon
      • CPU:
      • R5 3600
      • Kühlung:
      • H110i GTX
      • Gehäuse:
      • Fractal R5
      • RAM:
      • G.Skill Trident 3200 @14-14-14
      • Grafik:
      • Rx 570
      • Storage:
      • 970 Pro 512; 850 Evo 1TB
      • Sound:
      • Asus Xonar D2X
      • Netzteil:
      • Dark Power Pro 11 650W
      • Betriebssystem:
      • Win 10 Pro x64

    Standard

    Zitat Zitat von Holzmann Beitrag anzeigen
    Mir würden schon 350.000 funktionierende Kerne reichen.
    Du bist aber genügsam


  17. #16
    Leutnant zur See
    Registriert seit
    20.07.2017
    Beiträge
    1.237


    Standard

    Zitat Zitat von Holzmann Beitrag anzeigen
    Mir würden schon 350.000 funktionierende Kerne reichen.
    Ich habe aktuell "nur" 8 Kerne (16 virtuelle) und es bringt mir schon so gut wie nichts, weil das meiste was ich mache nur auf 1-3 Kernen wirklich effektiv läuft.
    Wenn ich jetzt 350.000 Kerne hätte, würden halt "nur" 349.997 Kerne unnütz Idlestrom verbrauchen.
    Das Problem im privaten Anwendungsfall (nicht Server!) ist halt nachwievor meist eher die Software. Hat schon ewig gedauert, bis sich manche Software auf 4 Kerne eingeschossen hat, der plötzliche Anstieg auf 8 Kerne bleibt da bei vielen Anwendungsfällen die nicht ohnehin schon auf "unendliche" Parallelisierung optimiert wurden ebenfalls mal wieder auf der Strecke.

    Aber ich denke mal, für Privatanwender ist eine derartige CPU auf (nicht) absehbare Zeit ohnehin nicht gedacht.

  18. #17
    The Saint Avatar von Holzmann
    Registriert seit
    02.05.2017
    Ort
    Luzern
    Beiträge
    12.549


    • Systeminfo
      • Motherboard:
      • Gigabyte Aorus Pro AMD X399
      • CPU:
      • AMD Threadripper 2950X
      • Kühlung:
      • Corsair Hydro H115i Platinum
      • Gehäuse:
      • Corsair 460x
      • RAM:
      • Corsair Dominator Platinum
      • Grafik:
      • AMD Radeon7 by MSI
      • Storage:
      • Corsair NX 500 PCI SSD 400 GB
      • Monitor:
      • Dell
      • Netzteil:
      • Corsair AX 860i
      • Betriebssystem:
      • Win10

    Standard

    Star Citizen könnte davon profitieren.

    War auch ein Scherz, obwohl Schachprogramme ...

  19. #18
    Kapitänleutnant Avatar von Nonaamee
    Registriert seit
    15.12.2007
    Ort
    8XXXX
    Beiträge
    1.619


    • Systeminfo
      • Motherboard:
      • MSI X470 Gaming pro Carbon
      • CPU:
      • AMD Ryzen 2600 @4,1 GHz
      • Kühlung:
      • Cooler Master MasterLiquid 240
      • Gehäuse:
      • Aerocool Quartz Pro RGB Black
      • RAM:
      • 16GB Teamgroup 3200MHz CL14
      • Grafik:
      • RX Vega 56@64 Bios
      • Storage:
      • SSD + HDD
      • Monitor:
      • 2x 28´´ (144Hz 1440p IPS, 60Hz UHD TN)
      • Netzteil:
      • Enermax RevoBron 600W
      • Handy:
      • Pocophone F1 + Lineage OS

    Standard

    Zitat Zitat von Liesel Weppen Beitrag anzeigen
    Das drückt dann aber gewaltig auf den Preis einer einzelnen CPU und damit wären Chiplets wieder günstiger, sofern das damit auch machbar ist.
    Yield ist ja auch nur eine Preisfrage. Klar kann man diverse Fantastereien fertigen, aber wenn dann nur 50% Yield rauskommen, wirds halt sehr sehr teuer.
    Ich glaube, Institute die sich so eine CPU beschaffen interessieren sich überhaupt nicht für einen Preis.... Das ding wird schon ein paar Millönchen kosten.

  20. #19
    Leutnant zur See
    Registriert seit
    20.07.2017
    Beiträge
    1.237


    Standard

    Zitat Zitat von Nonaamee Beitrag anzeigen
    Ich glaube, Institute die sich so eine CPU beschaffen interessieren sich überhaupt nicht für einen Preis.... Das ding wird schon ein paar Millönchen kosten.
    Wenn das Ding 400Mio kostet und man die gleiche Rechenleistung auf Chiplets verteilt auch für 300Mio haben kann, dann interessiert diese Institute der Preis urplötzlich sehr wohl.
    Die drucken ihr Geld auch nicht selber und wenn da kein Mehrwert vorhanden ist, dann kaufen auch Institute das nicht. Genau nach diesem Mehrwert frage ich ja. Aber den sehe ich aktuell nicht.

  21. #20
    Don
    Don ist offline
    [printed]-Redakteur
    Tweety
    Avatar von Don
    Registriert seit
    15.11.2002
    Ort
    www.twitter.com/aschilling
    Beiträge
    31.668


    • Systeminfo
      • CPU:
      • 2x Xeon E5520 (2,26 GHz)
      • Systemname:
      • Mac Pro
      • RAM:
      • 16 GB DDR3 1066 MHz
      • Grafik:
      • ATI Radeon HD 4870
      • Storage:
      • 1x 160 GB SSD + 3x 1 TB HDD
      • Monitor:
      • Apple 24" Cinema-Display
      • Netzwerk:
      • Gigabit
      • Betriebssystem:
      • Mac OS X - Lion
      • Notebook:
      • Apple MacBook Air
      • Photoequipment:
      • Canon EOS 1D Mark II
      • Handy:
      • Apple iPhone

    Standard

    Zitat Zitat von heiroh Beitrag anzeigen
    Also die 1.2 Trillionen Transistoren sind wohl falsch übersetzt worden. 1.2 Trillionen (im Deutschen) sind 1.2 x 10^18, Jeder der 400000 Kerne hätte also angeblich rund 100x mehr Transistoren als ein kompletter EPYC.
    Richtig, muss natürlich Billion heißen.

  22. #21
    Obergefreiter
    Registriert seit
    07.05.2009
    Ort
    Salzburg
    Beiträge
    101


    Standard

    Zu aller erst dachte ich verrückt! als ich das las - auch in Beziehung zu den Chiplets jetzt... ABER, wie schon angemerkt, es wird ja keine Großserienfertigung angestrengt. Sollte es realisierbar sein, wäre dies ein enormer Fortschritt in Bezug auf die Rechenleistung pro Größeneinheit, selbst wenn einige Einheiten deaktiviert werden. Das Spielchen gibt es ja auch bei den Xeons, wo teilweise bis über die Hälfte der Kerne deaktiviert werden, aka unterschiedliche Modelle angeboten werden.
    Es würde sicherlich reissenden Absatz finden, sollte es umgesetzt werden können - die Kosten sind da relativ sekundär, wenn sich die Leistung eines ganzen Rechenzentrumkomplexes in nur einem Serverschrank vereinen lässt.
    Allerdings, sieht das Ganze für mich eher nach gut durchdachter Konzeptstudie aus und nicht unbedingt praktisch zu bewerkstelligen.
    Und hier kommt das Dilemma und die Chance für den Underdog. Die peilen natürlich Investoren für die Idee an, oder hoffen gar gleich aufgekauft zu werden. Könnte ja doch irgendwie machbar sein, somit vorsorglich ins eigene Portfolio transferieren solange noch günstig... *zuintelundnvidiazwinker*
    In diesem Zusammenhang gesehen, werden bei solchen Gelegenheiten wohl zu 99% gute bis hervorragende Blender sein, deren einzige wirkliche Antriebsfeder ist, den "Großen" das Geld aus der Tasche zu ziehen. So funktioniert das System nunmal

    Also zurücklehnen und die Show genießen, während draussen langsam (aber immer schneller) alles vor die Hunde geht )
    [

  23. #22
    Hauptgefreiter
    Registriert seit
    18.10.2018
    Beiträge
    235


    • Systeminfo
      • Motherboard:
      • ASRock H370 Fatal1ty Performance
      • CPU:
      • i7-8700K Z370:5Ghz@1.39V
      • Systemname:
      • Gesleevede Platzeffizienz
      • Kühlung:
      • BQ DRP4, 4xNF-S12A
      • Gehäuse:
      • ABKONcore Ramesses 310
      • RAM:
      • 4x8GB TridentZ RGB 3000 CL16
      • Grafik:
      • Zotac GTX 1070 Amp! Extreme
      • Storage:
      • 860 Evo 500GB, WD Gold 1TB, MX500 1TB
      • Monitor:
      • Dell U2715H
      • Netzwerk:
      • NanoPi R1@OpenWrt, Intel I219V
      • Sound:
      • Beyerdynamic Custom One Pro Plus mit Mikrofon
      • Netzteil:
      • Seasonic Focus Plus Gold 650W
      • Betriebssystem:
      • diverse Linux-Distros, andere
      • Sonstiges:
      • MDPC-X Sleeve (Carbon Blue und Carbon White), Klemmhalterung für Monitor, Wooting One, Logitech M500
      • Notebook:
      • Macbook 2009 Aluminium 2Ghz
      • Photoequipment:
      • Canon Powershot SX610HS
      • Handy:
      • iPhone 8 Space Grey 64GB

    Standard

    Was wird da übehaupt für ein Instruktionssatz verwendet? ARM? RISC-V? Oder ein eigener? (Oder hat IBM oder Intel doch mal Power bzw. x86 lizenziert?)
    Microsoft gives you Windows. Linux gives you the full house.

  24. #23
    Leutnant zur See
    Registriert seit
    30.04.2008
    Ort
    Civitas Tautensium, Agri Decumates
    Beiträge
    1.229


    • Systeminfo
      • Motherboard:
      • Apple 830-2337-A
      • CPU:
      • Intel Xeon W3690
      • Gehäuse:
      • Apple 620-4224
      • RAM:
      • 3x Kingston 8GB PC3-10600 ECC
      • Grafik:
      • Gigabyte R9 280X 3GB
      • Storage:
      • Corsair Force MP510 960GB
      • Monitor:
      • NEC MultiSync LCD2690WUXI²
      • Netzwerk:
      • Broadcom BCM94360CD
      • Sound:
      • AppleDesign Powered Speakers
      • Netzteil:
      • Delta Electronics 980W
      • Betriebssystem:
      • MacOS 10.14.6 Mojave
      • Sonstiges:
      • FusionDrive: Samsung XP941 256GB + 2x Toshiba MQ01ABB200

    Standard

    @FantasyCookie17

    Es sieht nach was Eigenständigem aus: Artikel bei AnandTech
    Google:
    Every breath you take - Every move you make - Every bond you break - Every step you take
    I’ll be watching you

  25. #24
    Obergefreiter
    Registriert seit
    08.11.2013
    Beiträge
    118


    Standard

    Wegen der Yield-Geschichte: Die gehen davon aus, dass jeder ihrer Chips Fehler enthält, das Chip-Design soll allerdings fehlertolerant sein. Die haben wohl auch Extra-Kerne eingeplant, um defekte Kerne zu ersetzen. Und der Speicher scheint auch über den ganzen Chip verteilt zu sein.

    Sicherlich ein interessantes Konzept.

  26. #25
    Obergefreiter
    Registriert seit
    07.05.2009
    Ort
    Salzburg
    Beiträge
    101


    Standard

    @smalM Danke für den Link - da, kann man sich schon mehr vorstellen

    Das könnte doch gar der nötige Ansporn sein, um die 450mm Wafer Fertigung zu pushen...
    [

Seite 1 von 2 1 2 LetzteLetzte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •