> > > > Intel Knights Landing mit 76 Rechenkernen – vier auf Reserve

Intel Knights Landing mit 76 Rechenkernen – vier auf Reserve

DruckenE-Mail
Erstellt am: von

intel3Gegen Ende des Jahres will Intel mit der nächsten Xeon-Phi-Generation starten. Die Knights-Landing-Generation wird im 14-nm-FinFET-Verfahren gefertigt und kommt auf 8 Milliarden Transistoren. Damit gehört dieser Chip zu den größten und komplexesten, die jemals von Intel gefertigt wurden.

Bisher ging man von einer maximalen Ausbaustufe mit 72 Kernen auf Basis der Silvermont-Architektur aus. Der Aufbau besteht dabei aus 36 Tiles oder Kacheln mit jeweils zwei Kernen. Auf der Hot-Chip-Konferenz erklärte KNL-Chefarchitekt Avinsh Sodani nun, dass die Knights-Landing-Generation alias Xeon Phi x200 noch zwei weitere Tiles besitzt. Dies resultiert in vier weiteren Kernen, so dass der Prozessor auf 76 Rechenkerne kommt. Diese seien aber in keinem bisher geplanten Produkt aktiv und werden seitens Intel als Reserve vorbehalten. Bei der Fertigung des komplexen Prozessors kommt es immer wieder zu Teildefekten, die über die vier Reservekerne kompensiert werden.

Mesh-Organisation von Intels Knights Landing
Mesh-Organisation von Intels Knights Landing

Der Aufbau sieht demnach wie folgt aus: 38 Tiles mit jeweils zwei Rechenkernen sind in einem 2D-Mesh organisiert. Eingerahmt ist dieses 2D-Mesh in sechs DDR4-Speichercontroller, dem PCI-Express-3.4-Interface und dem DMI-Controller. Hinzu kommen acht EDC-Controller für ebenso viele MCRAM-Bausteine mit jeweils 2 GB Kapazität. Aus rein technischer Sicht sei es kein Problem, alle funktionsfähigen Kerne freizuschalten, so Intel. Allerdings verzichtet man aus verschiedenen Gründen darauf. Der wohl wichtigste ist die Tatsache, dass der Chip in virtuelle Quadranten eingeteilt werden kann. Eine ungerade Anzahl an Kernen oder eine solche, die nicht durch vier teilbar ist, ist demzufolge nicht praktikabel.

Laut Intel erreicht Knights Landing eine Rechenleistung von drei TFLOPS bei doppelter Genauigkeit. Rein rechnerisch kommt der Prozessor demnach auf einen Takt von 1,3 GHz. Im Vergleich zu zwei Intel Xeon E5-2697 v3 bietet Knights Landing eine fast identische Leistung im SPECint_2006_rate und SPECfp_2006_rate. Das Paradesegment der Xeon Phis sind aber andere Rechenaufgaben, wie verschiedene Deep-Learning-Algorithmen und STREAM Triad.

Hintergrund zum Xeon Phi auf Basis von "Knights Landing"

Die Rechenkerne im neuen Xeon Phi basieren auf der klassischen x86-Architektur, genauer gesagt der Silvermont-Architektur und können pro Kern vier Threads bearbeiten. Daneben besitzen sie noch AVX512-Einheiten. Im Vergleich zum Einsatz in der BailTrail-Plattform sind aber einige Änderungen vorgenommen worden, die auf den Xeon-Phi-Karten besonders interessant sind. Dazu zählt unter anderem eine andere Cache-Hierarchie. Eine höhere Pack-Dichte im Server will Intel durch die Sockelbarkeit der neuen "Knights Landing"-Xeon-Phi erreichen.

Xeon Phi Knights Landing Chip (Bild: ThePlattform.net)
Xeon Phi Knights Landing Chip (Bild: ThePlatform.net)

Insgesamt sollen die neuen Xeon-Phi-Beschleuniger auf über 3 TFLOPS Double-Precision-Performance kommen. Zum Vergleich: AMDs FirePro W9100 kommt auf 2,62 TFLOPS und NVIDIAs Tesla K80 erreicht 2,91 TFLOPS. Wichtig ist aber auch der lokal verfügbare Speicher, der 16 GB groß sein soll. Beim Speicher handelt es sich um Hybrid Memory Cubes von Micron, die im gleichen Package untergebraucht sind, wie der Xeon-Phi-Chip. Damit will Intel die Zugriffszeiten auf diesen Speicher reduzieren und zudem die Bandbreite erhöhen. Letztgenannte soll bei 512 GB pro Sekunde liegen, was in etwa 1/3 schneller ist als das, was AMD und NVIDIA derzeit als Anbindung ihrem Grafikspeicher zur Verfügung stellen können.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (20)

#11
Registriert seit: 01.11.2004
Bärlin
Super Moderator
Mr. Alzheimer
Beiträge: 17760
Zitat demonkoryu;23808129
@underclocker24
Natuerlich haben Atom-Prozessoren schlechte IPC, aber hier gehts um reine Parallelverarbeitung. Du wuerdest nie 53 bzw. 76 z.B. Haswell-Kerne auf eine Karte kriegen, ohne eine Monsterkuehlung und 3000W-Netzteil.


Du hast nicht richtig gelesen.
Es geht um die ZuspielCPUs für die Cruncher Cores. Und da braucht es hohe IPC Performance, weil ja mal eben 1000Kerne versorgt werden wollen.
Und die Verwaltung hat nichts mit der Parallelverarbeitung zu tun. Die kommt erst nach der Verwaltung zum Tragen.
Das muss man sich wie nen Vorarbeiter auf der Baustelle vorstellen. Da kannst du 100 starke Männer haben, wenn der Vorarbeiter pennt, geht nix.
Und da kann ein Kern mit einer niedrigen IPC (Atom) eben nicht glänzen.

Und genau aus diesem Grund setzt Intel ja als Unterbau den Haswell-EP ein, im Gegensatz zu einem Atom oder einer Standalone Phi Lösung.
#12
Registriert seit: 05.07.2010

Admiral
Beiträge: 11474
Zitat underclocker2k4;23807564
Das ist mir schon klar, bzw. war ich da nicht präzise genug.
Nein, Du hast Dich klar falsch ausgedrückt.
Zitat underclocker2k4;23807564
Die alten Phis waren auch x86er Prozessoren, wie schon Intels Versuchsplattform, Intel kann nämlich nur das wirklich gut.
Das mag durchaus stimmen, aber offenbar reicht es ja eine wirklich gut zu können um Erfolg zu haben. Das ist allemal besser als viele nur halb zu können und bei gar nichts gut zu sein.
Zitat underclocker2k4;23807564
Da es aber in der Regel einen schnellen Zuspieler braucht, wird man wohl kaum auf Atom-Cores aufsetzen.
Nein, genau das ist ja der Vorteile der neuen Knights Landing, die brauchen diese Zuspieler eben nicht und damit spart man dann ggf. auch einiges an Overhead. Hier ist eben die Ausnahme der Regel und der Zuspieler kann entfallen, was bei den bisherigen Lösungen mit GPU gar nicth denkbar war.
Zitat underclocker2k4;23807564
Von der IPCore sind sie, wie alle anderen Cruncher, unterirdisch schlecht. Die leben von der Parallelität.
Das ist klar, aber die sind ja auch für Anwendungen wo genau das sinnvoll ist und für andere Anwendungen gibt es die anderen Xeons, die viel mehr IPCs und Takt haben, aber eben weniger Kerne. Knights Landing soll die ja nicht ersetzen, sondern eben ergänzen und für die Anwendungen sein, wo man daraus Vorteile ziehen kann.

Zitat underclocker2k4;23807564
Es wird daher, wie auch beim Vorgänger und AMD/NV, kaum vom klassischen Aufbau abgewichen.
Es mag evtl. ein paar "autarke"-Systeme geben, halte ich aber für vernachlässigbar.
Das wird man sehen, vielleicht werden die Versionen auf PCIe Karten stückzahlenmäßig die Ausnahme sein, vielleicht die autaken im Sockel.

Zitat underclocker2k4;23809786
Du hast nicht richtig gelesen.
Es geht um die ZuspielCPUs für die Cruncher Cores.
Nein, Du hast schon wieder vergessen, dass es eben nicht nur die PCIe Versonen für Karten geben wird, sondern halt auch solche die selbst die Haupt-CPU sind und keinen Zuspieler haben.
Zitat underclocker2k4;23809786
Und da braucht es hohe IPC Performance, weil ja mal eben 1000Kerne versorgt werden wollen.
Wenn die Kerne alle in einer CPU sind und das auch die Haupt-CPU ist, wozu braucht man einen Zuspieler mit hoher IPC?
#13
Registriert seit: 01.11.2004
Bärlin
Super Moderator
Mr. Alzheimer
Beiträge: 17760
Zitat
Nein, genau das ist ja der Vorteile der neuen Knights Landing, die brauchen diese Zuspieler eben nicht und damit spart man dann ggf. auch einiges an Overhead. Hier ist eben die Ausnahme der Regel und der Zuspieler kann entfallen, was bei den bisherigen Lösungen mit GPU gar nicth denkbar war.


Zitat
Wenn die Kerne alle in einer CPU sind und das auch die Haupt-CPU ist, wozu braucht man einen Zuspieler mit hoher IPC?

Was glaubst du, berechnen die Cores? Die denken sich die Aufgaben ja nicht aus. Es gibt eine konkrete Aufgabe, die gelöst werden muss. Diese Aufgabe wird untergliedert und dann zum Rechnen freigegeben.
Zusätzlich müssen Daten bereitgestellt und abgeholt werden
(siehe das Beispiel mit dem Vorarbeiter)

Und genau das Zerlegen muss ausreichend schnell passieren, sonst warten alle Rechensklaven immer, bis sie eine neue Berechnung zugewiesen bekommen.
Auch müssen die Daten ausreichend schnell transferiert werden.

Und selbst wenn man eine 1000Kern CPU baut, gibt es immer "einen" Trottel der das organisieren muss. Der kann in der "CPU" sitzen oder extern, wenn es eine dedizierte Gerätschaft ist.

Zitat
Nein, Du hast schon wieder vergessen, dass es eben nicht nur die PCIe Versonen für Karten geben wird, sondern halt auch solche die selbst die Haupt-CPU sind und keinen Zuspieler haben

Ich vergesse da garnichts.
Und selbst der Phi braucht einen Zuspieler (Grund siehe oben), eben den besagten "Vorarbeiter". Der kann auch gerne in der CPU sitzen, oder eben extern sein.
Dennoch gibt es ihn!
Und da dieser Zuspieler etwas mehr Bums braucht, reicht eben "ein" Mädchenkern nicht aus. Es braucht da eine Männer CPU.

Der Suchbegriff bei Google lautet: Decomposition

Mir ist sehr genau klar, was der neue Phi kann, wie er aufgebaut ist, etc. pp.
Dennoch schätze ich den Anwendungsfall "standalone" als eher von geringerem Interesse ein. Es mag ihn geben, bestimmt, aber die Paradedisziplin wird er nicht werden.
Und Intel sieht das auch so. Die bieten die Option aber zusätzlich an, bestimmt nicht verkehrt.

EDIT:
Das kann man in etwa mit dem vergleichen, wenn man sich nen SLI mit 2 GTX980Ti aufbaut und einen J1900 Prozessor.
Die "HPC"-Cores der GPUs langweilen sich zu Tode, weil sie nicht schnell genug mit neuen Daten und Aufträgen versorgt werden.
Und das Problem, was du in einem ATX-Tower hast, gibt es auch skaliert auf etliche Petaflops.

2ndEDIT:
Und genau aus dem Grund sehe ich den Xeon Phi auch nicht als CPU an. Ja, er mag als x86er CPU bootbar sein, dadurch wird es aber nicht zum Berechnungsmanager, dazu braucht es etwas mehr.

3rdEDIT:
Was Sinn machen würde, wenn Intel eben einen Multicore-highclock Haswell-EP in die DIE oder auf dem Package verbaut. Dann würde ich sagen, das ist das, was "du mir hier verkaufen willst" :).
Ne Standalone HPC-CPU/GPU (HPC-SOC?).
#14
Registriert seit: 05.07.2010

Admiral
Beiträge: 11474
Wenn nun jeder Kern eben kein dummer Sklave ist, dann brauchen bei entsprechender SW auch keine Einpeitscher oder Vorarbeiter, das ist dann wie ein Team von Spezialisten, aber das scheint Deine Vorstellungskaaft eben zu übersteigen. Daher ist das Thema hier für mich durch, ich habe SW die genau sowas kann und wo dann 70 Kerne jeder für sich arbeiten und erst am Ende ihre Ergebnisse einem geben, der diese dann weiterreicht, aber das kann jeder von denen sein, da muss es keinen besonders leistungsstarken Vorarbeiter geben.
#15
Registriert seit: 01.11.2004
Bärlin
Super Moderator
Mr. Alzheimer
Beiträge: 17760
Meine Vorstellungskraft übersteigt das nicht. Es gibt durchaus HPC Anwendungen, wo der Rechenaufwand höher ist, als der Verwaltungsaufwand.
HPC ist aber weit mehr.
Welche HPC Software setzt du denn ein und was berechnest du damit?
Komme mir jetzt nicht mit Cinema 4D, Maya oder anderen Scherzen.
Beim HPC gibt es immer einen sequentiellen und einen parallelen Anteil. Und der Sequentielle lässt sich eben nicht parallelisieren. Die Folge ist, dass es, in Abhängigkeit von der zu lösenden Aufgabe, zunehmend darauf ankommt, dass der sequentielle Ablauf hinreichend schnell ist, dass die parallelen Prozesse versorgt sind.
Beispiel habe ich bereits genannt.
Spiele sind ein gutes Beispiel dafür. Die parallelen Prozesse (das Rendern in der GPU) müssen mit ausreichend Daten versorgt werden.
Und da kannst du auch gerne den neuen Phi mit seiner Vielzahl an intelligenten Kernen einsetzen und du wirst feststellen, es gibt nen Bottleneck.
Eine Quad 4GHz wird dort bessere Ergebnisse erzielen.

Das musst du mir nicht glauben. Der gemeine Gamer kennt den Effekt aber.

Jetzt kann man natürlich sagen, ich schraube den Rechenaufwand in den parallelen Prozessen uns unermessliche hoch (bei Games die Auflösung und die Features hochziehen). Dann sind wir wieder bei dem Ding, wo man den Phi (oder den Atom am Beispiel der Games) nehmen kann, da dann die CPU (der Zuspieler) die untergeordnete Rolle spielt.

Aber wie gesagt, HPC ist mehr als nur der letzte Anwendungsfall.

EDIT:
C4D, Maya, Bonic und ähnliches ist genau die andere Seite des von mir angeführten Anwendungsfalls.
Hier sind die einzelnen Berechnungen so aufwändig, dass die CPU (für mich ist auch der OS-PHi-Kern die CPU), Die Aufgabe verteilt, Däumchen dreht und nach "einer halben Stunde" das Ergebnis bekommt und wieder von vorne anfängt.
Aber auch das hat Grenzen. Man kann nicht unendlich viele Cruncher nehmen und darauf hoffen, dass "der Atom-Kern" noch die Performance hat, um die Multithreads zu füttern.
#16
Registriert seit: 09.04.2011

Leutnant zur See
Beiträge: 1080
Zitat Holt;23807442

Der kann also auch den Haupt-CPU arbeite und dessen Aufgaben mit übernehmen, dafür ist es eben auch eine x86er CPU, nur dann eben eine mit viele Kernen. Das ist ein ganz wesentlicher Unterschied zum Vorgänger …

Nein, auch beim Vorgänger lief das System schon strikt autark! Auf jeder Xeon Phi Karte läuft ein vollständiges Linux (auch in einem Windows System läuft auf der Karte immer Linux) und nur zum IO nutzte man den Host. Wobei Infiniband schon seit längerem den eintreffenden IO-Traffic auf XeonPhis und Teslas direkt durchleiten kann, d.h. der PCIe Traffic landet sofort auf der Karte ohne die Host CPUs zu erreichen. Die neue Generation XeonPhi wird es auch mit integrierten Omni-Path (eine Intel Abart der Infiniband EDR Netzwerktechnologie) Controllern geben und man kann auf den umgebenden Host verzichten. Das hat Vor- aber auch Nachteile.

Das Programmiermodell der alten XeonPhis erlaubte es schon reine Phi Programme zu schreiben, die ausschließlich auf der Karte laufen und keinerlei Interaktion mit dem Host haben. Man kopiert vorher das Programm und die Daten auf die Karte, führt das Programm aus und kopiert anschließend die Daten wieder auf den Host. So etwas geht auf einer Tesla oder FirePro nicht, da gibt es immer die Abhängigkeit mit dem Host.

[COLOR="red"]- - - Updated - - -[/COLOR]

Zitat Holt;23811164
Wenn die Kerne alle in einer CPU sind und das auch die Haupt-CPU ist, wozu braucht man einen Zuspieler mit hoher IPC?

Die Karten haben sehr wenig Arbeitsspeicher, und sind relativ lahm bei SingleThread Jobs so daß auch IO zu einem Problem werden kann. Infiniband bzw. Omni-Path beherrscht Offloading sehr gut, aber es fallen trotzdem Aufgaben für die CPU Kerne an. Aber lokaler Storage wird so zu einem Problem. D.h. diese Karten mit Omni-Path Interface ergeben nur dann einen Sinn, wenn man keinerlei lokalen Storage benötigt und die Probleme komplett in die 16GB passen.
#17
Registriert seit: 05.07.2010

Admiral
Beiträge: 11474
underclocker2k4, nein SW ist speziell und nicht kommerziell nicht bzw. nur im Rahmen von Projekte erhältlich, daher kannst Du sie nicht kennen und deshalb ist es sinnfrei weiter zu diskutieren, denn auch Details der SW werde ich nicht eingehen. Es kommt da auf schnelles RAM mit viel Durchsatz und hohe Rechenleistung an, Omni-Path interessiert dagegen nicht, weil es kaum einen Datenaustausch zwischen den Kernen gibt, die SW skaliert daher auch extrem gut über viele Kerne.

jdl, eben weil die Karten wenig Speicher haben, wäre ein Xeon Phi als Haupt-CPU so gut, da kann man den HMC-Speicher ja offenbar wahlweise als schnelles aber spezill anzusprechendes RAM oder als Cache für das DRAM nutzen und wohl sogar wahlweise anteiliig. Die Kunden der Projekte verlangen meist das nur Standard-HW verwendet wird, einen Xeon Phi im Sockel des Haupt-CPU könnte man noch unterbringen, einen auf einer Steckkarte dagegen nicht.
#18
Registriert seit: 09.04.2011

Leutnant zur See
Beiträge: 1080
Zitat Holt;23816791

jdl, eben weil die Karten wenig Speicher haben, wäre ein Xeon Phi als Haupt-CPU so gut,

Vom schnellen Arbeitsspeicher hat man nichts bei SingleThread Problemen, weil ein Core viel zu langsam ist um davon Gebrauch zu machen. D.h. die Phis leben davon parallelen Code abzuarbeiten, hat man diesen nicht sind sie eine Bremse. Aus diesem Grund sind bei vielen HPC Jobs die normalen Xeon E5 deutlich schneller. Intel will nun zukünftig reine Xeon Phi Cluster anbieten können, diese werden nur für sehr spezielle Probleme geeignet sein. Es wird sicherlich für einen hohen Linpack Wert reichen, weil dieser stark von der Performance von DGEMM dominiert wird, aber Linpack ist alles andere als ein realitätsnaher Benchmark. Mit persönlichen Erfahrungen mit HPC Code war, daß die DGEMM bzw. in unserem Fall ZGEMM nie das Problem war. Problematisch wurde es mit selbstgeschriebenen Code und der effizienten NUMA Nutzung. Wenn man das wirklich gut machen will, muß man oftmals die Datenstrukturen in gewachsenem Programmcode ändern - das ist sehr problematisch.

Zitat Holt;23816791

Die Kunden der Projekte verlangen meist das nur Standard-HW verwendet wird, einen Xeon Phi im Sockel des Haupt-CPU könnte man noch unterbringen, einen auf einer Steckkarte dagegen nicht.

Kunden die HPC machen wissen um die Problematik, und bei anderen solltest Du ohnehin nicht mit Phis aufkreuzen.
#19
Registriert seit: 05.07.2010

Admiral
Beiträge: 11474
Zitat jdl;23818364
Vom schnellen Arbeitsspeicher hat man nichts bei SingleThread Problemen, weil ein Core viel zu langsam ist um davon Gebrauch zu machen.
Sorry, aber das ist doch selbst bei einem schwachen Kern totaler Blödsinn! Die normale Latenz bei einem RAM Zugriff liegt bei 50 bis 60ns, wie viele Taktzyklen in der Zeit selbst einen CPU mit nur einem 1 bis 2 GHz Takt macht, brauche ich wohl nicht vorzurechnen, oder?

Zitat jdl;23818364
D.h. die Phis leben davon parallelen Code abzuarbeiten, hat man diesen nicht sind sie eine Bremse.
Das ist klar, es sind ja eine Menge schwacher Kerne, hat aber mit dem RAM nun gar nichts zu tun.
Zitat jdl;23818364
Problematisch wurde es mit selbstgeschriebenen Code und der effizienten NUMA Nutzung. Wenn man das wirklich gut machen will, muß man oftmals die Datenstrukturen in gewachsenem Programmcode ändern - das ist sehr problematisch.
Vernünftige Datenstrukturen sind das A und O einer guten Programmierung, gerade auch wenn man Performance braucht. Selbstgeschriebener Code ist da nur problematisch, wenn der Programmierer davon keine Ahnung hat. Es ist wie immer im Leben, es reicht nicht nur zu wollen, man muss auch können und da überschätzen sich eben viele Programmierer.

Zitat jdl;23818364
Kunden die HPC machen wissen um die Problematik, und bei anderen solltest Du ohnehin nicht mit Phis aufkreuzen.
Die Kunden wollen ist erste Linie ein Problem gelöst haben und wissen, wie viel HW sie dafür brauchen um das gemäß ihren Anforderungen zu können und sie wollen dafür Standard-HW, die sie ggf. auch anderweitig nutzen können. Das das was sie machen schon eindeutig in den HPC Bereich fällt, das ist denen oft so nicht gar nicht klar.
#20
Registriert seit: 09.04.2011

Leutnant zur See
Beiträge: 1080
Zitat Holt;23819275
Sorry, aber das ist doch selbst bei einem schwachen Kern totaler Blödsinn!

Das ist die Realität, und durch den Stream-Benchmark zigfach belegt. Die neusten CPUs können nur im Multithread die Speicherbandbreite vollständig auslasten, ein einzelner Core ist dazu nicht in der Lage.

Zitat Holt;23819275

Die normale Latenz bei einem RAM Zugriff liegt bei 50 bis 60ns, wie viele Taktzyklen in der Zeit selbst einen CPU mit nur einem 1 bis 2 GHz Takt macht, brauche ich wohl nicht vorzurechnen, oder?

Die Latenz hat nichts mit der Speicherbandbreite zu tun. Die Latenz ist wichtig, wenn man die Zeit berechnen will bis der erste Wert in der CPU eintrifft. Weil das so problematisch geworden ist, werden Algorithmen auf Cache Hits optimiert. Aber das hat erstmal nichts mit der Speicherbandbreite zu tun.

Zitat Holt;23819275

Vernünftige Datenstrukturen sind das A und O einer guten Programmierung, gerade auch wenn man Performance braucht. Selbstgeschriebener Code ist da nur problematisch, wenn der Programmierer davon keine Ahnung hat.

Die Paradigmen haben sich in den letzten Jahren deutlich gewandelt, so daß man auch die Algorithmen verändern mußte. Man wird nicht ohne Not funktionierenden stabilen HPC Code durch neuen Code ersetzen von dem man erstmal nicht weiß, ob er überhaupt richtig rechnet. Dann ist etwa Lock Free Code alles andere als trivial umzusetzen.

Zitat Holt;23819275

Die Kunden wollen ist erste Linie ein Problem gelöst haben und wissen, wie viel HW sie dafür brauchen um das gemäß ihren Anforderungen zu können und sie wollen dafür Standard-HW, die sie ggf. auch anderweitig nutzen können. Das das was sie machen schon eindeutig in den HPC Bereich fällt, das ist denen oft so nicht gar nicht klar.

XeonPhis sind keine Standardhardware, sondern hoch spezialisierte CPUs für einen Teilbereich des HPCs. Hast Du jemals Kontakt mit normalen Xeon E5 o.ä. HPC Knoten gehabt?
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Test: Intel Xeon E3-1230 v5 (Skylake)

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/XEON-E3-1230V5/LOGO_XEON

Vor ein paar Tagen stellte Intel die Xeon-Prozessoren mit Sockel 1151 aus der Skylake-Familie vor. Diese sind hauptsächlich für den Workstation- und Entry-Level-Server-Bereich gedacht, die Vorgänger-CPUs fanden sich aber auch in vielen PCs unserer Leser wieder. Der Clou der Prozessoren ist das... [mehr]

Skylake richtig einstellen: Was man machen sollte, was man lassen sollte

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/XEON-E3-1230V5/LOGO_XEON

Intels Skylake-Chips wurden vor nunmehr vier Monate vorgestellt und sind leider immer noch nur spärlich verfügbar. Nach unserem Test der Core i7-6700K- und Core i5-6600K-Prozessoren zum Launch haben wir uns bereits diverse Z170-Boards angesehen, die Mobilversionen getestet und sind aufs... [mehr]

Core i7-6950X im Test: Dicker Motor, alte Karosse

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/6950X/6950X-LOGO

Intels letzter CPU-Launch ist schon eine Weile her - Ende Oktober 2015 testeten wir den Xeon E5-1230v5 auf Skylake-Basis, seitdem war zumindest im Desktop-Bereich nichts neues mehr vom Marktführer zu hören. Am heutigen Tag aktualisiert Intel endlich die High-End-Plattform und bringt mit dem Core... [mehr]

Intel 'Kaby Lake': Die siebte Core-Generation im Detail vorgestellt

Logo von IMAGES/STORIES/LOGOS-2016/INTEL_7TH_CORE_GEN

Im Zuge der kommenden "Kaby Lake"-Plattform, deren breite Verfügbarkeit für das erste Quartal 2017 erwartet wird, nutzt Intel heute die Gelegenheit, die siebte Core-Generation offiziell im Detail vorzustellen und bereits ein paar Prozessoren auf den Markt zu bringen. Wir konnten uns bereits vor... [mehr]

So schnell ist Kaby Lake: Erste eigene Benchmarks zum i7-7500U

Logo von IMAGES/STORIES/REVIEW_TEASER/INTEL_KABY_LAKE

Offiziell vorgestellt hat Intel die 7. Generation der Core-Prozessoren bereits Ende August, doch erst jetzt ist Kaby Lake in Form des ersten Notebooks verfüg- und damit testbar. Dabei handelt es sich um das Medion Akoya S3409 MD60226, in dem ein Core i7-7500U verbaut wird. Während das Notebook... [mehr]

Delid Die Mate im Test

Logo von IMAGES/STORIES/IMAGES/STORIES/GALLERIES/REVIEWS/2016/DDM/DDM

Seit der Ivy-Bridge-Generation verlötet Intel Die und Heatspreader nicht mehr miteinander, was leider in deutlich schlechteren Kern-Temperaturen resultiert. Abhilfe dagegen schafft nur das Delidding (das sogenannte „Köpfen“) der CPU sowie der anschließende Austausch der Wärmeleitpaste durch... [mehr]