Intel Kaby Lake Core i7-7700K und i5-7600K: Erste OC-Versuche und Benchmarks

naja n i3 mit vier kernen und ein i5 mit sechs kernen und i7 dann halt als sechskerner + ht hätten durchaus schon einen mehrwert
Für die meisten Heimanwender bisher nicht. Mit DX12 welche auch mehr Kerne nutzt, könnte sich das künftig ändern, aber es sind ja auch schon 6 Kerner bei Coffee Lake geplant. Außerdem wäre es bisher eben in den meisten Anwendungen ein Nachteil, wenn man wegen Kernen dann weniger Takt bekommen hätte. Außerdem brauchen mehr Kerne auch mehr RAM Bandbreite um effektiv mit Daten versorgt zu werden. Der große Sockel 2011-3 hat deswegen auch Quadchannel RAM, nur macht das die Systeme teurer. Man könnte vielleicht argumentieren, dass nun wo DX12 da ist und die Frequenzen von DDR4 RAM bis 3200 spezifiziert sind, Kaby Lake auch schon als 6 Kerner hätte kommen können, aber generell hätte es bisher wenig Sinn für Heimanwender gemacht. Außerdem hat Intel sich bisher beim Mainstream auch sehr auf die Entwicklung der iGPU konzentriert, hier hat die Konkurrenz von AMD eben auch gewirkt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
...Außerdem hat Intel sich bisher beim Mainstream auch sehr auf die Entwicklung der iGPU konzentriert....
Und was wird dem geneigten Käufer vorgesetzt?
Die alte, wenn auch aufgehübschte GT2, wo sind im Desktop den die GT4e oder wenigstens GT3e?
Welche ja auch nicht wirklich „neu“ sind!
 
Lohnt nicht, senkt nur unnütz die Marge... ;)
 
Irgendwie sehe ich keine Benchmarkergebnisse, wo sind die? Sehe gerade, ab Seite 3 geht es los.
 
Zuletzt bearbeitet:
@Holt: aber in deinem test sind es doch auch nicht mehr (ok 1,7 % bis 8,6 % wobei letzteres durch 100 mhz mehr erkauft wurde). dass mal zwei oder gar drei generationen leistungsmäßig stagnieren können, ok, aber inzwischen sind es ja 7 generationen in denen die signifikanteste veränderung der angepasste fertigungsprozess ist und die ihm geschuldeten effizienssteigerungen.

Wie kommst du auf 7 Generationen?
Wenn ich 7 Generationen zurück gehe und hiesige Kaby Lake CPUs mit einschließe, dann lande ich bei Lynnfield/Nehalem. Das ist schon doch ne ganze Ecke langsamer.
Mal davon ab, wo soll der Fortschritt auch herkommen wenn nicht durch Takt? Man kann einfach nicht die pro Takt Leistung in Legacycode um sonstwieviel steigern und das alle 1-2 Jahre. Geht einfach nicht. Man könnte sogar sagen, x86 ist quasi ausgelutscht und da wird dahingehend auch nicht mehr sooo viel passieren -> außer mehr Cores und Befehlserweiterungen.

Schau dir bspw. AVX Benches an, da packt in den richtigen Anwendungen selbst der Skylake i3 nen Westmere Hexacore, aber sowas von -> einfach weil die Befehlserweiterungen durchschlagen. Bspw. im Encodingbereich ist das idR der Fall, weil die Software genau diese Befehlserweiterungen zu nutzen im Stande ist. Ist aber eben alles andere als Legacycode. -> Vieles der Alltagssoftware kommt aus Kompatibilitätsgründen auf meist nur SSE2. Sprich ab dem Pentium 4/Athlon 64 lauffähig.

naja n i3 mit vier kernen und ein i5 mit sechs kernen und i7 dann halt als sechskerner + ht hätten durchaus schon einen mehrwert, der sich auch mit einem 2600k nicht mehr simulieren ließe, aber warum sollte intel solange seitens amd keine konkurrenz kommt? es war auch gar nicht als vorwurf an intel gedacht, denn aus betriebswirtschaftlicher sicht ist diese verhaltene modelpflege vollkommen nachvollziehbar, es ist schlicht die enttäuschung aus kundensicht.

Warum sollte Intel die Namen verdrehen? Hexacores gibts als i7 für S2011-3. Kauft man, wenn man es notwendig hat. Und so viel teurer ist das ganze gar nicht, teils (ggü. den Anfängen von Skylake) war es sogar günstiger auf Haswell-E zu setzen.
Dass es keine Kaby/Skylake Hexacores gibt, liegt einfach daran, es gibt keine Hexacore DIEs. Wo sollen die auf einmal herkommen? Alles größer 4 Cores (mit Ausnahme ein paar Xeon-D Modellen) ist Haswell oder Broadwell. Aber eben kein Skylake oder gar Kabylake. Gibts halt einfacht und kann deswegen auch nicht gebracht werden. Da ändert auch AMD mit Zen nix dran :wink:

Wenn mich nicht alles täuscht, gibts nach Medienberichten bei Intel weit im Vorfeld schon einen ziemlich fixen Fahrplan für ihre CPUs. Bis auf sehr wenige Ausnahmen, wo man sich seitens der Konkurenz dazu genötigt sah (Gallatin P4 bspw.), etwas außer Plan zu bringen, ist der Fahrplan also länger schon klar. Zumindest sagen das einige ehemalige Mitarbeiten von Intel in Interviews, teils sind diese bei Intel genau deswegen gegangen, wenn ich das recht in Erinnerung habe.

Man könnte vielleicht argumentieren, dass nun wo DX12 da ist und die Frequenzen von DDR4 RAM bis 3200 spezifiziert sind, Kaby Lake auch schon als 6 Kerner hätte kommen können, aber generell hätte es bisher wenig Sinn für Heimanwender gemacht. Außerdem hat Intel sich bisher beim Mainstream auch sehr auf die Entwicklung der iGPU konzentriert, hier hat die Konkurrenz von AMD eben auch gewirkt.

Hätte man sicher so argumentieren können, wäre aber trotzdem wunschdenken... Solange Intel die Xeon DIEs im Mainstream verwurschtelt und es keine DIEs größer vier Cores abseits von Broadwell/Haswell gibt, kann es auch keine Kaby-Hexacores geben. Wo soll das her kommen?

Gespannt sein darf man sicher auf die kommenden CPUs bzw. wie das ausschaut. Der neue S2066 scheint mir sehr "fett" zu sein. Sieht nach einer abermaligen Splittung des Marktes aus. Ob der Menge das gefallen wird? Wir werden sehen... Schreien zwar hier viele nach mehr Cores, bezahlen wills aber keiner hab ich das Gefühl. Dabei gibts das seit Jahren schon, wenn man will und das notwendige Kleingeld mitbringt.
 
Im Broadwell als Iris Pro 6200 zu finden...

Was bekannt und mir bewusst ist.
Nur sind wir inzwischen zwei Generationen weiter, im Jahr 2017
und kommen noch nicht einmal in den „Genuss“ der Errungenschaften der Jahre 2013/4 (GT4e).

Kein Wunder das selbst mit „Coffee Lake“ , nach bisherigen Bekanntmachungen, nicht damit zu rechnen ist.
Ebenso kann ich mich nur wundern dass mit dem 270er Brettern nicht einmal HDMI2.0 zum Standard wird.
Wo bleibt da die von „Holt“ erwähnte Entwicklung?
 
Zuletzt bearbeitet:
Soll nicht noch eine Skylake GT4e Version folgen?? War mir so, als hätte ich das mal gelesen...

Aber sei es drum, ein Grund dürfte wohl sein, dass der Markt für sowas schlicht und ergreifend abseits von Notebooks effektiv gar nicht vorhanden ist. Denn es stellt sich weiterhin die Frage, wer soll sowas brauchen? Ne mini dGPU macht idR die bessere Figur. Und seit es nunmehr die neuen dGPUs von AMD und NV gibt, ist auch das kein wirkliches Thema. So ne 460er oder 1050er ist weit schneller und mit ~100-150€ auch nicht sonderlich viel teurer in Summe (wenn man die Preise bei den mobilen Ablegern mal ranzieht)
Was HDMI 2.0 angeht, möglicherweise Lizenzthemen? Wäre zumindest im Rahmen des möglichen... Boards mit HDMI 2.0 von den Partnern gibts ja, ebenso mit HDCP 2.2 Support über eben HDMI 2.0, gelöst über irgendwelche Zusatzhardware und dann recht teuer im Einkauf.

Die Entwicklung ist in der GPU zu finden, nämlich in Form von Features... Muss man nicht wollen/brauchen, aber es schadet schlicht nicht. Sieh es einfach als Modellpflege, neu ersetzt alt für effektiv wohl gleiche Preise. Als Endkunde, der nach Kaby release kauft, bekommst du also mehr für dein Geld ohne Nachteile. Zu wechseln ist dabei nicht zwangsweise sinnig... Aber das wurde doch auch nirgends behauptet!?
 
Wenn es keine Angebote gibt, kann es ja auch keinen Markt geben. ;)

Für Skylake gibts GT4e bisher nur für Xeon und BGA. Muss man das verstehen? GT3e auch nur für U-BGA-CPUs (herrliche Abkürzung übrigens).
 
Möglicherweise war der Broadwell Absatz so gering? Wer weis das schon...

Der Trend geht ja nach wie vor weg vom klobigen Desktop. Und in anderen Märkten gibts diese Modelle ja... Paarst du das Teil dann noch mit ner dGPU im Notebook bspw., kannste dir ne GT3e oder GT4e auch schenken, da tuts auch die GT2. Und ohne dGPU bleibt immernoch die Frage, ob die Leistung dann überhaupt so brauchbar ist, dass man mit der GT2 gar nicht auskommt und mit der GT3e/GT4e vollends zufrieden ist/wäre.
Aus meiner Sicht ist das nix Halbes und nix Ganzes -> und die Modelle sind bestenfalls aus L4 Cache Gesichtspunkten interessant. Ob man dann für sowas breit ist einen Aufpreis zu zahlen? In Relation zum CPU Preis von Broadwell-E als Hexacore kommt man mit diesem wohl besser weg, selbst wenn dieser etwas mehr kosten würde für ein Desktop System.
 
es keine DIEs größer vier Cores abseits von Broadwell/Haswell gibt, kann es auch keine Kaby-Hexacores geben. Wo soll das her kommen?
Das Argument zieht nicht, zumal Intel bei Coffee Lake ja genau so einen 6 Kerner zu planen scheint, so ein Die also auch früher hätte entwickeln können. Der Punkt ist aber doch, dass dies natürlich erst Sinn macht, wenn der dann bei allen Anwendungen auch mit den 4 Kernern mithalten kann, also auch bei Nutzung von nur 1 bis 4 Kernen nicht langsamer takten muss. Außerdem muss die Speicherbandbreite es auch erlauben die zusätzlichen Kerne bei Anwendungen die diese wirklich nutzen, dann auch ausreichend mit Daten zu versorgen. Ersteres kann man mit einem besseren Fertigungsprozess erreichen und hier sieht Intel offenbar noch Verbesserungsbedarf, wenn man es erst für 2018 plant (eine große Verbesserung der Effizienz des 14nm Prozesses ist ja bei den ersten Tests der 7700K bisher auch nicht zu sehen) und zweites eben mit schnelleren RAMs, wenn man nicht mehr Speicherkanäle und damit Kosten in Kauf nehmen möchte.
 
Zuletzt bearbeitet:
Das ist aber Henne/Ei... Ohne Software keine Hardware und ohne Hardware keine Software.

Was den anderen Part angeht, natürlich hätten sie das, aber zu welchem Zweck? Welchen Nachteil hat ein Haswell-E ggü. einem Skylake/Kabylake außer der GPU und ggf. irgend ner Befehlserweiterung? Da gibts nix... Warum sich also die Arbeit mehrfach machen? Die bauen doch so oder so in gewissen Abständen die Xeon CPUs -> die i7 Modelle für S2011 waren und sind nur der gleiche Abklatsch mit dem geringsten Aufwand, den man sich dort nur machen kann.

- - - Updated - - -

Das ist aber Henne/Ei... Ohne Software keine Hardware und ohne Hardware keine Software.

Was den anderen Part angeht, natürlich hätten sie das, aber zu welchem Zweck? Welchen Nachteil hat ein Haswell-E ggü. einem Skylake/Kabylake außer der GPU und ggf. irgend ner Befehlserweiterung? Da gibts nix... Warum sich also die Arbeit mehrfach machen? Die bauen doch so oder so in gewissen Abständen die Xeon CPUs -> die i7 Modelle für S2011 waren und sind nur der gleiche Abklatsch mit dem geringsten Aufwand, den man sich dort nur machen kann.
 
https://www.youtube.com/watch?v=ZUGEV3YpSf4

Er sagt das Kaby Lake der neue Sandy Bridge ist was Overclocking betrifft. Lassen wir uns Überraschen :d

Dünnschiss.
Enorm viele Sandy Bridge (2600k 3,4GHz ,2500k 3,3GHz) haben 4800MHz - über 5000MHz mit konventioneller Kühlung geschafft was durch OC eine Takt Steigerung von 45% ist.
Kaby Lake 7700K z.B. hat Base Clock 4200MHz, 45% Taktsteigerung dazu sind 6000MHz...
Wenn so ne CPU gut geht dann lässt sie sich auf 5GHz übertakten mit Wasserkühlung (ungeköpft) und das sind 20% Taktsteigerung.

An Sandy Bridge wird in sachen OC und Kühlbarkeit so schnell kein neuer CPU heran kommen...
 
Zuletzt bearbeitet:
An Sandy Bridge wird in sachen OC und Kühlbarkeit so schnell kein neuer CPU heran kommen...

Wie wäre es mit Haswell-E?
50% aus dem Stand vom 5960X (3GHz Basis auf 4,5GHz Allcore) -> brauchst nur entsprechende Kühlung :fresse: -> war aber bei Sandy damals nicht anders. Wobei so viele mit stabilen 4,8-5GHz und mehr waren das wohl gar nicht. Stabilität zu definieren ist ja immer so ne Sache. Meiner hat mit 1,389V gerade 4,5GHz gepackt und dabei unter nem fetten Towerkühler schon die 70°C genommen. Der 5960X nun nimmt die 70°C unter der H100i ebenso knapp bei 4,5GHz unter Volllast. Ist aber doppelt so schnell :fresse:
 
fdsonne, als mein 2600K im Januar 2011 endlich kam, wurde alles aufm Schreibtisch schnell zusammen gesteckt, nach ner Stunde lief erst mal 3DMark06 mit dem Intel Boxed Kühler auf 5050MHz durch... Unter Wakü bei 5400Mhz standen bei mir trotzdem nur 75°C bei 1,65V :fresse:
Bei Haswell E muss man schon sehr schweres Geschütz auffahren ab 4GHz, viele Kerne produzieren eben auch viel Abwärme, wo soll es denn auch herkommen.
 
Zuletzt bearbeitet:
Das stimmt ;) Wobei das für mich nun nicht unbedingt ein Problem ist/war. Man hat vorher geschaut, was brauch es und was ist notwendig. Der Rest verlief gleich ab. Sprich zusammenstecken und los...
Ich meinte nur bzgl. der Aussage mit an Sandy wird da so schnell keiner rankommen.
Solange es Modelle mit freiem Multi gibt, die nen sehr niedrigen Basistakt haben, ist auch hohes OC Potential recht warscheinlich... Der nächste Kandidat dazu könnte der Zen Oktacore werden. Mal gucken.
Die größeren Intel Quads haben einfach zu hohen Basistakt um viel OC Potential zu bieten...
 
Der hohe Basistakt gaukelt dem unwissenden eine Leistungssteigerung vor die zugunsten des verbrauchs erkauft wird.
 
Wo bei viele Cores nicht unbedingt viel Abwärme bedeuten. Zumindest wenn man Richtung X58 schaut. Die I7-920-990 bzw. W3520-40 sind alle heißer gewesen bei 4,2Ghz als der X5650-70.


Gesendet von iPad mit Tapatalk
 
45 vs. 32nm halt ;)
Woher die Heizleistung kommt, ist ja weniger entscheidend. Am Ende zählt dort eher wie hoch diese ist. Man findet bestimmt auch irgend nen alten P4 oder Athlon Singlecore, der die Heizleistung aktueller Modelle mit OC toppt.
 
... ein Grund dürfte wohl sein, dass der Markt für sowas schlicht und ergreifend abseits von Notebooks effektiv gar nicht vorhanden ist. Denn es stellt sich weiterhin die Frage, wer soll sowas brauchen?....
Das sehe ich aus persönlichen Erfahrungen ein wenig anders.
Der Markt für „Videobearbeitung“ wächst stetig und viele Tools haben inzwischen Quick Sync implementiert,
müssen sich aber weiterhin i.d.R mit 24 Units ohne eDRAM quälen, Ausnahme die wenigen Xeon und Broadwell Modelle.
Ähnlich verhält es sich auch bei div. Konvertern wie z. B. „Handbrake“.
Sind bestimmte „Filter“ gesetzt greift Quick Sync nicht mehr womit wieder Takt/Cores relevant werden.

Auch für den Einsatz im „HTPC“ durchaus wünschenswert.
Nur setzt das wiederum ein bezahlbares HDMI 2.0 voraus weil das „gebastel“ über DisplayPort 1.2/HDMI 2.0 auch nicht das wahre ist.
Anders lassen sich die Datenmengen von nativen 4K Inhalten mit @60Hz und mehr nun mal nicht durch die Pipeline drücken.
 
Der hohe Basistakt gaukelt dem unwissenden eine Leistungssteigerung vor die zugunsten des verbrauchs erkauft wird.
Das die Leistung eben auch auf Kosten des Verbrauches geht, sollte nicht überraschen, da nur bei Shrinks hier wirklich Fortschritte gemacht werden (können). Mir als jemanden der nicht übertaktet ist es aber viel lieber wenn Intel das übernimmt und die Taktraten ab Werk schon anhebt. Bei CPU die sich massive übertakten lassen, frage ich mich doch warum mit diese Leistungspotenial vorenhalten wird.
 
Das sehe ich aus persönlichen Erfahrungen ein wenig anders.
Der Markt für „Videobearbeitung“ wächst stetig und viele Tools haben inzwischen Quick Sync implementiert,
müssen sich aber weiterhin i.d.R mit 24 Units ohne eDRAM quälen, Ausnahme die wenigen Xeon und Broadwell Modelle.
Ähnlich verhält es sich auch bei div. Konvertern wie z. B. „Handbrake“.
Sind bestimmte „Filter“ gesetzt greift Quick Sync nicht mehr womit wieder Takt/Cores relevant werden.

Ich müsste jetzt lügen, aber Quicksync läuft doch gar nicht auf den EUs, sondern kommt vom Decoder/Encoder der GPU. Sprich die GPU Breite, also deren Ausführungseinheiten ist dahingehend quasi wurscht.
Ähnlich läuft das bei NVs und AMDs dGPUs -> dort werden die Videofeatures der dGPU genutzt. Läuft aber deswegen lange nicht zwangsweise auf den Shadereinheiten und skaliert auch damit nicht.

Allerdings ist Quicksync qualitativ der "letzte Husten", wenn ich ehrlich bin. GPU beschleunigtes Videoencoding war bis jetzt nicht der Bringer in der Qualität. Eben auch mitunter weil gewisse Filter und Features nicht durch die GPU geschickt werden können, da sie es einfach nicht kann.

PS: lass dich nicht davon verleiten, dass die Intel Modelle mit GT3e/GT4e mit QuickSync schneller sind als die kleineren Modelle der GT2 bspw. -> soweit ich das sehe, der L4 Cache bringt massiv Punkte! Das ist eher ein Bandbreitenproblem als hängt es mit der GPU selbst zusammen. Ähnliches kann man bspw. durch massive Speicherbandbreitenerhöhung für/auf der CPU selbst messen. Reines Softwareencoding skaliert nämlich ebenso recht gut mit Bandbreite... Um so weniger massiv die Filter sind, desto mehr/besser wird das sogar, weil Bandbreite dort eben für mehr Durchsatz sorgt.
 
Aktuell würde ich überhaupt keine CPU kaufen.

ZEN steht vor der Tür.
 
Wir sind ja nicht bei Fratzenbuch :fresse2:

Aber ja, derzeit sollte man sich vor der Kaufentscheidung die Reviews der jeweiligen CPUs und Systeme ansehen, wenn man warten kann. Dann schaut man sich die Verfügbarkeit und die Preise an, aber so was und ist es doch eigentlich immer bevor man HW kauft.
 
Ich müsste jetzt lügen, aber Quicksync läuft doch gar nicht auf den EUs, sondern kommt vom Decoder/Encoder der GPU. Sprich die GPU Breite, also deren Ausführungseinheiten ist dahingehend quasi wurscht....
soweit ich das sehe, der L4 Cache bringt massiv Punkte! Das ist eher ein Bandbreitenproblem als hängt es mit der GPU selbst zusammen....
Wie in den meisten Fällen hängt alles miteinander zusammen.

- … Die Performance konnte Intel durch zusätzliche EUs ebenso anheben wie durch den neuen, dedizierten L3-Cache für die Grafikeinheit und einen erhöhten Durchsatz des Media Samplers …

- … Was sich aber wirklich auf die Performance auswirkt, ist dass die Anzahl der programmierbaren Ausführungseinheiten (Execution Units, EUs) in Haswells GT2-Implementierung von 16 auf 20 steigt …

Zum Thema „qualitativ der "letzte Husten"“ generell :
Qualität und Geschwindigkeit werden immer in einem gegensätzlichen Verhältnis zu einander stehen.
Letztlich bestimme ich mit meinen Settings welchen Faktor ich bevorzuge, egal ob CPU, APP, CUDA oder Quick Sync basierendes En. und De-coding.

Etwas betagte aber dennoch interessante Lektüre zum Thema Video-Transcoding unter der Lupe: APP, CUDA und Quick Sync im Vergleich .
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh