[Sammelthread] Intel Skylake Core i7-6700k und i5-6600k Prozessoren #News #Infos und #Gerüchte

Was im Umkehrschluss allerdings auch bedeutet, dass du erstmal takten musst, bevor überhaupt ein Prozent mehrleistung verzeichnet wird ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Test: Intel Xeon E3-1230 v5 (Skylake)

Interessanterweise unterstützen die C230-Chipsätze wohl auch alle Core i3/i5/i7-Modelle - zumindest tauchen alle in der Kompatibilitätsliste des Fujitsu-Boards auf. Auch sollen die kommenden Xeon-Prozessoren E3-1500v5 in den C230-Mainboards ohne Probleme laufen. Diese Prozessoren besitzen die GT4e-Grafik, also entsprechend mehr Execution-Units und den Embedded-DRAM.

Ich würde mir als "Early Adopter" immer mehr in den Hintern beißen. Wenn die C236-Bretter alle S1151-CPUs unterstützen, wären diese die bessere Wahl. Damit hält die nächste eDRAM-Evolutionsstufe des Broadwell auch in Skylake Einzug - aber nur auf den "Server"-Platinen.
 
Sagt mal, wann kommt jetzt endlich Skylake-E?
Würde gerne auf einen 6-Kerner umsteigen.
 
Erstmal kommt Broadwell-E. Aber nur auf dem Sockel 2011-3.

Skylake-E wird sich sehr verspäten. Und man kann absolut sicher davon ausgehen, dass Skylake-E einen neuen Sockel oder neuen Chipsatz braucht. Wäre untypisch für Intel, wenn der auf dem 2011-3 läuft.
 
Die Leistung wird ähnlich bleiben, aber die TDP wird mit -8- Kernen erstmals unter 100W wandern. Vermutlich 95W. Ohne iGPU wohlgemerkt.

Mutmaßlich wird Intel mit Skylake's Nachfolger "Cannon Lake" mehr als -4- Kerne in den Desktop bringen. Ich rechne mit "nur" -6- Kernen, um dem hochpreisigen Bereich (Broadwell-E, Skylake-E etc.) mit mind. -8- Kernen nicht die Kundschaft abzujagen.
 
Zuletzt bearbeitet:
Test: Intel Xeon E3-1230 v5 (Skylake)



Ich würde mir als "Early Adopter" immer mehr in den Hintern beißen. Wenn die C236-Bretter alle S1151-CPUs unterstützen, wären diese die bessere Wahl. Damit hält die nächste eDRAM-Evolutionsstufe des Broadwell auch in Skylake Einzug - aber nur auf den "Server"-Platinen.

Selbst wenn es so wäre ... übertakten geht damit nicht und die Boards sind für stino User eher uninteressant da preislich wesentlich höher angesiedelt.

Aber setz Deinen schwachsinnigen Feldzug gegen die Plattform ruhig fort. :popcorn:
 
Selbst wenn es so wäre ... übertakten geht damit nicht und die Boards sind für stino User eher uninteressant da preislich wesentlich höher angesiedelt.
Wenn du auf die Argumentation geachtet hättest, wäre dir in den Sinn gekommen, dass ich mich auf den iGPU-Vorteil der GT4e bezog. Es gibt durchaus Heimanwender, die mit der starken Grafik geliebäugelt haben, da sie kein extremes Gaming, aber hin und wieder Spielchen neben den Codiermaßnahmen mittels QuickSync liebäugeln. Diese Heimanwender schauen jetzt in die Röhre. Und alle jene, die mit Intels alter "Gangart" gerechnet haben, ebenso. Das nennt man "Entscheidungen eines Monopolisten". ;)

Der PCH C236 unterstützt alle Skylake CPUs, aber das heißt nicht, daß man eine BGA CPU in ein LGA Mainboard einbauen kann.
Wie ich im anderen Thread schon schrieb: bei Haswell landete die GT3 Iris auch erstmal nur in den Notebook-BGA-Chips, um dann später im Broadwell auf dem gleichen Sockel als LGA-Chip zu erscheinen. Jetzt setzt Intel die Idee erneut um - aber nur im Workstation-Segment.
 
Ein aller letzter Versuch, auch wenn ich es dir schon oft geschrieben habe Viper:

Wenn du kein Extreme OC betreibst (mit Trockeneis oder LN2), dann ist sowohl das Asus EXTREME als auch das Gigabyte SOC Force verbranntes Geld.

Unter 5 Ghz wirst du mit dem ASRock OCF deutlich weniger VCore brauchen, da sich sowohl Asus als auch Gigabyte derzeit nicht mit Ruhm bekleckern was den direkten Vergleich der VCore angeht (brauchen für den selben Takt mit derselben CPU 30-40 mV mehr VCore, siehe Skylake OC Thread die letzten 20-25 Seiten)... und zahlst dafür nur 280€ statt 400-500€.
 
Dann müsste mit dem ASRock OCF ja wirklich 5 GHz unter Luft in Reichweite kommen, wenn ich jetzt schon unter Luft max 4.92 GHz erreiche.

Bevor ich das gestern gepostet hab, hatte ich die 4.9 GHz nicht stabil.
 
Was hast du eigentlich immer mit deinen 5 GHZ?! Was versprichst du dir davon?
 
es geht nicht um 5 GHz , es geht um maximale Single-Core bzw. Dual-Core Leistung und 4.9 reichen mir auch, hauptsache das ganze ist stabil und 24/7 tauglich.
 
wenn du 24/7-tauglich Rechenleistung brauchst, solltest du auch mal über eine andere Plattform nachdenken ;) – m.M. nach (benutze einen Xeon E3, der schön stabil die 3,7 GHz hält :)) ist der ganze OC-Kram sowieso Geldverbrennung, wenn das Spaß macht, nur zu :d (wenn man allerdings billiger zu besseren Ergebnissen kommt, würde mir das auch zu denken geben :hmm:)
 
welche Plattform würdest du denn für max Single-Core Leistung empfehlen??

Ich hatte vorher ein Board für 30€ und dadurch ich konnte ich nicht höher takten deshalb wollt ich mit Skylake richtig auf die Kacke haun^^
 
für maximale Singlecoreleistung unter Luft bist du wohl schon auf dem richtigen Weg ;) (wie gesagt, bin ich kein OC-Fan), wenn du allerdings 24/7 und Zuverlässigkeit im selben Atemzug erwähnst, kann ich mir im Moment keinen sinnvollen Zweck erdenken, für den du a) 24/7-Stabilität + b) max. Singlecore-Leistung bräuchtest, da für Games a) nicht nötig ist (zumindest nicht im extremen, 24/7-Vollastbetrieb über's Jahr ohne Reboot) und für Dinge die a) brauchen meist b) nicht nötig ist... Am Ende musst du selbst wissen, ob die 15% Mehrleistung, die durch ein 300€ Brett ggü. einem 140€-Teil erreicht werden, es wirklich wert sind.
 
Das ganze ist ein Projekt für den leistungsstärksten WoW-Rechner, dann scheinen die 4.9 GHz für WoW wohl wirklich alltagstauglich zu sein, dann hätte ich nämlich mein Ziel erreicht ! :banana:
 
Wie kommst du denn überhaupt auf Singlecore Performance wenn ich fragen darf? Laut allen Tests die ich gefunden habe skaliert WoW doch auch noch mit 6 statt 4 Kernen.

Nur bei dem Tomshardware Test aus dem Jahre 2010 skalierte das Game nur bis 2 Kerne, aber das wurde wohl schon längst gepatcht.
 
Zuletzt bearbeitet:
Quelle: WoW Warlords of Draenor: Grafikkarten-Benchmarks, CPU-Kernskalierung, Anti-Aliasing-Vergleich und mehr
tpsd6NQ.png



Nur das Addon zählt, alle anderen Addon's außer das Neue, was noch ~Herbst 2016 kommt, interessieren mich da nicht.
hab momentan sowieso alle 4 Kerne auf 4.9 und den Cache auf 4.8
 
Zuletzt bearbeitet:
Jap, eben, 3 Cores bringen mehr als doppelt soviel wie 1 Core und fast doppelt soviel wie 2 Cores.

4 Cores bringen auch nochmal deutlich was (vor allem bei den MinFPS)... erst der Unterschied zwischen 6 und 8 ist verschwindend gering.

Daher versteh ich nicht was dir eine hohe Singlecore Performance bringen soll. Du brauchst nen Takt der mit allen 4 Cores (oder vllt. nur 3) noch stabil läuft würde ich meinen ;)
 
Zuletzt bearbeitet:
Ja, kann ich genauso so unterschreiben, deswegen hab ich ja den gammeligen 6700k gewählt statt dem 5960x. Wobei Broadwell-E mit 6 Kernen wird bestimmt interessant, den werde ich kaufen und dann gegenüberstellen.
 
Jetzt ist ein bisschen Zeit vergangen.

Hat schon jemand Erkenntnisse sammeln können, im Bezug auf Handbrake HEVC x265 slow 1080p encoding. Mein Sandy schafft da gerade mal 1-2,4 Fps. Wie schauts beim 6700k aus ?
Hat sich da, was getan ?

Leider habe ich, im Netz, nicht wirklich was gefunden.
 
Jetzt ist ein bisschen Zeit vergangen.

Hat schon jemand Erkenntnisse sammeln können, im Bezug auf Handbrake HEVC x265 slow 1080p encoding. Mein Sandy schafft da gerade mal 1-2,4 Fps. Wie schauts beim 6700k aus ?
Hat sich da, was getan ?

Leider habe ich, im Netz, nicht wirklich was gefunden.

googel mal "h.265 evaluation doom9"
Die Skylakes sind monster darin! Läuft vollständig über die IGPU und schlägt NVIDIAs Geforce GTX960 sogar. Ebenfalls VP9 (Google Chroms h.265-ähnlicher Codec) ist mit an Bord aber wohl eine Hybridlösung.
 
googel mal "h.265 evaluation doom9"
Die Skylakes sind monster darin! Läuft vollständig über die IGPU und schlägt NVIDIAs Geforce GTX960 sogar. Ebenfalls VP9 (Google Chroms h.265-ähnlicher Codec) ist mit an Bord aber wohl eine Hybridlösung.

Du willst doch nicht etwa das slow preset eines hochoptimierten Softwareencoders mit einer nur auf Geschwindigkeit eingestellten codier ineffizienten Hardwareeinheit (Quicksync) vergleichen?
 
Du willst doch nicht etwa das slow preset eines hochoptimierten Softwareencoders mit einer nur auf Geschwindigkeit eingestellten codier ineffizienten Hardwareeinheit (Quicksync) vergleichen?

Das Ziel von Quicksync ist es, ohne Belastung der Ressourcen in guter Qualität möglichst schnell zu kodieren - und diesbezüglich ist es hoch effizient und effektiv. Die Qualität vom aktuellen Quicksync hat übrigens nichts mehr mit der Qualität der ersten Quciksync Generationen zu tun. Schon bei meinem Haswell konnte ich bzgl. der Bildqualität bei Full HD keinen Unterschied mehr zwischen x.264 und H.264 QSV erkennen.

Geht es um das platzsparende Kodieren ist x.264 natürlich effektiver.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh