1 PHz sind das Limit für die Schaltgeschwindigkeit von Transistoren

Thread Starter
Mitglied seit
06.03.2017
Beiträge
112.375
ibmqubitcpu100b.jpg
Vor allem bei den Prozessoren ist der Takt ein Merkmal, auf das viele Nutzer und auch wir im Rahmen der Tests achten. Für das Marketing ist die Angabe einer Taktfrequenz besonders wichtig und daher verwundert es auch nicht, dass die Hersteller gerne damit werben – seien es die 5 GHz die ein Ryzen 9 6980 erreicht oder die 5,5 GHz für zwei Kerne des Core i9-12900KS.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
2050 hier im Forum:

Mein Intel Core i13 89790k läuft im Boost nur bei 3THz auf allen 64 Performance-Kernen, warum?

Ich denke aber auch das wir in den nächsten 10 Jahren die 10GHz auf CPUs nicht sehen werden. 5.0 - 5.5GHz wird sich wohl vorerst als das neueste Hoch einpendeln.
 
Wie war das? Es wird nie Rechner geben die mehr als 64kb RAM benötigen? Daran erinnert dieses "Forschungsergebnis". Ähnlich gehaltvoll, ähnlich wichtig und ähnlich blind in die Zukunft schauend. Nur das Bill Gates das damals für lau raus gehauen hat.
 
Die frage ist halt auch wie zweckmäßig das ist. Ich meine, das sind ja so brutal viele Instruktionen pro Sekunde, welche Anwendungen sollen das nutzen können? Irgendwer muss ja auch den code dafür schreiben 😅
 
Wie war das? Es wird nie Rechner geben die mehr als 64kb RAM benötigen? Daran erinnert dieses "Forschungsergebnis". Ähnlich gehaltvoll, ähnlich wichtig und ähnlich blind in die Zukunft schauend. Nur das Bill Gates das damals für lau raus gehauen hat.
1. Die Rede ist von 640kb
2. Die Aussage bezog sich nur auf Systeme mit DOS: https://www.google.com/amp/s/quoteinvestigator.com/2011/09/08/640k-enough/amp/
3. Eine Einschätzung davon was man "braucht" ist etwas gänzlich anderes als ein physikalisches Limit welches hier mit wissenschaftlichen Mitteln untersucht wurde.
Beitrag automatisch zusammengeführt:

Die frage ist halt auch wie zweckmäßig das ist. Ich meine, das sind ja so brutal viele Instruktionen pro Sekunde, welche Anwendungen sollen das nutzen können? Irgendwer muss ja auch den code dafür schreiben 😅
AI Algorithmen hätten das außerst gerne. Dann könnte man Modelle auf den Endgeräten lernen und bräuchte keine Serverfarmen/Supercomputer dafür. Z.B. Alexa würde dich dann immer besser verstehen weil es sich an deine Stimme anpassen könnte.
 
Bei Intel und AMD knallen sicherlich gerade die Sektkorken - man hat noch für Jahrzehnte (oder -hunderte?) Luft nach oben XD
 
also nach meiner erfahrung ist seit netburst 8 ghz die magische marke, die bisher nur netburst und bulldozer knacken konnten (auch nur mit LN2 wohlgemerkt!). in all den jahrzehnten hat sich an der machbarkeit in sachen takt fast nix bewegt. sandy bridge konnte mit selektion >5 ghz mit lukü erreichen und alderlake liegt jetzt (zwar teilweise ab werk aber) noch immer bei >5 ghz. von daher ist die theoretische grenze imho auch auf dauer eine rein theoretische grenze. am takt ändert sich kaum etwas. intel hat die grenze zuletzt einfach nur immer härter ausgelotet. hatte auch schon nen 8600k der lukü 5,4 ghz gerannt ist und nicht wenige haben das auch mit nem 7x00k geschafft...
 
Die frage ist halt auch wie zweckmäßig das ist. Ich meine, das sind ja so brutal viele Instruktionen pro Sekunde, welche Anwendungen sollen das nutzen können? Irgendwer muss ja auch den code dafür schreiben 😅
Hochleistungsrechner!
Beispielsweise für das erste Bild eines schwarzen Lochs mussten Hochleistungsrechner 6 Monate lang rechnen!
Und die Teile haben eine Rechenkapazität, die um Faktor 100.000 und mehr über denen selbst des schnellsten PCs liegen.
Der schnellste Supercomputer 2020 erreicht 415,5 Petaflops, ein Ryzen 3900X mit 4,15 GHz Takt erreicht 790 Gigaflops.
Der Supercomputer ist also Faktor 525.000 schneller!
 
2050 hier im Forum:

Mein Intel Core i13 89790k läuft im Boost nur bei 3THz auf allen 64 Performance-Kernen, warum?

Ich denke aber auch das wir in den nächsten 10 Jahren die 10GHz auf CPUs nicht sehen werden. 5.0 - 5.5GHz wird sich wohl vorerst als das neueste Hoch einpendeln.
Das hat sich schon 2005 besiegelt, als die Multicoreära offiziell begann. CPUs mit 5+ GHz laufen viel zu inffizient, eher wird man da mit IPC arbeiten. Vergleiche mal einen Pentium 4, AMD FX und einen Ryzen von 2020... Die Taktraten klingen gut, doch es steckt nichts dahinter. Es sind am Ende alles nur Zahlen. Diese Aussagen dass man etwas nicht braucht sind doch lachhaft. Damals sagten sie auch 8 GB RAM reichen, 2017 verteidigten sie noch den 7700K ("Man braucht nicht nie mehr als vier Kerne") und zwei Jahre später hatten alle einen Ryzen.
 
Wie war das? Es wird nie Rechner geben die mehr als 64kb RAM benötigen? Daran erinnert dieses "Forschungsergebnis". Ähnlich gehaltvoll, ähnlich wichtig und ähnlich blind in die Zukunft schauend. Nur das Bill Gates das damals für lau raus gehauen hat.
Bill Gates hat nie angezweifelt, das mehr als 640kB RAM MÖGLICH sind, er meinte nur, man würde es nicht BRAUCHEN.
Das hier ist was VÖLLIG anderes. Die Forscher haben hier eine physikalische Grenze errechnet, die mit DIESEN Materialien wohl auch so eintreten wird. Ob man diese überhaupt mal erreicht, oder ob man damit überhaupt noch was sinnvolles anfangen kann, wurde nichtmal erwähnt.

Das ist in etwa so, wie die tiefstmögliche Temperatur zu errechnen. Die ist halt so und man konnte sich bisher nur annähern, aber sie wurde noch nie erreicht. Dabei hat keiner behauptet, das man keinen Kühlschrank bauen könnte, der unter -50°C kommt.
 
Naja, es ist schon ein Unterschied zwischen dem, was man braucht und dem, was man haben will.
Ich kenne sehr sehr viele Leute, die Dinge kaufen, weil da große Zahlen dran stehen und nicht, weil sie die tatsächlich brauchen.
Jemand, der nur Office, Internet und Emails macht, braucht keinen PC mit mehr als 4 Kernen und mehr als 8 GB RAM und da reicht auch die billigste GPU.
Selbst ein 10 Jahre alter PC reicht für obige Dinge auch heute noch locker aus.

Wie heißt es doch:
Viele Leute kaufen sich Dinge, die sie nicht brauchen, von Geld, das sie nicht haben, um damit gegenüber Leuten anzugeben, die sie nicht einmal kennen.

Und an dem Spruch ist sehr sehr viel Wahres dran!
 
Du darfst nicht vergessen, dass die Werbung auch immer mehr wird, da reichen bald keine 4 Kerne mehr.:d

Da ist noch richtig Luft nach oben, erstmal sollte die Leistungsaufnahme schrumpfen und wenn sie das geschafft haben, können sie von mir aus eine integrierte iGPU von der Leistung einer RTX 3080 mit ein basteln, das ganze dann bei unter 100Watt:d
 
Du darfst nicht vergessen, dass die Werbung auch immer mehr wird, da reichen bald keine 4 Kerne mehr.:d

Da ist noch richtig Luft nach oben, erstmal sollte die Leistungsaufnahme schrumpfen und wenn sie das geschafft haben, können sie von mir aus eine integrierte iGPU von der Leistung einer RTX 3080 mit ein basteln, das ganze dann bei unter 100Watt:d
Da hast du leider völlig recht, mittlerweile braucht man schon vier Kerne selbst für Office. Das Internet und die Programme werden immer anspruchsvoller. Software läuft zunehmend nicht mehr auf alten OS - Neue OS laufen wiederum auf alter Hardware nicht anständig. Für Linux und umfangreiche Adblocker / Script addons fehlt den Meisten die Kenntnis.
 
Werbung im Netz?
Sehe ich gar nicht!
Bin immer wieder erschrocken, wenn ich mal an einem Rechner ohne Adblockser sitze, wie man da mit Werbung zugemüllt wird.
 
Die frage ist halt auch wie zweckmäßig das ist. Ich meine, das sind ja so brutal viele Instruktionen pro Sekunde, welche Anwendungen sollen das nutzen können? Irgendwer muss ja auch den code dafür schreiben 😅
Das wäre extrem zweckmäßig, denn jede Software würde davon sofort profitieren und keine müssten irgendwelchen Code anpassen! Hätte man statt 8 Kernen mit je 5GHz nur einen dieser Kerne der mit 40GHz laufen würde, wäre letzter immer schneller oder im schlechtesten Fall gleichschnell. Man muss im Gegenteil den Code anpassen um mehr Kerne nutzen zu können und dann muss das Problem auch noch parallelisierbar sein, was immer dann nicht der Fall ist, wenn das Ergebnis einer Berechnung von dem Ergebnis der vorherigen Berechnung abhängt. Aber selbst wenn zwei Berechnungen parallel ausgeführt werden können, lohnt es sich nur die auch mit zwei Threads zu machen, wenn dies aufwendig genug sind um den Overheads der Erzeugung eines neuen Threads zu kompensieren.

Kann es sein, dass Du noch nie Software entwickelt hast?
 
Verstehe nicht ganz was diese Erkenntnis bringt, aktuelle steigt doch eher die IPC Leistung als die tatsächliche Taktrate
 
Verstehe nicht ganz was diese Erkenntnis bringt, aktuelle steigt doch eher die IPC Leistung als die tatsächliche Taktrate
Das sind Ergebnisse aus der Materialforschung von Experimentalphysikern. So hat das erstmal keinen aktuellen Anwendungsfall für 08/15-Nutzer. liegt aber sicherlich im Interessengebiet des Herrn Schilling. 😉
 
Verstehe nicht ganz was diese Erkenntnis bringt
Da wollte jemand mal wieder Aufmerksamkeit und Fördergelder, denn die Erkenntnis ist so hilfreich wie das Wissen, dass man eben maximal mit Lichtgeschwindigkeit reisen könnte, wovon wir im Moment selbst im Weltraum noch weit, sehr weit weg sind und selbst in großen Höhen stößt man in der Atmosphäre bei mehrfacher Schallgeschwindigkeit auf das Problem der Hitze durch die Reibung der Luft an der Außenhaut.
 
Da wollte jemand mal wieder Aufmerksamkeit und Fördergelder, denn die Erkenntnis ist so hilfreich wie das Wissen, dass man eben maximal mit Lichtgeschwindigkeit reisen könnte, wovon wir im Moment selbst im Weltraum noch weit, sehr weit weg sind und selbst in großen Höhen stößt man in der Atmosphäre bei mehrfacher Schallgeschwindigkeit auf das Problem der Hitze durch die Reibung der Luft an der Außenhaut.
Eieie, warum so bescheuert negativ?! Ist dir echt nicht bewusst, dass ohne Wissenschaftler welche abstrakt wirkenden Dinge zum Zwecke der Grundlagenforschung untersuchen, man niemals Technologie wie Computer erreicht hätte?
Die Lichtgeschwindigkeit und andere Eigenschaften genau zu wissen ist wichtig für die Herstellung integrierter Schaltkreise.
 
denn die Erkenntnis ist so hilfreich wie das Wissen, dass man eben maximal mit Lichtgeschwindigkeit reisen könnte, wovon wir im Moment selbst im Weltraum noch weit, sehr weit weg sind
Und trotzdem hat man einiges daraus schließen können, zu wissen wie schnell denn nunmal das verdammte fucking Licht ist, auch wenn wir nicht so schnell reisen können. Da gehts dann z.B. um Laserstrahlen, ja selbst der Gravitationswellendetektor wäre ohne dieses Wissen nicht möglich.

Also bei manchen Leuten frage ich mich echt, ob die nur von 12 bis Mittag denken können. "Ich bin zu dumm zu das zu verstehen und checke nicht, das mittlerweile Dinge die ich täglich benutze, aber von denen ich selbstverständlich ebenfalls nicht verstehe, wie sie eigentlich funktionieren, die ohne solches Wissen gar nicht möglich wären"
Wenn man eh nichts versteht und es sich nichtmal abstrakt ausmalen kann, was das bedeuten könnte, sollte man halt bei solchen Themen einfach mal seine Fresse halten, man outet sich sonst eh nur als DAU.

Wen interessiert schon, warum eigentlich ein Apfel vom Baum immer nach unten fällt und halt eben nicht etwa nach oben. Aber wenn das Flugzeug, das einen in den Urlaub auf Malle bringen soll, wo man nur noch weitere Gehirnzellen vernichten "will", ne Stunde Verspätung hat, regt man sich auf, checkt aber nicht, das es das Flugzeug ohne solche Erkenntnisse gar nicht gäbe.
 
Und trotzdem hat man einiges daraus schließen können, zu wissen wie schnell denn nunmal das verdammte fucking Licht ist
Ja, aber das ist ein anderes Thema. Es geht darum das es Reisen eben nicht schnell macht zu wissen, dass man maximal die Lichtgeschwindigkeit erreichen könnte und genauso wird es CPUs und andere Chips nicht schneller machen zu wissen, dass man maximal 1 PHz erreichen könnte, wenn man in der Praxis bei etwa 5Ghz angekommen ist und selbst bei Extrem-OC mit entsprechender Kühlung die nur so kurzfristig aufrecht zu erhalten ist, bestenfalls etwa das Doppelte davon schafft.

Der Rest des Kommentars outet dich nur selbst als totalen DAU mit beleidigendem Unterton und damit geht es ab auf meine IL!
 
Zuletzt bearbeitet:
Da hast du leider völlig recht, mittlerweile braucht man schon vier Kerne selbst für Office. Das Internet und die Programme werden immer anspruchsvoller. Software läuft zunehmend nicht mehr auf alten OS - Neue OS laufen wiederum auf alter Hardware nicht anständig. Für Linux und umfangreiche Adblocker / Script addons fehlt den Meisten die Kenntnis.
Für Office, Web und Co braucht es ne anständige Programmierung, aber nicht 4 Kerne. Es braucht Wissen, Fähigkeiten und Können, aber keine 4 Kerne.

Jede Schule fordert für die Kinder im Homeschooling nen Win10 PC oder sogar nen Apple Tablet :stupid:. Die Gründe sind bekannt, warum man nicht auf Win7 zurückgreifen sollte.

Auf einer stabilen Linux Basis bräuchte man wesentlich leistungsärmere Hardware, könnte auf Firlefanz wie Öffnungsanimationen, Schattendarstellung und so verzichten und mit 10 Jahre alter Bürohardware arbeiten.
Im Endeffekt sind die Schüleranwendungen auch nur leichter Office Betrieb. Webbasiert wäre das sogar OS unabhängiger und gut zu verwalten, aber man trimmt die Kinder sofort auf Windows und MacOS.
Dafür werden PCs mit LGA775 und 1156/1150/1155 dann entsprechend entsorgt. Die nächste Welle der Hardwareverschrottungen droht schon dank SecureBoot in Win11. Die wenigsten älteren Boards haben nen TPM Header, der ggf erlaubt, den PC fit zu machen.

Ich fand mal Projekte schön, wo Programmierer das Maximum an Animation und Darstellung aus wenigen kb rausholen mussten. kA, wie das hieß, aber es mussten wenige kb sein, damit das auf Disketten passte und so. Das ware herforragende Wettbewerbe, wo sicherlich viele Tricks und Erkenntnisse gewonnen wurden, wie man effizient Code schreiben kann. Programmierung ist heutzutage teilweise von Grund auf so schlampig und schlecht optimiert, dass vieles mit leistungsstarker Hardware kompensiert wird. Sogar bei Games sieht man ja heute, dass die Software im laufe der Zeit reift und dann plötzelich noch enorme Leistungssprünge bei Grafik und Performance möglich sind.

GHz habe ich schon länger nicht mehr zu meinem Maßstab gemacht. Wichtig ist, was am Ende für mich als Performance und als Leistung steht und ob mir das den Preis wert ist
Ich habe zuletzt mit einem i7-6700k gerechnet und dann auf Ryzen 7 5800x das Upgrade gemacht. Hat vorher nicht für mich gelohnt, überhaupt an der Hardware etwas zu ändern. Zu wenig Games und zu viele Anwendungen, die jetzt am Ende trotz 16 Threads kaum schneller laufen.

Aber ich darf hier erkennen, dass sowohl seitens Takt, als auch seitens Software noch viel Luft nach oben ist. Wir sehen eine neue Grenze, aber erreichen tun wir sie noch lange nicht ...
 
Der Rest des Kommentars outet dich nur selbst als totalen DAU mit beleidigendem Unterton und damit geht es ab auf meine IL!

Warum werden zitiertem User derartige Beleidigungen gestattet, wenn man ihn entsprechend sarkastisch angeht, eigene Posts quasi innerhalb weniger Minuten gelöscht?

Bedeutet dass für mich jetzt, dass ich ihn in Zukunft bei entsprechenden Äußerungen seinerseits mit Voll(idi)Holt adressieren darf?

Oder gilt der primus inter pares Safespace weiterhin?
 
Zuletzt bearbeitet:
Der Rest des Kommentars outet dich nur selbst als totalen DAU mit beleidigendem Unterton und damit geht es ab auf meine IL!
ENDLICH! Da stehst du bei mir schon seit Jahren. Wenn ich mich recht erinnere, dürftest du sogar mit einer der ersten gewesen sein, die ich hier im Forum überhaupt auf die Liste gesetzt habe:rofl:
 
Wie war das? Es wird nie Rechner geben die mehr als 64kb RAM benötigen? Daran erinnert dieses "Forschungsergebnis". Ähnlich gehaltvoll, ähnlich wichtig und ähnlich blind in die Zukunft schauend. Nur das Bill Gates das damals für lau raus gehauen hat.
Du vergleichst eine Annahme von einer Person, die auf den BEDARF ausgelegt ist, mit einer wissenschaftlichen Machbarkeitsstudie, die physikalische Grenzen getestet hat?
Oh boy,.. wo will man da anfangen,...

Meinst Du, dass sich die physikalischen Grenzen zu "etwas mehr geht schon!" überreden lassen, nur weil wir das evtl. mal brauchen könnten?
 
"O boy", wo man da anfangen soll kann ich dir ganz einfach sagen: Der relevante Benefit der "Erkenntnis" ist der selbe: Im Moment absolut Null. Und dazu kommt meine These: Die Erkenntnis wird sich - wenn es soweit ist - als ziemlich falsch und naiv darstellen. DAS ist der Vergleich. Tut mir ja leid wenn dir meine These nicht gefällt, aber es ist schon krass wie Butthurt hier manche reagieren.
Danke übrigens fürs Aufklären das es gar nicht von Bill Gates war @smalM - wieder was gelernt!
 
Die PH wurden mit Licht erreicht quasi optischer transistor
das gibt es derzeit nicht als Architektur weil dafür die laser zu groß sind Und ein transistor kann keine cpu mit 20-50mrd ersetzen

Aber es wird dennoch eine Taktsteigerung kommen da die Transistortechnik effizienter wird.
man braucht deutlich weniger und kann die größe ändern und somit indirekt den takt steigern.
Da die Spannung geringer ausfällt als jetzt.
Folglich ist ab 2028 an bis zu 8ghz bei cpu drin mit Luftkühlung und bei gpu ab 4ghz
Dies aber ist noch ein patent und das dauert bis erste designs davon gibt in der Fertigung
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh