Triple-Core

Klär mich auf. Da weiß ich nicht viel drüber, was IBM genau vor hat.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
bassmecke schrieb:
Welchen nutzen hast Du von 3dMark:hmm: Das ist beim besten Willen kein DC-Kaufargument.

Wenn du meinen Post richtig gelesen hättest, dann hättest du auch verstanden was ich meine.
der 3-Mark ist nur der Anfang, alle kommenden Games und andere Anwendungen werden von DC oder mehr Cores profitieren.
Das 3D Mark kein Kaufargument ist ist schon ganz klar, aber wie es sehr aufgefallen ist, so wie die 3D Marks programmiert wurden werden auch Zuküntige Games programmiert.
Der 3D Mark ist eben nur der Anfang


MFG
Enomenie
 
Enomeniepatres schrieb:
Single Core ist doch jetzt schon im Aussterben, alles neuen Programme und Games werden auf DC oder mehr Cores pogramiert. Wer sich jetzt eine CPU kauft der kauft eigentlich immer eine Dualcore CPU, ist Zukunftssicherer und solangsam profiert man auch davon, besetes Beispiel von heute ist der neue 3D Mark.

Ganz so sicher wäre ich mir da nicht, da nicht klar ist, in wie weit Spiele wirklich parallelisierbar sind. Das Spiel an sich ist linear, d.h. es muß erst auf die Reaktion des Users gewartet werden, um den nächsten Schritt zu tun. Vergleichbar ist das mit SuperPI. SuperPI ist eine Anwendung, die niemals von DualCores profitieren wird, es sei denn man läßt 2 Instanzen gleichzeitig laufen (=sinnlos, da gleiche Ergebnisse).

Wirklich gut parallelisierbar sind nur Anwendungen, deren Ablauf im Vorfeld bekannt ist, z.B. Video encoding (jeder Core schnappt sich einen Filmabschnitt) oder Anwendungen, die völlig unabhängig voneinander laufen (bsp. SuperPI + Virenscanner)

Was ich mir vorstellen könnte, wäre eine Auslagerung gewisser Komponenten auf den 2. Kern, z.B. die Berechnung des EAX-Sounds oder der Physikengine.
Ob das aber einen so großen Performanceschub in Zeiten von X-FI und PhysX bringt, bleibt abzuwarten.....
 
Ohhh, da kennt sich einer mit programmieren aus....

Überleg doch mal: Wäre es nicht geil, wenn die KI immer besser auf den Spieler reagieren könnte? Wäre es nicht toll, wenn zig Mögliche Wege schon vorberechnet wären in Spielen??? Könnte man da mehrere Cores dafür benutzen?
 
Arokh schrieb:
Wäre es nicht toll, wenn zig Mögliche Wege schon vorberechnet wären in Spielen???

Also so einfach ist es dann auch wieder nicht. Wenn dann ein Weg vorberechnet ist, und der Spieler schaut in die falsche Richtung, dann :shot:

Wie ByteRipper schon sagte, wäre es z.B. eine Möglichkeit die Physik vom 2 Kern berechnen zu lassen, aber das gesamte Spiel vorberechnen ginge wohl nur bei Adventures, wo man seinen Weg nicht unbedingt frei bestimmen kann ;)


mfg
schuetz10
 
Das 3D Mark kein Kaufargument ist ist schon ganz klar, aber wie es sehr aufgefallen ist, so wie die 3D Marks programmiert wurden werden auch Zuküntige Games programmiert.
Der 3D Mark ist eben nur der Anfang

Du schreibst selbst "zukünftige". Fakt ist, das JETZT kein Spieler von DC im Rahmen des Aufpreises auf SC profitiert. Wenns soweit ist, kann man immernoch einen DC holen. Die sind dann billiger. Und wie Byteripper schon sagte, erstmal abwarten, was die Programmierer aus DC machen. Ich erinnere an 64Bit...nutzt bis heute keinem Gamer!

Solange ich auf meinem Rechner kein Game habe, das sichtbar und fühlbar mehr Performance durch DC hätte, kauf ich mir lieber ne neue /zweite Grafikkarte, das bringt da mehr. Der SB Audigy/ XFI nimmt z.B. nur ca. 2%, wenn überhaupt Prozessorleistung weg. Das merk ich eh nicht.
 
Zuletzt bearbeitet:
für euch gaymer ;) macht ein dualcore wenig sinn... aber in anderen bereichen werden schon lange multi-prozessor systeme unterstützt. stell dir einfach mal vor.. der anfang der fahnenstange. ein 4-way mainboard mit 4 dual core optis drauf... was das für ein feiner datenbankserver is :d:d
 
der anfang der fahnenstange. ein 4-way mainboard mit 4 dual core optis drauf... was das für ein feiner datenbankserver is
Das stimmt zweifellos. Ich arbeite aber nicht in der IT-Branche (wie viele hier) und benutze den PC zu 80% zum Zocken. Deshalb bezieht sich meine Meinung zum DC nur auf Gamer. Die wenigsten brauchen privat nen DC. Selbst Videobearbeitung mach ich viel, aber wenns codiert bin ich eh unterwegs oder mach sonst irgendwas anderes.
 
Arokh schrieb:
Ohhh, da kennt sich einer mit programmieren aus....
Nein, ganz und gar nicht. Das ist eine rein logische Überlegung gewesen :)
Überleg doch mal: Wäre es nicht geil, wenn die KI immer besser auf den Spieler reagieren könnte? Wäre es nicht toll, wenn zig Mögliche Wege schon vorberechnet wären in Spielen??? Könnte man da mehrere Cores dafür benutzen?

Auch wenn KI die Abkürzung für künstliche Intelligenz ist, handelt es sich im Grunde immer noch um "Wenn - Dann" Routinen.

Um das mal plastischer zu machen: Jeder kennt die meist hochdotierten Schachtuniere Mensch vs. Maschine. Im Grunde geht es hier ähnlich zu, wie bei Computerspielen: Ziel ist es die bestmögliche Reaktion auf die Aktion des Gegners zu finden. Das geschiet in der Tat durch die parallele Berechnung aller möglichen Aktionen, der daraus entstehenden Reaktionsmöglichkeiten des Gegners. Gleichzeitig werden die einzelnen Verzweigungen des Spielverlaufs bewertet und anschließend die vielversprechenste Aktion gewählt.

Was auf einem 2-dimensionalem, 64 Felder großen Brett mit 48 Figuren noch gut klappen mag, wird in einer 3D Umgebung in Echtzeit (im Gegensatz zum rundenbasierten Schach) unter Berücksichtigung aller Umgebungsvariablen (z.B. Häuser) nicht so ohne weiteres funktionieren. In der Kürze der Zeit ist höchstens ein beschränkter "Blick" in die Zukunft möglich, der mit jeder Aktion meinerseits aktualisiert werden müßte. Ein alle paar Milisekunden stattfindendes Update des "view ahead" ist rein von der Rechenleistung selbst mit Dualcore einfach nicht durchführbar.

Daher wird es weiterhin bei gescriptetem Verhalten ala "If then" bleiben, selbst wenn es uns so vorkommt, als wären die Gegner intelligent.
Das heißt natürlich nicht, dass man die "KI" nicht auch einen anderen Kern auslagern kann.

Ums nochmal klarzustellen: Ich glaube gerne, dass sich Spiele durch die Auslagerung von Aufgaben auf andere Kerne beschleunigen lassen nur bezweifele ich, dass es bei Spielen viele Komponenten gibt, die sich so ohne weiteres parallelisieren lassen.
 
Das stimmt zweifellos. Ich arbeite aber nicht in der IT-Branche (wie viele hier) und benutze den PC zu 80% zum Zocken. Deshalb bezieht sich meine Meinung zum DC nur auf Gamer. Die wenigsten brauchen privat nen DC. Selbst Videobearbeitung mach ich viel, aber wenns codiert bin ich eh unterwegs oder mach sonst irgendwas anderes.

stimmt genau. aber ab 2007 wird ein dualcore mehr wind machen... solange müssen wir den programmieren schon die zeit geben.
 
byte ripper, eine der widerlichste dinge beim spiele coden überhaupt lässt sich brutalst einfach und schnell multithreaden: die wegfindungsroutinen. und allein das ist in jedem egoshooter bzw rts direkt ummünzbar in gesparte rechenzeit -> mehr frames. oder buntere bilder. oder oder oder. dein ansatz da logisch ran zu gehen ist der richtige gewesen, alelrdings ist es manchmal so das wissen logik überlegen ist. und das killerargument kommt dann sogar von dir selber: die sogenannte ki. sind wie du selber sagst letzendlich nur entscheidungstabellen. deren effizienz steigt in einer multithreaded umgebung allerdings nicht linear, sondern exponentiell. spiele können bei den sachen die viel power benötigen extrem davon profitieren. man muss sich als coder nur von anfang an dazu zwingen wirklich jedes fitzelchen code in einen thread zu verpacken.
 
man muss sich als coder nur von anfang an dazu zwingen wirklich jedes fitzelchen code in einen thread zu verpacken.

Und ob das die Entwickler wirklich so konsequent in naher Zukunft umsetzen bleibt fraglich. Man bedenke, das wir HWLuxxer mit unseren 2,2-3GHz Rechnern und den 7800er/ X1800er, womöglich noch SLI usw. am obersten Ende der Spielekundschaft stehen. In der Gamestar hat ein Mittelklasse-System noch 1,8 (A64) - 2,8 (PIV) Ghz, 512 MB Ram und ne FX5900/9800Pro. Das ist die Zielkundschaft für die allermeisten Games. Die sind von X2 und co. noch meilenweit entfernt. Gamestar hat in der Grafikbox zu den Games ja noch nichtmal die 7800er/1800er Graka-Serie mit aufgenommen.
Deshalb sehe ich die Programmierer momentan einfach noch nicht unter dem Druck, multithreaded zu programmieren. Ist ja auch ein Mehraufwand, der Zeit und Geld kostet. Die sehen das vielleicht eher als nettes Gimmick für die paar HW-Fetischisten.
 
Da kommt unter anderem auch die Xbox 360 wieder ins Spiel. Die jetzigen Spiele laufen meines Wissens nur auf einem Core. Die beiden anderen Cores langweilen sich. Doch das wird sich bestimmt in den nächsten Monaten ändern. Auch weil die PS3 mehrere Cores hat. Somit müssen sich die Programmierer in nächster Zeit umstellen. Dank einheitlicher Hardware haben die Xbox 360 Gamer, wozu ich seit neusten auch gehöre, das bessere Los gezogen. Da wird es wahrscheinlich schneller eingeführt.
 
wäre nicht eine hardware-seitige lösung besser? also ein zusätzlicher koordinierungs-core der nur darauf ausgelegt is aufgaben selbstständig einzuteilen? machbar wäre das mit sicherheit und ich denke auf jeden fall bequemer. rein das ding und fertig...keine zusätlichen patches oder sonstwas... man mekrt die power sofort ;). dann noch ein doppelter FSB und ab gehts
 
hum ja den weg geht der celli ja... die beiden power pc cores leiten bestimmte gut zerteilbare threadschnipsel an die fpus weiter.
 
MajPay schrieb:
wäre nicht eine hardware-seitige lösung besser? also ein zusätzlicher koordinierungs-core der nur darauf ausgelegt is aufgaben selbstständig einzuteilen? machbar wäre das mit sicherheit und ich denke auf jeden fall bequemer. rein das ding und fertig...keine zusätlichen patches oder sonstwas... man mekrt die power sofort ;). dann noch ein doppelter FSB und ab gehts
ganz schlecht. nen echtzeitsystem muss die threads anders verteilen als nen homebetriebssystem. die jetztige softwarelösung ist in ordnung.

die spielefirmen müssen halt ihre programmierer schulen was aber leider wieder geld und zeit kostet. am anfang werden in spielen halt noch mehr fehler enthalten sein als ohne threads.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh