NVidia und CPU Pläne - Spekulations Thread !

Hardwarekenner

Legende
Thread Starter
Mitglied seit
06.01.2005
Beiträge
21.830
Ort
in der schönsten Stadt der welt.
Ich greife das thema noch mal auf, da ich meine das gerade durch meldungen wie der entzug von Lizenzen die NV hindern sollen in zukunft für Intel und AMD Chipsätze zu bauen, und der "einkauf" bei VIA hier spielraum für Spekulationen öffnen.

wenn ich mir die momentane versteifung von NV auf ihr CUDA Projekt anschaue, und dann nur mal anfange zu Spinnen, könnte es doch ein Plan von NV sein, das sie eine Plattform zusammen mit VIA entwickeln, die dann einen VIA CPU auf einem MB mit NV Chipsatz und einer GPU von NV verbinden.
Das dann die VIA CPU nur das Betriebssystem "verwaltet" und alle Rechenintensiven aufgaben an Cuda übergeben werden.
das würde soagr "embedet" also in einer Multi CPU-GPU funktionieren ( NB oder Thin Client ) und im Gamer bereich dann eben durch Multi GPU.
z.B der VIA als Boot CPU, und dann werden die aufgaben der CPU an einen onBoard GPU abgegeben, und zusätzlich lässt sich die leitung dann durch SLI stufenweise "aufbohren",
Ich denke mal, das müsste umsetzbar sein.
NV würde damit eine gewaltigen schritt an Intel und AMD vorbei machen, weil sie sich nicht auf das klassische CPU / GPU Modell bei der leistung verlassen müssen, und die Leistung ist grenzenlos Scalierbar.
Und NV betreibt ja diese Technologie seit dem G80, also einer GPU die Arbeit einer CPU "aufzudrücken" .
Softwaretechnisch sollte die "anpassung" auch kein großes Problem darstellen.
Damit währe NVidia unabhängig von Intel und AMD.
Die CPU könnte dann fest auf dem MB integriert sein ( wozu tauschen ? ) und somit praktisch eine CPU/GPU in einem Baustein, das ganze dann Passiv gekühlt, und jeh nach veranlagung des Käufers ohne PCIe GPU Port, oder eben stufenweise aufsteigend.
Zudem dann auch unterschiedliche Grakas in dem Rechner stecken könnten ( ab G80 ) und eben die CUDA aufgaben beliebig Delegiert werden könnten.
z.B die oB GPU den CPU Teil abdeckt, und dann eine ( in zukunft sicher erhältliche ) G92c ( 30nm Passiv ) als Physx Karte, und eine bis zwei zusatzkarten der dann aktuellen Klassen die eben andere sachen Berechnen, bis hin zu Ray Tracing.
Und was nicht gebraucht wird, wird abgeschaltet !
damit würde auch das Core wettrüsten aufhören, und NV/Via würde ein einfacher Single Core reichen.

nur mal so ein fiktion von mir!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
kling ja schon Sinnvoll, würde aber ne komplette umstrukturierung des herköömmlichen entsprechen, ich sehe das mit Skepsis, da kann sich NV nicht mit durchsetzten, und VIA sind Flaschen die können nix.

Nvidia sollte ne CPU machen mit ähnlichem System wie die Core2s.
FSB könnte überarbeitet werden. Und die GPUs sind ja jetzt schon schneller als CPUs, nur können diese ja kein X86 oder x64, wo wir bei Problem sind.

Würde NV es schaffen einen gt200 (oder die Nachfolger) x86 (x64) kompatibel zu machen,
dann ziehen die an Intels und AMDs Spitzenmodellen vorbei.

Intel wollte ja schonmal nen 8 Kerner als GPU benutzen, nunja, das Pronzip ist auch nicht schlecht,
nur sind die Rechenschritte/sekunde schon bei der Singel gt200 schneller als die meisten CPUs.

Wenn eine neue Struktur, dann träume ich von einer Komplett Grünen.
Beispiel:
ATX mobo mit allen nötigen Ausgängen wie Sound HDMI und DVI, Drucker(ansonsten alles Tod und kein Chip aufm Mobo).
Dann 2 Ram Steckplätze und in der Mitte ein Sockel 7000 mit 15*15cm für 16nm Prozzies.
Der "prozzi" der da drauf soll, hat dann 120 Kerne und kümmert sich um ALLES (auch Grafik),
und hat gigantische 30gb Ram drin.
Wenn diese nicht ausreichen können die durch 2 Rigel noch vergrössert werden.

Das 15cm * 15 ungetüm kann auch getauscht werden gegen eins mit 240Kernen und 60gb Ram.

Zum Einsatz kommt des weiteren ein Kühler der die komplette ATX Fläche bedeckt und 15cm hoch ist.

So meine Vision.
 
Zuletzt bearbeitet:
Nvidia sollte ne CPU machen mit ähnlichem System wie die Core2s.
FSB könnte überarbeitet werden. Und die GPUs sind ja jetzt schon schneller als CPUs, nur können diese ja kein X86 oder x64, wo wir bei Problem sind.

Würde NV es schaffen einen gt200 (oder die Nachfolger) x86 (x64) kompatibel zu machen,
dann ziehen die an Intels und AMDs Spitzenmodellen vorbei.

Ach ihr habt immer Vorstellungen :d

Wenn es so einfach wäre meinste nicht das AMD und Intel schon auf die gleiche Idee gekommen wären? Eine CPU und GPU ist ganz anders aufgebaut und verarbeitet die Befehle völlig unterschiedlich. Die kannst nicht die Leistung einer GPU auf ne CPU wiederspiegeln, eine GPU würde bei den Befehlssätzen einer CPU kläglich versagen.
 
aber wozu eine CPU mit 12 Kernen, wenn das oben vorgeschlage Passiv, ist, und weniger Strom ( Abwärme ) verbrauchen würde?
Ich denke das diese CPU ( multi Core ) geschichte bald am ende ist.
Es ist ja auch bewiesen das sich die CPU leistung nicht im selben schritt vervielfacht wie die anzahl der Cores steigt.
Das gleiche trifft ja auch auf SLI & CF zu, und mit CUDA und der Splittung der aufgaben kann NV das gut umgehen, und die Leitung steigt bei ausbau der GPUs an.

und um x86/x64 muss sich ja nur die VIA CPU in dem Model oben kümmern, wozu dann noch in der GPU ?
und VIA hat die Lizens, und wo steht, das auf einem NV MB keine VIA CPU steken darf?
das währe für NV die Lösung um eine mom nicht zu bekommende x86 Lizens zu umschiffen.
 
^^ Am Ende?

Sag mal wo lebst du? Das ganze Multicore Prozessing geht jetzt erst richtig los, siehe Risc Architektur diese war schon immer effektiver als ein Single Core, Arbeitsaufteilung ist immer effektiver als alles von einer Stelle machen zu lassen.
 
Zuletzt bearbeitet:
Ach ihr habt immer Vorstellungen :d

Wenn es so einfach wäre meinste nicht das AMD und Intel schon auf die gleiche Idee gekommen wären? Eine CPU und GPU ist ganz anders aufgebaut und verarbeitet die Befehle völlig unterschiedlich. Die kannst nicht die Leistung einer GPU auf ne CPU wiederspiegeln, eine GPU würde bei den Befehlssätzen einer CPU kläglich versagen.

naja, aber wenn die Software auf CUDA angepasst ist ( wird ) würde sich das Problem erübriegen.
Und Software kann belibig umprogrammiert werden, und somit auch auf GPU Prozessing angepasst werden, und sollte das nicht mit alter Software möglich sein, muss eben CUDA das übernemen ( compiler ).

Nur wird Intel versuchen alles dagegen zu unternehmen, weil das ihr kerngeschäfft ist.

---------- Beitrag hinzugefügt um 13:17 ---------- Vorheriger Beitrag war um 13:16 ----------

Arbeitsaufteilung ist immer effektiver als alles von einer Stelle machen zu lassen.

und genau das kann auch die GPU übernehmen, wenn die Software angepasst ist.

---------- Beitrag hinzugefügt um 13:29 ---------- Vorheriger Beitrag war um 13:16 ----------

Sag mal wo lebst du?

das soll ein Spekulation Thread sein, da sollte eigentlich jeder seine meinung sagen können, ohne angemacht zu werden. :wink:
 
Nur wird Intel versuchen alles dagegen zu unternehmen, weil das ihr kerngeschäfft ist.

Zur Not kaufen sie halt NV. Cuda ist ja schön und gut, aber eine GPU kann keine CPU ersetzen.
 
das einfache problem ist doch, gpus sind nur dann schnell, wenn die aufgabe(n) orgentlich parallelisierbar sind.
kann man einen arbeitsvorgang nicht parallelisieren wird immer nur ein kern dran arbeiten und dann ist ein cpu kern mit 3GHz immer schneller als 200 cores in einer gpu mit 500MHz

auslagern kann man manches, und das soll man meinetwegen auch machen, aber bestimmte aufgaben brauchen halt die klassische cpu mit effektiven befehlssätzen und viel takt.
anderswo wird rumgeheult man braucht noch keine 4 kerner, da das "eh nichts bringt" und ihr wollt ne gpu mit über 100 kernen als cpu haben... :wayne:
 
Haha, ich befürchte, Hardwarekenner wacht aus seiner kunterbunten nVidia Traumwelt nicht mehr auf. Diese Vorstellungen sind ganz schön haarsträubend. Ich verstehe auch nicht, was der Thread bringen soll. Es ist diesbezüglich nichts von einem konkreten Projekt mit VIA bekannt. Und letztens hat nVidias Chef höchstpersönlich auch nochmal bekräftigt, dass es keine CPU Pläne gäbe. Und selbst wenn, dann würde das alles ganz anders ausschauen, als du dir das ausmalst.

Wie Neurosphere schon sagte, du kannst eine CPU nicht einfach durch eine GPU ersetzen. Kombinieren, ja, aber nicht ersetzen. Und dann musst du dich fragen, welche Aufgaben sinnvoll für eine GPU sind. Hier gibt es nur eines, Durchsatz, Durchsatz und nochmals Durchsatz. Etwas, dass im Client Bereich (Desktop/Notebook) ganz wenig gefragt ist. Wie zB bei HD Streaming, Transkodierung oder Verschlüsselung. Und dafür reichen sehr kleine und kompakte GPUs völlig aus. nVidia sollte lieber erstmal zusehen, dass sie überhaupt wieder ein wettbewerbsfähiges GPU Design hinbekommen. Vorher erübrigen sich sämtliche Hirngespinste sowieso. Erst dann kann man weiterschauen. Hier kommt nämlich noch etwas entscheidendes zum tragen, das I/O Interface. Und da hat nVidia nicht mal ansatzweise das Know-How von AMD oder Intel.

Übrigens versteift sich nVidia nicht auf CUDA. Das ist zumindest schon mal ein guter Anfang. Bei den letzten Veranstaltungen wurde auch gar nicht mehr grossartig darauf eingegangen. Die Zukunft heisst OpenCL, DirectX Compute oder allgemein plattformunabhängig. nVidia war bei der Spezifizierung von OpenCL übrigens sehr intensiv beteiligt. ;)

Das ganze Multicore Prozessing geht jetzt erst richtig los
Yep, genau so ist das. Wobei man in Zukunft wohl eher von Many Core sprechen wird. Sehr viele kleine und kompakte Kerne, die für Durchsatz sorgen, und einige wenige, die den GP Anteil übernehmen. Siehe Bulldozer + APUs.
 
Zuletzt bearbeitet:
nVidia sollte lieber erstmal zusehen, dass sie überhaupt wieder ein wettbewerbsfähiges GPU Design hinbekommen.

naja neben vielen lachern in deinem Post ist das die beste aussage:lol::lol::lol::lol:

immo hat ATI keine Karte die es mit den Top NVs aufnehmen kann.
und warte mal ab, wenn die neuen NVs kommen, dann wird NVidia seine vorsprung weiter ausbauen.
Und NV kann immo sogar noch den uralten G92 Verkaufen, und im mittelfeld nochimmer gut mithalten damit !
und ATI musste in der zeit schon einige Karten bringen um überhaupt den G92 zu ereichen.
am GT200 beissen die sich noch immer die Zähne aus !
 
Lach ruhig. Du scheinst überhaupt nicht zu wissen, worum es geht. Erst unwissend von CPU/GPU Design Ansätzen fantasieren, und dann implizit auf Spiele Benchmarks verweisen. :rolleyes:
ATI bringt auf 282 mm² einen Peak Durchsatz von 1360 GFLOPS unter, nVidia gerade mal 1063 GFLOPS auf 470 mm² (SP FP). Das ist ein Effizienz Unterschied von mehr als Faktor 2 bezüglich Durchsatz pro mm². nVidia ist nicht mal ansatzweise in der Nähe von ATI was GPGPU betrifft. Bei DP FP sieht es übrigens noch deutlich schlechter für nVidia aus.
 
Lach ruhig. Du scheinst überhaupt nicht zu wissen, worum es geht. Erst unwissend von CPU/GPU Design Ansätzen fantasieren, und dann implizit auf Spiele Benchmarks verweisen. :rolleyes:
ATI bringt auf 282 mm² einen Peak Durchsatz von 1360 GFLOPS unter, nVidia gerade mal 1063 GFLOPS auf 470 mm² (SP FP). Das ist ein Effizienz Unterschied von mehr als Faktor 2 bezüglich Durchsatz pro mm². nVidia ist nicht mal ansatzweise in der Nähe von ATI was GPGPU betrifft. Bei DP FP sieht es übrigens noch deutlich schlechter für nVidia aus.

Und? Trotzdem kommt keine Karte overall an die GTX285 rann. Ist ja schön, die Werte aber man kann 2 so unterschiedliche Architekturen halt nicht anhand simpler technischer Daten vergleichen.

mfg
 
Lach ruhig. Du scheinst überhaupt nicht zu wissen, worum es geht. Erst unwissend von CPU/GPU Design Ansätzen fantasieren, und dann implizit auf Spiele Benchmarks verweisen. :rolleyes:
ATI bringt auf 282 mm² einen Peak Durchsatz von 1360 GFLOPS unter, nVidia gerade mal 1063 GFLOPS auf 470 mm² (SP FP). Das ist ein Effizienz Unterschied von mehr als Faktor 2 bezüglich Durchsatz pro mm². nVidia ist nicht mal ansatzweise in der Nähe von ATI was GPGPU betrifft. Bei DP FP sieht es übrigens noch deutlich schlechter für nVidia aus.

toll, als ist es egal obs Ruckelt, hauptsache die GFlop werte stimmen zur DIE Große !:haha:

oder anders herum gesagt: ist es eine leistung ewig am Chipdesign rumwerkeln zu müssen, und viel in neue Technologien zu investiren, und immer noch auf Platz zwei zu sein ?

hast sich gerade selber ins aus geschossen !


aber nochmal zu deinem liebling ATI, haben die schon einen funktionierenden 2D Modus ?


so, und nun ende mit dem ATI vs NV geflame, und:btt:
 
Zuletzt bearbeitet:
Er (mr. dude) hat Recht, denn:

Ne ATi Karte idled während STREAM nur rum! Sie läuft im (funktionierenden) 2D-Takt.
Dabei ist sie gleich schnell wie eine NVidia auf CUDA, die dabei mit vollem Stromverbrauch im vollen 3D-Takt rechnet.

Siehst du die Differenz? ATi ist im Kommen. Nicht zuletzt dank AMD konnten sie halt viel mehr GPGPU Funktionen einbauen.

ATi wollte eigentlich auf OpenCL warten, Stream ist nur eine Reaktion auf CUDA. Einheitliche Standards for the win..
 
...


aber nochmal zu deinem liebling ATI, haben die schon einen funktionierenden 2D Modus ?

..

gabs schon zu hd38x0 zeiten
die frage ist eher, wäre nvidia in der lage 2d-modus mit gddr5 zu realisieren?

und back to topic

ne gpu ist einfach nicht für x86 code optimiert, andersrum kann ne cpu keine grafik berechnen (nicht wie ne graka)
wenn nvidia chip-herstellungs-know-how mit via chipsatz und gpu know-how verindet kann da schon was kommen

n g200b kommt aber niemals als cpu
 
Glaube ich auch.
Ansonsten wäre AMD definitif der erste Konzern mit einer x86 GPU, bzw. einer solchen Plattform die die CPU nur zum Starten benötigt.

gruss un schönen abend
 
Lach ruhig. Du scheinst überhaupt nicht zu wissen, worum es geht. Erst unwissend von CPU/GPU Design Ansätzen fantasieren, und dann implizit auf Spiele Benchmarks verweisen. :rolleyes:
ATI bringt auf 282 mm² einen Peak Durchsatz von 1360 GFLOPS unter, nVidia gerade mal 1063 GFLOPS auf 470 mm² (SP FP). Das ist ein Effizienz Unterschied von mehr als Faktor 2 bezüglich Durchsatz pro mm². nVidia ist nicht mal ansatzweise in der Nähe von ATI was GPGPU betrifft. Bei DP FP sieht es übrigens noch deutlich schlechter für nVidia aus.

100% zustimmung
 
AMDs CPUs kommunizieren immernoch über das Hypertransport-Protokoll mit der Peripherie, oder? Dann sei soviel gesagt:
wiki schrieb:
HT ist ein offener Industriestandard, bei dem keine Lizenzgebühren anfallen. Die Entwicklung und Standardisierung wird vom herstellerübergreifenden HT-Konsortium übernommen, dem viele namhafte Unternehmen wie AMD, Nvidia, IBM und Apple angehören.
Somit kann Nvidia soviele Chipsätze für AMD produzieren, wie sie lustig sind. Daß Intel ihnen die QPI-Lizenz verweigert, ist imho nicht tragisch, bekommt NV doch von jedem X58-Verkauf Geld für die SLi-Lizenz.
Beim Lynnfield dürfen sie ja wieder...

Eine Central Processing Unit hat einfach ihren Daseinszweck, der nunmal ein anderer als der einer GPGPU ist, da kann sie noch soviel OpenCL berechnen können.
Ein handelsübliches Wndows oder Linux läuft auf keiner Grafikkarte, der Großteil der verfügbaren Software nutzt außerdem kaum mehrere Threads, um die mickrigen GPU-Kerne sinnvoll nutzen zu können. Es gibt viele Sachen, die sind nicht parallelisierbar.
Und sobald man double precision braucht, brechen GPUs eh hemmungslos ein.

Aufgaben an beliebig viele GPUs zu deligieren, erfordert ja überhaupt keine Rechenpower und garkeinen extrem aufgebohrten Systembus, der die anfallenden Daten latenzarm zu den anderen Chips bringt...
Intel hat nicht umsonst das QPI mit bis zu 3,2Ghz getaktet, wenn sie nicht der Meinung wären, daß der Interconnect so schnell sein müsste. AMD hat sicher nicht HT 3.0 entwickelt, wenn ein 200MHz FSB reichen würde...
 
VIA gehört zur Formosa Plastic Group, wenn da jemand wen kauft, dann kaufen die nV ... nachdem deren Aktien billig geworden sind, weil keiner mehr die überteuerten Grafikkarten kaufen will, bzw. sich kleine Grafikkarten durch CPU+GPU Chips erübrigen.

Gab sogar letztens schon ein Gerücht, das nV nach dem Käufer sucht ... glaub ich zwar erstmal nicht, aber so hats mit Sun auch angefangen ...

ciao

Alex
 
Gab sogar letztens schon ein Gerücht, das nV nach dem Käufer sucht ... glaub ich zwar erstmal nicht, aber so hats mit Sun auch angefangen ...

Nvidia sucht ein Käufer? wollen die etwa ihre Firma an AMD abgeben...
 
Zuletzt bearbeitet:
Lol .. glaub ich kaum ... AMD hat doch eh kein Geld ^^

Es ist trotzdem kein Problem Nvidia zu übernehmen, AMD könnte neue Schulden machen, man kann auch eine Genehmigung mit Geld bekommen :d (( /$$$\ )) >>> .:.
 
Zuletzt bearbeitet:
naja neben vielen lachern in deinem Post ist das die beste aussage:lol::lol::lol::lol:

immo hat ATI keine Karte die es mit den Top NVs aufnehmen kann.
und warte mal ab, wenn die neuen NVs kommen, dann wird NVidia seine vorsprung weiter ausbauen.
Und NV kann immo sogar noch den uralten G92 Verkaufen, und im mittelfeld nochimmer gut mithalten damit !
und ATI musste in der zeit schon einige Karten bringen um überhaupt den G92 zu ereichen.
am GT200 beissen die sich noch immer die Zähne aus !

AMEN!:kotz:

@Topic

Ich glaub kaum das AMD jetzt neue Schulden macht, die erholen sich ja langsam vom ATI coup...
 
Zuletzt bearbeitet:
bei dieser ganzen sache vergesst ihr was:Es gibt da auch Microsoft,und die sind große "freunde" von Intel,und sehr einflussreich.Da kommt NVidia,und stellt alles um ,ohne etwas mit microsoft abzusprechen.Wenn soetwas passieren sollte,was du meinst,würde Microsoft Nvidia entweder kaufen oder platt machen(was sie auch mit vielen anderen firmen gemacht haben).Ne ,sowas funktioniert nicht
 
Und? Trotzdem kommt keine Karte overall an die GTX285 rann.
Wo kommt keine Karte an die GTX 285 ran? Dir ist der Unterschied Spiele <-> GPGPU bewusst? Und während nVidia einen GT200 produziert, produziert AMD zwei RV770/790. ;)

toll, als ist es egal obs Ruckelt, hauptsache die GFlop werte stimmen zur DIE Große !
Du hast doch den Thread eröffnet und irgendetwas von phantasievollen CPU/GPU Gebilden erzählt. Und da zählen nun mal keine Spiele, genauso wenig ob es ruckelt. Da zählt nur Peak Performance, wie man diese in die Praxis umsetzt und zu welchem Preis man Chips aus den Fabs und letztendlich auf den Massenmarkt bringt. F*****s wie dich, die mit ihren Crysis FPS argumentieren, sind da völlig offtopic.

oder anders herum gesagt: ist es eine leistung ewig am Chipdesign rumwerkeln zu müssen, und viel in neue Technologien zu investiren, und immer noch auf Platz zwei zu sein ?
War nVidia vorher auch schon auf Platz zwei? Keine Ahnung. Eine Leistung ist das sicherlich nicht. Ich habe aber auch schon vorher gesagt, dass der GT200 eine Fehlentwicklung ist. Das ist nix halbes und nix ganzes. Zu wenig performant, um sich deutlich oder überhaupt abzusetzen. Zu gross, um bei Kosten- und Energieeffizienz zu bestehen. Das kommt davon, wenn man um jeden Preis die Performance Krone halten will oder am Markt vorbei entwickelt. Am Ende stehen unterm Strich Verluste in dreistelliger Millionenhöhe pro Quartal. Vielleicht hätte jemand nVidia sagen sollen, dass sie nicht Intel sind. Vielleicht hätte man aber auch besser den G92 etwas smarter optimieren und langfristig auf eine neue Shader Architektur setzen sollen. Mit skalaren Shadern gewinnst du in Zukunft jedenfalls keinen Blumentopf mehr. Im Grunde schon heute nicht mehr. Zum Vergleich, ATI Vec5, Intel Vec16. Und wie man hört, soll der RV970 etwas gänzlich neues werden. Und dass der nicht schlechter als die aktuelle Architektur wird und daran sicherlich schon seit geraumer Zeit gewerkelt wird, kannst du dir hoffentlich denken. ;) Aber mal schauen. Noch soll man den Tag nicht vor dem Abend loben. Eventuell hat nVidia die Shader beim GT300 einigermassen passabel überarbeitet. Dass man aber nicht von heute auf morgen den Rückstand wird wettmachen können, sollte klar sein.

aber nochmal zu deinem liebling ATI, haben die schon einen funktionierenden 2D Modus ?
Was ist ein 2D Modus? DirectDraw? Windows GUI? Oder meinst du Idle Leistungsaufnahme? Höre ich zwar immer wieder. Ist nur leider ein wenig repräsentatives Pseudo Argument. Dass es Reviews gibt, die mal die HD 4890 mit weniger unter Idle vermessen, andere wiederum die GTX 275, ist dir hoffentlich nicht entgangen. Gegenfrage, kennst du eine nVidia Karte im Leistungsbereich der HD 4670, die diese unter Idle schlagen kann. Nein? Dann scheint PP2 und 2D allgemein ja wohl doch zu funktionieren. Oder was meinst du?
Ich hatte übrigens noch nie eine ATI Karte und momentan immer noch eine GeForce. So viel zu meinem "Liebling". :rolleyes: Im Gegensatz zu dir verschliesse ich aber nicht die Augen vor der Realität und muss zugeben, dass meine nächste Karte ziemlich wahrscheinlich eine Radeon wird, obwohl ich überhaupt kein Problem mit einer weiteren GeForce hätte.

Stream ist nur eine Reaktion auf CUDA.
Nicht direkt. Stream ist nur ein anderer, neuerer Name für ATIs GPGPU SDK. Das hiess früher CTM. Soweit mir bekannt ist, bot ATI schon vor nVidia und CUDA Unterstützung für GPU Computing, zB für Brook.
 
Zuletzt bearbeitet:
VIA gehört zur Formosa Plastic Group, wenn da jemand wen kauft, dann kaufen die nV ... nachdem deren Aktien billig geworden sind, weil keiner mehr die überteuerten Grafikkarten kaufen will, bzw. sich kleine Grafikkarten durch CPU+GPU Chips erübrigen.

Gab sogar letztens schon ein Gerücht, das nV nach dem Käufer sucht ... glaub ich zwar erstmal nicht, aber so hats mit Sun auch angefangen ...

ciao

Alex

Nvidia sucht ein Käufer? wollen die etwa ihre Firma an AMD abgeben...

Neulich gabs auch Gerüchte das Nvidia AMD kaufen könnte. Von daher würde ich nicht immer gleich alles als Wahr ansehen.

Solange NV mit den Karten Geld verdient stehen sie doch gut da. An ein x86 Projekt von NV glaube ich garnicht, höchstens für Handys, also einem Markt wo ich nicht an Endkunden verkaufen muss sondern nur Großkunden beliefere.
 
[..]

Gab sogar letztens schon ein Gerücht, das nV nach dem Käufer sucht ... glaub ich zwar erstmal nicht, aber so hats mit Sun auch angefangen ...

ciao

Alex

Na ja in der Richtung muss ja eigentlich was passieren, aber NV wird seine Unabhängigkeit kaum aufgeben wollen und das müssten sie wenn sie unter das Formosa-Dach schlüpfen würden. Formosa könnte dann aber in der Tat ein ernstzunehmender 3.er Bewerber werden, weil man dann VIA auf ausschließlich CPU-Entwicklung umstellen würde und den Rest über NV entwickeln könnte, also Synergien ausnutzen könnte und zudem alles über den Namen NV laufen lassen würde, auch die VIA-CPUs. Ist ein interessantes Gedankenspiel.

Technisch gesehen ist kann eine GPU eine CPU nicht ersetzen. Entweder NV bastelt/bekommt eine richtige CPU, die mit der heutigen Software klarkommt, oder NV lässt es. Irgendwelche zusammengesponnene Zwischenlösungen gibts da nicht. OpenCL bzw. DX11 weichen die Grenzen etwas auf, aber eben nur etwas, nämlich für Unterprogramme, die was Vektorrechnung zu tun haben, sonst nix.
Man muss das begreifen: Die CPU ist der Computer. Nicht die GPU, nicht das Mobo oder sonstwas - nur und ausschließlich die CPU ist der Computer. Alles andere ist nur dazu da, die CPU lauffähig zu machen und zu unterstützen. Wenn man das bedenkt ist es klar, dass man da nix basteln kann, man braucht einfach eine vernünftige CPU.

AMD wird übrigens weder das Geld haben noch das Interesse NV zu kaufen, weil man sich garantiert keine Probleme mit den Kartellwächtern einhandeln möchte - man braucht selber ja das Kartellrecht und wird es sicher nicht unterlaufen wollen mit so einem Deal. Das ist Politik und ich halte es für sehr sehr sicher, dass NV nicht von AMD gekauft werden kann.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh