> > > > GPU-Gerüchte: Dual-Fiji mit Wasserkühlung und neue Pascal-Bilder mit HBM2

GPU-Gerüchte: Dual-Fiji mit Wasserkühlung und neue Pascal-Bilder mit HBM2

DruckenE-Mail
Erstellt am: von

midrange-comp-logoAuf eine Grafikkarte mit Fiji-GPU warten wir in diesem Jahr noch und dabei wurde gerade dieses Modell bereits mit der ersten Ankündigung der neuen GPU-Generation gezeigt – lässt aber noch immer auf sich warten. Es handelt sich um die Dual-GPU-Lösung, die Dr. Lisa Su, CEO von AMD, Anfang Juni in die Höhe hielt und deren Leistungspotenzial sicher vielleicht anhand eines CrossFire-Systems aus zwei Radeon R9 Fury X oder Radeon R9 Nano abschätzen lässt. Zumindest einen Test mit vier Radeon R9 Fury X gegen ebenfalls vier GeForce GTX 980 Ti können wir anbieten, insofern dürfte eine Dual-Fiji-Grafikkarten keine größere Überraschung aus Sicht der Leistung mehr sein.

PCB der Dual-Fiji-Grafikkarte
PCB der Dual-Fiji-Grafikkarte (Bild: PCPerspective)

Offenbar hört die Dual-Fiji-Grafikkarten auf den Namen Gemini. Da Gemini das astrologische Zeichen für Zwillinge ist, dürfte am Vorhandensein zweier GPUs auf der Karte wohl kein Zweifel mehr bestehen. Quelle dieser Angaben ist einmal mehr die indische Importdatenbank, die einen Import eines solchen Produktes von Kanada aus am 1. Oktober festhält. Das Label FOC deutete darauf hin, dass es sich bereits um eine vollständig zusammengebaute Grafikkarte handelt, die auch schon mit einem Kühler versehen ist. Dieser soll aus dem Hause Cooler Master stammen. Auch dazu findet sich ein Eintrag in der Datenbank. Aufgrund der zu erwartenden Abwärme dürfte es sich dabei um eine All-in-One-Wasserkühlung handeln. Ob AMD dieses mal Probleme wie die lauten Betriebsgeräusche der Pumpe besser in den Griff bekommt als bei der Radeon R9 Fury X?

Weitere technische Details sind zum aktuellen Zeitpunkt nicht verfügbar. So bleibt die Frage weiter offen, ob AMD die Fiji-GPU im Vollausbau (Fiji XT) wie auf der Radeon R9 Fury X und Radeon R9 Nano oder eine abgespeckte Variante, wie auf der Radeon R9 Fury, verwendet. Da auch die Radeon R9 Nano den größeren Chip verbaut hatte und dieser hier sehr effizient arbeitet, ist es aber wahrscheinlicher, dass der Vollausbau auf der Dual-Fiji-Grafikkarten verwendet wird. Die daher zu erwartenden technischen Daten sind dann natürlich umso beeindruckender.

Die Radeon-R9-Fury-Modellserie
Modell AMD Radeon R9 Fury Nano AMD Radeon R9 Fury AMD Radeon R9 Fury X AMD Radeon R9 Dual-Fiji
Straßenpreis ab 660 Euro ab 550 Euro ab 660 Euro -
Homepage www.amd.de www.amd.de www.amd.de www.amd.de
Technische Daten
GPU Fiji XT Fiji PRO Fiji XT 2x Fiji XT
Fertigung 28 nm 28 nm 28 nm 28 nm
Transistoren 8,9 Milliarden 8,9 Milliarden 8,9 Milliarden 2x 8,9 Milliarden
GPU-Takt (Base Clock) - - - -
GPU-Takt (Boost Clock) 1.000 MHz 1.050 MHz 1.050 MHz -
Speichertakt 500 MHz 500 MHz 500 MHz 500 MHz
Speichertyp HBM HBM HBM HBM
Speichergröße 4 GB 4 GB 4 GB 2x 4 GB
Speicherinterface 4.096 Bit 4.096 Bit 4.096 Bit 2x 4.096 Bit
Speicherbandbreite 512,0 GB/s 512,0 GB/s 512,0 GB/s 2x 512,0 GB/s
DirectX-Version 12 12 12 12
Shadereinheiten 4.096 3.584 4.096 2x 4.096
Textureinheiten 256 224 256 2x 256
ROPs 64 64 64 2x 64
Typische Boardpower 175 Watt - 275 Watt -
SLI/CrossFire CrossFire CrossFire CrossFire CrossFire

Zusammengenommen 8.192 Shadereinheiten, 512 Textureinheiten und 128 ROPs zeichnen das Leistungspotenzial wohl am deutlichsten auf. Hinsichtlich des Grafikspeichers wird es wohl keine Überraschung geben und beide GPUs können auf jeweils 4 GB High Bandwidth Memory zurückgreifen. Bei einem GPU-Takt von 1.000 MHz, den AMD wie bei der Radeon R9 Nano bei idealen Bedingungen ansetzen könnte, käme eine Dual-Fiji-Grafikkarte auf eine Rechenleistung von 17,2 TFLOPS. Zur Versorgung der Karte reichen offenbar zwei 8-Pin-Anschlüsse aus, die Leistungsaufnahme dürfte sich trotz aller Effizienz bei weit über 300 W bewegen.

PCB der Dual-Fiji-Grafikkarte
PCB der Dual-Fiji-Grafikkarte (Bild: Anandtech)

Das, was bisher von der Karte selbst zu sehen war, war ausschließlich das PCB. Trotz zweier GPUs, aber gerade wegen der Verwendung des HBM, erschient die Karte bzw. das PCB relativ kompakt zu sein. Ansonsten lassen sich daraus keinerlei weitere Erkenntnisse gewinnen. Zur Anbindung der beiden GPUs an das PCI-Express-Interface kommt wohl einmal mehr ein PLX-Chip zur Einsatz, der jeweils 16 Lanes in Richtung der GPUs und weitere 16 für das PCI-Express-Interface zur Verfügung stellt.

NVIDIAs Pascal mit HBM2

Auch ein paar Neuigkeiten gibt es aus dem grünen Lager, wo aber erst Anfang 2016 mit neuen Produkten zu rechnen ist. Zwar tauchten kürzlich Gerüchte zu einer Dual-Maxwell-Grafikkarte auf, diese haben sich aber zunächst nicht bestätigt. Alles wartet also derzeit auf die Pascal-GPU, die im kommenden Jahr viele Neuerungen mitbringen soll. Auf der GTC 2015 im März verriet NVIDIA beispielsweise etwas über Mixed Precision. Bei Mixed Precision handelt es sich um eine Methode komplexe Rechenaufgaben durch unterschiedliche Rechenkerne in gleicher Art und Weise berechnen zu lassen.

Präsentation auf der GTC 2015 in Taiwan
Präsentation auf der GTC 2015 in Taiwan

NVIDIA will also das Handling der FP16/FP32/FP64-Berechnungen geändert, um von den dedizierten FP32- und FP64-Kernen profitieren zu können. Dazu werden FP16- oder FP32-Berechnungen zusammengelegt, damit sie auf FP32- oder FP64-Kernen ausgeführt werden können. Damit die FP16- oder FP32-Berechnungen zusammengelegt werden können, müssen sie allerdings die gleichen Operationen ausführen. Zum Beispiel können nur zwei Additionen oder zwei Multiplikationen zusammengeführt werden. Dies ist keine neue Erkenntnis und wie gesagt seit März diesen Jahres bekannt. Auf der GTC Taiwan vor wenigen Wochen tauchte Mixed Precision aber wieder auf und wurde als Neuigkeit bewertet – dem ist aber nicht so.

Wohl ebenfalls keine Überraschung wird sein, dass NVIDIA mit der Pascal-GPU auf HBM der zweiten Generation wechseln wird, während AMD in diesem Jahr noch auf die erste Generation zurückgreifen muss und daher z.B. hinsichtlich der Kapazität auf 4 GB limitiert ist. Auf der GTC Taiwan gab es nun ein neues Rendering eines Grafikkarten-Moduls mit Pascal-GPU zu sehen. Dieses ähnelt der anderthalb Jahre alten Darstellung von der GTC 2014, scheint aber eine echte Implementierung von HBM zu zeigen, denn die Speicherchips sind in einer Art angeordnet, wie wir es von AMD und der Fiji-GPU kennen. Neu ist aber, dass NVIDIA erstmals konkret über eine Speichergröße und Bandbreite spricht und diese mit 16 GB bzw. 1 TB/s angibt. Bisher sprach NVIDIA nur über Faktoren zur aktuellen Generation, was aber auf ähnliche Zahlen schließen ließ.

Präsentation auf der GTC 2015 in Taiwan
Präsentation auf der GTC 2015 in Taiwan

Weiterhin scheint es nun erste Prognosen zur Komplexität der Pascal-GPU und dessen Fertigungsverfahren zu geben. Erwartet wird eine Fertigung im 16 nm FinFET Verfahren bei TSMC. Auch ohne Kenntnis über die Anzahl der Shadereinheiten oder die weiteren Komponenten der Architektur sprechen Quellen von 17 Milliarden Transistoren, was mehr als Doppelte gegenüber der GM200-GPU (8 Milliarden) wäre und auch die Fiji-GPU von AMD (8,9 Milliarden) weit in den Schatten stellen würde.

Vermutlich erst zur GTC 2016 im März werden wir weiteres zu Pascal erfahren, vorher ist wohl auch nicht mit ersten Produkten zu rechnen. Spannend wird noch die Frage sein, ob NVIDIA sich zunächst an den GeForce-Markt wendet oder zunächst das Server-Segment bedienen wird.

Danke für den Hinweis an IronAge!

Social Links

Kommentare (54)

#45
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 9460
Zitat Naennon;23935601

und der rendermodus ändert mal gar nichts an der vmem-nutzung

Das ist sehr pauschalisierend!

Sache ist, mit AFR kann man prinzipiell keinen vRam zusammnlegen, da zwei verschiedene Frames getrennt voneinander gerendert werden müssen. D.h. beide GPUs brauchen ihren Speicher.

Bei SFR dagegen wäre das zumindest im Prinzip möglich, denn arbeitet man zusammen am selben Frame, dann braucht die eine Karte im Idealfall z.B. nur die Texturen von Objekt 1 bis 10 und die andere Karte, nuur die von Objekt 11 bis 20.
Ob die Ram-Verteilung dann in der Praxis tatsächlich efizient genug erfolgen kann, damit sich das ganze auszahlt, wird sich zeigen müssen.
Es gibt sicher die Einschränkungen die fdsonne erwähnt hat, aber kann man das beurteilen bevor sich da nicht wenigstens einige Studios daran mehr als nur ein par Wochen lang versucht haben?
Zur Zeit als SFR grundsätzlich abgelehnt wurde (da weniger frames als AFR) galt auch noch der allgemeine irrglaube, Microruckler seinen bloß Einbildung.

Die Info kam doch auch nicht von AMD oder sonstwas, sondern vom Hersteller von DX12 selbst, also von MS.
#46
Registriert seit: 28.09.2015

Matrose
Beiträge: 23
Nicht zu verachten ist die bestehende marktsituation. So wie es sich momentan verhält, verkauften die grünen Unmengen an 970 bis das speicherdrama aufkam. Jetzt gehen die 980ti gut weg wegen dem noch ausreichenden Speicher und flott genug ist die ja. Da haben die roten nur bedingt was konkurrenzfähige am start. G. Sync scheint auch besser zu gehen. Amd scheint mir mehr unter druck was gutes konkurrenzfähiges rauszuhauen. Dann erst wird nvidia reagieren. Entsprechend zuerst mit highend. Ich denke erst zum zweiten Quartal werden klare aussagen fallen. Angepasst an den konkurrenten.
#47
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Flottillenadmiral
Beiträge: 5144
Zitat huberei;23934418
wusste ich auch noch nicht. danke
alles in allem wäre es wirklich wünschenswert, wenn endlich die speicher der dualgrakas zusammenarbeiten würden.
aber denke mal, dass gerade durch super tiling ja doch beide chips wieder alle daten im speicher haben müssten, da ja beide sozusagen alles berechnen, aber halt nur je 50% davon.

ach, wir werden sehen.

NP, mir ist da allerdings ein kleiner Fehler unterlaufen.
Combined = Dynamic VRAM : http://abload.de/img/furmark_1080p_fx9590_tyk6k.jpg

Der Haupt-Vorteil einer Dual GPU, sind die gleich "lange" Wege der Signale durch den PCIe Brücken Chip auf dem PCB. ;)

Zitat fdsonne;23935535
Ähm nein... Bitte nicht solche technischen Unwahrheiten verbreiten!

SFR steht allgemein für Split Frame Rendering. Das beschreibt einfach mal ganz generell nur ein Verfahren, welches ein Frame in zwei oder mehr Teile aufteilt (eben splittet). Wie die Aufteilung vollzogen wird, ist völlig nebensächlich, damit sich das SFR schimpfen darf.
Kurzum, um es dir in einem Beispiel zu verdeutlichen. Ein Quadrat ist IMMER ein Rechteck. Ein Rechteck aber nicht zwangsweise ein Quadrat.

Ja, mein Fehler, danke fürs korrigieren! :fresse:
"Super Tiling" wird als Standard für Direct3D genutzt und "Scissor" für openGL (laut Wiki)
#48
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31940
Zitat DragonTear;23936268
SFR dagegen wäre das zumindest im Prinzip möglich, denn arbeitet man zusammen am selben Frame, dann braucht die eine Karte im Idealfall z.B. nur die Texturen von Objekt 1 bis 10 und die andere Karte, nuur die von Objekt 11 bis 20.
Ob die Ram-Verteilung dann in der Praxis tatsächlich efizient genug erfolgen kann, damit sich das ganze auszahlt, wird sich zeigen müssen.
Es gibt sicher die Einschränkungen die fdsonne erwähnt hat, aber kann man das beurteilen bevor sich da nicht wenigstens einige Studios daran mehr als nur ein par Wochen lang versucht haben?


Neja, das Problem ist, dass bei solchen Überlegungen immer nur von kleinsten Teilen berichtet wird.
Klar ist das möglich für ein einziges Frame eine Verteilung, wie du sie benennst zu tätigen. Aber was ist denn mit dem nächsten Frame? Du drehst dich einmal um die eigene Achse und hättest im Extremfall die Objekte 1-10 gar nicht mehr auf dem Bild (die Texturdaten davon aber noch im VRAM von GPU 1) und die Objekte 11-20 dann auf einmal im Bereich der anderen GPU (müssen dann ebenso in VRAM von GPU 1) -> GPU 2 hat dann auf einmal Objekte 21-30 mit wieder anderem VRAM Bedarf.

Das Problem dabei ist, wir sprechen hier über eine Art Streams von Bildern in schneller Abfolge. Damit dies notwendig ist, müssen die beteiligten GPUs ihre Daten schnell im Zugriff haben. Und das unabhängig davon, ob die Daten nun explizit benötigt werden oder vielleicht erst in 10 Frames notwendig sind. Und hier kommt der Knackpunkt...

Das ganze Konstrukt macht eher aktuell den Eindruck, als wäre es eine extreme Art der Optimierung vom VRAM Management. Hier unterscheiden sich atm AMD und NV GPUs teils drastisch. Denn beide händeln die Daten im VRAM grundlegend etwas anders, vor allem was die Verweildauer von Texturen und/oder deren Größe und somit dem Mengenbedarf angeht.
Das Einsparen, weil Platzoptimieren der Daten zugunsten von mehr nutzbaren Platz halte ich für grundlegend die falsche rangehensweise. Einfach aus dem Grund, Speicher ist zum Belegen da und nicht um frei/brach rumzuliegen. Denn dann nutzt der Speicher nix. AFR nutzt aktuell das Extrembeispiel in Form von doppelter Belegung. Dafür läuft man eben NICHT gefahr, das Nachladeruckler entstehen ;) Den Spagat zu finden, wo dieser Punkt nicht überstrapaziert wird, dürfte äußerst schwer werden ;)
#49
Registriert seit: 03.11.2006
Bruneck (Südtirol)
Vizeadmiral
Beiträge: 6950
FURY (X) geht nicht oder so gut wie nie über 3,7 bis 3,9 GB raus.
Außer bei DS mit 4K und extremen Antialising aber da ist dann der GPU-Chip sowieso zu schwach an der Brust!

HBM Speicher ist da wohl komplett anders angebunden, da fressen die NC Karten 1 bis 1,5GB Locker MehrSpeicher.
Gar uner 4K limitiert eine Fury nicht, zumindest was den Speicher betrifft... sonst hätte AMD die Karte wohl kaum releast und mit DX12 wird dies nochmals besser werden!
#50
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Flottillenadmiral
Beiträge: 5144
Zitat Sharif;23936677
Die Karte ist bestimmt nicht schlecht nur die 4GB machen mir sorgen Jungs. Ganz Ehrlich Teilweise gibt es Spiele wo in 1440P über 5.6 GB benötigt wird. Ich kann mir irgendwie nicht vorstellen das die Karte 4K Tauglich ist.
Wer SLI oder CF benutzen will muss Karten Kaufen die mehr wie 4GB auf dem Buckel haben.

Hätte die Karte 6GB würde ich 100% Kaufen nur die 4GB sind einfach zuwenig für eine Dual GPU.
Keine Ahnung wie das dann mit DX12 werden soll nur kann ich mir nicht vorstellen das es von 2x4GB Plötlich 8GB benutzt werden können.

Wurden die 5.6GByte VRAM benötigt obwohl weniger VRAM zur Verfügung steht, oder sind Insgesamt 6GByte vorhanden?
Konnte bei BF4 ([email protected] 150%) gerade mal 3GByte voll machen.

Das geht schon mit dem VRAM, wurde ja bereits erwähnt: SFR - DirectX 12 soll AMD- mit NVIDIA-Grafikkarten miteinander kombinieren können
#51
customavatars/avatar48631_1.gif
Registriert seit: 03.10.2006
WOB
Admiral
Beiträge: 8676
Zitat Sharif;23940104
Dann müssen wir abwarten wie das am Schluss Funktioniert.


Auf Laborratte habe ich kein bock.
Bis da hin gibt es Single GPUs mit ähnlicher Leistung im Fall von SFR eventuell sogar mit Mehrleistung.
#52
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Flottillenadmiral
Beiträge: 5144
Zitat Sharif;23940104
Dann müssen wir abwarten wie das am Schluss Funktioniert.

Das Mischen der Hersteller bei den GPUs ist nicht neu, das gibt es Hardwareseitig seit Lucid Logix: https://en.wikipedia.org/wiki/Hydra_Engine.
Allerdings krankte es an APIs, so das zwar Leistung da war, aber nicht nutzbar für die Entwickler (somit auch Essig für die Kunden). ;)
Zitat Thunderburne;23940135
Auf Laborratte habe ich kein bock.
Bis da hin gibt es Single GPUs mit ähnlicher Leistung im Fall von SFR eventuell sogar mit Mehrleistung.

Ja, die Front ist immer am Testen, aber seit meinen Anfängen der Multi-GPU Zeiten hat sich viel getan.
Nicht nur bei Spiele werden beide Karten genutzt. (Double Joker) :cool:

http://abload.de/img/sandra_opencl_gp_72c_k6uo6.jpg
#53
customavatars/avatar48631_1.gif
Registriert seit: 03.10.2006
WOB
Admiral
Beiträge: 8676
HD5970 HD6970CF HD7970 CF, Triple und last but not least Quadfire.
Und so einiges an SLI Setups.
Habe nichts gegen Multi GPU mir geht es um die nicht mehr Zeitgemässen 4GB .
Und nun hoffen das es irgendwann mal verdoppelt werden kann ich weis ja nicht.
Technisch war zum releas Zeitpunkt nicht mehr wie 4GB drin für eine Karte geht es ja noch aber bei solch einem Rechenmonster und dann wahrscheinlich für gut 1500 Euro na ja wen es schön macht.

In beiden Lagern steht die nächste Fertigung an für das nächste Jahr dann wohlmöglich mit 8GB .

Da wirds nach einer 2 Jährigen Pause auch wieder ein MGPU Setup aber halt mit reichlich Speicher ohne hoffen zu müssen das der nicht ausgeht.
#54
customavatars/avatar89889_1.gif
Registriert seit: 19.04.2008
PorscheTown
Flottillenadmiral
Beiträge: 5144
@Thunderburne
Ja die 4GByte sind angesichts der GPU Leistung etwas knapp.
Hab den neuen Catalyst 15.9.1 Beta installiert, irgendwie brauchen meine Spiele nun nur noch halb soviel VRAM.
BF4 mit 200% (2160p@ Ultra) kommt gerade mal auf 3.5GByte: http://abload.de/img/screenshotwin32-0085i8ux1.png
Auch Dragon Age: I ist relativ genügsam mit VSR (1440p) mit "vom nichts berührt" Details. :hmm:

€dit:
http://abload.de/image.php?img=screenshotwin32_0019_b3udl.png
http://abload.de/image.php?img=screenshotwin32_0018_f2uct.png
http://abload.de/image.php?img=screenshotwin32_0017_1vuei.png
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]