> > > > Mobility Radeon X800 – ATI macht mobil

Mobility Radeon X800 – ATI macht mobil

Veröffentlicht am: von
Mit der GeForce Go 6800 hat Nvidia dem X800-basiertem Notebook-Grafikchip Mobility Radeon 9800 von ATI harte Konkurrenz auf den Markt gebracht. Die Antwort von ATI heißt - Mobility Radeon X800. Die ATI-Notebook-Grafikchips Mobility Radeon X300, X600 und X800 sind für PCI-Express-Notebooks ausgelegt. Wie der für AGP gedachte Mobility Radeon 9800 bietet die verwandte neue Mobility Radeon X800 eine 256-Bit-Speicherschnittstelle, verspricht aber mit 12 statt nur 8 Pixel-Pipelines mehr Leistung. Im Gegensatz dazu wurde die Zahl der Vertex-Engines (6 Stück) nicht geändert. Als Speicher kommt GDDR3 zum Einsatz, bis zu 256 MByte können vom Mobility Radeon X800 genutzt werden. Die Mobility Radeon X800 ist besonders für 3D und Multimedia-Notebooks gedacht. Erste Notebooks mit Mobility Radeon X800 sollen von den US-Anbietern Alienware, Eurocom, Rock und Velocity Micro noch im Dezember 2004 ausgeliefert werden. Erwarten sollte man den Mobility Radeon X800 nicht in einem Intel Centrino vorzufinden. Der Chip ist nicht für Reisen ausgelegt, bei denen der Akku als Hauptenergiequelle verwandt wird, sondern auf High-End-Grafikleistung, die viel Strom verbraucht. Der Mobility Radeon X800 wird in Notebooks zu finden sein, die einen Desktoprechner „ersetzen“ und mehr oder weniger immer das Stromnetz als Hauptenergiequelle gebrauchen.


In einem Launch-Bericht von www.legitreviews.com sind ein paar ATI-eigene Benchmarks zu finden.

Social Links

Tags

es liegen noch keine Tags vor.

Zu diesem Artikel gibt es keinen Forumeintrag

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • NVIDIA Titan V: Volta-Architektur im Gaming-Test

    Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

    In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]