> > > > Weltweit kleinste GeForce GTX 1080: Gigabyte schrumpft Grafikkarte auf 169 mm

Weltweit kleinste GeForce GTX 1080: Gigabyte schrumpft Grafikkarte auf 169 mm

Veröffentlicht am: von

gigabyte logoDie bisher kleinste GeForce GTX 1080 war die ZOTAC GTX 1080 Mini. Die Grafikkarte hat mit der GV-N1080IX-8GD von Gigabyte nun aber Konkurrenz bekommen und wird sogar noch deutlich unterboten. Während das Modell von ZOTAC eine Länge von 211 mm aufweist, geht die Gigabyte GTX 1080 Mini mit gerade einmal 169 mm an den Start. Damit ist sie die weltweit kleinste GeForce GTX 1080.

Die Grafikkarte kommt mit einem Basistakt von 1.607 MHz aus der Verpackung. Im Boost-Betrieb sind mindestens 1.733 MHz möglich. Somit hält sich Gigabyte bei der Mini-Version an die Vorgaben von NVIDIA. Auf Wunsch ermöglich Gigabyte allerdings per Software auch ein automatisches Übertakten der Grafikkarte. Die Taktraten werden dann auf 1.632 respektive 1.771 MHz angehoben. Die integrierte Stromversorgung weist 5+2-Phasen auf, die über einen 8-Pin-Stecker versorgt werden.

Beim Kühler setzt Gigabyte auf einen einzelnen Lüfter mit einem Durchmesser von 90 mm. Dieser wird über eine Lüftersteuerung automatisch geregelt, womit je nach Belastung immer die ideale Drehzahl eingesetzt werden soll. Als Videoausgänge verbaut Gigabyte neben drei DisplayPorts 1.4 auch Dual-Link DVI sowie einmal HDMI 2.0.

Aktuell sind sowohl der Preis als auch der Termin für die Gigabyte GTX 1080 Mini noch unbekannt.

Social Links

Ihre Bewertung

Ø Bewertungen: 4

Tags

Kommentare (7)

#1
customavatars/avatar88884_1.gif
Registriert seit: 07.04.2008

Modaretor
Luxus Luxxer
Hardware Hans-Peter
Beiträge: 28429
niedlich, aber das dürfte keinesfalls leise unter Last bleiben.

Da aber dann einen accelero mono plus drauf...
#2
customavatars/avatar105480_1.gif
Registriert seit: 31.12.2008
Hessen
Kackbratze
Beiträge: 31031
1x 8 pin ?
#3
customavatars/avatar225310_1.gif
Registriert seit: 27.07.2015
Hannover
Kapitänleutnant
Beiträge: 1632
Sieht so aus, oder?
Sollte ja reichen, da damit vermutlich keine OC-Rekorde gebrochen werden und es bei der FE ja auch reicht ;)
#4
customavatars/avatar215183_1.gif
Registriert seit: 01.01.2015
€Uropäische Union - Bairischer Sprachraum
Kapitän zur See
Beiträge: 3666
Ich verstehe sowieso nicht warum man glaubt mehr Versorgung zu benötigen, ich habe auch einen 8pin Anschluss und komme auf die 2GHz, wer glaubt mehr zu benötigen benötigt was anderes viel dringender :hust:
#5
customavatars/avatar37924_1.gif
Registriert seit: 02.04.2006
~Bielefeld
Admiral
Beiträge: 10091
Zitat [email protected];25791685
niedlich, aber das dürfte keinesfalls leise unter Last bleiben.

Da aber dann einen accelero mono plus drauf...


Bei den kleinen Karten, die ich von verschiedenen Herstellern hatte (960, 1060, RX480) hatte Gigabyte trotz kleinerer Kühlkörper die teilweise deutlich leiseren Karten. Die können vernünftige Lüftersteuerungen programmieren.

Diese 1080 hier wird aber natürlich nicht zu den leiseren gehören.
#6
customavatars/avatar191989_1.gif
Registriert seit: 12.05.2013

Vizeadmiral
Beiträge: 7624
Die Vernünftigen Lüfterkurven kommen aber fast immer nachdem sie bei TomsHardware getestet wurden und zusammen mit Gigabyte in Form einer neuen Biosversion. Egal ob Grafikkarte oder Gigabyte Brix, fast immer kann man lesen das die Lüfterkurven zu beginn des Tests zu Konservativ (hoch bzw. laut) waren und dann zusammen optimiert wurden :D
#7
customavatars/avatar105543_1.gif
Registriert seit: 01.01.2009
Irgentwo im Nirgentwo
Obergefreiter
Beiträge: 78
Die PCB (bestückt) würde ich gerne mal sehen. Gibt es da schon Bilder?
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • NVIDIA Titan V: Volta-Architektur im Gaming-Test

    Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

    In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]