Gigabyte zeigt GeForce GTX 680 mit 4 GB und neuem WindForce-Kühler - Update

Stegan

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
16.12.2005
Beiträge
16.262
Ort
Augsburg
<p><img src="images/stories/logos/gigabyte2.gif" alt="gigabyte2" style="margin: 10px; float: left;" />Während unseres Besuchs im taiwanesischen Hauptquartier zeigte uns <a href="http://www.gigabyte.de" target="_blank">Gigabyte</a> eine weitere Version der GeForce GTX 680, die man im Laufe der nächsten Wochen offiziell in den Handel schicken wird. Entgegen der <a href="index.php/artikel/hardware/grafikkarten/23402-test-3x-geforce-gtx-680.html" target="_blank">GeForce GTX 680 SuperOverclocked (Zum Test)</a> soll der nächste Ableger allerdings wieder mit WindForce-Kühler daherkommen. Letzterer soll sich von der schon erhältlichen GeForce GTX 680 OC allerdings absetzen und nicht mehr nur zwei Slots in der Höhe einnehmen, sondern ein klein wenig mehr. Dafür kommen drei dicke...<p><a href="/index.php?option=com_content&view=article&id=23894&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Highlight der neuen High-End-Karte ist der auf 4096 MB verdoppelte GDDR5-Videospeicher, der wie gewohnt über 256 Datenleitungen kommunizieren wird. Damit sollte die Gigabyte GeForce GTX 680 WindForce vor allem in höheren Auflösungen und mit hinzugeschaltetem AA/AF nicht mehr ganz so stark einbrechen.
Soll das ein Witz sein? :fresse: Um den 2GB grossen VRAM der GTX 680 in die Knie zu zwingen, bedarf es wesentlich mehr als hohe Auflösungen und Hinzuschalten von AA; AF ist bzgl. Rechenleistung der Karte ohnehin irrelevant.
 
Zuletzt bearbeitet:
Soll das ein Witz sein? :fresse: Um den 2GB grossen VRAM der GTX 680 in die Knie zu zwingen, bedarf es wesentlich mehr als hohe Auflösungen und Hinzuschalten von AA; AF ist bzgl. Rechenleistung der Karte ohnehin irrelevant.
Den Nutzen des größeren Grafikspeichers dürfte man im 3D Vision Surround mit 5760x1080 Bildpunkten haben.
Außerdem hatten wir schon einmal eine GTX mit 4 GB im Test. Hier machte sich der größerer Speicher vor allem mit Super-Sampling Anti-Aliasing in Skyrim bemerkbar.
 
eine gute für Bitcoin Mining am besten 2 davon,hier ist richtig leistung gefragt
 
Schluss mit Abmessungen, die der PCI-Express-Norm widersprechen! Die Vorgegebenen Maße sind nicht umsonst und ohne Grund definiert. Besonders die Bauhöhe sehe ich als das größte Problem an.

Kaum ein Hersteller gibt die korrekten Abmessungen für seine Produkte an. Nur wenige Hersteller halten sich an die PCIe-Norm.

Ich finde diese ganzen überdimensionierten Kühlmonster völlig fehl am Platz. Die FirePros und Quadros kommen doch auch mit Single-Slot und PCIe konformen Abmaßen daher ohne dass sie gleich den Hitzetod sterben. Auf die 100Mhz mehr kann ich gerne verzichten. Auch HD6850 gibt es ja im Single-Slot Design ohne Mhz-Abstriche - nur ist diese quasi nicht zu bekommen.

Und Schluss mit dem albernen veralteten DVI! Displayport ist die Gegenwart und Zukunft. Wer altes DVI/VGA will kann sich das gerne adaptieren.
 
eine gute für Bitcoin Mining am besten 2 davon,hier ist richtig leistung gefragt

Der war gut. Dir ist schon bewusst, dass:

1. Für Bitcoin Mining compute performance vonnöten ist
2. Nvidia traditionell eine, im Vergleich zu AMD, verschwindend geringe compute performance abliefert
3. Die c.p. von dieser Karte nicht nur der Konkurrenz von AMD, sondern auch der Konkurrenz aus eigenem Haus (GTX 580) hinterherhinkt

Quelle: Benchmark Results: Compute Performance In LuxMark 2.0 : GeForce GTX 680 2 GB Review: Kepler Sends Tahiti On Vacation

Die 4GB Ram werden da auch nicht mehr helfen. Die Karte ist ein sicher ein feines Gaming-Biest, fürs Mining jedoch kaum zu gebrauchen (wie die restlichen Nvidia Karten auch). Davon abgesehen hat Bitcoin Mining für die Heimnutzer, die normalen teueren Strom bezahlen müssen, schon vor Monaten aufgehört, profitabel zu sein.
 
Zuletzt bearbeitet:
Nicht umsonst gibt es auch Gehäuse, die mit mehr als der PCIe-Norm zurechtkommen. Die Mehrheit der Kunden wollen halt lieber kühle und leise Grafikkarten, auch wenn diese dann mal etwas größer sind. Wenn ich mir mal so die Lautstärke der FirePro- oder Quadro-Karten angucke (bei ebenfalls hoher Temperatur), dann bin ich doch froh, dass die Kühlung meiner Karte recht groß ist. ;)

Das Fehlen von DVI würden dir wahrscheinlich 85 bis 90 Prozent der Nutzer sehr übel nehmen. Nicht jeder will sich einfach einen neuen Monitor kaufen, erst Recht, wenn es kaum billige mit DisplayPort gibt. Ich selber würde zwar bei einem Neukauf darauf achten, aber deswegen meinen FullHD-Monitor jetzt wegwerfen? Nö du. Aber mal eine Frage: Was hast du gegen DVI? Klar, es ist ein recht großer Anschluss, aber es kann als Dual-Link-Version sogar noch größere Bilder und/oder mehr Bilder pro Sekunde übertragen als HDMI.
Adapter helfen da auch nicht wirklich, weil diese als aktive Version ziemlich teuer sind.

Zu den 100 MHz: Viele andere wollen darauf aber eben nicht verzichten. Meistens recht unbegründet, aber ist eben so.
 
Nunja, wie gesagt, wer altes DVI will kann sich das problemlos aus dem DP adaptieren. DP kann ich aber nicht aus einem DVI holen.

Warum unbedingt DP? Der Augenscheinlichste Vorteil liegt in den Kabeln. Ein 4k taugliches DP Kabel ist kaum dicker als ein USB2.0 Kabel. Und das ist gegenüber DVI ein Riesenvorteil.
Wenn die Hersteller so dumm sind und lieber lizenzpflichtiges HDMI bei Low-Budget-TFTs verbauen, habe ich kein Verständnis dafür noch auf alte VESA-Techniken setzen zu müssen.
Schon allein die DCC Funktionen des DP sin dem des DVI überlegen, dazu standardmäßig MIT Audio-Kanal.
DVI ist und bleibt veraltet - in jeder Hinsicht.
Ein weiterer Vorteil ist die Miniaturisierung der Anschlussstecker. 6 Anschlüsse kommen mit einer Slothöhe aus. Schon alleine damit lässt sich ein besseres Kühlkonzept umsetzen.

Zu den Abmessungen. Wer wirklich Power GPUs einsetzen will, hat auch ein Gehäuse mit riesigem PCI-Abwärme-Lüfter über den Slots. Dieser ist jedoch nur nutzbar, wenn die Grafikkarten die vorgeschriebene Höhe einhalten. So wäre eine optimale Kühlung gewährleistet ohne solche EigenMonster-Kühler zu verbauen. Der einzige Hersteller der sich noch scheinbar an die Spezifikationen hält ist XFX.
Ich hab ja kein Problem wenn es übergroße Karten gibt, solange es auch ein vergleichbares Modell in Standardgröße gibt - aber dieser Anschpruch scheint wohl zu hoch formuliert zusein.
 
Zuletzt bearbeitet:
Ich kann mir nicht helfen, aber wie oft sieht man diese "PCI-Abwärme-Lüfter"?
Davon abgesehen...Singleslot-Grafikkarten mit "Abwärmelüfter"...was ist das für ein Blödsinn?
Wenn 3er-Slot nichts für dich ist, dann schau dich halt wo anders um, aber deswegen die Maße in Frage stellen ist sinnfrei.
Ist absolut nicht böse gemeint, aber ich finde deine Kritik nicht wirklich gerechtfertigt^^
 
die gtx 670 indforce war schon sehr lesie und hochwertig, hab sie selbst innem pc verbaut
 
Ja stimmt, ich hab ja immernoch die GTX470SOC drinnen und bin mit dem Kühler zufrieden.

Wenn das eine sinnvolle Evolution des Windforce Kühlers ist, anstatt der 40mm Revolution bei der GTX680SOC, dann wäre das eine feine Sache.

Einziges Manko: Blaues PCB :( Wieso Gigabyte da nicht mal schwarze macht wie bei den teuren Boards.
 
Schöne Karte, leider 3 Slot hoch, und zum Thema DVI/DP:
Es ist mir völlig egal welche Vorteile DP gegenüber DVI hat, man findet DP bisher nur in den neuesten Bildschirmen und auch dort noch relativ selten.
Der Vorschlag alleine wegen der technischen Überlegenheit einem Kunden zumuten zu müssen dass er sich für 100€ pro Anschluss nen aktiven Adapter kauft ist deshalb wohl eher nicht so gut ;) (und abgesehen davon hast du ja zumindest 1x DP, bei vielen anderen Karten auch 2x)

Edit: Wo genau ist eig. das Problem bei den blauen PCBs? Sind die qualitativ nicht so gut oder geht es alleine um die Farbe?
 
Ja, das Aussehen der Farbe ist da das einzige Problem. Sie ändert nichts an der Qualität der Platine.

Meine Güte, beschwert ihr euch wirklich über ein blaues PCB bei solch hässlichen Lüftern? Die sehen aus, als kämen sie aus einer indischen Hinterhofwerkstatt und würden bei 300 Umdrehungen pro Minute sofort abbrechen. Und die Lüfter sieht man wenigstens.
Mir wäre das aber auch egal. Das Ding kommt in den PC rein und wird dann vielleicht alle 2 Monate ein mal angeguckt. Fertig, da sind mir Leistung, Lautstärke und Preis wesentlich wichtiger. ;)
 
1. Für Bitcoin Mining compute performance vonnöten ist
2. Nvidia traditionell eine, im Vergleich zu AMD, verschwindend geringe compute performance abliefert
3. Die c.p. von dieser Karte nicht nur der Konkurrenz von AMD, sondern auch der Konkurrenz aus eigenem Haus (GTX 580) hinterherhinkt
4. mining überhaupt gar keinen vram benötigt
 
*pfui...wieso macht Gigabyte sein PCB immer so kack Blau...*grml...scheiss Markenzeichen...:/
Finds auch hässlich... Es sieht einfach billig aus. Dafür bieten die häufig einen Kompromiss aus guten bis sehr guten Kühlern bei günstigem Preis. Habe aber auch schon Probleme mit GB gehabt - defekte Mainboards, schleifende Lüfter (zuletzt bei der GTX 670)... Bei den etwas teureren Mainboards gibts zwar dann auch mal schwarz, trotzdem setze ich lieber auf Asrock, Asus oder MSI.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh