[Sammelthread] NVIDIA GeForce GTX 1080 (GP104) Sammelthread + FAQ

NVIDIA GeForce GTX 1080 (GP104) Sammelthread + FAQ


Impressionen der Karte:

geforce-gtx-1080-pictures-15-840x560.jpg
geforce-gtx-1080-pictures-21-840x560.jpg

geforce-gtx-1080-pictures-22-840x560.jpg
geforce-gtx-1080-pictures-23-840x560.jpg

geforce-gtx-1080-pictures-27-840x560.jpg
geforce-gtx-1080-pictures-28-840x560.jpg

geforce-gtx-1080-pictures-17-840x560.jpg
geforce-gtx-1080-pictures-29-840x560.jpg

Technische Daten der GeForce GTX 1080
  • Chip = GP104-400-A1
  • Fertigung = 16 nm (TSMC)
  • Transistoren = 7,2 Milliarden
  • Die-Größe = 314 mm²
  • Shader-Einheiten = 2.560 (1D) (20 SMM)
  • Texture Mapping Units (TMUs) = 160
  • Raster Operations (ROPs) = 64
  • Pixelfüllrate = 102,8+ GPixel/s
  • Texelfüllrate = 257,1+ GTexel/s
  • Chiptakt = 1.607 MHz Baseclock + Boost (1.733 MHz) + Max. Boost (~1.886 MHz)
  • Speichertakt = 2.503 MHz
  • Speichergröße = 8.192 MB
  • Speichertyp = G5X
  • Speicherinterface = 256 Bit
  • Speicherbandbreite = 320,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 180 Watt
  • Leistungsaufnahme 2D = ~9 Watt
  • Versorgung über einen 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.4
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel
Announce the GEFORCE GTX 1080

Einzelkartentests:

Geizhals Link:
GeForce GTX 1080 | Deutschland - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX 1080 erreicht im Leerlauf mit 0,4 Sone in etwa das Niveau der GTX 980 Ti. Der Radiallüfter dreht mit ~1.100 RPM bei 27% PWM-Stärke. Unter Last schwankt die Lautheit zwischen 3,2 Sone (~55%) bis zu (max) 4,2 Sone (62% PWM @~2.480 RPM), was etwas bis klar weniger als bei der GTX 980 Ti ist. Die Maximale Drehzahl des Radiallüfter beträgt @100% 4.000 RPM.

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX 1080 beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt.

Wie hoch ist der Stromverbrauch?
Die GTX 1080 verbraucht im Leerlauf um die 9 Watt. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX 1080, egal ob in Games oder im Furmark, maximal 180 Watt (100% PT). Dank niedriger Spannungen und vor allem der 16nm-Fertigung erreicht die GTX 1080 eine bisher nicht erreichte Effizienz. Die Karte ist gut 60 bis 70% schneller als eine GTX 980 und verbraucht dabei aber höchstens 9% mehr.

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX 1080 misst das PCB wieder 26,67 cm, wie bei der allen anderen Referenzmodellen nVidias der letzten Jahre.

Die Performance:
Die Karte erreicht im 3DCenter Performance-Index einen Wert von 960% (1080p), bzw. 132% (4K) und ist so im Mittel aller Reviews knapp 30% schneller als eine GTX 980 Ti und somit klar die schnellste Single-GPU-Grafikkarte.
Launch-Analyse nVidia GeForce GTX 1080 | 3DCenter.org

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-und Maxwell-Architektur basiert, lässt sich der Takt der neuen Pascal-GPU über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt ändern. Allerdings bietet GPU Boost 3.0 zum Start der Pascal-Generation eine weitere Möglichkeit an. So kann man per Tool einzelne Takt-/Spannungswerte genau einstellen und bis zu 80 Stufen individuell anpassen.
Für einen ersten Überblick sollte man sich den Artikel zu GPU Boost 3.0 hier anschauen (+ Video)
NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test - Hardwareluxx

Zu den bisher erreichten Taktraten:
Laut den ersten Reviews sollte es machbar sein, dass jede GPU rund 2,0 GHz erreichen kann. Alles darüber scheint dann wie immer Glück zu sein. Das man kaum höhere Taktraten erreichen konnte liegt in erster Linie daran, dass bei der GTX 1080 das Power Target stark limitiert. So kann man dieses zwar per Tool auf 120% anheben (216 Watt), aber selbst das reicht nicht aus, um konstant die maximal mögliche Taktrate zu erreichen und konstant halten zu können. Mit einer besseren Kühlung und somit kühleren GPU Temperaturen und folglich einer geringeren Verlustleistung sind noch etwas höhere Taktraten erreichbar. Einen ersten Einblick bietet die PCGH mit einem verbauten Accelero Xtreme IV:
Nvidia Geforce GTX 1080 meets Accelero Xtreme IV: Die 2-GHz-Taktmauer ist gefallen

Einen Interessanten Beitrag mit Praxisbezug zum Thema Undervolting hat der User BK-Morheus veröffentlicht. In dem Video sieht man, wie man eine GTX 1070/1080 mit Hilfe des "curve editors" des Afterburners undervolten kann:
https://www.youtube.com/watch?v=UGeGLU8uh9M&ab_channel=BennyLikesTech

Was einer erhöhten OC-Performance noch im Weg stehen kann, ist die Speicherbandbreite. Obwohl nVidia mit der GTX 1080 erstmals G5X / GDDR5X Speicher verbaut (10Gbps), somit an einem 256 Bit breiten Speicherinterface 320 GB/s erreicht und die Speicherkompression nochmals verbessert hat, scheint es, dass die GPU recht stark von mehr Speichertakt profitiert. So misst Computerbase bei 10% mehr Speichertakt bis zu 9% mehr Performance - bei ansonsten Referenz-GPU-Taktraten.
Nvidia GeForce GTX 1080 im Test - ComputerBase

Die Folgende Tabelle vergleicht das Verhältnis der Speicherbandbreite mit der Rechenleistung verschiedener Karten / Architekturen:
Karte (Takt @ Referenz)RechenleistungSpeicherbandbreiteRechenleistung pro 1 GB/s
GTX 580 (772/1.544/2.004 MHz)1.581 TFLOPs192,2 GB/s8,22 TFLOP pro 1 GB/s
GTX 680 (1.058/3.004 MHz)3.250 TFLOPs192,3 GB/s16,91 TFLOP pro 1 GB/s
GTX 780 Ti (928/3.500 MHz)5.345 TFLOPs336,0 GB/s15,91 TFLOP pro 1 GB/s
GTX 980 (1.215/3.506 MHz)4.977 TFLOPs224,4 GB/s22,18 TFLOP pro 1 GB/s
GTX 980 Ti (1.075/3.506 MHz)6.054 TFLOPs336,6 GB/s17,99 TFLOP pro 1 GB/s
GTX Titan X (1.075/3.506 MHz)6.605 TFLOPs336,6 GB/s19,62 TFLOP pro 1 GB/s
GTX 1060 (1.709/4.007 MHz)4.375 TFLOPs192,3 GB/s22,75 TFLOP pro 1 GB/s
GTX 1070 (1.683/4.007 MHz)6.463 TFLOPs256,4 GB/s25,21 TFLOP pro 1 GB/s
GTX 1080 (1.733/5.006 MHz)8.873 TFLOPs320,4 GB/s27,69 TFLOP pro 1 GB/s
NVIDIA TITAN X (1.531/5.006 MHz)10.974 TFLOPs480,6 GB/s22,83 TFLOP pro 1 GB/s
P100 (1.481/703 MHz)10.616 TFLOPs719,9 GB/s14,75 TFLOP pro 1 GB/s
Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX 1080. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten angemessen.
 
Zuletzt bearbeitet:
Wenn man diesen Adapter verwendet, also 2 Stränge, ist das evtl fürs NT besser? Kann es vllt auch Fiepen beeinflussen, oder gar OC? Hab das beQiuet 400w Straight 10.


Anhang anzeigen 365701
 
Zuletzt bearbeitet von einem Moderator:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich bin jetzt auch mal über die unzureichende Leistungs-Steuerung der 1080er gestolpert.

Bin in Grim Dawn unterwegs, und wenn es richtig abgeht bricht die Leistung der Karte ein.
Erst dachte ich ... na logen, CPU-Limit. Aber CPU auf Höchstleistung stellen (soll ja bei 1-Thread-Games helfen, beim Haswell-E) hat keine Änderung gebracht.
Stelle ich aber im Graka-Treiber von Optimale Leistung auf Maximale Leistung verschwindet das "Problem". Daher gehe ich hier nicht von einem CPU-Limit aus.




Man sieht dass die Karte im Lower 3D versauert anstatt hochzutakten und mal Spannung zu ziehen.
Was meint ihr .. Karte oder Treiber? (Oder doch eher mein Fehler?)

Wenn ich schon Grim Dawn höre, klingen bei mir die CPU limit glocken, allerdings sehen die screenshots mit der Erklärung tatsächlich nach was GPU-verursachtem aus.. spielst auch auf Elite, normalerweise fängt das hardcore CPU limit erst bei Ultimate an
 
Ist Elite. Da geht noch mehr? *g* Wie geil. Freu ich mich drauf :-)

Hast du meinen Bericht nicht gelesen über dieses Thema heute Mittag? #6617



Den hab ich gelesen. Aber mich stört das runtertakten im Teillast-Bereich überhaupt nicht.

WENN die FPS dabei hoch bleiben. Bei ED ist das ja z.b. auch kein Problem.




Bei Grim Dawn dagegen, wenn es richtig abgeht auf dem Bildschirm und plötzlich droppen die FPS von 60 auf 27. DA ist das dann ein Problem.
 
Zuletzt bearbeitet:
Ist Elite. Da geht noch mehr? *g* Wie geil. Freu ich mich drauf :-)





Den hab ich gelesen. Aber mich stört das runtertakten im Teillast-Bereich überhaupt nicht.

WENN die FPS dabei hoch bleiben. Bei ED ist das ja z.b. auch kein Problem.




Bei Grim Dawn dagegen, wenn es richtig abgeht auf dem Bildschirm und plötzlich droppen die FPS von 60 auf 27. DA ist das dann ein Problem.

Jo, hab das game wieder deinstalliert nachdem ich auf Ultimate schöne drops auf ~7fps hatte, CPU-Auslastung im Taskmanager dann ein durchgehend blaues Quadrat. Game-Mechanics sind nice, und laut Hersteller hat es "Multicore-Support", aber das halte ich eher für einen schlechten Scherz.

Hab mit nem Kumpel ge-coopt der ne AMD-CPU drin hatte, beim ihm waren's dann so 2 fps.
 
Zuletzt bearbeitet:
der MSI AB bzw. die AB-OC-Profile werden teilweise durcheinander geworfen, vor allem wenn man im stand by Modus mit dem Windows war. MSI Afterburner ist noch beta.....




QUOTE=CompuChecker;24694002]Bei den heutigen Temperaturen spinnt die Curved mal wieder.
Dieser Boost Mist nervt einfach!

Mir ist heute Dying Light nach 10 Minuten abgeschmiert obwohl es vorgestern und gestern 3 Stunden am Stück lief.
Alle anderen Games liefen auch über Stunden inkl. Division.

Firestrike ist auch abgestürzt obwohl er vor zwei Tagen im stresstest 2 Stunden lief.
Gpu Temp waren immer 72 grad.

Gibt es doch nicht.

Den pc habe ich neugestartet und seitdem kein Absturz mehr[/QUOTE]
 
Da sieht man mal wie die Quali schwankt. Es gibt Reviews mit 2114 MHz Boost von der Strix.

von der strixx gibt es ja 2 versionen. Die Version die crs hat und ich heute bekomme ist die non OC version mit Standard Takt. Die OC ist die welche mehr kann aber eigentlich genau die gleiche Karte ist. Es kann schon sein das man da verschiedene selektiere Chips verbaut, sonst wäre es ja möglich mit der non OC die Leistung der OC zu bekommen.
 
Ne, ich lasse mir einfach für 750 - 800 Euro keine Scheiße verkaufen.

Würden nur alle so denken und die Karten zurückschicken. Dann werden die Hersteller (zumindest die mit den Billigspulen) evtl. mal endlich wach.

Wenn ich irgendwo lese "meine GameRock fiept nicht, absolut still", rolle ich nur noch mit den Augen. Es gibt keine GameRock 1080, die bei 100% Load auf ca. 1.9GHz @Standardspannung NICHT fiept. Lasse ich mir auch von keinem mehr erzählen. Es ist einfach nicht die Wahrheit. Genauso wenig wie manche behaupten, der Lüfter ihrer GameRock würde beim Abschalten zwischen 45 und 50 kein KLACK machen.

Ihr könnt 10 von den Dingern bestellen und bestenfalls ist es einigermaßen erträglich. Aber es ist immer hörbar, wenn es nicht durch irgendwas übertönt wird oder durch ein gedämmtes Gehäuse mit Abstand zu den Ohren abgeschirmt ist.

Die MSI Gaming und Zotac Omega haben andere Spulen. Bei der 970 war das auch so. Da musste man schon viel Pech haben um eine laute Zotac Omega zu erwischen.

Die ganzen Karten mit den silbernen Standardspulen (gleiche wie auf der FE) dürften nur mit 0.8V laufen um ruhig zu sein.

Kann mich nur noch mal der Aussage von asus1889 anschließen: Für 700,- EUR lasse ich mir die Scheiße nicht verkaufen. Leid können einem da nur noch die Händler tun. Die sollten bei den Herstellern mal ein Zeichen setzen. Kaum zu glauben, dass sie das nicht schon bei den 970ern gemacht haben.
 
Naja wenn es ja nur die Übertaktung wäre, auch der Kühler selbst sorgt nicht gerade für Begeisterung. Und wie gesagt die hat auch Spulenfiepen, aber weniger ausgeprägt als die GameRock oder man nimmt es wegen den lauteren Lüftern nicht so war.

Ich warte sehnlichst auf den großen Test mit den ganzen Karten hier... Bin gespannt ob eine vollends überzeugen konnte.
 
Zuletzt bearbeitet:
von der strixx gibt es ja 2 versionen. Die Version die crs hat und ich heute bekomme ist die non OC version mit Standard Takt. Die OC ist die welche mehr kann aber eigentlich genau die gleiche Karte ist. Es kann schon sein das man da verschiedene selektiere Chips verbaut, sonst wäre es ja möglich mit der non OC die Leistung der OC zu bekommen.

Da ist sicher nichts selektiert.
Wenn du nicht gerade riesen Pech hast, dann kommst du mit der non OC genauso weit wie mit ner ab Werk OC Karte.
Im Normalfall ist da lediglich ein anderes BIOS drauf.
 
In Zeiten, wo mit Silentprodukten richtig viel Kohle gemacht wird, ist das so dermaßen paradox und lächerlich..

Ganz viele Leute haben ihre alte Karte schon vertickt und sind einfach nur begeistert vom Speed der neuen Karte. Jetzt wieder ausbauen, einpacken, zur Post gehen? Och nööö. So schlimm ist es ja nicht und ich zocke doch sowieso mit Kopfhörer. Meistens. Außerdem dreht mein CPU-Kühler laut genug auf, um meinen aus Sparmaßnahmen nicht verlöteten Haswell bei 4.5GHz zu bändigen. Aber schön leise sind die Lüfter der GameRock. Hab Sie mir extra wegen der guten Reviews bzgl. der leisen Lüfter gekauft.

Tja... ;)
 
Zuletzt bearbeitet:
Nachricht gelöscht
 
Zuletzt bearbeitet von einem Moderator:
Die Lüfter sind ja auch leise :) Das Gefiepe stört wohl keine Sau unter den Testern... Aber ja, es ist definitiv bei der GameRock vorhanden. Bei meiner 1080 wars schwächer, bei der 1070 um einiges lauter.

Aus meinem Gehäuse höre ich's nicht raus (PC ist leise), da ist's natürlich weniger störend. Aber totschweigen darf man das Problem ja auch nicht, jetzt muss man nur wissen welcher Hersteller es besser macht. Bei der MSI gibt's anscheinend keins?

Heute bekommen ja noch ein paar Leute die Strix, bin gespannt was die zu der Karte sagen.
 
Wie gesagt, MSI und Zotac haben andere Spulen verbaut. Zumindest konnte ich das auf Bildern vom PCB sehen.
 
Dann sollt man sich bei denen mal umschauen und sonst gibt's halt noch EVGA, Inno und die Gigabyte Xtreme. Vielleicht bieten die Karten auch ein gutes Gesamtpaket.
 
Bzgl der Spulen:
Die Gaming X hat military class components verbaut... Daher beginnt ein Fiepen erst ab xxxx Frames und bisher kam das nur bei Heaven Ladescreen nach dem Beenden vor. In normalen Games taktet die Karte im Menü runter, dadurch ist Fiepen fast ein Ding der Unmöglichkeit.

Und das hat deiner Meinung nach damit zu tun, das MSI military class components verbaut? Meine Güte, wie gut das Marketing heute die Menschen beeinflusst und erzieht. Du glaubst doch wohl nicht ernsthaft daran, dass auf deiner Consumer MSI Grafikkarte echte Military Class Komponenten verbaut sind, oder?
 
Aus WIKI zur MIL-STD-810: Der Hinweis auf die Norm oder Prüfungen nach der Norm in Herstellerangaben oder Werbung besagt also nicht, dass der betreffende Gegenstand gemäß allen Teilen der Norm geprüft wurde und diese Prüfungen bestanden hat. Das gilt insbesondere, wenn Hersteller ziviler Geräte mit Prüfungen nach dieser Norm werben. Welche Prüfungen und Teil der Norm tatsächlich durchgeführt und bestanden wurden, ist Sache des Herstellers.
 
Würde die MSI jetzt nicht als den Heilsbringer darstellen, da sie optisch auch nicht unbedingt zu überzeugen weiß - persönliche Meinung. Da könnte die bei mir noch so wenig fiepen, ich wollte die Karte net haben^^

Bei Asus stimmt die Optik, der Rest nicht usw. So eine EVGA FTW oder Classified würde mir ja gefallen, nur die Verfügbarkeit ist nicht vorhanden.
 
Zuletzt bearbeitet:
Na klar, dass sind Bauteile die beim Militär-Computern auch verbaut werden dürfen für mehr Toleranzen in verschiedensten Einsatzgebieten.
Diese Teile sind klassifiziert dafür. Das macht die auch nicht unbedingt teurer oder besser. Aber man siehe, die meisten 1080 sind nicht annähernd ihren Preis wert.

Bist du so frustriert, dass du es bereust keine MSI genommen zu haben :wink:

Oh weia! :lol: :wall: :stupid:

Ich habe auch nie behauptet, dass alle Teile military class components sind... die Spulen definitiv :bigok:


Gesendet von iPhone mit Tapatalk

Oh weia! :lol: :wall: :stupid:
 
Nochmal langsam für dich. Glaubst du, das sie die Komponenten etwa Ätzende Atmosphäre, Brandschock, Gefrierender Regen, Kontaminierung durch Flüssigkeiten oder Sand und Staub ausgesetzt haben?
Vielleicht haben sie auch nur Akustischer Lärm Test durchgeführt, der ebenso zur MIL-STD-810G gehört. Nun kann sich MSI brüsten, einen Test nach MIL-STD-810G bestanden zu haben und es military class components nennen darf.
Seid doch nicht immer so blauäugig und glaubt jedes Werbegelaber der Marketingfuzzis.
 
Wird das PowerTarget gesprengt?? Lass mal GPUZ im Hintergrund laufen...

Power und Power-Limit sind im Screen zu sehen. Ich hab sie auch entsprechend beschriftet, so das man es hoffentlich erkennt.
27% Power und Power-Limit: 0

Ich denke es war ein CPU-Limit in Verbindung mit Vsync. Deshalb ist es so abgestürzt. Bei meinen Nachtests ohne Vsync und mit 4.5Ghz ist alles im Rahmen geblieben. Auch wenn ich mit Maximaler Leistung anstatt Optimal nicht so tiefe Drops habe.

4Ghz ohne Vsync auf Maximal

4Ghz ohne Vsync auf Optimal

4.5Ghz ohne Vsync auf Optimal


Jeweils Worst Case bei einem Dungeon-Durchlauf. Ist halt sehr schwer da irgendwas verlässlich zu reproduzieren und dann noch im richtigen Augenblick die Screenshot-Taste zu treffen.
 
Zuletzt bearbeitet:
Da ist sicher nichts selektiert.
Wenn du nicht gerade riesen Pech hast, dann kommst du mit der non OC genauso weit wie mit ner ab Werk OC Karte.
Im Normalfall ist da lediglich ein anderes BIOS drauf.

was nicht bestätigt ist weis man auch nicht. Bei der FE sagte man auch nicht selektiert, kommt aber so rüber. manche scheinen Infos zu haben die es garnicht gibt. Ist aber sowieso egal.

Heute bekommen ja noch ein paar Leute die Strix, bin gespannt was die zu der Karte sagen.

ich bekomme meine ja heute gegen 13 Uhr ... mache dann auch feierabend und werde die einbauen. Berichten werde ich danach natürlich auch. Wobei ich im bezug auf Spulenfiepen vermutlich keine Rückmeldung geben kann. Da ich sowas entweder noch nie hatte oder noch nie gehört habe. Ist allerdings auch seid langem wieder die erste Karte mit Custom Kühler.

Am Ende ist nur wichtig das man selbst zufrieden ist. Gemotze gibt es sowieso immer und überall. Allerdings ist es natürlich grade in Foren wie HWLUXX wesentlich akuter als anderswo. Ich würde fast wetten das 90% der Asus Strix Käufer weder merken das die karte keine 2ghz hat noch überhaupt das Spulenfiepen hören. Es ist ja auch nicht gesagt das es jeder hat. Zum teil auch Netzteilabhängig.

Das die MSI Gaming X andere Spulen haben soll kann ich mir aber nicht vorstellen. Der Kühler war ja schon auf der Maxwell Serie und da gabs massig Rückmeldungen zum fiepen. Was allerdings bei der erstaustattung der GTX 970 MSI an der Blödheit der Nutzer lag und nicht an MSI selbst.
 
Zuletzt bearbeitet:
Ok super, bin echt gespannt was ihr anderen von der Karte haltet. Mir ist sie nicht den Aupfreis ggü. der GameRock wert.

Du wirst erstmal geflasht sein von der Verarbeitung und wie alles schön, säuberlich verpackt ist. Da hat Asus wirklich alles gegeben, nur die Ernüchterung kam bei mir dann im Einsatz. Solltest du ein Fenster haben, macht die Karte schon was her. Aber auf Platz 1 steht ja die Leistung :d

Das Fiepen ist auch nur ganz minimal, dass merkst du vielleicht echt nicht.
 
Die EVGA Founders ist jetzt bei caseking von "lieferbar am 26.6" auf "unbekannt" gewechselt :/
 
Bei nVidia sind nun die SLI HB Brüclen auch für uns Deutsche bestellbar.
 
Wie süß die Strix neben der Palit aussieht. Man muss halt auch bedenken, dass die GameRock nicht in jedes Gehäuse passt - so gut die Kühlung auch ist.

image.jpg image.jpg
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh