Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.836
gigabyte-rtx2070-windforce-logo.jpg
Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce RTX 2070 im Leistungsbereich einer GeForce GTX 1080. Ob diese Ausrichtung seitens NVIDIA gelingen wird und wie Gigabyte die Umsetzung der GeForce RTX 2070 Gaming OC 8G angegangen ist, schauen wir uns auf den folgenden Seiten an.Zunächst einmal aber ein paar Vorworte zum Test: Der Start der GeForce-RTX-20-Serie wird von...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich würde ja noch erwähnen das nvidia wohl alles seine Boardpartner mit diesem Preisen knechtet, Igor hat es in seinem Artikel ganz gut dargestellt und ich würde nicht
darauf bauen dass es so bleibt!
 
naja ein 1080 besitzer rüstet wohl eher nichzt auf eine 2070 auf.

außerdem hat der 1080besitzer die leistung bereits seit 2,5 jahren :)
 
FullHD? Mehr als 60% spielen in dieser Auflösung. Bei 4k sind es keine 10%.
 
FullHD? Mehr als 60% spielen in dieser Auflösung. Bei 4k sind es keine 10%.

Man wird hier ausgelacht wenn man nach FHD Benchmark fragt deswegen geben sich andere Foren mit ihren Test auch mehr mühe wie HWL ;)
 
Zuletzt bearbeitet:
Danke für den Test. Ging ja doch viel zügiger als zuvor erwartet.

Welche Chip-Güteklasse wird denn hier verbaut?
Die eher moderat übertaktbaren Chips, oder? Also die zweitbesten.
 
Danke für den Test. Ging ja doch viel zügiger als zuvor erwartet.

Welche Chip-Güteklasse wird denn hier verbaut?
Die eher moderat übertaktbaren Chips, oder? Also die zweitbesten.

Mit Nachtschicht ging es schneller ;)

Auf Seite 3 findest du ein Bild des Chips.
 
Qualifikation. Also vergleichbar mit den Exemplaren die erscheinen werden.
Und somit verglichen mit den Modellen anderer Herstelller? Die gar nicht übertaktbaren oder die zweitbesten?

Habe bis jetzt noch keinen Test/Review der Turing-Karten mit der niedrigsten Güteklasse gesehen. Wie hoch man die wohl übertakten kann.
 
Ja, die 2070 erscheint mir bislang als die sinnvollste Karte, da sie immerhin minimale Mehrleistung bietet und gleich viel kostet wie eine 1080.

Ein FHD-Test würde hier schon Sinn machen, da sicher der ein oder andere so eine Karte für 144 Hz benutzen wird.
 
Läuft das Testsystem bei Farcry wirklich bei ~85FPS ins CPU Limit? :hmm:

Oder was ist hier der Grund?
 
Ich finde ein Threadripper, also ein 16-Kerner mit recht schwachen Kernen und relativ niedrigem Takt ist wirklich die denkbar schlechteste Wahl für einen solchen Test.
Die wenigsten Spiele lasten doch schon 6-Kerne aus. Hier wäre ein hochtaktender 6- oder 8-Kerner wesentlich sinnvoller gewesen.
Und ja, das erklärt auch das CPU-Limit.

Und auch ich wäre für 1080p-Tests. Aber nachdem man schon in 1440p im CPU-Limit ist, machen die mit dem System wohl keinen Sinn...
 
Zuletzt bearbeitet:
@ HWL-Redakteur

Was in dem Artikel fehlt, ist die Angabe des Zubehörs, welches sich bei der Karte befindet.
Wie man erkennen kann, hat die Karte keinen DVI-D Ausgang.

Heißt das, dass ich mir nach dem Kauf einer 2070, für zusätzliche 858 Euro und 62 Cent einen zusätzlichen Super-Trooper-DVI-Adapter kaufen muss, damit mir der Kübel 3 Pixel auf mein Monitor liefert?
 
Ja, die 2070 erscheint mir bislang als die sinnvollste Karte, da sie immerhin minimale Mehrleistung bietet und gleich viel kostet wie eine 1080.

Ein FHD-Test würde hier schon Sinn machen, da sicher der ein oder andere so eine Karte für 144 Hz benutzen wird.

Das Problem warum es hier keinen Sinn macht einen Benchmark in FHD zu machen ist ,dass das Testsystem dazu zu schwach (single core performance) ist in FHD die volle Leistung in einigen Spielen die hier getestet werden zu erbringen die diese GPU leisten könnte,
weil hier dann es zu einem CPU Limit kommt und dazu die Werte verfälschen würde.

Hätte es für Sinnvoll gehalten HWLUXX hätte für ihre GPU Tests es besser mit einem 8700K @ OC getestet und dann Später zum I9 9900K gewechselt , wenn dieser vorhanden ist.
Die vorhandene CPU bekommt es schon hin Richtung 144FPS zu gehen, aber für Hardcore Gamer die auf max. FPS und ggf. auf 240HZ Monitore spielen würden diese Benchmarks schon interessant finden.

Naja 1440P und 4K Benches sind um etwa einen Blick dafür zu bekommen was diese GPU´s leisten ist schon ein guter Indikator.

Fände auch benches in 3440x1440 interessant , weils halt mich betrifft , aber dafür muss man halt woanders schauen , wenn man es genau wissen möchte.

Diese Tests von Hardwareluxx sind aber gut geschrieben.
Da muss man die Redaktion schon loben für.

Hat auf jedenfall Quallität meiner Meinung nach.

Was mich auch sehr interessieren würde , wenn es Wärmebilder geben würde bei Custom on Air und diversen Wakü Blocks.

Tests zu unterschiedlichen Waküblocks von EKWB, Phantek, Aquacomputer, Watercool, Bitspower und Alphacool fände ich auch interessant.
Halt das was es in Deutschland zu kaufen gibt.

Gerade bei dem Spitzenmodell 2080TI wo es doch im Wakübereich doch eine gewisse Käuferschicht bei den Hardwarejunkys gibt.

Finde würde halt auch gut zum Image "Hardwareluxx" passen.
 
Zuletzt bearbeitet:
@ HWL-Redakteur

Was in dem Artikel fehlt, ist die Angabe des Zubehörs, welches sich bei der Karte befindet.
Wie man erkennen kann, hat die Karte keinen DVI-D Ausgang.

Heißt das, dass ich mir nach dem Kauf einer 2070, für zusätzliche 858 Euro und 62 Cent einen zusätzlichen Super-Trooper-DVI-Adapter kaufen muss, damit mir der Kübel 3 Pixel auf mein Monitor liefert?

Die gesamte Turing Generation hat keinen DVI Anschluss. Der war auch schon bei den 1080Ti Founders Modellen der letzten Generation nur noch bei den Partner-Modellen mit Eigendesign zu finden. Wie alt ist denn dein Monitor?
 
Ist es eigentlich irgendein Running-Gag, dass ihr bei Euren Testberichten beim "Project CARS 2"-Benchmark ein Video von NfS Payback einfügt? Das habt ihr hier, hier, hier und hier auch schon?!
 
Zuletzt bearbeitet:
Ist es eigentlich irgendein Running-Gag, dass ihr bei Euren Testberichten beim "Project CARS 2"-Benchmark ein Video von NfS Payback einfügt? Das habt ihr hier, hier und hier auch schon?!


Stört doch keinen, man muss sich das Video ja nicht ansehen, ist war wahrscheinlich einfach Werbefläche, ganz normal.
 
Hast schon recht - stört nicht und muss man sich natürlich nicht ansehen; aber vielleicht gibt's ja den einen oder anderen, der an der Stelle gerne den richtigen Trailer angucken wollte ;) Eine Werbefläche ist es jedenfalls nicht, da es ein simples YouTube-Video auf dem NfS-Kanal ist und bei den anderen Spielen auch der jeweils eigene Trainer eingebunden ist. Scheint wohl C&P gewesen zu sein, bei älteren Artikeln war NfS Payback eine Seite vor PC2 im Benchmark.
 
Auf den Bildern sehe ich keine Elkos auf der Karte.
Braucht man die nicht mehr oder wird was anderes verbaut?
 
Sicher, dass die Längenangaben zu der Karte stimmen? Gigabyte gibt normalerweise immer die Total-Abmessungen an, schließlich ist die Herstellerangabe der Wert, nachdem man sich richtet, wenn man vor dem Kauf herausfinden will ob die Karte in das eigene Gehäuse passt.

Alle Reviews zu der Karte schreiben, sie sei 280mm lang, wie auch die Angabe von Gigabyte selber. Bei allen Vorgängerkarten von Gigabyte, war die Angabe auf der Herstellerseite immer das, was hier als "Länge mit Kühler" angegeben wurde. Nun ist die Karte laut euren Angaben insgesamt angeblich über 2cm länger als Herstellerangabe.

Das wäre ja grob fahrlässig von Gigabyte! Mein Gehäuse und viele weitere (etwas ältere) erlauben Grafikkarten mit bis zu 290mm oder 300mm. Laut Gigabyte hat die Karte 280mm, PASST also einwanfrei. Laut dem Test hier würde sie jedoch nicht passen.

Bei z.B. der Gigabyte 1080 Ti Aorus gibt Gigabyte eine Länge von 293mm an, bei dieser steht der Kühler auch über das PCB über. Und die Karte hat diese 293mm wirklich insgesamt mit Kühler, so gebt ihr das auch in eurem Test an, das PCB alleine ist kürzer.

Hier soll es jetzt umgekehrt sein, aber es gibt keine zweite Quelle im Netz, die das bestätigt!? Ich weiß nicht, ob ich die jetzt bestellen soll oder nicht. Vielleicht einfach machen, und wenn sie nicht passt geht sie mit der Mängelbeschreibung "Karte ist länger als die angegebenen 280mm" eben zurück... Das kann ja nicht sein, woher soll man als Kunde denn dann wissen, dass die mit 280mm angegebene Karte eigtl. gar nicht passt, auch bei 290 oder 300mm Platz im Gehäuse. Woher soll ich wissen dass das nur die Länge vom PCB ist und wieviel der Kühler da noch übersteht, das ist ja die Katze im Sack.
 
Zuletzt bearbeitet:
Hallo zusammen,

ich habe die Gigabyte RTX 2070 Windforce seit heute verbaut und muss die Lautstärkebewertung im Test hinterfragen. Genau die gute Bewertung hat mich dazu veranlasst die Karte zu holen.

Bei mir im geschlossenen - gut durchlüfteten Gehäuse - drehen die Lüfter in fordernden Spielen (auf 4K) im Bereich 1800 - 1900 U/min.

Das ist erheblich lauter als meine vorhergehende Palit GTX1060 Jetstream - natürlich bei mehr Leistung.

Lautstärke ist ja immer subjektiv, aber könnte mal jemand die Drehzahlen seiner Karte unter starker Last weitergeben?

Weiterhin ist die Hysterese beim Wechsel von Stillstand der Lüfter auf Last (noch) nicht i.O. Die Lüfter starten, gehen aus, starten, gehen aus und erzeugen nen heulenden Ton. Erst wenn die Karte warm genug ist laufen die Lüfter konstant.

Ciao
Visionmaster
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh