Das bisher schnellste Modell: EVGA GeForce RTX 3060 Ti FTW3 Ultra im Test

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.949
evga-rtx-3060ti.jpg
Die GeForce RTX 3060 Ti ist bislang der kleinste Ampere-Ableger von NVIDIA. Ende Februar soll das Non-Ti-Modell die GeForce-RTX-30-Serie nach unten hin abschließen. Einige Modelle der GeForce RTX 3060 Ti haben wir uns bereits angeschaut, heute folgt mit der EVGA GeForce RTX 3060 Ti FTW3 Ultra eines der Spitzenmodelle. Schneller, zumindest auf dem Papier, wird es in dieser Klasse wohl nicht mehr werden.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Müsst ihr dieses Testmuster eigentlich direkt an die nächste Redaktion weiterschicken, bis es völlig ausgenudelt irgendwo im Müll landet? Bei der bombastischen Verfügbarkeit der Karten gibts wohl noch nicht mal genügend Muster für alle.
 
Das eigl. Interessanteste an dem Benchmark ist, dass meine Vega 56 momentan schneller sein soll als eine GTX 1080. :xmas:
 
Mhh wollte mir eigentlich diese hier kaufen aber da sie nicht verfügbar ist und die 3070 tuf oc heute Morgen für 696 € bekommen habe, hat sich das wohl erledigt aber danke für den Test !
 
Müsst ihr dieses Testmuster eigentlich direkt an die nächste Redaktion weiterschicken, bis es völlig ausgenudelt irgendwo im Müll landet? Bei der bombastischen Verfügbarkeit der Karten gibts wohl noch nicht mal genügend Muster für alle.
Ja die Karten gehen in einen Loop, also zum Hersteller zurück und dann zur nächsten Redaktion. Vereinzelt behalten wir sie auch, vor allem dann, wenn es keine Referenz- bzw. Founders Edition gibt.

Ich glaube aber zu manchen Zeiten liegen hier mehr Samples der GeForce-RTX-30- und Radeon-RX-6000-Serie als es verfügbare Stückzahlen am deutschen Markt gibt ;)
 
Zuletzt bearbeitet:
Danke für den Test!
Die Karte ist bereits auf meine *habenwill*-Liste (y)
 
Warum sind eigentlich sämtliche EVGA-Karten diese Generation so ineffizient im Idle? Selbst Low-End-Modelle liegen deutlich hinter der Konkurrenz.
 
Weil alle durch die Bank 100W höhere TDP haben als eigentlich sollten.
Aber mit 100W weniger, wären Sie minimal "schneller" als Pascal / Turing.

Die ganze Ampere Kacke ist überteuerter
Müll.
 
Weil alle durch die Bank 100W höhere TDP haben als eigentlich sollten.
Aber mit 100W weniger, wären Sie minimal "schneller" als Pascal / Turing.

Die ganze Ampere Kacke ist überteuerter
Müll.
Hmm, meine 3080 Strix OC kann ich mit 0,8 V betreiben, damit dürfte sie eine Leistungsaufnahme von ~250 Watt haben, kommt also auf ähnlichen Verbrauch wie eine Stock 2080 S bei 25 - 30 % mehr Leistung. Eine 2080 s undervolted kommt immer noch auf ~ 215 Watt, verliert dabei aber nochmal 5 - 10 % Leistung. Vergleichst du Sie mit einer 1080, sollte man grundsätzlich bedenken, das eine 3080 ~ 100 % schneller ist, eine1080 hat sich trotzdem auch ~ 220 Watt gegönnt. Vielleicht bringst du da Idle und Last Werte etwas durcheinander ? Wo ich dir recht gebe, das ist der Preis, für den Mainstream sind sie teuer, aber wenn man sich etwas umschaut findet man auch etwas günstiges, ich habe für meine 3080 Strix OC 869 € bezahlt, finde ich ok, kann sie wahrscheinlich in einem halben Jahr ohne nennenswerten Verlust auf jeder beliebigen Plattform verkaufen.
 
Das mit 0,8V und ca. 250W TDP ist Milchmädchen-Rechnung. Genauso wie die (angeblichen) Leistungsangaben / -unterschiede.

Ausserdem hat NV bei Ampere mehrfach getrickst. Erstmal: umgelabelt. 3080er ist eigentlich 80er Ti, 3700er eine 80er, 3600er Ti eine 70er, ...
Hinzu kommt: 250W TDP Karten auf 320-360W TDP geprügelt oder gar auf 500W :fresse:

Nimm deine 3080er, nagle sie bei 250W TDP und benche Sie dann richtig gegen eine RTX2080TI (250W) und eine GTX1080Ti (250W).
Dann siehste wie groß der Leistungsplus tatsächlich ist. Von diesem Leistungsplus sind 90% der Arch, dem feineren Fertigungsverfahren
und leicht höheren Takt geschuldet.
 
Bei dem Preis würde ich sie sogar als Übergangskarte kaufen, bis ne 20GB Karte kommt.
Aber... naja. Wir wissens ja.
 
Das eigl. Interessanteste an dem Benchmark ist, dass meine Vega 56 momentan schneller sein soll als eine GTX 1080. :xmas:
Ja das sind die Hwluxx Tests. Ich kanns nur immer wieder sagen: Ich mag das Forum sehr, die Tests sind aber für die Tonne.
Ja ich weiß, dieser Post bekommt jetzt wieder ganz viele ":(", ist mir aber egal.

Und Leute, ich verstehs nicht...Warum testet man in nem GPU Bench dann fast alle Games nur in "hoch"? Damit die CPU Limitiert??? Sinn??? :wall:
 
Zuletzt bearbeitet:
Geht es nur mir so oder steht das mehr an Leistungsaufnahme im Vergleich zur FE in keinem Verhältnis zum mehr an Leistung?
Die paar extra Frames machen doch den Kohl dann auch nicht mehr Fett? Im Zweifel nehm ich doch lieber noch ein paar Euros mehr in die Hand und greife gleich zur nächsten Karte (=3070 in dem Fall)?
 
Es nutzt ja nix wenn man Grafikkarten testet die aktuell nur schwer oder selten verfügbar sind.
Das Kaufinteresse wird spätestens nach 30 Min gedämpft wenn derjenige oder diejenige dies nicht in irgendeinen Shop zum kaufen vorfindet. Die Älteren unter uns lesen sich das durch ,nehmen das zur Kenntnis und warten.
Oftmals sind es die Jungspunds unter uns die meinen alles (am besten gestern) haben zu wollen.
 
Einfach n billige Karte kaufen und die mit 25mm-Lüftern ausrüsten. Selbst die sogenannten High-End Karten haben flache Quirle montiert die Probleme haben die Luft bei langsamen Drehzahlen durch die Kühlkörper zu drücken. Und dafür zahlt man dann 200 € Aufpreis.
 
Einfach n billige Karte kaufen und die mit 25mm-Lüftern ausrüsten. Selbst die sogenannten High-End Karten haben flache Quirle montiert die Probleme haben die Luft bei langsamen Drehzahlen durch die Kühlkörper zu drücken. Und dafür zahlt man dann 200 € Aufpreis.
Selbst die "billigen" Karten sind erstens kaum zu bekommen und wenn, dann ganz sicher nicht preiswert.

Cunhell
 
Die billigen 3070 gabs zuletzt noch recht häufig für knapp über uvp von z. B. ASUS oder auch Gigabyte. Deshalb auch mein Hinweis, das man nicht unbedingt ein Topmodel braucht.
 
Weil alle durch die Bank 100W höhere TDP haben als eigentlich sollten.
Aber mit 100W weniger, wären Sie minimal "schneller" als Pascal / Turing.
Ich meinte eigentlich warum EVGAs Modelle schlechter als andere Partnerkarten im Idle abschneiden.
 
Ausserdem hat NV bei Ampere mehrfach getrickst. Erstmal: umgelabelt. 3080er ist eigentlich 80er Ti, 3700er eine 80er, 3600er Ti eine 70er, ...
Hinzu kommt: 250W TDP Karten auf 320-360W TDP geprügelt oder gar auf 500W :fresse:

Nimm deine 3080er, nagle sie bei 250W TDP und benche Sie dann richtig gegen eine RTX2080TI (250W) und eine GTX1080Ti (250W).
Dann siehste wie groß der Leistungsplus tatsächlich ist. Von diesem Leistungsplus sind 90% der Arch, dem feineren Fertigungsverfahren
und leicht höheren Takt geschuldet.

Du hast zwar im Grunde recht, ich weise auch immer darauf hin, dass das Leistungsplus bei Ampere recht bescheiden ist dafür, dass man eine verbesserte Architektur und einen Shrink hat. Aber ganz so krass kann man es auch nicht sehen.

1) Umgelabelt teils nur gegenüber der letzten Generationen, wo aber andererseits immer kleinere GPUs in der Hierarchie immer weiter hochgelabelt wurden. Ja, was jetzt 3080 ist war vorher 1080Ti, 980Ti, davor aber 780. Was heute 3090 ist war vorer Titan RTX, Titan Xp und Titan X (Maxwell), aber bei Titan X (Pascal), Titan Black, 780Ti und Titan kann man schon wieder diskutieren.
Auf jeden Fall war mit der ersten RTX 2070 erstmals nur die drittgrößte GPU auf der drittschnellsten Karte verbaut, erst mit der 2070S wieder die zweitgrößte, während die GTX 770 sogar die zweitgrößte im Vollausbau hatte. Die 3060Ti ist ein bischen wie eine 2060S oder GTX 760.

2) Was letzlich zählt, ist Leistung fürs Geld. Ja, die 3080 ist eigentlich eine 2080Ti+30% für die UVP einer 2080, aber mit dem Energiehunger und der Abwärme einer 2080Ti-OC. Aber sie bietet 50% mehr Leistung in WQHD für den alten Preis der 2080, ebenso wie die 3070 eine 2080S+20% für den Preis der alten 2070S, aber diesmal auch mit deren Energiehunger und Abwärme (bzw. auch der ursprünglichen 2080) ist, gegenüber der 2070S aber auch ~40% mehr Leistung bietet. 3060Ti =2080S+5% für den Preis und mit Abwärme und Energiehunger der 2060S, zu dieser aber auch wieder ~40% mehr Leistung.

Es ist letztlich wie bei Kepler und Maxwell bzw. wie bei den verschiedenen GCN-Generationen bei AMD. Es wird nur leicht an der Architektur geschraubt und oben angebaut, darunter einfach größere Chips für kleinere Modelle eingesetzt. Das ist nicht so ein großer Fortschritt wie bei Pascal und auch schlechter AFAIR als bei Turing, aber deutlich besser als Maxwell und die GTX 700-Serie oder die Radeon Rx 200/300-Reihe. Es ist nur beschämend, weill im Gegensatz zu diesen Beispielen ein Shrink mitgemacht wurde, nur hat der sich ja nicht als besonders effektiv erwiesen - die GPUs erreichen maximal ca. die gleichen Taktraten wie bei Turing und sind auch nicht wesentlich sparsamer dabei.

Und ja, der Leistung wegen betreibt man die Ampere-Karten mit einem ungünstigeren Verhältnis aus Takt und PT als bei Turing und Pascal, so dass die letzten MHz mit überproportional viel PT erkauft werden müssen und OC fast unmöglich ist. Die Energieffizienz, also Leistung/Watt ist daher nicht so toll. Nun frage ich dich aber, was hatte dieser Wert, den AMD so gerne vorschiebt, jemals für einen Nutzen? Wenn man nicht gerade 14 Std. am Tag, 7 Tage die Woche am laufenden Band zockt und die Karte mit 100% Last fährt, was macht das bitte für einen Unterschied, ob sie 270W oder 350W zieht? Die paar Stunden, die sie täglich in diesem Zustand läuft, bei mit sogar oft nur ein paar Mal im Monat, sind völlig unerheblich. Die gewonnene Leistung aber nicht.

Es kann nicht jede Generation ein Pascal sein. Ich erinnere mal dran, dass die meisten GTX 1080 mit 1x8-Pin auskamen und jetzt hat die 3080 FE 1x12-Pin, was 2x8-Pin entspricht, viele OC-Modelle haben sogar 3x8-Pin.
 
Herrlich, sich die Kommentare hier nochmal durchzulesen. Vor allem bezügliches der Preise und Verfügbarkeit :ROFLMAO:
 
Ist aktuell ein Treiberproblem mit der Karte bekannt? Wir hatten gestern nach dem neusten WIndowsupdate eine Temperatur von 90° - 91°
Während Spellforce 3 in HD - Mittlere Einstellungen.
Vorher war immer alles super, doch jetzt nach dem neusten EVGA Tool und Windowsupdate (10) extreme WärmePeaks
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh