Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ist das so..

dx3h5fkzrftkdh5eh.jpg
Joar, wir können uns jetzt natürlich mit spezifischen Benchmark-Suits bewerfen, aber ich hab jetzt mal die 3 fairsten aus dem Luxx-Test genommen und die decken sich mit einer 1-2% Schwankung zu dem Test mit GN (was die 2080 angeht) - von daher ist da schon mal ne gute Vergleichbarkeit gegeben. Auch: Ich habe custom 1080 Ti vs 2080 FE verglichen - denn wir wollen ja 2 Lüfter mit 2 Lüftern vergleichen, gelle? Sonst kannste auch blower Fan gegen WaKü antreten lassen.

Ich warte trotzdem noch die 2080Ti Ergebnisse von GN ab.
 
Ja alle 1080ti kaufen dann werden die Lager leer. Nvidia macht alles richtig und ihr fällt drauf rein ;)
Danach kommen Wundertreiber etc. und die geht ab wie Schmitz Katze oder der Markt ist gesätigt und die Preise fallen. Ist doch alles Marktwirtschaft, ich investiere mein Geld eher in eine 2080ti wie in eine 1080ti die meiner Meinung immer noch viel zu teuer ist für so ne alte Karte die an ihrer Belastungsgrenze läuft.
 
Du weißt schon das über 90% immer noch in FHD spielen?



Ja klar weil es eben viel mehr Spieler gibt die in FHD spielen wie 1440 oder höher.



ja er weiß es leider nicht das FHD immer noch die Gamer Monitor Nr 1 sind deswegen darf man das heut zu Tage ja nicht mehr Testen in FHD und schon
gar nicht mehr nach Fragen!


es kommen schlicht und einfach keine sinnvollen testergebnisse bei raus, wenn man derart schnelle grafikkarten in 1080p testet - da dann in vielen spielen die cpu limitiert.

da kann es dann passieren das eine gtx 1080 die selben fps produziert wie eine 2080ti, obwohl letztere deutlich schneller ist.
 
Zuletzt bearbeitet:
generell zur 2080 & 2080Ti
- viele neue Features versprochen , keine zum Markstart erhältlich

Meinst du Karten oder Features ? Meine 2080ti von Asus ist auf dem weg per Express ;)

Alle Features werden wenn eh erst mit dem Oktober Update von Windows 10 unterstützt.

Das ist eine ganze neue Generation, da wird man noch einiges rausholen können per Treiber Update.
 
Zuletzt bearbeitet:
Mir ist der performance zuwachs von 1080 ti zu 2080 ti auch zu gering.... Das is nix fürs geld man was ärger ich mich.
 
die 2080ti ist nahezu doppelt so schnell wie eine 1080 und das ist dir zu wenig?
 
Meinst du Karten oder Features ? Meine 2080ti von Asus ist auf dem weg per Express ;)
Alle Features werden wenn eh erst mit dem Oktober Update von Windows 10 unterstützt.
Das ist eine ganze neue Generation, da wird man noch einiges rausholen können per Treiber Update.

Für mich sieht es so ein wenig nach einer erzwungenen Generation aus, um Features in den Markt zu drücken für die es aktuell eigentlich noch zu früh ist, diese aber mit dem hohen Preis gerechtfertigt werden.

Aber der Stromverbrauch ist seit Pascal extrem gut das muss man ihnen lassen! :)
 
danke für die tests - habe alles inhaliert, den jeweils längsten UHD balken
mit meinen frames verglichen und nichts gefunden wo ich den kürzeren habe. denke volta bleibt
bis es neue titanen gibt stecken und die vorbestellten TIs gehen zurück; vllt reicht die zeit auch
für ein storno - dann muss ich die 2,6K € gar nicht erst latzen.


(..)

mfg
tobi
 
Ich finde die Ergebnisse der Titan V @1850 MHz im Vergleich auch schon fast die interessantesten ;) Da sieht man mal was 5.120 Shader so alles leisten.
 
ja, danke nochmal dafür Don :)

ich sehs wie TobiWahn - mal gucken wann der Turing Titan kommt
 
Naja, aber gerade der 1850MHz Test zeigt doch, dass die ~17% mehr ALUs der TitanV effektiv gar nicht schneller sind?
Viele der Werte sind effektiv gleich, einer ist mal 9% schneller - heist bei max. Takt ist so ne Custom 2080TI mit anständig Powerbudget entsprechend auch in der Lage ne TitanV zu toppen.
Ist halt nur die Frage, wie viel man bereit ist dafür zu zahlen. Als TV Besitzer wechselt man da vllt nicht. Es sei denn man bekommt die TitanV entsprechend los und mit ner 2080TI eben am Ende günstiger weg...
 
Im Grunde genommen ist doch die 1080 und die 1080 Ti nicht abgelöst worden, sondern es gibt einfach zwei weitere leistungsstärkere Modelle.

Bzgl. Titan würde ich mir keine Sorgen machen, kommt bestimmt schon in 6 Monaten als CEO Edition für 5K, glaube nicht, dass NV dazwischen noch was bringt, warum auch, denn danach muss es schnell mit dem 7nm Refresh weiter gehen, kann also nur besser werden .. ;)
 
Die einzig interessante Karte in dem Test (der neuen Gen) ist doch die 2080 ti. Ganz ehrlich, eine 2080 mit 8GB?
Nö! Leistungsmässig finde ich die neuen Karten ok. Im Verhältnis zum Mehrpreis aber keine Überlegung wert. Wenn
die Karten preislich bei den Preise der jetzt "alten" Generation ankommen wird es interessant.

D.h. jetzt die Augen offen halten nach einer guten 1080ti mit Wasserkühler :)
 
Danke für den ausführlichen Test. Super!:hail:
Und bin gespannt auf die Lösungen und Benches anderer Grafikkartenhersteller ... :popcorn:

Habt ihr in den letzten Tagen überhaupt schlafen können? :d
 
Ich hätte da nich das Direct3D-Featureset ausgelesen. Ist ja für den ein oder anderen auch immer wieder interessant.

"NVIDIA GeForce RTX 2080 Ti"
VEN_10DE, DEV_1E07, SUBSYS_12A410DE, REV_A1
Dedicated video memory : 11048.0 MB (11584667648 bytes)
Total video memory : 27368.7 MB (28698128384 bytes)
Video driver version : 24.21.14.1151
Maximum feature level : D3D_FEATURE_LEVEL_12_1 (0xc100)
DoublePrecisionFloatShaderOps : 1
OutputMergerLogicOp : 1
MinPrecisionSupport : D3D12_SHADER_MIN_PRECISION_SUPPORT_NONE (0) (0b0000'0000)
TiledResourcesTier : D3D12_TILED_RESOURCES_TIER_3 (3)
ResourceBindingTier : D3D12_RESOURCE_BINDING_TIER_3 (3)
PSSpecifiedStencilRefSupported : 0
TypedUAVLoadAdditionalFormats : 1
ROVsSupported : 1
ConservativeRasterizationTier : D3D12_CONSERVATIVE_RASTERIZATION_TIER_3 (3)
StandardSwizzle64KBSupported : 0
CrossNodeSharingTier : D3D12_CROSS_NODE_SHARING_TIER_NOT_SUPPORTED (0)
CrossAdapterRowMajorTextureSupported : 0
VPAndRTArrayIndexFromAnyShaderFeedingRasterizerSupportedWithoutGSEmulation : 1
ResourceHeapTier : D3D12_RESOURCE_HEAP_TIER_2 (2)
MaxGPUVirtualAddressBitsPerResource : 40
MaxGPUVirtualAddressBitsPerProcess : 40
Adapter Node 0: TileBasedRenderer: 0, UMA: 0, CacheCoherentUMA: 0, IsolatedMMU: 1
HighestShaderModel : D3D12_SHADER_MODEL_6_1 (0x0061)
WaveOps : 1
WaveLaneCountMin : 32
WaveLaneCountMax : 32
TotalLaneCount : 4352
ExpandedComputeResourceStates : 1
Int64ShaderOps : 1
RootSignature.HighestVersion : D3D_ROOT_SIGNATURE_VERSION_1_1 (2)
DepthBoundsTestSupported : 1
ProgrammableSamplePositionsTier : D3D12_PROGRAMMABLE_SAMPLE_POSITIONS_TIER_2 (2)
ShaderCache.SupportFlags : D3D12_SHADER_CACHE_SUPPORT_SINGLE_PSO | LIBRARY (3) (0b0000'0011)
CopyQueueTimestampQueriesSupported : 1
CastingFullyTypedFormatSupported : 1
WriteBufferImmediateSupportFlags : D3D12_COMMAND_LIST_SUPPORT_FLAG_DIRECT | BUNDLE | COMPUTE | COPY | VIDEO_DECODE | VIDEO_PROCESS (63) (0b0011'1111)
ViewInstancingTier : D3D12_VIEW_INSTANCING_TIER_3 (3)
BarycentricsSupported : 0
ExistingHeaps.Supported : 1
 
Über 66% zockt noch in FullHD, keine 10% in 4K ... was solls, wir brauchen kein FullHD testen :lol:
 
FHD ist Vergangenheit.
 
Vielen Dank für den super Test! Ich bin persönlich froh über die Ergebnisse. Klingt evtl. blöd - da spare ich mir das Upgrade von meiner 1080Ti FTW3. Kann mich normalerweise nie beherrschen in neue GK Generationen zu investieren, nach diesem Review ist für mich die Entscheidung sehr einfach. Bei dem Preis bezweifle ich auch, dass sich RTX durchsetzen wird. Warte auf die nächste GK Generation.

Nochmals Danke
l. G.
 
Turing sieht doch gar nicht schlecht aus, ein solider Fortschritt, da ich eine GTX1080Ti mit einem Arctic Accelero Xtreme IV habe, werde ich nicht wechseln, da ich jetzt schon quasi eine RXT2080 habe, ich bin mir sicher das noch eine Titan erscheinen wird die quasi eine echte Ti sein wird - vielleicht mit HBM, womöglich schlage ich dann zu.
Mit Raytracing & vor allem (für mich) DLSS haben sie heiße Eisen im Feuer, die es wert sind beobachtet & angenommen zu werden, aber auch der OC-Scanner ist grandios was man immer gerne annimmt.
AMD ist jetzt aber extrem im Hintertreffen, noch miesere Leistung pro Watt und an eine GTX1080Ti & TitanXp-leistung kamen sie nicht mal ansatzweise heran, jetzt hat sich dies noch weiter verschlimmert, selbst beim Boxed-Kühler haben sie AMD alt aussehen lassen, das war ein Tritt zwischen die Beine - aber mit Anlauf.
Das der Preis höher sein wird war ja schon länger bekannt, aber ich sehe das etwas realistischer, ich werte die Partnerkarten-Preise und nicht die Ich-Will-Immer-Alles-Zuerst-Preise & gesonderte-FE-Preise, da man konkurrenzlos ist darf man sich das durchaus erlauben, ist in jeder Branche so, wenn AMD wieder was halbwegs brauchbares bringt werden die Preise sicher wieder in bekannte Sphären fallen - da bin ich mir sicher, aber bis dahin ist die 20er Serie sicher schon so lange am Markt das die Preise "natürlich" deutlich gefallen sind oder gar eine neue Generation bevorsteht steht.

@ Nvidia
Ein anerkennenswerter Technischer Fortschritt, Hardware und Software!
Technisch zwar nicht so groß wie bei Pascal, aber das darf man auch nicht bei jeder Generation erwarten, das wäre realitätsfern.
Bei der 10 oder gleich zur 7nm-umstellung, erwarte ich mir jedoch wieder ein bisschen mehr
smile.gif


@HWL
Seite 27 ist großartig, das habe ich in noch keinem anderen Test gesehen, toll !
Guter IPC-vergleich.
 
Zuletzt bearbeitet:
Sagt wer? Du?

4k ist für die Meisten keine Option :p
Zu teuer und beschissene Monitore. Ah ja, viel zu teuer :d

für meine ansprüche wäre es zu teuer, weil der monitor muss sämtliche farbräume abdecken... geht dann so bei 1500€ los für 27" UHD :hmm: mein dell mit WUXGA hat damals ähnlich viel gekostet, und da der noch 1a ist ohne pixelfehler etc. wird der auch nicht ersetzt.
 
Das ist für mich auch der interessanteste Punkt an der neuen Generation. Ich halte es für gut möglich dass nV diesmal das Blatt überreizt hat und vll nachträglich mit Preissenkungen daherkommt. Abwarten und Tee trinken :coffee2:

Dann wäre wünschenswert. Aber dich denke es wird genügend Leute geben die das Geld hinblättern. Siehe Apple.
 
Sagt wer? Du?

4k ist für die Meisten keine Option :p
Zu teuer und beschissene Monitore. Ah ja, viel zu teuer :d

Trotzdem geht es hier um eine 1000 Euro GPU damit zockt man doch kein 1080p mehr. Zumal in der Auflösung steckt man mit dem Testsystem doch im CPU Limit. :xmas:
 
@Performer
Ich schrieb von "Leistung pro WATT", du schriebst von "Leistung pro Preis/€", das sind zwei völlig verschiedene paar Schuhe - Ballettschuhe vs Schneeschuhe ;)
PS: Außerdem ist der niedrigste reguläre Preis für eine Vega64 aktuell bei Geizhals bei rund 490€, die restlichen ALLE über 550€.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh