Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

Forschung braucht seine Zeit, da hängen soviele Querverbindungen dran. Materialforschung, Ingenieurleistungen etc. Auch mit mehr Geld ist da nicht allzuviel zu machen, ausser man wird völlig crazy ala Manhattan Project.
Ausserdem ist es aus Unternehmenssicht besser die Leistung langsam und stetig anzuheben, weil man so mehr Kunden bekommt. Man darf nicht vergessen, der siliziumbasierte PC ist im Endstadium, alsbald geht da nix mehr.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Cibo
Hä?
Eher das komplette Gegenteil scheint mir da der Fall - welche 2 Slot Karten siehst du denn? Ich sehe da auf den ersten Blick überwiegend 3 Slot Designs. Die absolute Höhe sind halt bei vielen 2,5 oder irgendwo zwischen 2 bis 3 - was gemessen an einem potentiellen Betrieb im Sandwich ja auch Sinn ergibt um "Luft" zu lassen. Auch frage ich mich warum dieser komische Trend auf 3 Slots überhaupt einzug hält - für User mit mehr als nur einer Grafikkarte ist das bei begrenzten 6-7 Slots je Board nicht gerade gut...

Auch bescheinigen die Reviews doch alle samt, dass es kein Tempproblem gibt bei den Modellen, sondern dort irgendwo überall das PT limitiert. Noch mehr Kühlung bringt damit nur bedingt etwas. Was versprichst du dir also aus 3 Slots?

PS: die Karten werden nicht von NV bezogen - die GPUs + Speicher wird von NV bezogen. Was aber schon seit Generationen nicht anders läuft...
 
Mir geht es nicht um Neuentwicklungen. Die Custom Hersteller sind alle abhängig von nvidia und kein freier Markt bzw. Großhändler dazwischen. Wenn du dein Auto aufmotzen willst kannst jedes beliebige Tunig erlaubt/unerlaubt machen wie du willst. Die Autohersteller können deine Bude nicht zu machen sondern nur mangelnde Kundschaft. Die Customhersteller können im Grunde nix ausser ihr Logo drauf kleben, 50€ mehr verlangen und so tun als ob man das Rad neu erfunden hätte. Welche Raketenwissenschaft verhindert 3 Slot Modelle? Oder vermessene Grafikkarten und passende Kühlkörper in 5 Minuten inner CNC Fräse hergestellt statt blöde Wärmeleitpads etc. ... Wenn man überlegt was alles im Smartphone steckt ist das doch "alter" Scheiss.
 
Zuletzt bearbeitet:
Hmm warum hat die 2080 und 2080 Ti hier schlechter abgeschnitten als in den geposteten Test Videos ? Kann das echt am Threadripper liegen und CPU Limit ? Bei den anderen Videos überholt ja die 2080 die 1080 TI schon um einige % ? Bin mal auf mehr test's mit Intel CPU gespannt, am besten mit 8700k. :)
 
Zuletzt bearbeitet:
Ein Test mit Skylake-X wäre mal interessant.

Gesendet von meinem SM-G935F mit Tapatalk
 
Hmm warum hat die 2080 und 2080 Ti hier schlechter abgeschnitten als in den geposteten Test Videos ? Kann das echt am Threadripper liegen und CPU Limit ? Bei den anderen Videos überholt ja die 2080 die 1080 TI schon um einige % ? Bin mal auf mehr test's mit Intel CPU gespannt, am besten mit 8700k. :)

Davon gibt es zu Hauf. Quasi jedes Review im englischen Raum ist / war mit 8700k.
Der Unterschied ist schon durchaus spürbar. Bis zu 50% in Extremfällen, aber auch worst case 15% mehr als mit Threadripper.
Auch der relative Abstand zu anderen Karten ist größer mit 8700k. Wurde ja gesagt, dass Turing wohl die CPU auch mit einbindet irgendwie. Dachte das nur bei RT so, aber suche noch nach korrekten Aussagen dazu, bzw. Erklärungen.

Die Zahlen sind aber klar. Threadripper ist nix als Testbench. Verzieht die Zahlen schon deutlich.
 
Die Zahlen sind aber klar. Threadripper ist nix als Testbench. Verzieht die Zahlen schon deutlich.

Zum einen haben wir dann aber eben auch einen Vergleich und zum anderen kommen ja noch die Tests mit MultiGPU bzw. NVLink, da sollte der TR seine Stärken ausspielen können. :)
 
Ich denke mal AMD genrell taugt nicht besonders zum benchen. Bei meinen früheren Ryzen Systemen mit 1700 und 1700x 3,9/4 Ghz und MSI 1080TI hat die CPU schon extrem die Grafikkarte ausgebremst. Ich weiß nicht wie das mit der 2000 Serie ist, aber ich denke mal die Performt nicht viel anders als die 1000 Serie. Und der Threadripper wird die zahlen wie du schreibst wohl komplett verdrehen. Meiner Meinung nach ist ein TR System auch das *** System was man aufstellen könnte zum Benchen. Ich glaube das die RTX Karten viel besser sind als sie hier im Test dargestellt werden.

Trotzdem Danke für den test. Ich weiß jetzt jedenfalls das Nvidia RTX und TR keine gute Kombi sind. :)
 
Zuletzt bearbeitet:
also das gegenteil von SLi :) taugt nicht zum benchen (AMD) taugt für nix anderes (SLi)


(..)

mfg
tobi
 
Meiner Meinung nach ist ein TR System auch das *** System was man aufstellen könnte zum Benchen. Ich glaube das die RTX Karten viel besser sind als sie hier im Test dargestellt werden.

Es soll hier aber auch darum gehen die Skalierung vieler CPU-Kerne jetzt und in Zukunft in den Test mit einzubeziehen und betrachten zu können. So wurde das System auch begründet und es ist gut/interessant einen Vergleich zu Intel zu haben.

Und ein GPU-Test ist auch nicht in erster Linie ein benchmark. :)
 
Auf die Tatsache, dass Threadripper (insb. Threadripper I) eine furchtbare CPU für ein GPU Testsystem ist, haben diverse User inkl. mir schon mehrfach hingewiesen. Wurde aber ignoriert und von AMD Trollen schöngeredet. Man wird damit leben müssen, die GPU Tests von HWL können unter 4K Auflösung dann eben vergessen werden. Die technisch/theoretischen Aspekte des Reviews sind ja trotzdem interessant.
 
Zuletzt bearbeitet:
Die hätten lieber Skylake-X nehmen sollen.

Gesendet von meinem SM-G935F mit Tapatalk
 
Ich weiß nicht, ob ich direkt ein AMD Troll bin, wenn ich finde, dass es gut ist mal einen Vergleich zu haben. Schönreden ist eigentlich was anderes.
 
Nea die 2080 scheint leicht schneller zu sein als die 1080TI in 1080P, 1440p und sogar in 4K. Da es für Notebook 100% keine 2080 TI geben wird, interessiert mich die 2080 am meisten.
Wenn die 1080TI Leistung hat, und das scheint sie zu haben sogar leicht drüber, dann lohnt sich für mich ein upgrade von 1070 auf 2080. Dann kann man endlich auch aufm Notebook mit einer Grafikkarte 4K 60 Hz Zocken. :)
So wie es scheint tut Nvidia ihr Leistungversprechen einhalten und ihre Leistungsteigerung von gen zu gen auch einhalten und nicht wie hier getestet das die 2080 TI nur paar % schneller ist als ne 1080 TI.
 
BF5 wäre mal noch interessant gewesen, das unterstützt glaube ich bis zu 16 Kerne …

Grundsätzlich verstehe ich aber eure Kritik, was bleibt ist eben ein Vergleich.

- - - Updated - - -

.
Dazu noch Spiele die gut mit Kernen bzw. Threads skalieren um zu sehen was mich in Zukunft erwartet und ob sich der Kauf lohnt.

Ja genau, aber wie gut die dann skalieren mit vielen Kernen, würde ich dann aber nicht mit einem 6-Kerner testen wollen. ;)
 
Skylake-X ist scheiße. Ein 8700K wäre hier tatsächlich besser gewesen für High-FPS. Der Threadripper kann als Vergleich dienen. Er ist aber nicht wirklich eine Gamer-CPU. Da würden sich 8700 und 2700 eher anbieten. Das ist auch die übliche Paarung.
 
Klar ist Skylake-X scheisse steht ja kein Ryzen drauf.

Gesendet von meinem SM-G935F mit Tapatalk
 
BF5 wäre mal noch interessant gewesen, das unterstützt glaube ich bis zu 16 Kerne …

Ne Beta in den Parcours aufzunehmen wäre nur Zeitverschwendung gewesen. Wenn das Spiel und angepasste Treiber erscheinen, wird mit Sicherheit noch nachgetestet.
 
Ich weiß nicht, ob ich direkt ein AMD Troll bin, wenn ich finde, dass es gut ist mal einen Vergleich zu haben. Schönreden ist eigentlich was anderes.

Vergleiche sind immer gut.
Nur wieso bei einem GPU Test?

Hab den Hintergrund evtl. nicht ganz verstanden bisher. Threadripper ist in jedem Forum als "Niete" für Gaming bezeichnet worden. Selbst die "guten" Ryzen Chips sind in GPU / Game Benchmarks klar hinterher.
Was gewinnen wir, wenn wir GPU Daten bekommen von einem System das so niemand bauen wird?
Gerade Games sind doch in den wenigsten Fällen heiß auf viele Threads, sondern auf wenig starke. Das wird sich auch nie gravierend ändern, da Gameplay nicht gut aufteilbar ist. Es mag ein paar geben, aber die breite Masse an games wird bei 8 Threads aufhören.

Ganz klar: In diesem Fall werden die GPUs falsch dargestellt. Ich bin vorsichtig zu behaupten, dass Turing darunter mehr leidet (sonst bin ich ja direkt wieder ein Fanboy), aber es sind durchaus Tests hier verlinked bei denen Turing mal locker flockig 15-50% mehr FPS produziert und die anderen Karten halt weniger.
Es verzieht also sogar die relative Performance.

Soweit meine, evtl. zu naive, Argumentation. Was spricht also für Threadripper in diesem Fall? Was für ein Mehrwert entsteht dadurch?

- - - Updated - - -

Nea die 2080 scheint leicht schneller zu sein als die 1080TI in 1080P, 1440p und sogar in 4K. Da es für Notebook 100% keine 2080 TI geben wird, interessiert mich die 2080 am meisten.
Wenn die 1080TI Leistung hat, und das scheint sie zu haben sogar leicht drüber, dann lohnt sich für mich ein upgrade von 1070 auf 2080. Dann kann man endlich auch aufm Notebook mit einer Grafikkarte 4K 60 Hz Zocken. :)
So wie es scheint tut Nvidia ihr Leistungversprechen einhalten und ihre Leistungsteigerung von gen zu gen auch einhalten und nicht wie hier getestet das die 2080 TI nur paar % schneller ist als ne 1080 TI.

Also da biste glaube etwas zu optimistisch.
Weder eine 2080 ti noch eine 2080 werden in einem Notebook auftauchen. Wenn, dann stark abgespeckte Versionen, ohne RT, ohne Tensor Cores und sicher nicht mit DEM Stromverbrauch.
Ich meine, klar machen die viel Leistung her, aber der Verbrauch ist fast auf Augenhöhe mit Vega 64 (!). Da kannste keine 15min ohne Netzkabel spielen und das Gehäuse schmilzt kurz nachdem die Lüfter aufgeben.
 
Also da biste glaube etwas zu optimistisch.
Weder eine 2080 ti noch eine 2080 werden in einem Notebook auftauchen. Wenn, dann stark abgespeckte Versionen, ohne RT, ohne Tensor Cores und sicher nicht mit DEM Stromverbrauch.
Ich meine, klar machen die viel Leistung her, aber der Verbrauch ist fast auf Augenhöhe mit Vega 64 (!). Da kannste keine 15min ohne Netzkabel spielen und das Gehäuse schmilzt kurz nachdem die Lüfter aufgeben.
Geforce RTX 2080 Mobile: Erster Hinweis auf 550-mm²-GPU für Notebooks
Laut Google ist schon der Code der RTX 1080M für Notebooks aufgetaucht. Die Karte wird wohl 1 zu 1 zur Desktop Version kommen, es wird wohl nur leicht der Takt gesenkt wie bei der GTX 1080M um das TDP Limit einzuhalten von etwa 150 bis 220 Watt je nach Notebook. Ohne Netzkabel wird bei High-End Notebooks eh auf 30 FPS gelockt und gedrosselt um jedenfalls 1 Stunde Spielzeit zu erreichen. Ich sehe da keine Probleme solange das Notebook am Netzteil ist. :)
 
Zuletzt bearbeitet:
Laut Google ist schon der Code der RTX 1080M für Notebooks aufgetaucht. Die Karte wird wohl 1 zu 1 zur Desktop Version kommen, es wird wohl nur leicht der Takt gesenkt wie bei der GTX 1080M um das TDP Limit einzuhalten von etwa 180 Watt. Ohne Netzkabel wird bei High-End Notebooks eh auf 30 FPS gelockt und gedrosselt um jedenfalls 1 Stunde Spielzeit zu erreichen. Ich sehe da keine Probleme solange das Notebook am Netzteil ist. :)

Das wird dann echt eine total gegimpte Version die nichts, aber auch gar nichts mit der Desktopkarte zu tun haben wird.
Lass Dich da nicht von Namen täuschen. Da ist nichts realistisch dran. Die Dinger haben 2.75slot Kühler im Desktop. 1,8Kilo +.

Wenn sowas im Mobole Bereich kommt, dann ist das nicht wie bei der 10series nahe volle Stärke. So viel Zaubern kann Nvidia da sicher nicht. Wenn die die halbe Leistung bringt wäre ich schon positiv überascht.
oder man sieht sie halt nur in den 10 Kilo Bricks die 30min Akkulaufzeit haben.
 
Joa das wird sich ja in laufe der Zeit zeigen, momentan ist die ja noch nicht mal vorgestellt.
 
Ist es, weil es für Spiele genauso ungeeignet ist wie ein Threadripper.
Skylake-X ist scheiße.

Schon mal einen i9 7920X gehabt?
Bis auf Far Cry 5 ist mein Skylake bei den hier getesteten Spielen noch jedesmal schneller als ein i7 8700K gewesen. Obwohl ich auch in Far Cry 5 FHD AV ~30% schneller als der hier getestete Threadripper gewesen bin.
Da brauchts jetzt nicht unbedingt ACO dazu um mit den schnellsten mithalten zu können.
Jüngstes Beispiel Shadow of the Tomb Raider. Da ein i7 7700K hier genauso schnell als ein i7 8700K kann es mit Multicore nicht so weit her sein.

Auch wenn hier nicht auf max gestellt ist. Wichtig sind ja die CPU Werte.
Einmal Ryzen 2700X mit mit einer GTX 1080 Ti.
2700X.jpg

Ab hier dann maxed.
i7 7700K @4.7GHz mit einer VegaLC
7700K.jpg

i7 8700K @5.1GHz mit einer TitanV
8700K.jpg

Und mein völlig unbrauchbarer Skylake X, der ja so Scheiße ist mit einer GTX 1080 Ti.
1440p maxed1.jpg

Jetzt vergleich mal die CPU Werte.

SkylakeX mag nicht in jedem Game erste Wahl sein, aber von nicht brauchbar und scheiße ist er ganz weit weg.
 
Zuletzt bearbeitet:
Ganz klar: In diesem Fall werden die GPUs falsch dargestellt. Ich bin vorsichtig zu behaupten, dass Turing darunter mehr leidet (sonst bin ich ja direkt wieder ein Fanboy), aber es sind durchaus Tests hier verlinked bei denen Turing mal locker flockig 15-50% mehr FPS produziert und die anderen Karten halt weniger.
Es verzieht also sogar die relative Performance.

So sehr ich verstehen kann, dass eine Hand voll extrem-Enthusiasten hier in diesem Board Intel+Nvidia sehen wollen und nichts anderes, so wenig ist es für mich nachvollziehbar wie Menschen, die sich morgens (vermutlich) selber die Schuhe zubinden so einen Blödsinn verfassen können.
Warum werden denn die GPUs falsch dargestellt? Die liefern doch genau ab, was sie imstande sind abzuliefern - in dem Szenario.
Es wachen doch jetzt nicht Leute hier auf und stellen fest, dass ein TR für die Benches verwendet wird.
Natürlich wird bei so einem Bench dann nicht das Ergebnis von Intel xyz und Nvidia abgebildet. Hallo. Weil eine andere cpu verwendet wird!
Da stänkern mehrere Leute gegen an und den Gedanken dahinter kann jeder verstehen.
Es ist ebenfalls nachvollziehbar für mich, dass viele hier 1+1 nicht zusammengezählt bekommen und eine andere URL eintippen oder eine Suchmaschine bedienen können. Wer einen Intel Bench sehen will findet den auch sehr fix.
Kann man einen separaten Thread aufmachen und das dann dort thematisieren. Ein paar Schulkinder sind ja quasi durchgehend IN DIESEM Forum unterwegs. Halbe Stunde weniger rumtrollen und mal selber was auf die Beine stellen - so man denn will.
Da sammeln hier User tausende Beiträge die ALLE nur mit trollen und stänkern zu tun haben.
Und am anderen Ende sitzen Boardbetreiber, die einer (großteilig) undankbaren Community Content zur Verfügung stellen. Hier laufen doch ein paar Prolls rum, die Geld verdienen mit in Foren abhängen und den ganzen Tag erzählen das Geld keine Rolle spielt, vielleicht legen da zwei, drei zusammen und spendieren dem HWTeam mal Sahnehardware. Was sind 1200 Euro? Nix, bekommste nicht mal ne Grafikkarte für ;)
Shame.

In Kürze haben ja eure Referenz youtube Kids tausend Benches online, mit denen dann URL Wars geführt werden können.

Was bei Vega nicht funktionierte (Nutzung des vorhandenen Potentials) wird bei Nvidia vermutlich klappen. Was seit Jahren möglich ist wird nun intensiv thematisiert und den Nutzern eingeredet sie können ab heute nicht mehr ohne leben. Da die in den Entwicklungen mit drin stecken wird in den nächsten zwei Jahren bestimmt was in dem Segment passieren, womit die Grundlage für die nächste Generation geschaffen wird (+15% Leistung, +30% Preis).
Sagt mir zumindest meine Glaskugel.
Auf jeden Fall bin ich gespannt was für Gewinn das Unternehmen in kürze angeben wird. Die werden jetzt ja ihre veralteten tis noch für 600 Euro los. Damit haben sie vermutlich selber nicht gerechnet, Mining sei dank!
 
Warum werden denn die GPUs falsch dargestellt? Die liefern doch genau ab, was sie imstande sind abzuliefern - in dem Szenario.

Und genau das habe ich auch geschrieben.
Ich hinterfrage nur wieso ein Szenario generiert wird, dass so in der Welt wohl nicht gefunden wird, weil niemand der so viel Geld ausgibt, so unglückliche Komponentenwahlen treffen wird.
Der restliche Rant und die restlichen Spitzen in andere Richtungen ignoriere ich einfach mal. Bist wohl mit dem falschen Fuß aufgestanden, passiert jedem mal.
 
@audioslave

Lass gut sein. Rattenmann will auf biegen und brechen sich seine gekaufte Karte schön reden. Das geht schon über Wochen so. Dabei werden absurde Aussagen getätigt und Behauptungen aufgestellt. Sowie sachliche Argumentationen von anderen als Unfug dargestellt. Die Benchmarkes auf HWL sind ihm halt einfach zu schlecht, also werden schein heillige Gründe erfunden.
Dabei decken sich die Benchmarkes ganz gut mit anderen, wo auf eine Intelplattform getestet wurde z.B:

Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega - Seite 55

Mal davon abgesehen dass in WQHD und UHD, bie bevorzuge Auflösung für eine TI, die CPU-Limitierung überhaupt keine Rolle spielt.

Aber lieber beruft man sich auf Fake Benchmarkes:

MSI GeForce RTX 2080 Ti Gaming X Trio 11 GB Review | TechPowerUp

Eine 2080 TI schafft in UHD in the Witcher 3 niemals an die 80 FPS. Selbst eine Costum 2080 TI bewegt sich im Bereich um die 63 FPS bei 2 GHz:

Zotac Geforce RTX 2080 Ti AMP Edition: Temperaturen, Lautstärke und Overclocking
 
Zuletzt bearbeitet:
DaHell63

Lass gut sein. Die wollen halt nicht glauben dass SkyX auch brauchbar für Gamer ist.

Gesendet von meinem SM-G935F mit Tapatalk
 
das war ja noch ohne OC

 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh