NVIDIA GeForce RTX 2080 mit erstem TimeSpy-Ergebnis

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.960
nvidia-rtx2080ti.jpg
Es war nur eine Frage der Zeit, bis wir die ersten belastbaren Benchmarks zu den neuen Karten der GeForce-RTX-20-Serie sehen werden. Dies ist nun der Fall, denn in der Benchmarkdatenbank von UL ist ein Ergebnis einer GeForce RTX 2080 im TimeSpy-Benchmark aufgetaucht.Das nun aufgetauchte Ergebnis ist vor allem dahingehend interessant, weil es vermutlich eines der ersten ist, welches mit der finalen Hardware und fast fertigen Treibern erstellt wurde. Anhand der Erkennung der Hardware ist nicht ganz klar, um welche Karte der GeForce-RTX-20-Serie es sich handelt. Der Speicherausbau von 8 GB deutet aber klar auf eine GeForce RTX 2080 oder RTX 2070 hin. Da die GeForce...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also ne 1080Ti ist bei dem Takt näher an den 11k Graphics Score zu finden als die 2080 hier.

Und ob die Karten wirklich "deutlich" höher takten bleibt abzuwarten. Ich sehe da auch nicht mehr als 2100 bevor der Chip oder eher das Powerlimit limitiert.

Falls sich die Turing Karten nicht deutlich abheben hat Nvidia aber sicherlich wieder ein paar Treiberkniffe in Petto. Wäre ja nicht das erste mal, dass man die ältere Architektur ausbremst damit die neue besser da steht.
 
Zuletzt bearbeitet:
Das wird ja immer spannender ?
 
Sieht aus als sollte AdoredTV mit seinen Einschätzungen Recht behalten.
 
Wenn sich das so bei den Spielen bestätigt, ein durchaus sehr gutes Ergebnis.
 
Krass. Also dann ~10% mehr i.Vgl. zu einer 1080Ti, die man für 600€ neu bekommt.

Preis Leistung ist dann ja echt klasse, 10% mehr Leistung für 50% mehr Kosten.
 
Krass. Also dann ~10% mehr i.Vgl. zu einer 1080Ti, die man für 600€ neu bekommt.

Preis Leistung ist dann ja echt klasse, 10% mehr Leistung für 50% mehr Kosten.


angebot und nachfrage. viel interessanter fände ich es, was möglich wäre wenn man das powerlimit aushebeln könnte und ne gute wasserkühlung hat.
 
Wäre ja nicht das erste mal, dass man die ältere Architektur ausbremst damit die neue besser da steht.

Hast du dafür mal ein paar konkrete Beispiele? Ist ja eigentlich logisch das eine neue Architektur ab Launch besser zulegen kann als eine, die schon länger auf dem Markt ist. Natürlich gewinnt deshalb die neue Architektur relativ gesehen. Aber die alte wird nicht langsamer.
 
10% mehr Leistung wie die 1080ti ohne DLSS (also ohne das die Tensor / RT Kerne was zu tun haben) ginge für mich in Ordnung. Hätte zwar lieber +20% gehabt, aber wir sind ja nicht bei einem Wunschkonzert ;). Wenn man berücksichtigt das mit DLSS für zukünftige Titel ein neuer starker Kantenglättungsmodus zur Verfügung steht der Qualitativ FXAA schlägt und auch mehr Performance bietet sowie RT das zumindest bei moderatem Einsatz auch 4k fähig ist (Enlisted). So ist der Aufpreis von ca. 300,-€ meiner Meinung nach gerade so verschmerzbar.
 
Also ne 1080Ti ist bei dem Takt näher an den 11k Graphics Score zu finden als die 2080 hier.

Und ob die Karten wirklich "deutlich" höher takten bleibt abzuwarten. Ich sehe da auch nicht mehr als 2100 bevor der Chip oder eher das Powerlimit limitiert.

Falls sich die Turing Karten nicht deutlich abheben hat Nvidia aber sicherlich wieder ein paar Treiberkniffe in Petto. Wäre ja nicht das erste mal, dass man die ältere Architektur ausbremst damit die neue besser da steht.

Beweise oder Quellen hierzu? Mein letzter Stand war, dass sich die Leistung über die Zeit durch Treiber sogar verbessert und das nachgewiesen.


Krass. Also dann ~10% mehr i.Vgl. zu einer 1080Ti, die man für 600€ neu bekommt.

Preis Leistung ist dann ja echt klasse, 10% mehr Leistung für 50% mehr Kosten.

Aktuell zahlst du Early Adopter Preis und das hatte die 1080ti zu Beginn ebenso un absurden Höhen und nachträglich ging es noch weiter hoch dank dem Mining Boom.

Jetzt wartet doch mal endlich ab bis die Karten echte Reviews haben und tatsächlich den Markt für 1-2 Monate erreicht haben.
 
also mit der Titan X Pascal, nicht XP habe ich da 11500 und mit der Titan V 14700


als grober Anhalt...

grob hochgerechnet kommt ne 2080ti dann auf 14000-14500
 
Zuletzt bearbeitet:
~11% mehr gehen doch vollkommen in Ordnung?
Das Ding hat mit seinen 2944 ALUs bei 2,025GHz grob 11,9TFlop/s - ne 1080TI mit soliden 0815 1,8GHz kommt bei 3584 ALUs auf 12,9TFlop/s. Macht also grob 7,7% weniger ALU-Rohpower bei grob 11% mehr Leistung. Ne Effizienzsteigerung von 15-20% avg. -> das ist in etwa das, was Maxwell real auch schneller als Kepler war zu Anfangs.

Bleibts bei diesen Taktraten für die TU102 - und ähnlicher Leistungssteigerung ggü GP102 pro Takt, geht die 2080TI in die Region 50-55% über so ne 1080TI mit 1,8GHz. Das wäre "nur" leicht unterhalb des üblichen ~60% Sprungs vom TopDog zum TopDog.
Wobei natürlich die 2,025GHz durchaus sportlich sein dürften und ggf. nichtmal ohne groß Kühlaufwand drin sein werden.
 
Ziemlich mieses Ergebnis, wenn ich das gegen meine 1,5 Jahre alte 1080Ti halte. Mit nem Coretakt von 1962MHz erreiche ich mit der 1080Ti 10253 Punkte beim Grafikscore in Timespy. Und das Ganze noch mit dem Custom-Air-Cooler von MSI... NVidia, ihr dürft eure neuen Karten behalten und dran ersticken !
 
ja 2080 vs 1080ti hast gesehen oder?
das ist nicht 2080ti vs 1080ti


780ti war auch grob 980
980ti war grob 1080
1080ti grob 2080

verstehe das Problem nicht
 
50% leistungsplus wäre in etwa das was ich durch meinen 1440p + 144hz monitor gegenüber 60hz 1080p verloren haben. aber 900 euro für die 2080 sind halt übel.
 
10% mehr Leistung wie die 1080ti ohne DLSS (also ohne das die Tensor / RT Kerne was zu tun haben) ginge für mich in Ordnung. Hätte zwar lieber +20% gehabt, aber wir sind ja nicht bei einem Wunschkonzert ;). Wenn man berücksichtigt das mit DLSS für zukünftige Titel ein neuer starker Kantenglättungsmodus zur Verfügung steht der Qualitativ FXAA schlägt und auch mehr Performance bietet sowie RT das zumindest bei moderatem Einsatz auch 4k fähig ist (Enlisted). So ist der Aufpreis von ca. 300,-€ meiner Meinung nach gerade so verschmerzbar.


Weiss gar nicht was so viele mit den DLSS haben? Ich hoffe den Befürwortern von DLSS ist klar das dieses das Ende des jetzigen Gamings bedeuten kann. DLSS wird für DeepLearning in die Cloud von Nvidia ausgelagert und dann an die Grafikkarte ausgegeben. Wenn das eine hohe Akzeptanz findet wird es nicht mehr lange dauern und das gesamte Gaming findet Über die Cloud statt. Dann war es das mit "Kiste" bauen, modding usw. Ich bin ein absoluter Gegner dieser ganzen Cloud-Geschichte. Null Kontrolle über die Daten und wenn du mal kein Web hast war es das dann auch schon... egal ob Gaming usw. Verstehe nicht wieso so viele diese Entwicklung gut heißen! o_O
 
Der Preis ist das Problem ! Warum sollte man sich denn eine 900€ teure Grafikkarte zulegen, die nicht schneller ist als eine 600€ Grafikkarte ? 50% Aufpreis für die gleiche Leistung... Das RTX ist bis jetzt nur 'ne nette Spielerei und die Einbußen die man hinnehmen muss wenn man's aktiviert sind von dem bisher Gezeigten ja immens.

Problem jetzt verstanden ?
 
Weiss gar nicht was so viele mit den DLSS haben? Ich hoffe den Befürwortern von DLSS ist klar das dieses das Ende des jetzigen Gamings bedeuten kann. DLSS wird für DeepLearning in die Cloud von Nvidia ausgelagert und dann an die Grafikkarte ausgegeben.

DLSS hat in der aktuellen technischen Umsetzung NICHTS mit Cloud-Gaming zu tun. DLSS funktioniert offline, nachdem die Daten über GFE übertragen wurden und ist das DL-Netzwerk einmal trainiert, funktioniert es auch auf Spielen, auf denen das DL-Netzwerk nicht explizit trainiert wurde. Auf der GeForce RTX findet ein lokales Inferencing statt, mehr nicht.
 
hm 25% mehr punkte als meine übertaktete gtx 1080 für die ich mitte 2017 435€ bezahlt habe..

begeistert mich jetzt noch nicht so sehr.

naja mal abwarten.. vllt ist die 2080 ja ein takt-wundern und vllt kostet sie ein paar monate nach release auch nicht mehr so viel.


die ganze tendenz gefällt mir aber allerdings nicht.

wenn die 2080ti ~40-50% schneller ist als die 1080ti,
dann ist das ding dann fast doppelt so schnell wie die fetteste graka der konkurenz..
die nächste generation kostet dann vermutlich noch eine schippe mehr -___-

ich kann das der lederjacke nicht mal verübeln, würde wohl genau so handeln - das ändert aber nichts daran dass das für mich als konsument doch ziemlich kacke ist :fresse:
 
Zuletzt bearbeitet:
@Don
Es hat nichts damit zu tun es wird aber angefangen Daten für erstmalige Berechnung auszulagern. Wehret den Anfängen.

DLSS ist nicht nutzbar ohne die NV Cloud. Zumindest um Profile zu bekommen oder die erste Analyse zu machen. Ich sagte ja, das ist der erste Schritt. Oder denkst du allen Ernstes die machen das mit den Auslagern nur um dir das Beste zu bieten? ;) Da sind ganz andere Interessen dahinter.
 
DLSS hat in der aktuellen technischen Umsetzung NICHTS mit Cloud-Gaming zu tun. DLSS funktioniert offline, nachdem die Daten über GFE übertragen wurden und ist das DL-Netzwerk einmal trainiert, funktioniert es auch auf Spielen, auf denen das DL-Netzwerk nicht explizit trainiert wurde. Auf der GeForce RTX findet ein lokales Inferencing statt, mehr nicht.

So hatte ich das auch verstanden, deswegen stehe ich der Technik sehr offen gegenüber. AA war letztlich das, was ich immer auf meiner GTX 1080 ausschalten musste, damit die FPS einiger maßen in 4k oben bleibt. Bei einem 40 Zöller ist AA auch in 4k sinnvoll und sieht meiner Meinung nach auch spürbar besser aus.

Was das RT bringt wird sich zeigen müssen. Ich werde es vermutlich mal in Full HD spielen um den Wau Effekt zu erleben und dann vermutlich wieder auf 4k ohne RT wechseln bzw. darauf hoffen das die Hersteller verschiedene Qualitätsstufen ermöglichen - so das die FPS Werte nicht einbrechen/durch RT limitiert werden.
 
@Don
Es hat nichts damit zu tun es wird aber angefangen Daten für erstmalige Berechnung auszulagern.

Mal rein auf DLSS bezogen: Soll jeder jetzt zu Hause sein eigenes DL-Netzwerk trainieren? Also man kann sich ja über die Sinnhaftigkeit von DLSS unterhalten, aber in der aktuellen Form wäre das anders nicht umzusetzen – oder habe ich was verpasst?
 
Jetzt bin ich aber mal gespannt welche Interessen nVidia mit Bilddateien aus Spielen verfolgt ... :d
 
Jetzt bin ich aber mal gespannt welche Interessen nVidia mit Bilddateien aus Spielen verfolgt ... :d

Es werden keine Frames von dir übertragen. Ich sehe schon, für den Test der RTX-Karten muss ich etwas weiter ausholen ;)
 
Zuletzt bearbeitet:
Mal rein auf DLSS bezogen: Soll jeder jetzt zu Hause sein eigenes DL-Netzwerk trainieren? Also man kann sich ja über die Sinnhaftigkeit von DLSS unterhalten, aber in der aktuellen Form wäre das anders nicht umzusetzen – oder habe ich was verpasst?

Ich würde behaupten das es in der aktuellen Form einfach nicht unbedingt benötigt wird. Die Vorteile sind nicht wirklich gravierend. Die Entwicklung in diese Richtung is mMn einfach die falsche, zumindest für den End-&Privatkunden. Da ist der erste Schritt Daten und Berechnungen auszulagern. Noch sind wir bei der Analyse und DeepLearning... das geht aber weiter.... irgendwann sagt uns dann (vermutlich Lederjacke) das bestimmte Effekte oder FPS nur noch über Cloud möglich sind da zur rechenintensiv man aber für ein Abo bekommen kann. (Datenschutz lasse ich mit Absicht mal beiseite)

- - - Updated - - -

Es werden keine Frames von dir übertragen. Ich sehe schon, für den Test der RTX-Karten muss ich etwas weiter ausholen ;)

Es werden aber Daten übertragen was du und wann du spielst. Welche Daten dabei durch "Zufall" mit übertragen werden weisst weder du noch jemand Anderes außer Nvidia. ;)
 
Das sind alles gute Punkte, die man diskutieren kann und auch sollte, keine Frage. Du differenzierst das auch, aber wie viele haben in den vergangenen Tagen DLSS falsch verstanden? Da ist die Rede von "wird in der Cloud gerendet", "dann übertrage ich alle meine Daten an NVIDIA" etc. pp.

Man kann ich über den Sinn oder Unsinn von DLSS unterhalten, die technische Komponente dahinter ist aber zunächst einmal wenig spektakulär, muss nur genauer erklärt werden.

Ich bezweifele übrigens, dass NVIDIA einfach so irgendwelche Daten überträgt, ohne das davon jemand etwas mitbekommt. Dazu schauen zu viele auf den Datenstream zwischen GFE und den NVIDIA-Servern.
 
Ich bezweifele übrigens, dass NVIDIA einfach so irgendwelche Daten überträgt, ohne das davon jemand etwas mitbekommt. Dazu schauen zu viele auf den Datenstream zwischen GFE und den NVIDIA-Servern.

Genau, einfach so käme auch einer Sicherheit Lücke gleich, an welcher Stelle holt sich der Treiber eigentlich das Einverständnis für den Übertragungsvorgang oder ist das in den allgemeinen Nutzungsbedingungen des Treibers bereits enthalten bei NV?
 
läuft aber nicht unter dx12, oder hat sich da was geändert?
 
also mit der Titan X Pascal, nicht XP habe ich da 11500 und mit der Titan V 14200


als grober Anhalt...

grob hochgerechnet kommt ne 2080ti dann auf 14000-14500
Sollte deine Schätzung hinkommen, wäre das für mich ein mehr als akzeptables Ergebnis, die Titan V ist ja nicht gerade günstig. Sollte DLSS dann zusätzlich noch einen Leistungsschub bringen wird die Ti ne ganze Weile für meine Games reichen
[emoji2]

Gesendet von meinem BLA-L29 mit Tapatalk
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh