NVIDIA GeForce RTX 2080 mit erstem TimeSpy-Ergebnis

Endlich mal neue Zahlen mit denen man auch was anfangen kann.

Aber der Wert für die GTX1080Ti im Artikel kommt mir irgendwie niedrig vor, ist das der Wert der beim Launch der Karte ermittelt wurde - also ohne aktuellen Treiber?
Bei meiner GTX1080Ti habe ich lediglich den Vram etwas (24MHz) angehoben, dabei komme ich fast 900Punkite mehr (Siehe Signatur), dabei sind die Werte mit undervolting sogar noch höher die aber nicht in den Wert einfließen - da ich dies erst später machte.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Aber der Wert für die GTX1080Ti im Artikel kommt mir irgendwie niedrig vor, ist das der Wert der beim Launch der Karte ermittelt wurde - also ohne aktuellen Treiber?

Nein, letzte Woche mit einer Founders Edition und damals aktuellem Treiber (die anderen Werte jeweils auch).
 
Nagut, womöglich ist mein System besser als euer Testsystem.
 
Bei meiner GTX1080Ti habe ich lediglich den Vram etwas (24MHz) angehoben.

in deiner signatur hast du hinterlegt das du das powerlimit auf 120% und das temp limit auf 90°c angehoben hast, das stimmt dann wohl nicht ;)?

wenn doch erklärt es deine 900 punkte ganz gut.
 
Zuletzt bearbeitet:
Wir reden hier auch von der Graphics Score, das restliche System sollte also keine Rolle spielen.
 
Hm, also wird eine 2070 diesmal nur gerade so das alte Ti Modell überholen, wenn überhaupt.
Sehr traurig, gerade weil man ne 1080Ti (gerade die gebrauchten) dann wohl für weniger als ne 2070 bekommen kann.
Der einzige Pluspunkt wäre dann evtl. der niedrigere Verbrauch. Aber da muss man erst sehen ob das wirklich so viel ist.
 
Also ich finde die Preise ja auch ne Frechheit und ich könnte auf die zusätzlichen Effekte von RT scheißen. Zwei Dinge aber würden es für mich trotzdem interessant machen.

Schaufelt das RT durch Arbeitsübernahme (Reflexionen, Beleuchtung, etc.) mehr Leistung frei fürs Rasterizing und erhöht dass dann die Gesamtperformance? Das wäre sehr gut! Dann kann ich der Technologie doch noch was abgewinnen.

Das andere ist, wird die RTX 2080 Ti die erste Grafikkarte mit der man ein wirklich gutes 4K Erlebnis haben kann? Betreibe seit ner GTX 1070 4K und es passt eh schon einigermaßen, aber so um die 100 FPS im Schnitt wären schon schön :)
 
glaskugel:
mit dieser DLSS-technik begiebt man sich in eine weitere abhängigkeit zu NV, weil man dann nurnoch mit NV-karten spiele spielen kann, die dann irgendwelche vorberechnungen zu besseren darstellung machen,
sprich, wenn sich das durchsetzt:
keine nv-karte, keine vorberechnungen, kein so schönes spiel, keine konkurrenz-karten möglich, man soll nurnoch nv-karten kaufen oder abstriche hinnehmen.....
bei der monitor-sync-technik konnte man ja noch ohne spielen bzw drauf verzichten, aber jenachdem wie weit die spielehersteller da involviert werden, bzw sich dahin drängen lassen nurnoch DLSS zu unterstützen und alles andere nurnoch rudmentär zu programmieren, begibt man sich in eine starke abhängigkeit in ein geschlossenes system, oder soll DLSS so ein offenes system wie mantel zb werden? glaube nicht...
 
Zuletzt bearbeitet:
@sTOrM41
Alles klar, das habe ich wohl komplett ausgeblendet, ich habe dem wohl unterbewusst zu wenig Wert beigemessen.
Wir reden hier auch von der Graphics Score, das restliche System sollte also keine Rolle spielen.
Das weiß ich natürlich das die Grafik-Punkte alleine angegeben wird, dass das restliche System keine Rolle spielt ist aber doch kleinrederei, wer versorgt denn die Grafikkarte mit mit den nötigen imput :hust: Aber mir ist schon klar worauf man hinaus will, Ryzen hat man verwendet was man verschweigen will ;)
 
Für den gleichen Fertigungsprozess inkl. Rays sehr gute Werte.
 
mit dieser DLSS-technik begiebt man sich in eine weitere abhängigkeit zu NV, weil man dann nur noch mit NV-karten spiele spielen kann, die dann irgendwelche vorberechnungen zu besseren darstellung machen,
sprich, wenn sich das durchsetzt:
keine nv-karte, keine vorberechnungen, kein so schönes spiel, keine konkurrenz-karten möglich, man soll nurnoch nv-karten kaufen oder abstriche hinnehmen.....
Oh ja, es gibt ja keine anderen AA-Verfahren mehr, DLSS ist die einzige AA-Technik am Markt.
NV hat sich ein weiteres Alleinstellungsmerkmal überlegt, dürfen das Unternehmen jetzt auch schon nicht mehr? NV und AMD arbeiten schon seit Ewigkeiten an Ihren AA-Optimierungen im Treiber.

Was wollt Ihr eigentlich?
Einerseits erwartet Ihr Euch in jeder Generation mind. 50% Leistungsplus, natürlich keine Mehrkosten.
Unternehmen dürfen auch auf keinen Fall mehr etwas speziell für Ihre Käufer umsetzen, ja nicht.
NV hat also eine Technologie auf Ihren speziellen Recheneinheiten etabliert (damit sie auch für Gamer vermehrt Nutzen haben abseits RT), die "AI" macht nichts anderes außer die Berechnungen der idealen AA-Voraussetzungen für das Spiel und gibt sie dann an GFE weiter.
Das einzige dass man NV ankreiden kann bezüglich DLSS und "Cloud" ist dass sie diese DLSS-Optimierungen nicht als separate Optimierungsdaten für das jeweilige Spiel zum Download anbieten sondern sie eben nur über GFE mit Login zur Verfügung stellen.

Alles klar, das habe ich wohl komplett ausgeblendet, ich habe dem wohl unterbewusst zu wenig Wert beigemessen.
Und deinen anderen Kühler hast du auch vergessen ;)
 
Zuletzt bearbeitet:
Es werden keine Frames von dir übertragen. Ich sehe schon, für den Test der RTX-Karten muss ich etwas weiter ausholen ;)

Ist mir schon klar ... es werden Daten übertragen um Bilder besser aussehen zu lassen und nicht das Frame selbst. Der Verständlichkeit halber gehts darum das das Spiel nachher besser aussieht, daher meine Aussage in Bezug auf Romsky der gleich Skynet vermutet.
 
Also bis 100€ Mehrkosten wären ok gewesen weil das war von GTX780Ti UVP 649€ -> GTX980Ti UVP 739€ -> GTX1080Ti UVP 819€ auch so
aber der Sprung von 819€ zu RTX2080Ti UVP 1259€ sind 440€ Aufpreis. Da eine GTX1080Ti aktuell nur 700€ kostet sind es sogar 500€+. :-[

hätte die FE rgb leds wäre der Preis gerechtfertigt.
 
Das sehe ich ähnlich wie Performer. Ich bin ja bereit bei einer neuen Generation für komplexere Chips, höhere Fertigungskosten, anteilig Entwicklungskosten etc. auch einen Aufpreis im Vergleich zur aktuellen Generation zu zahlen.
Aber der aktuelle Preisaufschlag ist schon heftig, auch wenn sich das Preisniveau sicher in einigen Monaten nivelliert haben wird.
 
was man ganz nüchtern betrachten sollte ist, dass.preid/leistung hier ins gewicht fallen. 50% mehrleistung für 50% mehr preis ist doch ok


und die mehrleistunf sehen wir dann in unabhängigen test mit entsprechenden spielen. den rest regelt der martlkt.
 
Ist doch alles noch viel zu billig zu haben! Also man geht hier im Luxx nun, dank nvidia, ganz selbstverständlich davon aus, dass Nachfolgegenerationen proportional zur Mehrleistung teurer sein müssen als ihre Vorgänger.
Von einem Preis von 300DM bei damals der Voodoo2 ausgehend, und einem Leistungsverhältnis zu einer GTX1080 von etwa 1:5000 ausgehend, wäre der angemessene Preis nach der im Hardwareluxx vorherrschenden Meinung also 1,5Millionen DM, ca. 750.000€.

Wie kann nvidia nur so billig verkaufen? Da muss doch irgendwas nicht stimmen...die sind bestimmt ein gemeinnützer Verein, und machen das auf eigene Kosten, um die Welt zu verbessern!
 
Zuletzt bearbeitet:
ja, rechnen wir alles in DM, wechseln es auf der tokyoter börse in yen, investieren es in schweinebäuche und haben dann 25 Millionen an anteilsscheinen die wir in pseudoleerverkäufen auf 40 Millionen heben. dann lassen wir uns auszahlen.
 
Ist doch alles noch viel zu billig zu haben! Also man geht hier im Luxx nun, dank nvidia, ganz selbstverständlich davon aus, dass Nachfolgegenerationen proportional zur Mehrleistung teurer sein müssen als ihre Vorgänger.
Von einem Preis von 300DM bei damals der Voodoo2 ausgehend, und einem Leistungsverhältnis zu einer GTX1080 von etwa 1:5000 ausgehend, wäre der angemessene Preis nach der im Hardwareluxx vorherrschenden Meinung also 1,5Millionen DM, ca. 750.000€.

Wie kann nvidia nur so billig verkaufen? Da muss doch irgendwas nicht stimmen...die sind bestimmt ein gemeinnützer Verein, und machen das auf eigene Kosten, um die Welt zu verbessern!

zeig mal DEN Post in allen Threads zum Thema, in dem behauptet wird die Grakas sind zu billig und sollten teurer sein
 
Einfach nur der Hammer was hier fürn geistiger Dünnschiss produziert wird, einfach nur der Hammer.
 
ja webmi, und deine einzelleistung ist auch nicht von schlechten eltern. irgendwo muss kan damPf ablassen, alle tun hier so als ob die magischen salamander vom jupiter die welt übernehmen wenn man mal seine meinung sagt.
 
Das die Chips (TU104 & TU102) gegenüber der alten Generation (Pascal) größer geworden sind mag zwar ein Faktum sein, aber ich halte es für abwegig die Mehrkosten allein anhand der UVP abzuleiten. Die ausgerufenen Preise haben mMn - wenn überhaupt - nur teilweise etwas mit gestiegenen Fertigungskosten oder Entwicklungskosten zu tun. Es ist unrealistisch zu glauben, dass die Kosten für Fertigung und Entwicklung so massiv gestiegen sind, dass sie die UVP in irgendeiner Weise komplett rechtfertigen würden. EIN KLEINER TEIL davon mag vielleicht gerechtfertigt sein, aber ein viel größerer Teil davon dient schlicht und einfach einer höheren Marge. Man kann das machen weil es die aktuelle Marktsituation wohl zulässt.
 
aber der Sprung von 819€ zu RTX2080Ti UVP 1259€ sind 440€ Aufpreis. Da eine GTX1080Ti aktuell nur 700€ kostet sind es sogar 500€+.



Naja die ti ist quasi die alte Titan, die mit 1300€ 40€ teurer ist, aber keine Aftermarket Kühler hat.
 
Zuletzt bearbeitet:
ja webmi, und deine einzelleistung ist auch nicht von schlechten eltern. irgendwo muss kan damPf ablassen, alle tun hier so als ob die magischen salamander vom jupiter die welt übernehmen wenn man mal seine meinung sagt.

Meinungen sind wie Arschlöcher, jeder hat eins

wenns denn bei Meinungen bleiben würde :)

90% ist Geheule: zu teuer, zu wenig Leistung, zu teuer, viel zu teuer, zu teuer? zu teuer!
und die anderen 10% sind: Boykott, Make Love not War!, AMD kaufen!, Monopol!, und mein Liebling: "propritäre" Kacke, lul RTX, Boykott, NWO, ne danke ich bleib bei meinem Medion Akoya Hyperbärbel-Rechner, kauft kein Nvidia!, AMD ftw lol!


es ist so langweilig....
 
was man ganz nüchtern betrachten sollte ist, dass.preid/leistung hier ins gewicht fallen. 50% mehrleistung für 50% mehr preis ist doch ok


und die mehrleistunf sehen wir dann in unabhängigen test mit entsprechenden spielen. den rest regelt der martlkt.

Naja nicht ganz sol dann in 5 Jahren eine 7080Ti oder so ihre 4000€ kosten oder wie. :wall:
 
Es werden keine Frames von dir übertragen. Ich sehe schon, für den Test der RTX-Karten muss ich etwas weiter ausholen ;)

Sehr gerne.
Es wäre gut die typisch deutschen Aluhüte abzufangen und zu erklären was da wirklich passiert.

Es ist ermüdent wie viele Leute absolut falsche Aussagen als Fakten hinstellen und damit andere Unwissende anstecken.
 
wäre schön, wenn salamitaktik bedeuten würde, dass 300g dreimal soviel kosten wie 100g.


(..)

mfg
tobi
 
Das ist jetzt mal eine Verständnis-frage meinerseits.
Der Benchmark bezieht sich auf Time Spy 1.0 und dort auch nur auf die Grafik-Punkte, nicht auf die allgemeine Score, oder? D.h. in diesem Fallbeispiel hat die RTX2080(?) 10030 Grafik-Punkte? Ist also ein Prozessor unabhängiger Benchmark?

Viele Grüße
Tom

Edit: Wenn man Seite 2 aufmerksam liest, dann ist die Frage bereits beantwortet worden. Sorry..... :fresse:
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh