NVIDIA GeForce RTX 2080 mit erstem TimeSpy-Ergebnis

ja, bezogen auf die grafikpunkte natürlich. anders wäre es ja widersinnig getrennte werte zu liefern.


(..)

mfg
tobi
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das die Chips (TU104 & TU102) gegenüber der alten Generation (Pascal) größer geworden sind mag zwar ein Faktum sein, aber ich halte es für abwegig die Mehrkosten allein anhand der UVP abzuleiten. Die ausgerufenen Preise haben mMn - wenn überhaupt - nur teilweise etwas mit gestiegenen Fertigungskosten oder Entwicklungskosten zu tun. Es ist unrealistisch zu glauben, dass die Kosten für Fertigung und Entwicklung so massiv gestiegen sind, dass sie die UVP in irgendeiner Weise komplett rechtfertigen würden. EIN KLEINER TEIL davon mag vielleicht gerechtfertigt sein, aber ein viel größerer Teil davon dient schlicht und einfach einer höheren Marge. Man kann das machen weil es die aktuelle Marktsituation wohl zulässt.

+20.

Und das meiste davon gab es eh längst davor. Es wurde nur für auf einem Chip für den Zocker verheiratet. Keine Ahnung auch warum man in 12nm fertigen sollte, wenn 16nm preiswerter wäre. Höhere Produktionskosten... Ist klar.

@Elmario
Ich vermute die Leute die darüber lästern schauen eher auf die neure Geschichte der Preisgestaltung der anderen IC-Macher (z.B. CPUs von Intel, AMD, ARM) als auf 3dfx zurückzublicken...
 
Zuletzt bearbeitet:
Ist mir schon klar ... es werden Daten übertragen um Bilder besser aussehen zu lassen und nicht das Frame selbst. Der Verständlichkeit halber gehts darum das das Spiel nachher besser aussieht, daher meine Aussage in Bezug auf Romsky der gleich Skynet vermutet.

So ein Unsinn, Skynet.... :stupid:
Ich mache mir nur Gedanken über diese Entwicklung und das es klar weg geht vom Rechner daheim. Des Weiteren mache ich mir einfach auch Gedanken was und wohin von meinen Daten gesendet wird. Sollte man nicht so leicht hinnehmen, die Büchse der Pandora ist schneller geöffnet als einen lieb ist.
 
Daher halten wir den voraussichtlichen Zwang für GFE in diesem Zusammenhang für nicht sinnvoll.
 
Naja nicht ganz sol dann in 5 Jahren eine 7080Ti oder so ihre 4000€ kosten oder wie. :wall:

in 5 jahren haben wir etwa 20% inflation(real) und wenn die leistung fast 4 mal so hoch ist im vergleich zu der rtx 2080, klar wieso ned.

solange es die leute kaufen, passt dich alles. dass jeder am liebstem top technik will und noch dabei geld einnehmen ist klar, nur eben dumm.

also wer kaufen will, kann es, wer ned will, muss ned ;)
 
Und das meiste davon gab es eh längst davor. Es wurde nur für auf einem Chip für den Zocker verheiratet. Keine Ahnung auch warum man in 12nm fertigen sollte, wenn 16nm preiswerter wäre. Höhere Produktionskosten... Ist klar.

Zur Verteidigung nVidias muss man dazu sagen, dass 12FFN und 16FF+ bei der Flächenmetrik gleich sind. Man kann daher relativ sicher davon ausgehen, dass TU104 (~550mm²) und TU102 (754mm²) höhere Fertigungskosten gegenüber GP104 (314m²) und GP102 (471mm²) verursachen. Man bekommt also weniger Dies (vor allem voll funktionierende) aus einen Wafer geschnitten. Wieviel das genau ausmacht ist aber schwer zu sagen. Aber nach den letzten Finanzzahlen zu urteilen wird nVidia mit der Marge sicher nicht runtergehen müssen/wollen.

Milchmädchenrechnung:

Gehen wir einfach mal (großzügig) davon aus, dass TU104 und TU102 das doppelte im Vergleich zu ihren Vorgängern kosten. Bisher schätzte man die Kosten für High-End Chips immer irgendwo zwischen 120,- und 170,- $ bei der Fertigung (falls jemand dazu die Quelle noch weiß, kann er sie gerne posten). Wenn der GP102 grob 150,- $ gekostet hat, dann steigt der Preis auf 300,- $ für den TU102. Das wären dann 150,- $ mehr an Kosten. UVP bei der 1080Ti (GP102) war 729,- $. UVP bei der 2080Ti (TU102) ist 999,- $ (FE sogar 1199,- $). Das macht 270,- bzw. 470,- $ Differenz. Verrechnet man die höheren Kosten von 150,- $, so erhält man immer noch eine Preissteigerung von 120,- bzw. 320,- $, die sich NICHT durch die höheren Fertigungskosten allein erklären lässt. Beim TU104 sieht das sicher etwas besser für nVidia aus, aber es sind hier nun auch immer teildeaktivierte Chips verbaut, was die Ausbeute enorm steigern kann. Ich gehe auch davon aus, dass die tatsächlichen Fertigungskosten für TU104 und TU102 deutlich niedriger sind, als hier in der Rechnung gezeigt. Aber OK, wer eine bessere Rechnung aufmachen kann, der darf sie gerne vorlegen.
 
Ich glaube, GDDR6 ist auch 20% teurer als GDDR5.
Da Nvidia auch massig in Forschung und Entwicklung investiert, wir das wohl über die gut laufenden Sparten/Produkte querfinanziert.


Gesendet von meinem G8341 mit Tapatalk
 
Zur Verteidigung nVidias muss man dazu sagen, dass 12FFN und 16FF+ bei der Flächenmetrik gleich sind. Man kann daher relativ sicher davon ausgehen, dass TU104 (~550mm²) und TU102 (754mm²) höhere Fertigungskosten gegenüber GP104 (314m²) und GP102 (471mm²) verursachen. Man bekommt also weniger Dies (vor allem voll funktionierende) aus einen Wafer geschnitten. Wieviel das genau ausmacht ist aber schwer zu sagen. Aber nach den letzten Finanzzahlen zu urteilen wird nVidia mit der Marge sicher nicht runtergehen müssen/wollen.
Ich könnte mir sehr gut vorstellen, daß als damals die Planung der 2000er anlief, TSMC NV erzählt hat, bis dahin können sie das in 7nm produzieren :)

Mit 7nm haben sich die Fertiger alle übernommen ;) Nichtmal 10nm sind schon wirklich gut beherrschbar.
 

AMD Fanboy? 🤦

NV kann doch nichts dafür dass die Konkurrenz im GPU Sektor seit Jahren nichts brauchbares liefert (Highend Grafikkarten). Dass NV so stark ist, ist deren Verdienst und ich finde so fair sollte man bleiben und ihnen das zugestehen.
Sollen sie ihre Arbeit einfach verschenken? Sicher nicht, wenn andere diese DLSS Daten haben wollen werden sie wohl bezahlen müssen, sofern NV diese überhaupt bereit ist zu verkaufen, wenn nicht hat man das auch zu akzeptieren.
Die Konkurrenz muss halt selbst liefern um das Monopol zu brechen.

Das einzige dass man NV ankreiden kann bezüglich DLSS und "Cloud" ist dass sie diese DLSS-Optimierungen nicht als separate Optimierungsdaten für das jeweilige Spiel zum Download anbieten sondern sie eben nur über GFE mit Login zur Verfügung stellen.

Ich stimme deinem Post in voller Gänze zu, bis auf diesen Teil. Ich kann das so schon verstehen wenn das stimmt welchen Aufwand NV betreibt um diese Daten zu berechnen. Diese Daten sind zu kostbar um sie der Konkurrenz einfach so offen zu legen. Ich würde an NV Stelle eben diese auch nicht einfach offen legen.
Blöd ist dass man DLSS so wohl offline nicht nutzen kann. Wäre interessant ob man die Algorithmen nicht einfach im Treiber verstecken könnte, so könnte man DLSS dann auch offline verwenden, das wird ja so wie es geplant ist vermutlich nicht möglich sein.


Gesendet von meinem BLA-L29 mit Tapatalk
 
Also wird dieses DLSS nicht mit dem Treiber verknüpft sondern mit GFE? Ich frage weil ich bisher noch nie mehr als nur den Treiber selbst installiert habe.

Das ist eine Frage, die uns NVIDIA noch schuldig ist. Das hatten wir im Zusammenhang mit DLSS auf dem Event gefragt, man konnte uns aber keine eindeutige Antwort geben. Ich gehe aber davon aus, dass man dies an GFE knüpfen wird.
 
es wird wohl kaum in Realtime ein AA Pattern von NVidia gezogen werden.. also wird das Pattern regelmäßig per GFE updated
 
Was heisst sowas?

NV kann doch nichts dafür dass die Konkurrenz im GPU Sektor seit Jahren nichts brauchbares liefert (Highend Grafikkarten). Dass NV so stark ist, ist deren Verdienst und ich finde so fair sollte man bleiben und ihnen das zugestehen.
Ja, eigentlich hast du Recht. Ich find das daher immer recht armselig, wenn zum Launch von XY mal wieder ein Pressetreiber leakt der das nicht richtig darstellt was paar fps kostet usw. Immer muß man drauf vorbereitet sein, daß erstmal irgendwo irgendwas im Busch ist.
Und das einzige was man dagegen tut ist ein NDA, dank welchem der ggf. verarschte Redaktuer sich darüber nichtmal echoffieren darf.

Arme Luxx-Redaktion :)
 
Zuletzt bearbeitet:
hmm eine 2080 mit 2025Mhz ist in einem Benchmark in etwa gleich schnell wie eine custom 1080ti - nett aber nichts was mich aus den Socken haut, vor allem nicht bei den dafür aufgerufenen Preisen. Und warum war das wohl wieder kein DX11 Benchmark ;)

btw. meine msi @stock schafft in Timespy 10400 Punkte
 
Zuletzt bearbeitet:
Bin sehr auf erste Tests gespannt. Das ganze Gehate und Gejubel gehört endlich mal durch Fakten und Reviews weggeblasen. Der erste Performance Eindruck (sofern es eine 1080 ist) bestätigt ja schon mal, dass es weder eine unglaublich lahme, noch eine extrem schnelle Karte ist, sondern im Rahmen dessen, was durch den Fertiguns-Shrink und allgemeine Optimierungen zu erwarten ist.

Auf Raytracing habe ich mich schon sehr lange gefreut und hatte eigentlich noch nicht mit Implementierungen im Gaming Bereich gerechnet. Im den VFX Bereich wird das sowieso umkrempeln, da dort ja schon jetzt mit CUDA und OpenCL Raytract. Vlado (CTO und Mitbegründer von V-Ray) hat schon vielversprechende previews gegeben.

Was DLSS und die böse "Cloud" angeht so wird sich nVidia hoffentlich wunderbar an GDPR halten. Sofern es also wirklich um die Übertragung personenbezogener Daten geht, wird DLSS optional per opt-in funktionieren müssen. Wem es dann nicht passt der kann ja aus den zig vorhandenen anderen Methoden wählen.
 
Woher bekommt man Meister Proper kostenlos? :hmm:
 
was man ganz nüchtern betrachten sollte ist, dass.preid/leistung hier ins gewicht fallen. 50% mehrleistung für 50% mehr preis ist doch ok

Nein, nicht ok, nach zwei Jahren Zyklus. Du schreibst es selbst, preis/leistung ist relevant. Das sollte sich aber mit einer neuen Generation verbessern. Turing macht da im Vergleich zu Pascal Stagnation, wenn nicht gar einen Rückschritt.
 
Ich glaube, GDDR6 ist auch 20% teurer als GDDR5.

Ja, aber was bedeuten dann 20% im absoluten Maßstab? Wenn ein 1GB GDDR5 Chip 20,- $ kostet, dann steigen die Kosten für GDDR6 um 4,- $. Bei 8GB sind das dann 32,- $. Deswegen muss eine Karte aber nicht gleich 100,- $ teurer werden, was aber leider oft so gehandhabt wird. Auch sind das meist grobe Vergleichsangaben der Speicherhersteller selbst. Ich denke, bei Großabnehmern (wie nVidia) sollte das kaum ins Gewicht fallen.
 
Bin sehr auf erste Tests gespannt. Das ganze Gehate und Gejubel gehört endlich mal durch Fakten und Reviews weggeblasen. Der erste Performance Eindruck (sofern es eine 1080 ist) bestätigt ja schon mal, dass es weder eine unglaublich lahme, noch eine extrem schnelle Karte ist, sondern im Rahmen dessen, was durch den Fertiguns-Shrink und allgemeine Optimierungen zu erwarten ist.

Auf Raytracing habe ich mich schon sehr lange gefreut und hatte eigentlich noch nicht mit Implementierungen im Gaming Bereich gerechnet. Im den VFX Bereich wird das sowieso umkrempeln, da dort ja schon jetzt mit CUDA und OpenCL Raytract. Vlado (CTO und Mitbegründer von V-Ray) hat schon vielversprechende previews gegeben.

Was DLSS und die böse "Cloud" angeht so wird sich nVidia hoffentlich wunderbar an GDPR halten. Sofern es also wirklich um die Übertragung personenbezogener Daten geht, wird DLSS optional per opt-in funktionieren müssen. Wem es dann nicht passt der kann ja aus den zig vorhandenen anderen Methoden wählen.

Kannst du aber knicken mit den neuen RTX! ;) Es sind ja nur wenige Berechnungen welche die Karte per RayTrace kann.... im VFX Bereich (bin da selber sehr aktiv) sind ganz andere Anforderungen, wo eine RTX 0,0 bringt.
 
Ja, aber was bedeuten dann 20% im absoluten Maßstab? Wenn ein 1GB GDDR5 Chip 20,- $ kostet, dann steigen die Kosten für GDDR6 um 4,- $. Bei 8GB sind das dann 32,- $. Deswegen muss eine Karte aber nicht gleich 100,- $ teurer werden, was aber leider oft so gehandhabt wird. Auch sind das meist grobe Vergleichsangaben der Speicherhersteller selbst. Ich denke, bei Großabnehmern (wie nVidia) sollte das kaum ins Gewicht fallen.
Das stimmt. Zumal die 1080/ti ja auch mit GDDR5X ausgestattet sind, der wahrscheinlich fast ähnlich teuer wie GDDR6 ist.

Gesendet von meinem G8341 mit Tapatalk
 
Richtig, ich hatte das deswegen gefragt, weil TimeSpy ja ein RTUpdate angekündigt hatte und im Artikel nicht steht, ob das Update bereites enthalten ist, habe es zumindest nicht gesehen.
 
Ich weiß ja nicht ob "bin da selber sehr aktiv" ein Qualitätskriterium ist, aber ich untermauere da lieber mit Fakten. Diesen hier z.b.

What does the new NVIDIA RTX hardware mean for ray tracing, GPU rendering and V-Ray? | Chaos Group

Denn auch große Production Renderer wie Arnold experimentieren mit GPGPU Raytracing und da hilft eine Hardwarenahe Umsetzung mittels RT Cores ungemein. Abgesehen davon ist für den Entwicklungsprozess (Licht setzen, Shader bauen usw) eine möglichst schnelle Echtzeitansicht ziemlich hilfreich. Kein 200*200 Pixel Fensterchen mit ein paar Samples um einen Eindruck zu bekommen.

Schade das Ray Tracing durch diese oft unsachliche Diskussion so einen faden Beigeschmack bekommt. Es ist an sich eine unglaublich geniale Herangehensweise und (sofern wir dem ganzen noch ein paar Jahre bzw. Iterationen an Hardware geben) wünschenswerte Entwicklung. Ohne diesen überproportionalen Preisanstieg hätte man sich wohl nicht so drauf gestürzt. Dann hätten die meisten die Option einfach so lange nicht aktiviert, bis es dadurch keine Leistungseinbußen mehr gibt. Denn auch das hängt von der Implementierung und Häufigkeit im Spiel ab.
 
Was heisst sowas?

Naja seine Aussage ist EINFACH Humbug, man kann NV ja viel vorwerfen, hohe Preise und ausnutzen ihres Monopols. Aber sich über die neue Technologie echauffieren und sich drüber aufregen dass die, zumindest vorerst voraussichtlich NV exklusiv bleibt ist doch Schwachsinn. Das klingt einfach nur nach nem verbitterten Fan der roten.

Also ich hab nix gegen AMD auch wenn sich das irgendwie so liest oben, hab mir erst dieses Jahr nen Prozessor gekauft weil ich dazu beitragen möchte dass AMD wieder zu alter Stärke zurück findet. Bei den Grafikkarten ist da für mich nur leider aktuell nichts in Sicht, nicht mal in weiter Ferne.

Ja, eigentlich hast du Recht. Ich find das daher immer recht armselig, wenn zum Launch von XY mal wieder ein Pressetreiber leakt der das nicht richtig darstellt was paar fps kostet usw. Immer muß man drauf vorbereitet sein, daß erstmal irgendwo irgendwas im Busch ist.
Und das einzige was man dagegen tut ist ein NDA, dank welchem der ggf. verarschte Redaktuer sich darüber nichtmal echoffieren darf.

Arme Luxx-Redaktion :)

Naja Klarheit werden erst unabhängige Tests bringen aber ich kann mir nicht vorstellen dass da nix dran ist.
Das NDA lässt aber auch viel Angriffsfläche, es wirkt schon etwas als hätte man was zu verbergen.

Gesendet von meinem BLA-L29 mit Tapatalk
 
Zuletzt bearbeitet:
Richtig, ich hatte das deswegen gefragt, weil TimeSpy ja ein RTUpdate angekündigt hatte und im Artikel nicht steht, ob das Update bereites enthalten ist, habe es zumindest nicht gesehen.

Nein, es wird wohl auch ein eigenständiger RT-Benchmark sein und kein TimeSpy mit RT. Zumindest in diesem Vergleich hier spielte das alles noch keine Rolle.
 
was man ganz nüchtern betrachten sollte ist, dass.preid/leistung hier ins gewicht fallen. 50% mehrleistung für 50% mehr preis ist doch ok


und die mehrleistunf sehen wir dann in unabhängigen test mit entsprechenden spielen. den rest regelt der martlkt.

Äh, und irgendwann bezahlen wir dann mal ein paar Millionen für ne neue Grafikkarte?
:stupid:
 
Äh, und irgendwann bezahlen wir dann mal ein paar Millionen für ne neue Grafikkarte?
:stupid:
Ja also 50% würde ich nicht mitgehen. Die 2080 von Gigabyte kostet mit 849€ gut 6% mehr als meine GTX 1080 von Gigabyte zu Release. Das ist gerade noch verschmerzbar in der aktuellen Situation.
Aber Dauerzustand darf das nicht werden, selbst 6% mehr jede Generation wird unbezahlbar.
Das rechtfertigt dann kein Benchmark der Welt, egal wie hoch der ausfällt.


Gesendet von meinem BLA-L29 mit Tapatalk
 
Zuletzt bearbeitet:
Zunächst verlangt hier Nvidia einen mutmaßlich saftigen Aufpreis für ein neues Feature, welches noch nicht umfänglich in SW zur Verfügung steht, man könnte hier auch von einer Art "Nötigung" sprechen, was aber nicht heißen soll, dass ich das als so negativ ansehe, halte ich das dennoch für einen möglichen Grund, warum hier so kontrovers darüber diskutiert wird und die Akzeptanz für RT noch zu fehlen scheint.
 
Zuletzt bearbeitet:
Ja also 50% würde ich nicht mitgehen. Die 2080 von Gigabyte kostet mit 849€ gut 6% mehr als meine GTX 1080 von Gigabyte zu Release. Das ist gerade noch verschmerzbar in der aktuellen Situation.
Aber Dauerzustand darf das nicht werden, selbst 6% mehr jede Generation wird unbezahlbar.
Das rechtfertigt dann kein Benchmark der Welt, egal wie hoch der ausfällt.


Gesendet von meinem BLA-L29 mit Tapatalk

Sieht bei meiner GTX 1080 GLH ähnlich aus. Ist für 750€ gestartet und kostet ein paar Monate später ca 550€. Nicht wirklich weit entfernt von der RTX 2080.

Die RTX 2080 Ti kommt jetzt ein Jahr früher als sonst das Ti Modell und kostet dafür überproportional viel. Würde sie erst in einem Jahr erscheinen, könnte man sie vermutlich auch nur für 20-30% weniger anbieten. Oder anders gesagt: Hätte nvidia die GTX 1080 Ti zum Release er GTX 1080 auf den Markt gebracht, hätte auch diese damals wohl über 1000 Euro gekostet.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh