NVIDIAs RTX verlangt nach mehr CPU-Leistung in Battlefield V

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.755
battlefieldv.jpg
Im Rahmen der Vorstellung der GeForce-RTX-20-Serie von NVIDIA hatten wir die Gelegenheit, Battlefield V in einer RTX-Alpha anzuspielen. Bereits im Rahmen der Keynote zeigte NVIDIA eine Demo der RTX-Effekte. Dabei lag der Fokus vor allem auf dem Ray Tracing, was allerdings nur einen Teil der RTX-Technologie darstellt.Bereits am Montag konnten wir uns einen frühen Build der RTX-Alpha von Battlefield V näher anschauen. Derzeit limitiert DICE diese Alpha auf eine Auflösung von 1080p, sicherlich auch um einigen...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Performer
Dein Kommentar lässt erahnen, dass du nicht wirklich verstanden hast warum man für RT derzeit die speziellen Cores braucht. Du kannst RT theoretisch auch auf jeder herkömmlichen GPU betreiben jedoch wirst du daran keinen Spaß haben da die Leistung hinten und vorne nicht ausreichen wird.
 
Interessant bin gespannt, warum genau die Anforderungen von 4-Kerne reichen auf mindestens 8-12 Threads steigen beim Einsatz von „RTX“..
Eine Kinderkrankheit oder fehlt da doch noch einfach die Power zur Berechnung bestimmter zusätzlicher Operationen die nötig werden?
 
Zuletzt bearbeitet:
Bitte nich die Angaben zu den Mindestanforderungen als Vergleichsbasis zu den 8-12 Threads heranziehen.
 
Hoffe ja noch das Battlefied V auf einer 1080Ti ja noch ansehlich zu spielen ist.

Muss sagen momentan mag ich die neue Gen nicht kaufen. Will lieber noch eine Gen. abwarten und dann einen Rundumschlag machen mit einer starken Graka und einer starken CPU und einem neuen Monitor.

Will so einen richtigen Sprung mal wieder erleben :d
 
Zuletzt bearbeitet:
Will lieber noch eine Gen. abwarten und dann einen Rundumschlag machen mit einer starken Graka und einer starken CPU und einem neuen Monitor.

Habe schon so lange gewartet, und der Rundumschlag mit dem 9900k und der 2080ti steht unmittelbar bevor. Sollte in meinem Fall ein guter Sprung werden :)
 
Ich verstehe nur nicht warum diese ach so tollen neuen Cores so viel Aufpreis kosten. So etwas galt früher als technischer Fortschritt wie alle neuen Grafikeffekte. :p
Ich hätte statt einer RTX2080Ti für 1299€ gerne eine GTX2080Ti (also ohne RT) für 799€ und einen per Software emulierten Effekt der etwas schlechter aussieht. :drool:

Die Cores sind halt extra und nicht nur "überarbeitet".
Genauso die Tensorcores, auch die sind extra.

Das kostet.

Ich würde allerdings auch gerne eine Version ohne RT und Tensor sehen. Evtl. kommt das ja in Form der 2060 Line.
Es wird ja gemunkelt, dass dort evtl. weiterhin GTX entstehen wird.
Das Problem das wir da bekommen wird aber sein, dass Leute sich an Namen gewöhnt haben und auf diese Namen bestehen. Ein 1080ti user würde ja nie auf eine xx60 "downgraden", auch wenn sie viel schneller wäre. ;-)
Der Fokus auf das Namensschema sehen wir doch sehr schön bei der 2080 ti. Von der Hardware ist die viel weiter weg von der 2080 als die 1080ti von der 1080 weg ist. Aber das juckt niemand, alle schauen nur auf den Preis.

Wird spannend sein zu sehen ob 2080 -> 2080 ti ein größerer Sprung ist als gewohnt und wie die Leute dann reagieren auf den Preis.
Das und ob es echt eine GTX Erweiterung der 20er Line geben wird. Sinnvoll würde ich das auf alle Fälle sehen.

Zum Topic allerdings:
Interessant.
Da CPUs normal nie ausgelastet sind in games wäre das ggf. ein schöner Ansatz um die Performance zu pushen.
Sehe das also eher positiv als negativ in dem Fall, außer es wäre eine ungewollte Zusatzbelastung ohne Gain für die Applikation. Aber das wissen wir ja aktuell noch nicht.
 
Zuletzt bearbeitet:
Erstmals im Zusammenhang mit dem Thema Ray Tracing mit den Machern von Battlefield V in Kontakt getreten, ist NVIDIA vor gut einem Jahr. Vor etwa acht Monaten hat man sich an die Umsetzung gemacht und es zum aktuellen Entwicklungsstand gebracht. Geplant ist, dass NVIDIAs RTX-Technologie zum Start von Battlefield V zur Verfügung steht.

Auf die Frage zum Aufwand die RTX-Technologie zu implementieren, sagte DICE, dass dies recht komplex sei. Ingenieursstunden wollte man uns nicht nennen, es hätten jedoch mehrere Entwickler über die besagten acht Monate an der Umsetzung gesessen.

Also könnte es das gleiche Schicksal wie die DX12 Implementierung ereilen, zumal 8 Monate doch ziemlich lange ist um "It just works" einzubauen.

Wenns für Entwickler zu Zeitaufwenig ist und kein Geld bringt (wobei sich da sicher NV kümmern wird) wird es nicht gemacht... schade.
 
Ich verstehe nur nicht warum diese ach so tollen neuen Cores so viel Aufpreis kosten. So etwas galt früher als technischer Fortschritt wie alle neuen Grafikeffekte. :p

Da gab es ja auch noch ernsthafte Konkurrenz auf dem Markt. Dieser schrumpfte vor einigen Jahren auf ein Duopol und zeigt nun erste deutliche Ansätze eines Monopols. Marktwirtschaft halt...
 
ich glaube ja die 20xx Serie wird "the melkening". 7nm oä. steht ja schon ins Haus, mit dem release der ti gleich zu Beginn seh ich das bestätigt, dass man ziemlich bald ein 7nm refresh sehen wird. zwar ohne mehrleistung aber gesenkten kosten, vor allem natürlich für nv. dann können alle die jetzt kaufen zufrieden sein, denn sie sind dann eben "early adaptor" und haben die Leistung schon seit 6 Monaten.

ich glaube jedenfalls ich bleib bei meiner 1080 und warte 7nm ab.
 
Interessant bin gespannt, warum genau die Anforderungen von 4-Kerne reichen auf mindestens 8-12 Threads steigen beim Einsatz von „RTX“..
Eine Kinderkrankheit oder fehlt da doch noch einfach die Power zur Berechnung bestimmter zusätzlicher Operationen die nötig werden?

war das damals bei Phyisc-X nicht auch der Fall?
dass es trotz GPU / Hardware Support noch CPU Leistung gezogen hat (und das war auf Nvidia bezogen nicht auf die Probleme wo AMD/ATI mit den "NVIDIA Games" hatte).
 
Performer ... setz dich in deine Designsauna ... du kapierst RT einfach nicht. Da ist nicht die Rede von 1 Strahl sondern Millionen je nach Szene - mach das auf ner 1080ti und die spuckt dir 1 FPS aus ... wenn überhaupt. Beschäftige dich doch einfach mal mit dem Thema, bevor du meinst die neuen Cores sind scheiße. Der Rechenaufwand ist einfach immens.
 
@Performer: Man könnte meinen, dass du hier neu bist und erst seit 2 Monaten einen PC hast.
Um dir das deutlich zu machen:

Du hast ein Spiel, das 2D und 3D kann. Jetzt verlangst du das die GPU die 100 FPS in 3D schafft, die die CPU alleine in 2D hin bekommt.
Das die CPU 3D nur mit 5 FPS hinbekommt und die GPU hier um den Faktor 10 beschläunigt, ist für dich ein Rückschritt.

Raytracing ist eine andere Arbeit, hierfür gibt es spezielle optimierte Teile im Chip. Wie viel arbeit man dem Teil des Chips nun gibt (die restliche GPU muss dann ja auch noch Mehrarbeit Leisten um das in ein Bild zu gießen, wie auch die CPU), hat mit dem Spiel ohne Raytracing NICHTS zu tun.
 
Na weil sie in jedem Thema gleich überteuert ist :)
Eine HighEnd-Grafikkarte hat max 500€ zu kosten, alles andere ist Abzocke. Und Neuentwicklungen stecken nun in praktisch jeder Generation, denn sonst wär's ja keine gewesen...
Beim heutige Preisniveau kann man schon nur noch hoffen, dass keine Nachfolgegeneration mehr erscheint, damit die Anforderungen der Spiele nicht steigen, denn um sich noch einigermaßen auszuzahlen müsste man so eine 1080ti doch schon ca. 8 Jahre lang nutzen..
 
Zuletzt bearbeitet:
ich glaube ja die 20xx Serie wird "the melkening". 7nm oä. steht ja schon ins Haus, mit dem release der ti gleich zu Beginn seh ich das bestätigt, dass man ziemlich bald ein 7nm refresh sehen wird. zwar ohne mehrleistung aber gesenkten kosten, vor allem natürlich für nv. dann können alle die jetzt kaufen zufrieden sein, denn sie sind dann eben "early adaptor" und haben die Leistung schon seit 6 Monaten.

ich glaube jedenfalls ich bleib bei meiner 1080 und warte 7nm ab.


Mache ich woh ebenfalls, und hoffe auf dann mehr Vram..
 
Zuletzt bearbeitet:
Der Aufpreis ist immens...

Besonders der Aufpreis (immer im Vergleich zu den Pascal FEs) bei der 2080 ti FE tut weh, $500 mehr ist schon ein dickes Brett, die TI ist jetzt das, was früher die Titan war. Die 2080 FE liegt mit "nur" $100 mehr noch halbwegs im Rahmen, die 2070 FE mit $150 mehr ist auch wieder schmerzhaft teurer, außerdem hat die kein NVlink. Dass es bei allen Karten kein größeres RAM gibt, kommt auch noch dazu. Aber so ist das eben, wenn es keine Konkurrenz im oberen Bereich mehr gibt, AMD will keiner kaufen, 1060 wird meist einer RX 580, 1070ti/1080 wird meist einer Vega vorgezogen. Die Kunden sind es selber Schuld. Nvidia macht es jetzt anders als Intel bei den CPUs, sie bringen neue Features und auch mehr Speed, lassen sich das aber auch ordentlich bezahlen, gleichzeitig wächst der Abstand zu AMD immer mehr an. Und gekauft wird es trotzdem, auf der deutschen Nvidia-Seite sind die ersten Chargen 2070 und 2080 schon ausverkauft, die 2070 war am ersten Tag schon weg.
 
Zuletzt bearbeitet:
Wo läuft man denn in aktuellen Games in ein vRAM-limit? Schnelleren vRAM würde ich ja verstehen, aber mehr? Rechnen in 8K und downsampling auf 4K?
 
...Um es einfach zu halten: Ich kaufe mir eine RTX2080Ti für 1300€.
Tomb Raider läuft ohne RT mit 100FPS. Ich aktiviere RT und es sind nur noch 50FPS. Wofür habe ich 500€ Aufpreis gegenüber meiner alten GPU bezahlt ?

Hi Performer,

Du bezahlst den Aufpreis für die Verbesserung der Bildqualität bzw. -Darstellung. Dieses Raytracing erlaubt eine viel natürlichere Beleuchtung mit akkurateren Reflexionen und vor allem Schatten! Du wirst ohne Raytracing wohl (in Glaskugel schaut) zw. 18-25 % mehr Leistung durch die hinzugekommenen CUDA-Cores in nicht-raytraced Beleuchteten Games erhalten und sobald du in den Game-Optionen 'Raytracing' aktivierst, erhälst du eine Schöner beleuchtete 3D-Szene im Vgl. zur herkömmlichen (gerasterten) Darstellung/Berechnung dieser. Bislang wurden Reflexionen und Schattenverläufe oft gefaked oder galten nur für statische GameObjects und bei dynamischen (zb sich bewegende Charactere oder Autos) kamen niedrig aufgelöste Tricks ins Spiel oder sie wurde gänzlich von aufwendigeren Berechnungen ausgeschlossen. Das hat sich nun dank der RTX-Reihe geändert, das wird gefeiert.. :) ----k.A: OB Dir das den Aufpreis wert ist...^^

Frage an alle:
Habe ich das richtig verstanden in der Präsentation, daß sich der VRAM addiert in SLI (bzw. dem neuen SLI) bei der 2080Ti? Das gabs ja noch nie...

MfG,
Ray

- - - Updated - - -

Besonders der Aufpreis (immer im Vergleich zu den Pascal FEs) bei der 2080 ti FE tut weh, $500 mehr ist schon ein dickes Brett, die TI ist jetzt das, was früher die Titan war. ...

Das denke ich ebenfalls. nvidia hat einfach die Namensvergabe verändert und nicht die Preisklassen verschoben. Ich stimme Dir da voll zu, die 2080Ti ist das was bisalng die Titan darstellte. Vermutlich wurde das so entschieden, weil dieses Mal nicht nach und nach sondern in einem Rutsch die neue Graka-Serie released wurden, hatten wir schon ewig nicht mehr oder noch nie, kann mich nicht erinnern?

MfG,
Ray
 
Zuletzt bearbeitet:
Erfunden nicht aber bringt es der breiten Masse.. Günstig sicher nicht aber besser als die 50000 Euro Hardware auf der sonst so was berechnet wird
 
also für mich war das eigentlich klar das die cpu da auch mithelfen muss. Ich hatte das nie anders gedacht. Aber fürn Hate gegen Nvidia reichts scheinbar allemal.
 
Was ich mir durchaus noch vorstellen kann, ist dass Nvidia mit dem Preis auch gleich die Serverfarm finanziert, damit die Spielentwickler keine zusätzlichen Kosten abdrücken müssen, wenn sie ihre Spiele für DLSS optimieren wollen.
 
Eigentlich sehr gut zusammengefasst aber bekommen wir nicht schon seit 20 Jahren mit jeder Grafikkartengeneration irgendwelche neuen Grafikeffekte die das Bild verbessern ?

Wenn dir die Mehrleistung und die neuen Features den Preis nicht wert sind, dann kaufst du einfach nicht. Wo ist eigentlich das Problem?

Wer gerne tolle Screenshots seiner Games macht, für den ist das neue Ansel interessant, beim dann Standbild können viel mehr Strahlen und Reflexionen berechnet werden. Die neuen Cores sollen auch bei der Videoaufzeichnung und beim Streaming helfen, das kommt dann den Youtubern und Twitchern zu Gute. Mit DLSS könnte es die 2080 (evtl. auch die 2070?) schaffen, durchgehend mind. 60fps in UHD auf den Monitor zu bringen.

Wer das alles nicht braucht oder will, der kann sich ja auch eine Vega kaufen und damit den Wettbewerb unterstützen.
 
Zuletzt bearbeitet:
Wo läuft man denn in aktuellen Games in ein vRAM-limit? Schnelleren vRAM würde ich ja verstehen, aber mehr? Rechnen in 8K und downsampling auf 4K?

Wurde oft genug durchgekaut, gibt genug Games und es werden immer mehr..
Mir gehts hier ums Prinzip, neue Gen nach über 2 Jahren und zu Mondpreisen mit Vram Stillstand ? WTF ?
 
Schließe mich Thrawn an. Zumal das Argument "reicht ja für aktuelles" gerade beim PC das dümmste Argument für NEUE Hardware überhaupt ist. Nach der Argumentation hätten wir immer noch 128 kb RAM und 2 MB Festplatten...... Wer nicht so viel braucht, kauft dann halt Mid Range und danach Low End.....
 
Mich hätte Nvidia mit der neeun Gen bekommen, 2070 mit 8GB Vram, 2080 mit 16GB Vram und die 2018Ti mit 22GB ? Da würde ich direkt eine gute Custom 2080(Ti) kaufen, auch für 900 ne 2080 und 1300 ne Ti, aber SO wies jetzt ist riechts dannach das die 7NM RTX Gen mehr Vram bekommt um auch die RTX first gen Käufer weider zu melken..
 
Zuletzt bearbeitet:
Echt gruslig wenn Leute das wiederholen, was ihnen jemand auf einer Bühne erzählt hat :eek: Ich habe auch gestaunt also ich zum ersten mal Texturen mit Tiefwirkung in Crysis sah
oder Licht und Schattenspiele in Doom 3 oder Sonnenstrahlen durch Vegetation in Stalker aber die hat mir keiner teuer verkauft sondern als Fortschritt kostenlos mit dazugegeben.
Letztendlich muss die sichtbare Verbesserung in einem gesunden Verhältnis zum Aufpreis stehen und ist bei RT (noch) nicht der Fall. Vielleicht bei der nächsten GPU Generation :)

Kauf dir lieber mehr Kerne... lohnt sich eher als die Lederjacke zu finanzieren :haha:

Der Typ hat's nicht mehr alle :shake:
 
Ja Performer, sehe ich auch so, deine Ansicht ist erfrischend klar und ohne Schnörkel!

Mehr ist dazu nicht zu sagen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh