NVIDIA macht die GeForce RTX 2080 Ti, RTX 2080 und RTX 2070 offiziell

@Goderion
Und nochmal. Ergo, wenn du nochmal trivial-banales Zeug verlinkst, weil DU damit MIR etwas erklären willst, landest du auf der Ignorelist.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Goderion
Und nochmal. Ergo, wenn du nochmal trivial-banales Zeug verlinkst, weil DU damit MIR etwas erklären willst, landest du auf der Ignorelist.
Keine Ahnung, warum du dich dadurch angegriffen fühlst, bzw. es dich so sehr stört. Ich bin für jeden Link dankbar, auch wenn es sich dabei um Wissen handelt, dass für mich "trivial-banal" ist. Woher soll jemand wissen, der mit mir "diskutiert", was für mich banal ist und was nicht. Auch Links, die jeder per Google einfach selber finden kann, sind willkommen, warum auch nicht? Ich habe das Gefühl, dass Du damit irgendwie eine Form von Bewertung verbindest. Nur weil ich Dir oder sonst irgendwem einfache/banale Sachen verlinke, denke ich nicht, dass die Person dumm, doof oder ähnliches ist, sondern hoffe, damit der Person einen kleinen Gefallen zu machen. Dazu kommt auch noch, dass es vielleicht das Interesse Anderer weckt, und ihnen der Link dann nützlich ist.

Ich bin hier, um hauptsächlich mein Wissen zu mehren, und NICHT um mich klüger oder besser darzustellen, als andere. Falls das so rüberkommt, tut es mir leid, und liegt an meiner sozialen Inkompetenz. :fresse: Das soll auch keine Ausrede dafür sein, dass ich manchmal Quatsch erzähle/schreibe. ^^
 
Auch immer lustig, das alle davon ausgehen 4K @ 144Hz ist easy zu regeln.

Wenn man bei Witcher3 @ 4K so 50 FPS hat, dann hat man bei FHD ca. 200 FPS.
Demnach bräuchte man in FHD ca. 580FPS um auf die gewünschten 144FPS zu kommen, das muss man nem Normalo erstmal erklären.
Die meisten sind froh wenn die Witcher in FHD auf hoch mit 60-100 FPS spielen können.

Das muss man sich mal vorstellen, früher bei Crysis da hatte man kaum eine Chance bei FHD auf über 60FPS zu kommen.

Zusätzlich kommen dann bei neuen Spielen auch immer die Umgebung (Weitsicht, Schatten, usw.) dazu die immer besser und realistischer aussehen.
Dadurch hat so eine Graka auch nicht weniger zutun.

Früher bei Crysis Wars habe ich innerhalb von 1 Monat 5 mal ne neuen PC zusammen geschraubt um auf +80 Fps zu kommen.... das war ein feines Spiel und die Grafik ist bis heute noch nicht wirklich überboten worden
 
@Performer

Das ist ein guter Ansatz, das könnte ich mir via Treiber vorstellen, warum sollte das nicht gehen. :)
 
Danke für den Link!

Schein bar läuft das schon jetzt ziemlich gut, wenn die SW mit macht.
Laut Artikel wurde Vulkan und nicht DirectX12 für das Raytracing verwendet. Vielleicht wurden hier die RT-Effekt auch sparsamer eingesetzt.

Das ist ja das Ziel einen Programmierers, den Code zu optimieren damit die Software auf der gegebenen Hardware am besten läuft.
Ich meinte damit nicht nur den Code, auch das Modell wird wahrscheinlich bis ins letzte Polygon perfektioniert sein. Für ein normales Spiel wäre das alles viel zu aufwändig.

Was mich bei der ganzen Diskussion wundert ist warum es nur um A und B geht also RT an und RT aus ? Kann man die Anzahl der Rays nicht variieren ?
Dann gäbe es wie bei jedem anderen Grafikeffekt low, medium und high oder kostet es so viel Leistung, dass die Programmierer es vorher entscheiden ?
Bis jetzt habe ich das so verstanden, dass das Raytracing per RTX/DXR über eine Art Shader funktioniert. Der Programmier sollte damit die volle Kontrolle darüber haben, wie "intensiv" er diese Technik einsetzt. Also ja, gibt nicht nur AN oder AUS.
 
Warum nimmt man sowas nicht für die Presentation? ;)
Ich kenne nur Cousine Royal der Ableger davon und dort ist selbst auf meiner GTX 960 die Grafik geil, die Vulcan implementierung ist bestimmt auch nicht zu verachten die spiele müssen ja auf PS4 und Xbox laufen da bietet sich der Schritt an.

Auf das Spiel bin ich schon gespannt wie es wird.

Gesendet von meinem RNE-L21 mit Tapatalk
 
Es gibt da ein Feature für das RT wohl unerreichbar genial ist durch aktuelle "Trickerseien".

Prozedural erstelle Welten.
Man kann nicht die korrekten Spiegelungen und Lichteffekte faken, wenn man vorher gar nicht weiß wie die Welt aussehen wird.
RT löst dieses Problem ohne Aufwand.

Bedeutet, dass diese random erstellten Welten mit RT um ein Vielfaches besser aussehen können in Zukunft.

- - - Updated - - -

Habt ihr das schon gesehen RT mit über 90 FPS in 4K :eek:
Nvidia Geforce RTX 2080: Enlisted-Demo mit aktivem Raytracing lief in 4K mit über 90 Fps

Schein bar läuft das schon jetzt ziemlich gut, wenn die SW mit macht.

Beeindruckend.
Danke für den Link.
Das hätten sie neben Battlefield zeigen sollen und nicht Tomb Raider.
 
Was mich bei der ganzen Diskussion wundert ist warum es nur um A und B geht also RT an und RT aus ?

Lässt sich relativ simpel erklären:

RTX ON zeigt alle Reflexionen, alle eingebauten Features usw. komplett - egal wie mies die Performance ist, solange es nur flüssig aussieht in der Präsentation

RTX OFF zeigt das gleiche Spiel, allerdings KOMPLETT OHNE Reflektionen, ohne jegliche RTX Features - und hier kommt der Knackpunkt an der Nummer - und auch OHNE jegliche Features ala Spiegelungen / Licht / Schatten etc. die man sonst schon in Games hat und ebenso gut aussehen können

Warum macht man das so?

Marketing-Kalkül. Man vergleicht wieder was ganz bescheiden aussehendes mit dem eigenen sehr gut dargestellten Produkt, anstatt sein Produkt gegen den aktuellen Stand der Technik antreten zu lassen, der garnicht so übel ist. Man versucht künstlich die Differenz zwischen alt ( einfach mal komplette aktuelle Features rauslassen, obwohl es diese schon seit Jahren gibt ) und neu künstlich zu vergrößern.

Mir hat auch ein Mensch aus der 3D-Animations-Ecke erklärt, dass man viele Dinge aus der RTX Demo heute schon implementieren kann auch ohne RTX. Nicht immer 100% genauso schick, aber performant und mehr als ausreichend. Gerade bei BFV wird der Unterschied beim ersten Anspielen zwar gut erkennbar sein, aber nach 1-2h Spielzeit juckts einen nicht mehr oder es ist eh deaktiviert auf den Serven, damit non-RTX User im MP keinen Nachteil haben.
 
Ihr dürft auch nicht vergessen, dass diese RTX on/off Geschichte, parodierende Bilder waren bisher, wo alles deutlich besser ohne RTX aussah. ;)

Lenzlich wird es ein Feature sein, was die Bildqualität möglicherweise "nu" subjektiv deutlich verbessert, daher war die Idee von @Performer auch ziemlich gut ...
 
RTX OFF zeigt das gleiche Spiel, allerdings KOMPLETT OHNE Reflektionen, ohne jegliche RTX Features - und hier kommt der Knackpunkt an der Nummer - und auch OHNE jegliche Features ala Spiegelungen / Licht / Schatten etc. die man sonst schon in Games hat und ebenso gut aussehen können

Das stimmt so nicht.
Bei der Präsentation hat man bei Tomb-Raider die "normalen" Schatten bei RTX Off gezeigt und auch die Lichter.
 
Die Vergleiche würde ich allesamt nicht in der Form heranziehen, um RTX-Effekte mit den bisherigen "Tricks" zu vergleichen. NVIDIA nimmt hier in fast jeder Demo nur einen Bruchteil moderner Shadereffekte zur Hand und stellt dies den nun vorhandenen RTX-Effekten gegenüber. Warten wir doch einfach auf "echte" Vergleiche der Spiele mit höchsten Settings und dann eben RTX on/off ;)
 
Die Vergleiche würde ich allesamt nicht in der Form heranziehen, um RTX-Effekte mit den bisherigen "Tricks" zu vergleichen. NVIDIA nimmt hier in fast jeder Demo nur einen Bruchteil moderner Shadereffekte zur Hand und stellt dies den nun vorhandenen RTX-Effekten gegenüber. Warten wir doch einfach auf "echte" Vergleiche der Spiele mit höchsten Settings und dann eben RTX on/off ;)

Meine Worte ... danke Don.

Ich bin gespannt, wie die Teile werden.
 
Naja, Ich persönlich eher nicht aber BF ist eh nicht mein Spiel da fand ich Controll spannender
Ich wurde immer gefeiert als ich noch aktiv neuen in Escape from Tarkov die Karten gezeigt hatte, der erste Spruch von mir war immer vergesst Spiele wie CoD oder BF wir haben da eine gänzlich andere Situation zumal man nie sicher vor Überraschungen ist. Selbst ein Spieler mit 300 Stunden kann bei Unachtsamkeit die Ausrüstung verlieren.

Gesendet von meinem RNE-L21 mit Tapatalk
 
Hier das MSi LineUp: kv.jpg

Das Topmodell fehlt leider noch. Genauso wie die 2070.
 
Trio-X oder Duke könnten mir zusagen - insofern die Duke nicht so eine Krankheit wird wie die 1080 Ti Duke.
 
Hmm evga will scheinbar die Karten mit einem dual Fan Design kühlen, aber die meisten anderen nutzen tripple Fan. Jetzt ist natürlich die Frage ob EVGA es wirklich geschafft hat alles nochmal zu verbessern und deshalb kein trple Fan Design benötigt. Wobei auf der Websaeite steht 3Fan und 2 Fan, aber bisher alles mit 2 Fan bestückt ist auf den Fotos. Mal schauen was da noch kommt.
 
Du hast keine Ahnung. Wer lesen kann und so...

Es steht doch alles exakt auf der EVGA Homepage.
Die FTW3 hat 3 Lüfter, die XC2 hat 2. Kühler ist bei den Topmodellen der iCX2: EVGA - Technology - iCX2
 
Hmm evga will scheinbar die Karten mit einem dual Fan Design kühlen, aber die meisten anderen nutzen tripple Fan. Jetzt ist natürlich die Frage ob EVGA es wirklich geschafft hat alles nochmal zu verbessern und deshalb kein trple Fan Design benötigt. Wobei auf der Websaeite steht 3Fan und 2 Fan, aber bisher alles mit 2 Fan bestückt ist auf den Fotos. Mal schauen was da noch kommt.

EVGA kommt auch mit 3 Lüftern.
Haben 8 verschiedene 2080ti am Kommen:

EVGA2080ti.GIF
 
"Allerdings kann man die Leistung eines synthetischen Benchmarks wie dem TimeSpy des 3DMark nicht so einfach auf alle Anwendungen übertragen. Unklar ist daher, ob die +45 % zwischen der GeForce GTX 1080 und GeForce RTX 2080 in einer generellen Aussage über das Leistungsplus Bestand haben."

Nicht auf alle? Auf welche denn kann man es? Das haben sie in soweit (Bestand) wie es bei TimeSpy zwischen der 1080 und der 1080Ti der Fall ist...
 
Time Spy ist DX12, das Maxwell und Pascal da schlecht sind ist nix neues, 3D Mark Firestrike wäre interessanter da DX 11.
 
Das ist ein s.g. "company leak" ;) Mit keinem schlechten OC und dem Test, mit dem man sich von der vorherigen Generation am meisten absetzen kann.
Ein Preis-rechtfertigungs-leak also.

Ich wäre mir aber auch nicht so sicher, ob man eine 2080 mit dem ganzen Gedöns auf dem Die, mit einer nicht Top-End Kühllösung auf 2025 bringen kann. Oder man das auch ohne Kopfhörer verträgt.
Oder, das nicht nur TimeSpy-fest ist. Firestrike bringt beim OC die Grakas eher zum Glühen als TimeSpy. Bei NV quasi traditionell. +290Mhz OC beim Turing erscheinen mit dem Leak wohl als Messlatte.
 
Sieht so aus, als bekäme Cyberpunk 2077 auch die Unterstützung für NVIDIAs RTX. Bisher gab es keine Ankündigung dazu.

Anhang anzeigen 442346
 
W3 läuft doch voll gut mit hairworks
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh