HWL News Bot
News
Thread Starter
- Mitglied seit
- 06.03.2017
- Beiträge
- 113.871
... weiterlesen
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Krass. Also dann ~10% mehr i.Vgl. zu einer 1080Ti, die man für 600€ neu bekommt.
Preis Leistung ist dann ja echt klasse, 10% mehr Leistung für 50% mehr Kosten.
Wäre ja nicht das erste mal, dass man die ältere Architektur ausbremst damit die neue besser da steht.
Also ne 1080Ti ist bei dem Takt näher an den 11k Graphics Score zu finden als die 2080 hier.
Und ob die Karten wirklich "deutlich" höher takten bleibt abzuwarten. Ich sehe da auch nicht mehr als 2100 bevor der Chip oder eher das Powerlimit limitiert.
Falls sich die Turing Karten nicht deutlich abheben hat Nvidia aber sicherlich wieder ein paar Treiberkniffe in Petto. Wäre ja nicht das erste mal, dass man die ältere Architektur ausbremst damit die neue besser da steht.
Krass. Also dann ~10% mehr i.Vgl. zu einer 1080Ti, die man für 600€ neu bekommt.
Preis Leistung ist dann ja echt klasse, 10% mehr Leistung für 50% mehr Kosten.
10% mehr Leistung wie die 1080ti ohne DLSS (also ohne das die Tensor / RT Kerne was zu tun haben) ginge für mich in Ordnung. Hätte zwar lieber +20% gehabt, aber wir sind ja nicht bei einem Wunschkonzert . Wenn man berücksichtigt das mit DLSS für zukünftige Titel ein neuer starker Kantenglättungsmodus zur Verfügung steht der Qualitativ FXAA schlägt und auch mehr Performance bietet sowie RT das zumindest bei moderatem Einsatz auch 4k fähig ist (Enlisted). So ist der Aufpreis von ca. 300,-€ meiner Meinung nach gerade so verschmerzbar.
Weiss gar nicht was so viele mit den DLSS haben? Ich hoffe den Befürwortern von DLSS ist klar das dieses das Ende des jetzigen Gamings bedeuten kann. DLSS wird für DeepLearning in die Cloud von Nvidia ausgelagert und dann an die Grafikkarte ausgegeben.
DLSS hat in der aktuellen technischen Umsetzung NICHTS mit Cloud-Gaming zu tun. DLSS funktioniert offline, nachdem die Daten über GFE übertragen wurden und ist das DL-Netzwerk einmal trainiert, funktioniert es auch auf Spielen, auf denen das DL-Netzwerk nicht explizit trainiert wurde. Auf der GeForce RTX findet ein lokales Inferencing statt, mehr nicht.
@Don
Es hat nichts damit zu tun es wird aber angefangen Daten für erstmalige Berechnung auszulagern.
Jetzt bin ich aber mal gespannt welche Interessen nVidia mit Bilddateien aus Spielen verfolgt ...
Mal rein auf DLSS bezogen: Soll jeder jetzt zu Hause sein eigenes DL-Netzwerk trainieren? Also man kann sich ja über die Sinnhaftigkeit von DLSS unterhalten, aber in der aktuellen Form wäre das anders nicht umzusetzen – oder habe ich was verpasst?
Es werden keine Frames von dir übertragen. Ich sehe schon, für den Test der RTX-Karten muss ich etwas weiter ausholen
Ich bezweifele übrigens, dass NVIDIA einfach so irgendwelche Daten überträgt, ohne das davon jemand etwas mitbekommt. Dazu schauen zu viele auf den Datenstream zwischen GFE und den NVIDIA-Servern.
Sollte deine Schätzung hinkommen, wäre das für mich ein mehr als akzeptables Ergebnis, die Titan V ist ja nicht gerade günstig. Sollte DLSS dann zusätzlich noch einen Leistungsschub bringen wird die Ti ne ganze Weile für meine Games reichenalso mit der Titan X Pascal, nicht XP habe ich da 11500 und mit der Titan V 14200
als grober Anhalt...
grob hochgerechnet kommt ne 2080ti dann auf 14000-14500