NVIDIA macht die GeForce RTX 2080 Ti, RTX 2080 und RTX 2070 offiziell

Ist es relevant wieso es das gibt?
Hast Du AA immer aus, dann ist DLSS für Dich kein Upgrade.
Hast Du AA sonst aktiviert, dann ist DLSS bei selber / minimal besserer Qualität ein riesen Upgrade für die Performance.

Nicht mehr, nicht weniger. Es ist einfach eine neue Art AA zu berechnen. Halt eine Art die Tensor Cores nutzt um einen großen Leistungszuwachs zu erlauben.

Bei 1080P nutztw ich immer DSR, sit eh besser als jedes andere AA, jetzt normales bei 1440p und das schafft menie Graka schnell genug.

Mal Ernsthaft, bis du von Nvidia gekauft ?

- - - Updated - - -

Sieht nicht anders aus als TAA, ist aber spürbar schneller. Sowas ist immer ok.

TAA nimmt doch nicht viel Leistung, und doll aussehen tuts auch nicht immer..
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Aurel
Was hat dir daran gefallen? Mir hat die komplette HArdware gefallen :) aber von dem Raytracing konnte ich auf dem Video leider nichts wahrnehmen. War das eine Rennsessel-Werbung?
Die Auflösung 90 Frames ... das hat mir gefallen.

Aber an sich könnte man die sinnlose Diskussion einstellen. bewegt sich nur sinnfrei im Kreis. werden es ja bald sehen wer hier unrecht hatte und wer nicht.
 
Zuletzt bearbeitet:
Laut 3dmark highscores ist die Vega64 nicht 5-10% schneller als die 1080, sondern 800 Punkte (~2-3%) langsammer.

weil man 3dmark ja auch so toll spielen kann, eh?

ich rede von games, so richtigen games, und um so aktueller die spiele werden, um so mehr vorsprung arbeitet sich die vega raus.
 
weil man 3dmark ja auch so toll spielen kann, eh?

ich rede von games, so richtigen games, und um so aktueller die spiele werden, um so mehr vorsprung arbeitet sich die vega raus.

Wenn die DX12 Implementierungen nun besser werden könnte dann wäre sogar mehr drin als nur 10%
 
TAA nimmt doch nicht viel Leistung, und doll aussehen tuts auch nicht immer..

Das eien schließt das andere nicht aus ;)
TAA ist schneller als andere AA-Versionen, und DLSS ist noch mal schneller, ...
Das ist dann tatsächlich eine Art Fortschritt.

Lustig ist es immer nur dann, wenn ich per DSR auf 4k oder höher skaliere und auf AA verzichten kann ;) Wenn das noch immer schneller läuft, sehe ich da auch kein Problem, jeder stellt sich sein Bild so ein, wie er es braucht ;)
 
GeForce RTX 2080 (Ti): Tests sollen am 14. September erscheinen - ComputerBase
computerbase.de schrieb:
Die Website VideoCardz will den Termin bereits erfahren haben. Demnach ist ab dem 14. September mit ersten Tests zu rechnen.
computerbase.de schrieb:
Ob das Test-Embargo für beide Modelle am gleichen Tag fallen soll, ist unklar. Zumindest hatte Nvidia sowohl bei der GeForce RTX 2080 als auch der GeForce RTX 2080 Ti den 20. September für die Verfügbarkeit genannt. Tests kämen somit knapp eine Woche vor dem Marktstart. Die GeForce RTX 2070 soll dagegen erst im Oktober erhältlich sein, was auch für Tests gelten könnte.
 
Wobei man eine 2070 dann durch das absenken des Taktes im Verhältnis zu den Shadern usw. simulieren könnte mit einer 2080, und das wäre dann weder ein 2070 Test, noch ein Problem fürs NDA, aber man hätte grobe Anhaltspunkte, wo die 2070 dann landen könnte.
Ist natürlich erheblicher Aufwand.
 
Nachdem ich das Bild gesehen hab ist klar - ich brauch so eine neue Grafikkarte, egal was es kostet :bigok:

mwsvu1ulxoh11.jpg
Quelle: Nvidia RTX Power : pcmasterrace
 
Zuletzt bearbeitet:
Die 1070 TI hat halt fast die Rohleistung einer 1080.. Ist also eher eine 1080 light als eine 1070.

War noch nie so zufrieden wie mit meiner 1070TI Strix Advanced. Sehr leise, sehr kühl und hohes OC Potential.
 
Zuletzt bearbeitet:
Die 1070ti war als Antwort auf die RX Vega 56 gedacht da diese bis auf wenige Ausnahmen über einer 1070 lag mit Abstand.

Gesendet von meinem RNE-L21 mit Tapatalk
 
Bei der 1070 TI kann man sehr viel mehr Leistung durch Ram OC rausholen, da ja nur GDDR5 verbaut ist und der Speicherbandbreite die Leistung am Meisten limitiert.
 
weil man 3dmark ja auch so toll spielen kann, eh?

ich rede von games, so richtigen games, und um so aktueller die spiele werden, um so mehr vorsprung arbeitet sich die vega raus.

Das ist aber genau das Problem das ich genannt habe.
Benchmarks die man öffentlich ansehen kann und die für alle Karten gleich sind, vs eine Aussage in einem Forum mit wild rumgeworfenen, nicht nachweisbaren Werten.

Es kann schon sein, dass die Vega irgendwo, mit irgendeinem Setup in irgendeinem Spiel schneller ist.
Aber wer sagt mir, dass ich diese Spiele auch spiele? An was soll ich das messbar nachweisen?
Man braucht eben einen Vergleich um sich zu entscheiden.
Benchmarks sind genau das. Ein messbarer und fairer Vergleich, der für alle gemessenen Karten identisch ist.

Und bei diesen Benchmarks sieht man einen Rückstand, keinen Vorsprung.
Auf 3dmark Score sieht man highscores. Also die besten Werte die irgendjemand erreicht hat. Es handelt sich also um best case Werte.
Auf UserBenchmarks sieht man durchschnittlich von Usern erreichte Werte, was also ein Mittel darstellt. Dort ist der Rückstand sogar größer als nur 2-3%, sondern 6-7%.
Das sind messbare Vergleiche, zwei verschiedener Arten (beide sinnvoll, je nachdem ob man OCed am Limit, oder halt einfach nur reinsteckt und loslegt).

Man hört ja öfter, dass Vega angeblich dann ganz anders ist, sobald man Spiel xy startet. Aber wenn das allgemein und immer so wäre, dann wären die Benchmarks
doch schon längst daran angepasst. Immerhin ist ihr Sellingpoint eine objektive, möglichst realistische Messung als Vergleich. Und einen best-case zu wählen
um daran eine Kaufentscheidung festzumachen, ist doch für niemand hilfreich. Wer sowas will, der hat sich doch eh schon aufgrund der Farbe entschieden das er kaufen will.
Dann sind die Messungen doch eh egal. Daran ist auch nichts falsches, jeder kann sich die Entscheidungskriterien aussuchen die er möchte.

Das ist wie das Topic dieser Diskussion.
Leute behaupten "maximal 3-15%". Die gemessenen Werte sagen 40-125%.
Das geht doch weit auseinander, davon abgesehen muss aber jeder für sich entscheiden ob er lieber Messungen glaubt, oder seinem Bauchgefühl.
 
Zuletzt bearbeitet:
Das ist aber genau das Problem das ich genannt habe.
Benchmarks die man öffentlich ansehen kann und die für alle Karten gleich sind, vs eine Aussage in einem Forum mit wild rumgeworfenen, nicht nachweisbaren Werten.

Es kann schon sein, dass die Vega irgendwo, mit irgendeinem Setup in irgendeinem Spiel schneller ist.
Aber wer sagt mir, dass ich diese Spiele auch spiele? An was soll ich das messbar nachweisen?
3dmark ist kein Spiel. Deine Benchmarks sind Viertelmeile Rennen. Hier sind aber Runden auf der Nordschleife gemeint. Komm endlich runter.
 
aus dem heise forum... oooops, NV hat wohl -mal wieder- -wie so oft- beschissen :lol:


Nvidia's Grafikkarten sind tatsächlich berechtigte Marktführer, was aber auch bei der Preisgestaltung scheinbar immer schamloser ausgenutzt wird.


Die Show bei der Vorstellung und die vergleichende Zahlenakrobatik, empfinde ich als groben ****** und dreiste Hochstapelei.

(Anmerkung meinerseits: Wie damals das dezente Verschweigen des 970er Speicherkrüppels)


Natürlich wurde bei der Computergrafik in Spielen schon immer intelligent getrickst wie auch z.B. bei mp3 im Bereich Audio oder DivX im Bereich Video.


DivX und mp3 hatten die IMHO typische Nvidia/AMD Hochstapelei dabei allerdings nie nötig. Die waren immer transparent bzw. sogar stolz auf ihre Tricks und nie nötig ihre Leistung mit Helium-PR-Ballons wie Nvidias frei erfundenen "RTX-OPS"-Werte, die sicherlich keine neue allgemeine Benchmarkgröße wird, bis in die Stratosphäre zu "hypen".


Die nackte Warheit ist:

Die neuen "Geforce RTX" sind garkeine "Raytracing Revolution" - da wird garnicht alles "realtime" gerendert sondern nach wie vor fleißig getrickst! Allerdings nun mit neuen Tricks die besser aussehen.


Natürlich peinlich wenn dabei Fehler passieren!


Siehe Standbild der Battlefield V-Demo:



Die Reflexion des Feuerscheins ist eindrucksvoll aber sie würde auf der Innenseite des (im Bild linken) Autoscheinwerfers bei echtem Raytracing garnicht entstehen sondern bei dem Winkel von der anderen Seite des Lampenreflektors verdeckt werden.


Ist wegen diesem peinlichen Fehler eindeutig genau kein Raytracing sondern nur das alte Environment Mapping – Wikipedia in einer hübscheren Variante.


"Partly raytraced Environment Mapping" bestenfalls. So wundert es dann auch nicht wenn die 1000% "RTX-OPS"-Steigerung im Vergleich zum letzten 3D-Karten-Modell auf die üblichen "25% mehr" eindampfen.


Verlockend dazu passend falsch gerechnet zurückzuhypen: 25%:1000%, Nvidia übertreibt Leistung mit 4000%!
 
Wird es die neuen RTX-GPUs eigentlich auch für Notebooks geben?
 
Von dem was in synthetischen Benchmarks an Mehrleistung erzielt wird kann man meistens 5-10% abziehen.

Aber selbst eine RTX 2080 wird die GTX1080Ti leicht übertrumpfen, ist daher auch preislich entsprechend positioniert.

Erste gute Customs so ab 850-900€ ... und damit ist mir selbst die RTX 2080 zu hochpreisig.

Bei 650€-700€ für eine gute Custom RTX 2080 würde ich eher schwach werden, aber der Abverkauf von Pascal soll ja auch noch laufen.
 
Das ist aber genau das Problem das ich genannt habe.
Benchmarks die man öffentlich ansehen kann und die für alle Karten gleich sind, vs eine Aussage in einem Forum mit wild rumgeworfenen, nicht nachweisbaren Werten.

Es kann schon sein, dass die Vega irgendwo, mit irgendeinem Setup in irgendeinem Spiel schneller ist.
Aber wer sagt mir, dass ich diese Spiele auch spiele? An was soll ich das messbar nachweisen?
Man braucht eben einen Vergleich um sich zu entscheiden.
Benchmarks sind genau das. Ein messbarer und fairer Vergleich, der für alle gemessenen Karten identisch ist.

Und bei diesen Benchmarks sieht man einen Rückstand, keinen Vorsprung.
Auf 3dmark Score sieht man highscores. Also die besten Werte die irgendjemand erreicht hat. Es handelt sich also um best case Werte.
Auf UserBenchmarks sieht man durchschnittlich von Usern erreichte Werte, was also ein Mittel darstellt. Dort ist der Rückstand sogar größer als nur 2-3%, sondern 6-7%.
Das sind messbare Vergleiche, zwei verschiedener Arten (beide sinnvoll, je nachdem ob man OCed am Limit, oder halt einfach nur reinsteckt und loslegt).

Man hört ja öfter, dass Vega angeblich dann ganz anders ist, sobald man Spiel xy startet. Aber wenn das allgemein und immer so wäre, dann wären die Benchmarks
doch schon längst daran angepasst. Immerhin ist ihr Sellingpoint eine objektive, möglichst realistische Messung als Vergleich. Und einen best-case zu wählen
um daran eine Kaufentscheidung festzumachen, ist doch für niemand hilfreich. Wer sowas will, der hat sich doch eh schon aufgrund der Farbe entschieden das er kaufen will.
Dann sind die Messungen doch eh egal. Daran ist auch nichts falsches, jeder kann sich die Entscheidungskriterien aussuchen die er möchte.

Das ist wie das Topic dieser Diskussion.
Leute behaupten "maximal 3-15%". Die gemessenen Werte sagen 40-125%.
Das geht doch weit auseinander, davon abgesehen muss aber jeder für sich entscheiden ob er lieber Messungen glaubt, oder seinem Bauchgefühl.


schau dir einfach mal die letzten paar game reviews auf CB an....

erstrecht wenns DX12 ist, sehen die NV karten ja kein land mehr gegen AMD... weiss auch nicht warum die GTX 9x0/10x0 überhaupt als "DX12" karten beworben werden/wurden, sind ähnliche krüppel wie damals die GF5800 in DX9 :haha:
 
Zuletzt bearbeitet:
Arschlecken ey ich hau mir hier nich sone SKYNET 2080 Ti für 1300 € in Rechner am ende start ich nochn Krieg mit Nord Korea beim Minecraft zocken...
 
Wie war das mit der Frage „Gibt es Gott?“ an den Supercomputer, und der Antwort „Nicht genug Rechenleistung um die Frage zu beantworten“.

Noch zwei 2080Ti und die Antwort ist „Jetzt schon“.
 
schau dir einfach mal die letzten paar game reviews auf CB an....

erstrecht wenns DX12 ist, sehen die NV karten ja kein land mehr gegen AMD... weiss auch nicht warum die GTX 9x0/10x0 überhaupt als "DX12" karten beworben werden/wurden, sind ähnliche krüppel wie damals die GF5800 in DX9 :haha:

Das Pascal bei DX12 schlechter dasteht ist bekannt und habe ich selber auch in meinem System bemerkt.
Das wird extrem oft von AMD Seite erwähnt und macht auch Sinn da NVidia einen Vorwurf zu machen.

Aber, um Deine Idee von "Benchmarks sind unwichtig, real performance ist wichtig" aufzugreifen: Ich habe genau 0 Games die mit dx12 only laufen. Einige wenige haben die Option auf DX12 zu wechseln, aber das ist optional.
Wieso sollte mich die DX12 Leistung also interessieren, wenn ich sie in realen Aufgaben nie brauche?

Interessant wird es bei der 20er Generation deswegen, weil die neuen Features DX12 only sind.
Dann muss man quasi DX12 nutzen und kann dann evtl. indirekt AMD diesen Vorteil mitgeben. Dann machen die DX12 Zahlen nämlich schlagartig Sinn als Vergleich.
Kann also echt ein indirekter Vorteil für AMD sein und wäre nur zu begrüßen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh