NVIDIA macht die GeForce RTX 2080 Ti, RTX 2080 und RTX 2070 offiziell

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nein. Nochmal: Das war Microsoft. Mit DXR. NV hat nun die erste steckbare PCIe Hardware dafür.

Interessant.
Ich dachte NVidia hat diesen Standard zusammen mit Microsoft und Epic definiert?
Nicht das es einen Unterschied machen würde für das Endprodukt, aber ich wäre verwundert wen Microsoft das im Alleingang gemacht hätte.
Für so einen Standard braucht man doch alle Beteiligten, also DX (Microsoft), Engine (Epic) und GPU Hersteller (NVidia).

Dachte sogar AMD war da mit beteiligt. Meine mich zu erinnern da was gelesen zu haben vor ein paar Monaten, kann mich aber auch täuschen.

- - - Updated - - -


Sehr interessant.
Also bringt die 2080 40-50% mehr als die 1080 und das mit deutlich weniger Hardware specs als die 2080 ti.

Was ich hier anmerken möchte:
Text stimmt nicht mit Slide überein.
Da steht 2080 vs 1080 im Text, der Slide sagt aber 2080 vs 2x 1080.

Wenn der Text auf den Slides stimmt, dann ist das beeindruckender als die Infiltrator Demo der 2080 ti.
Dann reden wir wirklich über 2-2.5x Performance.
Edit: Und das ist ohne DLSS. Games mit DLSS sind dann ja noch extremer. Klar, weil sie dann die Tensorcores nutzen. Woah.

Danke für den Link!
 
Zuletzt bearbeitet:
Sehr interessant.
Also bringt die 2080 40-50% mehr als die 1080 und das mit deutlich weniger Hardware specs als die 2080 ti.

Was ich hier anmerken möchte:
Text stimmt nicht mit Slide überein.
Da steht 2080 vs 1080 im Text, der Slide sagt aber 2080 vs 2x 1080.

Wenn der Text auf den Slides stimmt, dann ist das beeindruckender als die Infiltrator Demo der 2080 ti.
Dann reden wir wirklich über 2-2.5x Performance.
Edit: Und das ist ohne DLSS. Games mit DLSS sind dann ja noch extremer. Klar, weil sie dann die Tensorcores nutzen. Woah.

Danke für den Link!

Du scheinst Jensen komplett verfallen zu sein...
 
Wenn der Text auf den Slides stimmt, dann ist das beeindruckender als die Infiltrator Demo der 2080 ti.
Dann reden wir wirklich über 2-2.5x Performance.
Edit: Und das ist ohne DLSS. Games mit DLSS sind dann ja noch extremer. Klar, weil sie dann die Tensorcores nutzen. Woah.

Ohne DLSS ca. 30-55%. Mit DLSS bis zu 120% schneller. Passt soweit alles zum erwartbarem.
 
Da steht 2080 vs 1080 im Text, der Slide sagt aber 2080 vs 2x 1080.

Komische Art das darzustellen. Würde doch viiiel besser für aussehen, wenn mans zu einer vergleicht..also 3 bis 4 mal so schnell etc.
 
Neu? Preis?

Lautstärke ist mir sehr wichtig. Mein kleiner Würfel steht direkt neben dem Monitor.
Die 1070 Ti wäre ne Zotac Mini und die 1080 ne EVGA FTW(2).

ASUS ROG Strix GeForce GTX 1070 Ti Advanced ab Preisvergleich Geizhals Deutschland

467 Euro, ja es ist kein Megaschnäppchen, dafür aber die mmn beste 1070TI.
Für meine Erste habe ich noch 570 bezahlt in Mining Zeiten..

Das Teil ist selbst mit OC sehr leise weil der Kühler halt überdimensioniert ist.
 
Zuletzt bearbeitet:
@BessereHälfte der war gut, jetzt las uns noch träumen und Navi kostet uvp max 400€

Gesendet von meinem RNE-L21 mit Tapatalk
 
Bei all den Unkenrufen, ich freu mich auf die neuen Nvidia Grakas. Die haben enormes Potential, genau was ich brauche. Wenn man den Specs glauben kann, dann ist es doch eine deutliche Steigerung gegenüber der Vorgängerversionen. Aber erst mal abwarten was zukünftige neutrale Tests so herausfinden. Natürlich wünsche ich AMD für die Entwicklungen baldige zukunftsweisende Innovationen, stromsparende Karten und eine gutes Marketing. Hoffe ich, sonst wird sich bei den Preisen recht wenig verändern. Es ist unglaublich was im Netz abgeht, so gespaltene Meinungen und heftige (zum Teil recht distanzlose) Diskussionen hab ich noch nie erlebt.
 
Du scheinst Jensen komplett verfallen zu sein...

Wieso bist Du so versteift darauf alles schlecht zu reden und dabei alles zu ignorieren das wir haben?
Was hast Du davon jegliche Info die wir haben als Lüge hinzustellen und genau das Gegenteil als Wahrheit hinzustellen. Wirst Du dafür bezahlt? :-/

Um es mit Deinen Worten zu sagen: "Du musst Jensen echt hassen."
 
Das Melken ging schon mit der GTX 680 los. Gerade da, denn das war die erste Karte des Doppelzyklus. Hier bekam man einen "X04"-Chip als High-End serviert. Die meisten Leute wissen das nicht einmal. Nur die "Ti" als neue Klasse ist wirklich High-End (Das maximal machbare). Demnach sind X60 untere, X80 obere, X70 Mittelklasse.

Der Chip des Tu102 ist fast 800 mm² groß. Das wird mit zu dem enormen Preis beitragen.

Ah, okay. Ging das Melken also bereits vorher los.
Okay, 775 mm² die heist es. Ohne das ganze rtx-Zeug, also nur die Schadereinheiten etc. sind es etwa 540 mm².
Preise bleiben schlussfolgenrnd an meinem Post #407 #409 dennoch absurd, lächerlich teuer.
 
Wieso bist Du so versteift darauf alles schlecht zu reden und dabei alles zu ignorieren das wir haben?
Was hast Du davon jegliche Info die wir haben als Lüge hinzustellen und genau das Gegenteil als Wahrheit hinzustellen. Wirst Du dafür bezahlt? :-/

Um es mit Deinen Worten zu sagen: "Du musst Jensen echt hassen."

Nö ich seh es realistisch und solche Präsentation sind es meist nicht, wie schon gesagt, wenn es anders kommt als ich geschrieben hab ist alles super, aber bevor ich keine neutralen Tests gesehen hab glaub ich nichts.
Dank 970 GTX, GPP und noch weitere Dinge aus der Vergangenheit bin ich sehr skeptisch was Nvidia angeht.
Deine Euphorie ist da übrigens nicht wirklich besser, wirst du etwa dafür bezahlt?
Selbst wenn die Performance so toll wie in den Slides ist, bleiben immernoch die lächerlichen Preise.

ps. da du mich anscheinend als Fanboy hinstellen willst, ich hab ne 1080ti, davor ne 980ti, davor ne 970. :)
 
Zuletzt bearbeitet:
Für amd Karten gibt es den Radeon Pro Renderer. Da ist nichts mit extra gesonderten Hardwareeinheiten. Integration klappt in bestehende renderer.
 
Zuletzt bearbeitet:
Nö ich seh es realistisch und solche Präsentation sind es meist nicht, wie schon gesagt, wenn es anders kommt als ich geschrieben hab ist alles super, aber bevor ich keine neutralen Tests gesehen hab glaub ich nichts.
Dank 970 GTX, GPP und noch weitere Dinge aus der Vergangenheit bin ich sehr skeptisch was Nvidia angeht.
Deine Euphorie ist da übrigens nicht wirklich besser, wirst du etwa dafür bezahlt?
Selbst wenn die Performance so toll wie in den Slides ist, bleiben immernoch die lächerlichen Preise.

ps. da du mich anscheinend als Fanboy hinstellen willst, ich hab ne 1080ti, davor ne 980ti, davor ne 970. :)

Ich glaubs auch erst wenn unabhängige tests da sind
 
Deine Euphorie ist da übrigens nicht wirklich besser, wirst du etwa dafür bezahlt?

Meine "Euphorie" wie Du es darstellst besteht darin nicht zu spekulieren, sondern vorhandene Fakten und Aussagen in einen Kontext zu bringen.
Wenn das schon Euphorie ist, dann weiß ich auch nicht.

Das euphorischte was ich mache ist es nicht alles und jeden als Lügner hinzustellen, nur weil ich unbedingt zweifeln will.
Wie gesagt warte ich auf Benchmarks bevor ich kaufe. Ich bin hier nur so aktiv, weil... naja, eigentlich bin ich selber unsicher. Ich mag einfach die perverse Schwarzmalerei nicht.
Ich mag auch aus dem Zusammenhang gerissene Vermutungen nicht. Und dieser Topic platzt vor beiden Sachen.

Kein Plan wieso ich versuche da etwas zu verbessern. Evtl. hab ich diese Zwei Tage einfach nur zu viel Zeit und zu viel Idealismus.
Is ja nicht so als könnte ich Leute überzeugen von irgendwas, wenn jeder Slide, jede Aussage und jedes Video mit Performancezahlen einfach als Lüge abgetan wird.

ist bisserl so als wenn man sagt: "Der Himmel ist blau" und die Antwort ist nur "Schmarn, der Himmel war schon immer Schwarz, fanboy!" Und als begründung für die Aussage kommt dann "Weil es so ist, da bin ich sicher!".
 
Für amd Karten gibt es den Radeon Pro Renderer. Da ist nichts mit extra gesonderten Hardwareeinheiten. Integration klappt in bestehende renderer.
Das gilt aber nur für 3D Programme ala Blender, 3Ds Max oder Maja.

Gesendet von meinem RNE-L21 mit Tapatalk
 
Auch Ihr geht nicht auf den Titel des Slides ein. Habt Ihr da genauer Informationen für uns?
Auf dem Slide steht 2080 vs 2x1080.
Handelt es sich um ein SLI Setup gegen das angetreten wird? Handelt es sich um eine 2x Rechnung? Handelt es sich um einen Fehler und es ist nur eine 1080?

Da steht: RTX 2080: 2x 1080

Eine 2080 kann bei Verwendung von DLSS doppelt so schnell sein wie eine 1080.
 
Da steht: RTX 2080: 2x 1080

Eine 2080 kann bei Verwendung von DLSS doppelt so schnell sein wie eine 1080.

Hatte den doppelpunkt falsch interpretiert. Unglücklich gewählter Titel für ein Chart dieser Art. :-(

Danke für das Update.
 
Könnte man fast meinen DLSS gibts nur damit Turing besser dasteht, zumal man ja keinen/kaum einen Unterschied sehen soll..

Ist es relevant wieso es das gibt?
Hast Du AA immer aus, dann ist DLSS für Dich kein Upgrade.
Hast Du AA sonst aktiviert, dann ist DLSS bei selber / minimal besserer Qualität ein riesen Upgrade für die Performance.

Nicht mehr, nicht weniger. Es ist einfach eine neue Art AA zu berechnen. Halt eine Art die Tensor Cores nutzt um einen großen Leistungszuwachs zu erlauben.
 
Interessant.
Ich dachte NVidia hat diesen Standard zusammen mit Microsoft und Epic definiert?
Läufts? Standard wird mit beteiliegten besprochen (optimalerweise). Geschrieben ist es von einem. Von Microsoft. Und ja, zum 1001mal, AMD ist auch dabei. Sonst wäre nix mit APU für die nächste Xbox. Dafür muß man sich nicht erinnern irgendwo was gelesen zu haben. Was erzählst du denn dauernd für sich fortlaufend wiederholenden Quark?
Und wo warst du seit 1.1.2016 bisher?
 
Läufts? Standard wird mit beteiliegten besprochen (optimalerweise). Geschrieben ist es von einem. Von Microsoft. Und ja, zum 1001mal, AMD ist auch dabei. Sonst wäre nix mit APU für die nächste Xbox. Dafür muß man sich nicht erinnern irgendwo was gelesen zu haben. Was erzählst du denn dauernd für sich fortlaufend wiederholenden Quark?
Und wo warst du seit 1.1.2016 bisher?

Verstehe deinen aggressiven Ton nicht wirklich.
Ich hab doch nur gefragt ob das wirklich nur von Microsoft kam.

Natürlich wird es nur von einer Person geschrieben, aber das ist doch eher Wortklauberei an der Stelle. Es ging selbstverständlich in der Frage nicht darum wer in die Tasten gehauen hat, sondern um die Absprache was derjenige der die Tasten bedient schreiben wird.
Wenn da alle mitgearbeitet haben ist es doch super für alle. Dann ist es sehr sicher kein NVidia only Ding und AMD nicht benachteiligt.

Und sorry, aber ich verfolge nicht jede einzelne Entwicklung seit dem 1.1.2016.
Ich verfolge Entwicklungen sobald sie offiziell sind, finalisiert und auf dem Markt erscheinen. Die meisten erscheinen nämlich nie und wären damit reine Zeitverschwendung.
 
Könnte man fast meinen DLSS gibts nur damit Turing besser dasteht, zumal man ja keinen/kaum einen Unterschied sehen soll..
Sieht nicht anders aus als TAA, ist aber spürbar schneller. Sowas ist immer ok.

- - - Updated - - -

Natürlich wird es nur von einer Person geschrieben, aber das ist doch eher Wortklauberei an der Stelle.
Nein, von deiner Stelle ;)
Ja du verstehst den Ton schon. Es ist die gleiche Laier, die in 20 Variationen vorgespielt wird. Sorry daß mir das dies eine Mal auf die Nerven ging. Jetzt hast du wieder 20x frei.

Wenn da alle mitgearbeitet haben ist es doch super für alle. Dann ist es sehr sicher kein NVidia only Ding und AMD nicht benachteiligt.
Das würde MS nicht zulassen.

@Aurel
Was hat dir daran gefallen? Mir hat die komplette HArdware gefallen :) aber von dem Raytracing konnte ich auf dem Video leider nichts wahrnehmen. War das eine Rennsessel-Werbung?
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh