Alle Details zur neuen GeForce-RTX-Generation auf Ampere-Basis

Das wird wohl auch so bleiben, bzw. noch minimal steigen, sobald das Überangebot weg ist.
Bester Zeitpunkt für den Gebrauchtkauf war vor zwei Wochen. So gut wird es nimmer.
Nächster guter Zeitpunkt wird sein, so 2-5 Tage, nachdem die 3080 geliefert werden, bzw. nachdem die 3090 geliefert werden wohl auch.

Danach sehe ich die Preise wieder steigen auf 600-700 Euro.
Die 1080ti war auch ewig teurer als sie hätte sein dürfen auf dem Gebrauchtmarkt. Angebot und Nachfrage funktioniert halt in beide Richtungen und nicht immer nur "Pro Käufer".
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Kannste knicken (auf Ebay jedenfalls) 550 bis 650 im Schnitt, vor 2 Tagen ist sogar ´ne 2080Ti Strix für 1010 weggegangen. Wird sich der VK gefreut haben ...

Das ist doch Quark.

Kauft doch kein halbwegs normaler Mensch aktuell ne gebrauchte 2080 TI für 1000 €. Da halte ich es für sehr viel wahrscheinlicher, dass der Verkäufer sein Minimalgebot nicht bekommen hat, und dann sind Kumpel/Bruder/Vaddern halt eingesprungen und haben sich hochgeboten.

Das Spiel wird doch seit Urzeiten gespielt.
 
Das wäre dann auch nur eine Bestätigung, dass die Karten eben nicht für 450€ weggeben werden ...
 
Die Nitro 5700 XT kostet ca. 300 jetzt. Die meisten wollen für ihre 2080 Ti 500+. Das sind sie denke ich auch noch wert, sofern denn mit Rechnung und Restgarantie. Darum versuche ich mir jetzt auch eine zu holen. Selbst wenn irgendwann bessere Optionen existieren, werden die 2080 Ti sicher nicht unter 400 € fallen. Wenn die 3070 gar langsamer wird hat die 2080 Ti immer noch das 11-GB-Argument und ob die neue Midrange-Karte in RTX signifikant schneller sein wird als das alte Schlachtschiff muss sich auch erst beweisen.

Bei Ebay kann es durchaus sein dass Käufe abgebrochen werden. Wer weiß was da passiert ist.
 
[...] und ob die neue Midrange-Karte in RTX signifikant schneller sein wird als das alte Schlachtschiff muss sich auch erst beweisen.
Werden sie. Habe hier vor paar Tagen das Video vom Entwickler bei Nvidia gepostet (mit der Demo).
Rtx 2080 ti ist entry level in Sachen Raytracing (also rtx 3060). Rtx 3070 ist doppelt so schnell in RT und Tensor-Kern Berechnungen.
Selbst wenn die rtx 3070 anfänglich 10 % langsamer in Rasterausgabe ist, wird es nach 1 - 2 Jahren Gleichstand sein, oder schneller.

Bleibt halt nur die Sache mit den 8 GB Vram. Rtx 3070/3080 mit 8/10 GB Vram erinnert halt an, ähhhmmm, irgendwie wie Amds Fine Wine^^
In 2 - 3 Jahren wenn DirectStorage vermehrt Einzug gehalten hat und grafisch fordernde neue Spiele mit sample feedback streaming und VRR entwickelt werden, werden auch die 8/10 GB genügen.
Bis dahin sind es zu wenig.
 
Mag sein, allerdings werde ich in zwei Jahren vermutlich was Besseres haben. Sollte ich eine 2080 Ti bekommen ist das auch nur eine glorifizierte Übergangskarte bis Big Navi (oder einer günstigen 3090-Alternative).

In 2 - 3 Jahren wird wieder eine Generation kommen. Das ist halt wie mit dem RTX. Als Turing rauskam gab es auch haufenweise (leerer) Versprechungen. Oder damals beim DX12. Klar wird das irgendwann mal wichtig sein, aber wird keiner mehr seine 970 benutzen wenn er sinnvoll in DX12 spielen will. Und selbst jetzt ist DX11 noch verbreitet, DX12 wird manchmal unterstützt und bietet dann natürlich Vorteile. Die alten Karten wären dafür aber so oder so zu langsam.
 
Werden sie. Habe hier vor paar Tagen das Video vom Entwickler bei Nvidia gepostet (mit der Demo).
Rtx 2080 ti ist entry level in Sachen Raytracing (also rtx 3060). Rtx 3070 ist doppelt so schnell in RT und Tensor-Kern Berechnungen.
Selbst wenn die rtx 3070 anfänglich 10 % langsamer in Rasterausgabe ist, wird es nach 1 - 2 Jahren Gleichstand sein, oder schneller.

Bleibt halt nur die Sache mit den 8 GB Vram. Rtx 3070/3080 mit 8/10 GB Vram erinnert halt an, ähhhmmm, irgendwie wie Amds Fine Wine^^
In 2 - 3 Jahren wenn DirectStorage vermehrt Einzug gehalten hat und grafisch fordernde neue Spiele mit sample feedback streaming und VRR entwickelt werden, werden auch die 8/10 GB genügen.
Bis dahin sind es zu wenig.

Dass die Raytracing Geschichten viel schneller werden glaube ich auch erst wenn ich es in einem Review sehe. Da trau ich Nvidia so weit wie bei ihrer 1.9 perf/W Lüge.
 
Fast alle Benchmarks die Nvidia gezeigt hat waren ja Games mit DLSS/RTX. Die 3000er Karten sind defintiv deutlich schneller wenns um RTX/DLSS geht, aber bei normalen Spielen hat man halt dann vllt nur 20-30% mehr im Vergleich zur 2080 Ti.
 
Kommt wohl auch sufsspiel an. Vllt sehen wir nachher doch mal die 60% - 70% mehr zur 2080 ohne RTX und DLSS
 
Es ist direkt aus dem 2 Stunden Video vom Entwickler. Schau es dir an.
Nicht einem Marketing-Guru etc.^^
Bezüglich x2 RT-/Tensor Leistung kann man es diesmal schon wahrscheinlich halten. Auch die Analyse der Architektur gibt es her (nicht nur von ihm) Beitrag 386

Alle haben gemeckert wie schlecht Turing sich in RT/Dlss macht und deshalb hat man x2 RT-/Dlls-Leistung anvisiert.
Das es nicht in jedem Spiel genau 100 % werden ist klar. Deutlich oberhalb von 50 % werden es aber werden. Die offiziellen Benchmarks zu Micecraft RTX zeigen bereits 100 % mehr RT-/Dlss-Leistung.
Nehme Minecraft RTX als optimalsten Fall und subtrahiere irgendwo 20 - 30 %. So wird es in jedem Spiel was RTX/DLSS 2 implementiert hat.

Jau. Zur Rasterausgabe habe ich selber was geschrieben Wer flunkert und so
 
Dass die Raytracing Geschichten viel schneller werden glaube ich auch erst wenn ich es in einem Review sehe. Da trau ich Nvidia so weit wie bei ihrer 1.9 perf/W Lüge.

Wo genau war / ist das gelogen?
Du verstehst die Angabe evtl. falsch, das macht es aber nicht zu einer Lüge.

Lass mich so fragen:
Was meinst Du bedeutet 1,9x Performance/Watt für das Produkt?
 
Wo genau war / ist das gelogen?
Du verstehst die Angabe evtl. falsch, das macht es aber nicht zu einer Lüge.

Lass mich so fragen:
Was meinst Du bedeutet 1,9x Performance/Watt für das Produkt?
ach so, war gar nicht so gemeint von Nvidia? Ich verstehe es also nur falsch? Es kann gar nicht sein dass nvidia Marketinggeblubber benutzt um Leute hinters Licht zu führen? Wenn man mit 1.9 perf/w wirbt, dann sollte auch 1.9 perf/w drin sein oder? Will heißen wenn Ampere nicht 1.9x so effizient wie Turing ist, dann ist das schlicht gelogen. Nun wissen wir aber dass alleine die TDP Werte von Ampere bei der 3080 mit 320 Watt starten. Bei einer 2080 waren 215w bis 245w tdp angegeben. Wenn die Leistung nun also linear mit der Wattzahl ansteigt dann sind die Ampere-Karten überhaupt keine Effizienzmonster.
 
Siehst Du, Du hast es echt nur falsch verstanden.
"bis zu" solltest ja aus jedem Marketingbereich kennen und diese 1,9x kann Ampere wohl auch.
NVidia hat aber nirgends behauptet, dass die Endprodukte diese Effizienzsteigerung komplett linear umsetzen und erst recht nicht, wie sie diese Effizienzsteigerung nutzen.

Ganz banal gesagt:
Fall 1:
Sie hätten die Steigerung so umsetzen können, dass die 3080 nur 120 Watt braucht. --> Dann wäre sie aber 1:1 auf dem Leistungslevel der 2080 und damit wohl für niemand interessant, bis auf Laptops (da wird so eine 3080, wohl als Max-Q, kommen. Ist absehbar.

Fall 2:
Hier wird es komplexer, weil man hier anfangen muss zu spekulieren. Sie belassen es bei den 215 Watt TDP und steigern die Leistung einfach auf 190%. Wäre das Möglich? Naja, bedingt, aber eigentlich nein.
Effizienz ist keine Lineare Linie, sondern eine abflachende Kurve. Darum bringt ja auch mehr Strom nicht linear mehr Leistung beim Overclocken.
Der Strom wird aber nicht nur in der Effizienz verloren gehen, sondern bei Ampere auch zunehmend für Raytracing und Tensor mitgenommen werden. Da entsteht der spekulative Teil, weil da erst Tests zeigen müssen, wie viel der 320 Watt wirklich für die Rasterperformance drauf geht und wie viel davon einfach Puffer ist für den Fall, dass Raster + RT + Tensor laufen.

Da sie bei ihrer Behauptung aber Fall 1 gezeigt haben, wird sich das extrem einfach validieren lassen. Von jedem 3080 Nutzer sogar. Einfach das Powertarget auf 120 Watt reduzieren (100 Watt soll Minimum sein) und damit Benchen. Es sollte dann relativ genau die Leistung einer 2080 entstehen. Für Fall 2 brauchen wir GamersNexus und co., es sollte aber niemand eine Lineare Effizienzgerade erwarten. Die gibt es nicht. Auf der anderen Seite wird Ampere wohl auch keine 320 Watt fressen, solange RT und Tensor schlafen.
 
ganz banal gesagt, Nvidia hätte auch schreiben können: manchmal erreicht Ampere bis zu 10000x perf von Turing. nämlich genau dann, wenn AV1 HW decoded wird. Und das soll kein schwachsinniges Marketinggeblubber sein? Es ist schlicht gelogen.

Eine 3080 bei 120 Watt wird nie und nimmer so schnell sein wie eine 2080.
 
Genau das ist die Behauptung, die sie aufgestellt haben.
Verifiziert wurde das sicher schon und in 11h können wir das nachlesen.

Und Deine Definition von Lüge ist schon sehr gedehnt. Wenn ich sage, es regnet bei mir, kannst Du auch nicht behaupten ich lüge, nur weil ich Dir kein Glas Wasser anbiete, sondern das Regenwasser für den Abwasch genutzt habe. NVidia hat nirgends behauptet, dass die Endprodukte 1,9x so effizient sind, sondern nur, dass Ampere diese Effizienz erreichen kann. Und das ist, weiß Gott nicht unglaubwürdig. Bei 55 % Powertarget macht meine Turing auch nur 15-18% weniger FPS aus dem Strom. So laufen Kurven halt.
 
jo, werden wir ja dann sehen in welchen homöopatischen Dosen Ampere die 1.9 perf/w erreicht. Wenns leider nur in einem bestimmten Level in Tetris RTX der Fall ist dann hat Nvidia natürlich nicht gelogen. :rolleyes: :rolleyes: :rolleyes: :rolleyes:
 
Ich verstehe nicht, wieso Du so auf Deine Interpretation von ihren Aussagen bestehst?
Du kannst Dir das Video doch jederzeit erneut ansehen. Nirgends wurde behauptet, was Du unterstellst. Die Aussage war architekturbezogen und nicht produktbezogen.
Die Grafik zu der Aussage zeigt sogar ganz genau diese Kurven und wo genau der 1,9 Faktor entsteht.

Ist frei verfügbar und nicht versteckt.
 
ja, generell nehme ich alle meine Informationen von der Firma auf die das Produkt verkaufen will. So trinke ich auch lieber grünes Kool Aid als rotes. Wenn morgen die Karten zeigen dass die Leistung bei niedrigeren Wattzahlen überhaupt nicht mit dem übereinstimmen was die grünen Aliens uns in ihrem Video weiss machen lassen wollten, wirst du es dann einsehen? Ich werde auf jeden Fall positiv überrascht sein wenn ich falsch liege. Aber bei Nvidia's Track Record sehe ich da nicht viel Spielraum.
 
Wenn Du nur Informationen aufnimmst um ****** und Lügen zu unterstellen, aber die Erklärungen ignorierst und / oder verdrehst, dann musst Du natürlich zwangsläufig zu so einer Meinung kommen. Da kann ich nix gegen sagen, wenn das Spaß macht, dann nur zu. ;-)

Kann nur empfehlen entweder gar nicht hinzuhören, oder komplett hinzuhören. Mitteldinger führen selten zu korrekten Ergebnissen / Annahmen.
 
um wieviel uhr wird die nda gelifted
 
Der Termin wurde exakt einmal verschoben und es sind dann immer noch 24h Zeit sich eine Meinung zu bilden ob einem die 3080 ausreichend Leistung bietet oder man doch lieber auf AMD wartet.
 
Kannste knicken (auf Ebay jedenfalls) 550 bis 650 im Schnitt, vor 2 Tagen ist sogar ´ne 2080Ti Strix für 1010 weggegangen. Wird sich der VK gefreut haben ...
Ich habe dort (Ebay Kleinanzeigen) selber 2 für unter 500€ gekauft. Also ich weiß schon wovon ich rede.
 
Wenn ihr mal alle Gens zurückblickt, wird euch auffallen das die Tests immer um 15 Uhr veröffentlicht wurden.
 
Denkt ihr ein 550 Watt be quiet! Straight Power reicht aus für einen rtx 3080 in Verbindung mit einem ryzen 3700x?
Oder müsste man dann noch das Netzteil upgraden?
 
550 Watt wenn allein die gpu 320 ohne oc benötigt, dein Ernst?
 
Meine aktuelle 2080 zieht glaube ich 215W, dann muss wohl noch ein neues NT her..
Mein NT hast schon gut und gerne 5-6 Jahre auf dem Buckel
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh