Was für über die GeForce-RTX-3000-Serie wissen - und was nicht ...


war das denn hier schon bekannt ? Sicher haben das 3-4 schon gesehen aber wohl nicht jeder bei den ganzen threwads. ist ja seit gestern glaube ich schon da.
Wie das nachher zu deuten ist wird man sehen, aber es ist schon mal beeindruckend.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ääähm nö. Erstmal wissen wir gar nicht wie schnell und wie viel Prozente die Karten schneller oder nicht schneller sind. Die Lücke wird mit der 3070 TI mit 16GB geschlossen, mit einer 3080 TI mit 20 GB oder auch nur 16 GB. Diejenigen die eine 3090 kaufen sind vor AMD safe. Alle darunter sollen auf AMD warten.

Warum sollte NVIDIA sein eigenes Flaggschiff mit einer niedrigeren Karte deklassifizieren? Die 3090 lohnt kaum, wird aber vermutlich die nächsten Jahre das Maximum (abgesehen von den 48 GB Quadros) bleiben. Lohnen ist natürlich was anderes... Wer nicht zweimal kaufen will sollte also warten, wenn er keine 3090 will.
 
Der Faktor 1,9 bei der Effizienz ist für mich Sinnvoller, als der 90 FPS vergleich. Da ich die meisten Spiele bei 60 FPS cape (weil nur 60 Hz Monitor und RTS und Aufbauspiele jetzt nicht so wirklich von höheren FPS profitieren - selbiges bei vielen kreativen Programmen).
Klar für andere ist der vergleich mit 90 FPS sinnvoller. Daher würde ich sagen, machen beide Zahlen Sinn.
 
Warten auf die RTX 3080 20GB oder doch einfach die 10 GB kaufen, wechsel ja eh oft die Karten ^^
 
O schöne Milchmädchenrechnung mit den Shader Einheiten wie immer, freu mich schon auf 3070 irgendwie. )
Gruß
 
Warten kann man immer, auf die 3080Ti,Hopper, Intel Xe, oder den sankt Nimmerleinstag.
Die 3080 ist laut DF deutlich schneller als ne 2080 in 4k und alles auf Anschlag.
Jetzt noch auf Reviews warten.
Ich zocke in WQHD und deshalb reicht die 3080.
 
Habe diese Angabe auch sehr gefeiert. Wenn man allerdings mal selbst Leistung und Stromverbrauch gegenüber stellt, kommen arge Zweifel an den 90%. Vermutlich werden es eher 45-55%.

Spätestens nach dem Übertakten 😁. Wobei dann sollte man auch die Effizienz von übertakten vs übertaktet vergleichen.
 
Wenn der Preis und die Leistung stimmt, nach den Aussagen von nVidia, dann kriegen die meine 499€ für die 3070 aber sowas von........... es sei denn, AMD hat doch was brauchbares und nVidia hat nur deshalb die Preise so "niedrig" angesetzt. :hmm:
 
Ich muss sagen, ich finde das Lineup von Nvidia ziemlich schlau.
Man hat die 3070 8GB vom Preis her so eingeordnet, dass sie vorsorglich das Segment bedient, in dem AMD immer was PL angeht punkten konnte. Das wird auch der Grund sein, weswegen die Karte "nur" 8GB hat. Darüber hinaus ist man vorbereitet, wenn die AMD GPU im gleichen Preissegment etwas mehr Speicher hat, dann kann man die 16 GB Version nachschieben. Das gleiche gilt vermutlich auch für die 3080.

Ich denke Nvidia erhofft sich davon, dass bei einem ähnlichen Preis eher zur Nvidia Karte gegriffen wird, auch wenn diese etwas weniger Speicher hat. Und als Option hat man ja noch die 16GB Version in der Tasche.

Es bleibt spannend :-)
AMD muss jetzt entweder in der Leistung oder im Preis punkten, ansonsten könnte es dunkel aussehen.
 
Ist sie nur nicht. Ebenso wenig war die 2080Ti die neue Titan 2018, oder die 1080Ti die neue Titan 2017, oder die 980Ti die neue Titan 2015. Danach kam jedes mal die tatsächliche neue Titan, und es war jedes mal eben noch was dickeres für nochmal knapp doppeltes Geld.
Aber eines hast du vergessen - die TITANs stellten immer den Vollausbau des Chips dar. Das haben wir in der aktuellen Generation aber bereits mit der vorliegenden GTX3090 - insofern ist dies sehr wohl mit der eingestampften Markte TITAN gleichzusetzten.
 
Wann fällt denn das nda zum nda?

Dann weiß AMD, ab wann sie sich Gedanken darum machen können, wie sie ihre Karten platzieren.
 
Mir dem Verkaufsstart am 17,09 sollte das nda fallen
 
  • Danke
Reaktionen: THK
Problem - AMD nach Gerüchten wird frühestens Ende des Jahres vorgestellt - von kaufen spricht noch gar keiner. Hoffentlich ist das nicht zu spät.
 
Vermute, dass es sehr schwierig wird für AMD BN zu platzieren, NV hat kaum Raum gelassen und spätestens mit einer 3070 und deren Preispunkt alles dicht gemacht. /:
 
Ja, es wird sicher nicht einfach. Vor allem aber muss mal die Leistung endlich passen. Das war doch der größte Gap bisher.
 
Aber eines hast du vergessen - die TITANs stellten immer den Vollausbau des Chips dar. Das haben wir in der aktuellen Generation aber bereits mit der vorliegenden GTX3090 - insofern ist dies sehr wohl mit der eingestampften Markte TITAN gleichzusetzten.
Die 3090 ist nicht der Vollausbau. Der volle GA102 hat 2 SM mehr.
 
Update in der News: Aufbau des Ampere Streaming Multiprocessor (SM)
 
Vermute, dass es sehr schwierig wird für AMD BN zu platzieren, NV hat kaum Raum gelassen und spätestens mit einer 3070 und deren Preispunkt alles dicht gemacht. /:

Nu bin ich aber enttäuscht.
Du bist doch sonst immer so ein strahlendes Beispiel für AMD Optimismus.

Wenn ich den Satz gebracht hätte, würde ich nur von Team Rot geflamed werden, mit den üblichen "Aber BigNavi wird alles richten! 3x 5700XT zusammengeklebt, 64GB VRAM und das für 300 Euro!! Und all das noch ohne den Wundertreiber, der dann 6 Monate später kommt. NVidia hat nur Angst und will noch kurz Geld abgreifen, bevor sie durch AMD ruiniert werden!".

Das aber von Dir? Dann steht es echt bitter.
 
Ist diese "Was wir über XYZ wissen und was nicht" Phrase, momentan IN oder war der Autor des Artikels ideenlos was die Überschrift angeht?
 
Genau meine Option, von wegen Panikverkäufe der 2080 TI Besitzer. Wer sich jetzt für UHD oder WQHD eine 3080 mit nur 10 GB holt, wird früher oder später auf die Nase fallen und zwei mal kaufen.
Sehr unwahrscheinlich dass dies vor dem Erscheinen der nächsten Gen wäre.
Diese ganze vram Thematik ist durch zu wenige Benchmarks belegt als das der Durchschnittskäufer der nicht mehr Zeit mit der Hardwareoptimierung, als dem Spielen verbringt, angebliche Mikroruckler darauf zurückführen würde.

Problem - AMD nach Gerüchten wird frühestens Ende des Jahres vorgestellt - von kaufen spricht noch gar keiner. Hoffentlich ist das nicht zu spät.
Sie haben ja versprochen dass es vor den neuen Konsolen veröffentlicht wird, oder hab ich das falsch in Erinnerung?

Die 3090 ist nicht der Vollausbau. Der volle GA102 hat 2 SM mehr.
Macht man nicht inzwischen auch bei GPUs absichtliches Abschalten defekter Einheiten um den yield der Fertigung zu erhöhen?
Bei dem recht großen Chip wäre das gut denkbar.
 
Eben, eine Kaufwarnung vor einer Karte mit 10gb auszusprechen halte ich auch für übertrieben.
 
Mit dem Vram haben wir doch jetzt wie oft durch? :hust:
Diese Gen sind 8 GB selbst für 4k uhd optimal.
Wenige Spiele brauchen mehr, dazu gemodette Spiele.

Next-Gen in 4k uhd samt raytracing sieht es ganz anders aus. Vergangenheit ist Zeuge.
Ob Streaming dank neuer Windows Schnittstelle sich auch im Desktop durchsetzten wird und wie Entwickler darauf eingehen(vor allem wie lange sie benötigen werden) ist ungewiss.
https://www.hardwareluxx.de/communi...ten-24-gb-gddr6.1276091/page-17#post-27652189
In 1 - 2 Jahren erscheinen dann Spiele die deutlich mehr auf raytracing setzen ein als jetzt zum Launch der next-gen.
16/20 GB wird man nicht einfach so aus Spaß anbieten, um darauf einfach so aus Laune 100 € Marge zu fahren.
Füße still halten oder zukünftig halt mehrmals kaufen.^^
 
Sie haben ja versprochen dass es vor den neuen Konsolen veröffentlicht wird, oder hab ich das falsch in Erinnerung?

Macht man nicht inzwischen auch bei GPUs absichtliches Abschalten defekter Einheiten um den yield der Fertigung zu erhöhen?
Bei dem recht großen Chip wäre das gut denkbar.

Bei beiden Punkten: Jep.
Hast Du richtig in Erinnerung. Wurde mehrfach von Lisa gesagt, dass es vor den Konsolen passiert.
Und "perfekte" Chips bei 98% zu nehmen, ist wohl auch mehr als nur wirtschaftlich. Wenn man nur komplette 100% Dinger zulässt, explodieren die Kosten bei so großen Chips.
Kann mir das richtig bildlich vorstellen... hunderte Einzelschritte, jeder wird von Jenson per W20 Wurf begleitet. Bei 99/100 Schritten hat er die nötige 2+ geschafft und beim letzten kommt die 1. BÄM, wieder 500 Euro im Eimer. ;-)
Beitrag automatisch zusammengeführt:

In 1 - 2 Jahren erscheinen dann Spiele die deutlich mehr auf raytracing setzen ein als jetzt zum Launch der next-gen.
16/20 GB wird man nicht einfach so aus Spaß anbieten, um darauf einfach so aus Laune 100 € Marge zu fahren.
Füße still halten oder zukünftig halt mehrmals kaufen.^^

Warum würde NVidia behaupten, dass in 4k mit RT nur 4-6 GB benutzt werden aktuell und das diese Info mit Spieleentwicklern verifiziert wurde für kommende Titel?
Was haben sie davon so eine Ansage zu machen?
Was haben sie davon, wenn sie von mehr als 10 ausgehen, nicht einfach mehr als 10 auf die GPU zu kleben?
Ist es nicht abzusehen, dass ein Backlash bei Rucklern schädlicher wäre, als einfach 2 GB mehr drauf zu packen?
Wieso sollten Spiele auf einmal die Anforderungen verdoppeln?
Wer könnte besser wissen, wie viel BENUTZT wird an VRAM, als NVidia und die Spieleschmieden in Zusammenarbeit?

Natürlich ist es möglich, dass NVidia uns hier alle belügt und Forencowboys recht haben mit der Ansage, dass alles unter 16 GB ne Totgeburt ist.
Ich würde, bevor ich da einer "Seite" zustimme, nur gerne wissen, warum NVidia das machen sollte. Die paar Euro mehr Marge, auf Kosten des PR Schadens? Halte ich für echt weit hergeholt. Welchen anderen Grund würde es geben?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh