Alle Details zur neuen GeForce-RTX-Generation auf Ampere-Basis

Stimmt, umso besser wenn es nicht wieder 5000 Versionen gibt. :d

Mit dem Beidseitig ist noch die frage, wird wohl reichen die einfach über Pads zu Kühlen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich denke die 3090 wird beidseitig sein. Wenn man sich zB. die Custom Designs anschaut, pusten ja bei eigentlich allen Karten die hinteren Lüfter auf bzw. durch die Backplate. In Kombination mit der Wärmeableitung über die Backplate evtl ausreichend.
 
Ja hab ich auch gesehen, die Bauen zwar ihre eigenen Kühler, Kopieren das FE Prinzip aber dann doch so halbwegs. :d
 
Igor erklärt die Welt, heute: Wie die verdopplung der CudaCores die Nvidia angibt zustande kommt:

Dazu n paar kleine teaser auf die performance der karte (aka DF Zahlen sind kein kompletter Bullshit, aber schon Cherry Picking)


Vielen Dank für das Video! Ich bin eigentlich nicht so der Youtube Gucker, deshalb kannte ich Igor´s Lab bisher nur von der Website dazu.
Was für´n cooler Typ (bin auch fast so ein alter Sack *g*) und jetzt hab ich doch um einiges mehr verstanden was diese GPC, FP32 etc.
Geschichten angeht.

Also liege ich mit meinen Bedenken gar nicht so verkehrt. Fließkomma Berechnungen sind sicherlich wichtiger, aber wie sehr vielleicht gerade
Spiele die ich gerne zocke auf Int32-Berechnungen setzten...keine Ahnung.

Igor´s subtilem Grinsen nach zu urteilen wird man wohl in der Regel mit mindestens 50% Mehrleistung der 3080 ggü. der 2080ti rechnen
können (also wohl so ~70% zur 2080Super). Das wäre theoretisch ein guter Wert mit dem ich bei einer 700-800€ Grafikkarte leben könnte.
Ältere, oder andere nicht in Benchmark-Pakours berücksichtigte Spiele laufen ja meist auch auf den 2080er Karten schon problemlos auf 4k
mit 60Fps+, sollte Ampere da weniger Performancesteigerung bringen, wäre das wohl zu verschmerzen.

Ich sehe aufgrund dieser merkwürdigen Trickserei, schweren Herzens, dennoch vorerst von einem Kauf der 3080 ab. Das Nvidia wirklich behauptet
sie hätten die Kerne auf über 10k bzw. über 8k verdoppelt ist eine freche Marketing-Lüge und am Ende setzen 90% der PS5/XboxSX Ports vorallem
auf Int 32-Berechnungen und aus 80% Vorsprung in Doom Eternal werden 30% in Halo Inf. - wer weiß!? Da warte ich doch erstmal die AMD
Karten ab und vorallem erste Benchmarks von NextGen Portierungen.
 
Was genau war denn schlecht an der ?

Man hörte die Motorengeräusche und die klangen wie ein Formel Eins Auto. Normalerweise rauschen Lüfter eher. Leise wäre evtl. OK gewesen aber das war so richtig laut. Dazu kam die Hitzeentwicklung mit 87 Grad in Division 1. Ich hatte mir bei der Kühler Konstruktion viel erhofft und wurde maßlos enttäuscht. Die Karte sah echt klasse aus und war top verarbeitet aber das alleine reicht halt nicht aus. Echt schade und seitdem halte ich nicht mehr soviel von Aourus.
 
@Madschac
Als Trickserei oder nur Marketing würde ich es nicht bezeichnen wollen. Finde es schon noch akzeptabel die Einheiten verdoppelt anzugeben. Aus technischer Sicht ist das alles jedenfalls schon genial umgesetzt. Die Frage ist nur wie stark ein Game auf INT32-Berechnungen setzt. Ich denke, das wird man sich bei nVidia schon genau angeschaut haben.
 
Ich habe mal folgende Aufteilung eines Frames in Control gefunden:

1056958d1566988327-control-im-test-grafikkarten-benchmarks-ohne-raytracing-20-modelle-im-test-nvidia-turimg-rtx-frame-time-diagramm.png


Da wird schon einiges an Int32 genutzt und so wie ich das verstanden habe bedeutet auch nur die geringste Nutzung von Int32-Berechnungen, das zurückfallen
der Architektur auf 64 FPS32 + 64 Int32, also auf genau die Werte von Turing. Damit kann eine 30x0 GPU ihr Leistungsplus in Control ausschließlich über die
RT Kerne und DLSS 2.0 und die Tensor Kerne generieren und natürlich über die gesteigerte Speicherperformance.

Bei der Turing Veröffentlichung hat Nvidia diesen Chart gezeigt:

image-75-1024x629.png


Demnach scheinen die meisten aktuellen Spiele auch Int32-Berechnungen zu verwenden...

Ich hoffe, dass es dann vielleicht auch möglich ist statt 64 / 64 z.B. 30 Int32- / 98 FP32-Berechnungen durchführen zu können, ansonsten werden
wir 80% Mehrleistung wirklich nur in ganz wenigen ausgewählten Spielen sehen.

---edit---

Ahh, ich wurde gerade darauf hingewiesen, dass jede der SM Einheiten dann ja noch mal getrennt agieren kann. So könnte ein Teil im 64/64 Modus
auch Int32-Berechnungen durchführen, wärend der andere Teil die volle FP32 Power ausspielen kann.

Dann wäre das vorallem eine Frage der optimalen Treiber-Konfiguration, damit die Kerne wirklich so gut ausgelastet werden können. Da kann man
dann doch einiges an Hoffnung in Nvidia setzen, deren Treiber sind ja in der Regel recht ausgereift *daumen drückt*
 
Zuletzt bearbeitet:
Ahh, ich wurde gerade darauf hingewiesen, dass jede der SM Einheiten dann ja noch mal getrennt agieren kann. So könnte ein Teil im 64/64 Modus
auch Int32-Berechnungen durchführen, wärend der andere Teil die volle FP32 Power ausspielen kann.

Dann wäre das vorallem eine Frage der optimalen Treiber-Konfiguration, damit die Kerne wirklich so gut ausgelastet werden können. Da kann man
dann doch einiges an Hoffnung in Nvidia setzen, deren Treiber sind ja in der Regel recht ausgereift *daumen drückt*

Ja, genau. Das ist dann alles eine Frage wie genau man das steuert und die Auslastung innerhalb der GPCs/SMs verteilt.
 
Würde das auch nur eingeschränkt trickserei nennen... Immerhin kommuniziert nvidia das alles vor launch klar und imho detaillierter als sie es müssten

Und da das nda ebenfalls vor launch fällt (imho noch ein Zeichen für gute Performance) und man eh nich pre ordern kann kein Risiko
 
ja, habe ich auch schon spekuliert, aber dann wäre die Aussage, dass ab dem 17.Sep erhältlich ja umsonst

[https://www.hardwareluxx.de/communi...s-ampere-und-gtx-30-series-deep-dive.1276662/

Ab wann wir euch mit eigenen Test versorgen können, bleibt zunächst einmal noch ein Geheimnis. Die GeForce RTX 3080 wird ab dem 17. September erhältlich sein. Die GeForce RTX 3090 folgt am 24. September. Spätestens an diesen Tagen ist mit den Tests zu rechnen.]

Ab dem 14.Sep gibt es alle Infos, hat ja hwluxx auch schon in einem Artikel angedeutet. Dann hat man wenigstens zum Verkaufsstart schon eine grobe Idee von dem, was man da eigentlich kauft.
 
Waere Sie nicht, ein prorder bei nem game ist ja auch noch kein release.
Erhältlich ist doch wann verschickt wird ?
 
Sicher??? :confused:
Die Referenz-Karten sollten hinten doch diesen V-förmigen Ausschnitt haben, wegen dem Kühler

Ref_PCB.jpg

So sieht das neue Referenz Design aus. Gut zu erkennen an der Kerbe hinter dem PCIe Slot und dem 2x8pin Stromanschluss. Die Einsteiger Karten wie z.B. Gigabyte Eagle setzen da fast alle drauf. https://videocardz.net/gigabyte-geforce-rtx-3080-10gb-eagle-oc

Ein passender Wasserblock wäre z.B. dieser hier von EK. https://www.ekwb.com/shop/ek-quantum-vector-rtx-3080-3090-d-rgb-nickel-plexi
 
Mit jedem Tag der vergeht werde ich unsicherer und frage mich brauch ich die 3090 eigentlich? Jetzt bin ich sogar schon unsicher bei der 3080 wegen dem gefühlt zu kleinen Speicher.
Es wäre besser gewesen sie hätten mich direkt vorbestellen lassen. Da hätten sie safe mein Geld gehabt. Aber bis zum 17 bin ich wahrscheinlich komplett geheilt.
 
Je mehr man über sinnloses Luxuszeugs nachdenkt, desto verrückter kommt einem der ganze Hype vor. :fresse:

Was ist denn nun das Referenzlayout?
Beitrag automatisch zusammengeführt:

Nee. Das Referenz-PCB ist nicht das mit dem V (welches von der FE benutzt wird), sondern eines mit nem klassischen Rechteck.

Ein direktes Vergleichsbild wäre top.

Meint ihr das der Kühler der Founders schlechter ist als der einer Strix beispielsweise?
 
Ja, mir kam gestern wieder der Gedanke, für was man hier eigentlich sein Geld ausgibt. Und die Zeit um einen release nehme ich immer so war, als ob man gerade vor dem Freizeitpark morgens beim Aufmachen steht und dann gleich zum dicksten Fahrgeschäft rennt, um ja der erste in der Schlange zu sein. :fresse2:
 
Nochmal Kurz:

Das PCB mit dem V schnitt ist die FE und gibts nur direkt bei Nvidia, Praktisch deren eigene Custom Lösung.
Das eckige PCB mit 2x8 Pin ist das Referenz Layout für die Partnerkarten.
 
Und doch auch ne Preisfrage, wenn die Strix nicht zu 1499 zu haben sein wird, die FE aber schon. ;-)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh