Alle Details zur neuen GeForce-RTX-Generation auf Ampere-Basis

Kommt auf das BIOS an. ;)

Ein Shunt Mod sollte eigentlich bei der 30xx Karten auch funktionieren, ist halt die Frage ob Silberleitlack dazu reicht. Nun. Roamn wird sich sicher zeitnah damit beschäftigen nehme ich mal an. :)

@ DocJimmy
Man kann ja das ursprüngliche BIOS auch zurück flashen, notfalls auch im Blindflug oder mit einer zweiten Karte, je nach Defekt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wieso Blindflug?
Zweite Karte rein oder Onboard-GPU nutzen und dann hoffentlich die richtige GPU flashen

Aber weiter oben war ein BIOS jenseits von 400W ab Werk gemeint.
 
Ob die MSI Lightning Z auch wieder mehr VGPU kann, wie die 2080Ti?


btw:
3x 8Pin bedeutet nicht gleich bessere bzw. mehr Spawa´s oder?
Und ist EVGA der einzige Hersteller, bei dem ein Kühlerwechsel ohne Garantieverlust erlaubt ist?

Gibt bei cb ne Liste
Sind garnichtmal so wenig Hersteller dies erlauben.
Beitrag automatisch zusammengeführt:

Die Aorus ist schon mega geil...
aaaaaaaaarrrrrrrrrgggggghhhhhh
ich will die 3090 :LOL:

Bin auch hin und hergerissen, Aorus oder FE..
Beitrag automatisch zusammengeführt:

Die Aorus ist schon mega geil...
aaaaaaaaarrrrrrrrrgggggghhhhhh
ich will die 3090 :LOL:

Bin auch hin und hergerissen, Aorus oder FE..
Ob die MSI Lightning Z auch wieder mehr VGPU kann, wie die 2080Ti?


btw:
3x 8Pin bedeutet nicht gleich bessere bzw. mehr Spawa´s oder?
Und ist EVGA der einzige Hersteller, bei dem ein Kühlerwechsel ohne Garantieverlust erlaubt ist?

Spawa Anzahl hat nix mit dem Stromanschlüssen zu tun.
 
Zuletzt bearbeitet:
Link von CB haste grad nicht oder? :giggle:

Was ich nicht verstehe, warum es in DE keine GALAX-Karten zu kaufen gab (2080Ti)
Diese hatten echt „scharfe“ BIOSe (PT 400W und PL 450W). So werden die 3090 wahrscheinlich BIOSe mit 500W haben

Natürlich könnte man auch diese BIOSe bei anderen Karten flashen, aber ab Werk wäre mir lieber
 
wie kann euch nur die Aorus gefallen...habt ihr die Rückseite nicht gesehen?
Also eben genau die Seite, die man auch sieht...was soll das denn sein? Son verkrüppelter Muto Schädel aus Godzilla
1599258987756.png
 
Horny, Witcher 3 in HDR, gleich mal PS4 HDR-youtube videos checken. :o


btw, wer greift da bitte zu?

 
Zuletzt bearbeitet:
Mal ne ganz blöde Frage... denkt ihr es wird custom Lösungen mit DVI geben? Insbesondere in der 50er und 60er Klasse?

Ich schätze schon, für Turing gibts auch noch viele mit DVI. Aber eigentlich ist es Quatsch, eine moderne Grafikkarte mit nem antiken DVI-Port (= HDMI 1.0) auszustatten anstatt mit einem weiteren HDMI 2.x-Port.
 
Hat jemand von euch den Technik-Artikel zum Aufbau der Ampere "Cuda-Cores" auf Computer Base gelesen? Für mich klingt das da alles gar nicht so gut,
wobei ich bei der Thematik auch eher Laie bin.

ComputerBase: RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

Im Kern geht es darum, warum Nvidia plötzlich die doppelte Menge Cuda-Cores angibt und wann die theoretisch doppelte Leistung wirklich abrufbar ist. Die
Turing Cores können 64 FP32- und 64 INT32-Berechnungen gleichzeitig durchführen, die Ampere Kerne entweder 128 FP32-Berechnungen oder genau wie
Turing 64 FP32- und 64 INT32-Berechnungen gleichzeitig.

Je nach Anwendung bliebe von der theoretischen Mehrleistung dann ja nur die Speicherperformance und einige weitere technische Verbesserungen, wie die
gleichzeitige Nutzbarkeit von FP32-Alus, Tensor- und RT-Kernen. Wobei letzteres wohl auch wieder nur in speziellen Anwendungsszenarios Vorteile bringen wird.

Als Laie auf diesem Gebiet hört sich das für mich so an, als wäre es irgendwie ein Glücksspiel wie Ampere vorallem in älteren Spielen und insbesondere in Konsolen-
ports abschneiden wird. Gerade zukünftige PS5/XboxSX Games werden ja primär für ein AMD System programmiert und solange nicht fast jedes neue Spiel RT
nutzt bringt auch die gleichzeitige Nutzbarkeit der Kerne nichts.

Wäre Ampere für eine Konsolengeneration entwickelt worden, würden die Spieleentwickler sicher schnell enorm viel aus der Architektur herausholen können, aber
AMD-Konsolen, 1/3 der PC-Systeme mit AMD Karten bestückt...da wird Nvidia ja irgendwie zur Nische mit ihrer so speziellen Hardware.

Könnt ihr mich da vielleicht ein bisschen mehr aufklären? Nutzen aktuelle Spiele eher FP32-, oder auch gleichzeitig INT32-Berechnungen? Seht ihr diesen mMn
komplizierteren Aufbau der Ampere-Architektur kritisch? Bei AMD hieß es doch schon häufiger sie lägen im Hintertreffen, weil sie die ALUs ihrer Karten nicht
optimal ausgelastet bekämen, Nvidia wurde hingegen immer für ihre einfach auszulastende Architektur gelobt!?
 
Wenn die Strix nicht mal 1800kostst 🙈 aber denn sage ich auch gerne nein dazu.
 
@ Madschac

Die 3080 ist auf den ersten Blick, wie eine 2080Ti. Nur eben mit genau doppelt sovielen ALUs, schnellerem, neuen RAM und kleinerer Strukturbreite. Und, dass 128 FP32-Einheiten gleichzeitig werkeln können

Aber mehr kann ich dazu auch nicht sagen.
Was klingt an dem Artikel nicht gut?
 
Ich schätze schon, für Turing gibts auch noch viele mit DVI. Aber eigentlich ist es Quatsch, eine moderne Grafikkarte mit nem antiken DVI-Port (= HDMI 1.0) auszustatten anstatt mit einem weiteren HDMI 2.x-Port.
DVI (DL) kann 1440p, HDMI 1.0 nicht.
Ist aber gar nicht das Thema, sondern dass es 1440p Monitore mit DVI only gibt.
 
wer hat denn bitte noch monitore mit dvi?

mein u2414h von 2014 für 180€ hat 1x dp, 1x mini dp, und 2x hdmi.
 
......werde mir jetzt vor der 3080 oder 3090 noch schnell den LG 38GN950-B besorgen.....wollte ich die ganze Zeit schon mal testen
 
AMD hardware war auchin der PS4 und es hat nicht viel genutzt madschac.
 
Ich habe damals auch gedacht das es viel bringt weil man die AMD Grafikkarte in der PS4 hatte.
Im Endeffekt ist Nvidia einfach mit vollgas auf und davon
vielleicht sollte AMD bei allen großen Publishern klingeln und mit den Entwicklern vor Ort sprechen um herauszufinden was man an der GPU verbessern sollte damit sie diese besser ansprechen können oder was am Treiber gemacht werden soll.
ich denke das würde richtig viel helfen.
genauso sollte man seine Mitarbeiter da hinschicken und Hilfe anbieten um FidelityFX zu implementieren.

Man sieht ja wie Nvidia sich die Großen abgreift und dann kommt erstmal ein Witcher 3, Watchdogs , Cyberpunk 2077 und Crysis Remaster mit RT und DLSS 2.0
die pushen die spiele so das die kunden dann die Features haben wollen
 
@Madschac
spätestens nach den ersten Reviews wissen wir, was an Lederjackes Leistungsdaten, die er uns da in seiner Küche kredenzt hat wirklich drann ist und dann wird man sehen in wie weit der neue Aufbau der Shader wirkt :)
ich bin auch gespannt ob man wirklich durch die Bank diese Leistungen (auch bei älteren Games und ohne RTX) erreichen wird können ...
 
Zuletzt bearbeitet:
Hat jemand von euch den Technik-Artikel zum Aufbau der Ampere "Cuda-Cores" auf Computer Base gelesen? Für mich klingt das da alles gar nicht so gut,
wobei ich bei der Thematik auch eher Laie bin.

ComputerBase: RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

Im Kern geht es darum, warum Nvidia plötzlich die doppelte Menge Cuda-Cores angibt und wann die theoretisch doppelte Leistung wirklich abrufbar ist. Die
Turing Cores können 64 FP32- und 64 INT32-Berechnungen gleichzeitig durchführen, die Ampere Kerne entweder 128 FP32-Berechnungen oder genau wie
Turing 64 FP32- und 64 INT32-Berechnungen gleichzeitig.

Je nach Anwendung bliebe von der theoretischen Mehrleistung dann ja nur die Speicherperformance und einige weitere technische Verbesserungen, wie die
gleichzeitige Nutzbarkeit von FP32-Alus, Tensor- und RT-Kernen. Wobei letzteres wohl auch wieder nur in speziellen Anwendungsszenarios Vorteile bringen wird.

Als Laie auf diesem Gebiet hört sich das für mich so an, als wäre es irgendwie ein Glücksspiel wie Ampere vorallem in älteren Spielen und insbesondere in Konsolen-
ports abschneiden wird. Gerade zukünftige PS5/XboxSX Games werden ja primär für ein AMD System programmiert und solange nicht fast jedes neue Spiel RT
nutzt bringt auch die gleichzeitige Nutzbarkeit der Kerne nichts.

Wäre Ampere für eine Konsolengeneration entwickelt worden, würden die Spieleentwickler sicher schnell enorm viel aus der Architektur herausholen können, aber
AMD-Konsolen, 1/3 der PC-Systeme mit AMD Karten bestückt...da wird Nvidia ja irgendwie zur Nische mit ihrer so speziellen Hardware.

Könnt ihr mich da vielleicht ein bisschen mehr aufklären? Nutzen aktuelle Spiele eher FP32-, oder auch gleichzeitig INT32-Berechnungen? Seht ihr diesen mMn
komplizierteren Aufbau der Ampere-Architektur kritisch? Bei AMD hieß es doch schon häufiger sie lägen im Hintertreffen, weil sie die ALUs ihrer Karten nicht
optimal ausgelastet bekämen, Nvidia wurde hingegen immer für ihre einfach auszulastende Architektur gelobt!?

Ja das hat was von AMDS FX "8 Kernern"
 
Igor erklärt die Welt, heute: Wie die verdopplung der CudaCores die Nvidia angibt zustande kommt:

Dazu n paar kleine teaser auf die performance der karte (aka DF Zahlen sind kein kompletter Bullshit, aber schon Cherry Picking)
 
Edit: Die haben sich vertan, launch am 17ten, NDA am 14ten

 
welches ist es Slipknot?
 
Kann doch eigentlich nur 3090 sein wegen SLI, die 3080 hat es ja nicht.

Müsste von der Länger auch so ziemlich das gleiche sein wie das FE PCB.
 
Denke die Custom PCBs werden dann auch nicht groß abweichen und eher wegen 3x8Pin noch etwas länger sein.
Das ding ist so vollgepackt, da bleibt ja kaum Spielraum was anders zu bauen.
 
Die Reference PCBs der 3080 und 3090 müssen sich aber ziemlich ähneln, weil die Wasserblöcke von EK und Bykski auf beide Karten passen.
 
Die Reference PCBs der 3080 und 3090 müssen sich aber ziemlich ähneln, weil die Wasserblöcke von EK und Bykski auf beide Karten passen.
Heißt auch keine extra kühlung für die Speicherchips auf der Rückseite abseits der backplate? Oder sind die Partnerkarten single sided? Wobei es auf reddit heißt, dass es die gddr6x Chips noch garnicht in 2gb gibt (was für single sided nötig wäre)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh