[Kaufberatung] 3090 vs 3080 SLI

AreWeRlyFree

Experte
Thread Starter
Mitglied seit
06.03.2015
Beiträge
595
Hallo,

die Übersicht der Leistungsdaten lässt mich etwas ratlos zurück:

Shaderleistung:
3090: 36 TFLOPS
3080: 30 TFLOPS
Unterschied: 20%

Tensor-Leistung
3090: 285 TFLOPS
3080: 238 TFLOPS
Unterschied: 19%

RT-Leistung:
3090: 69 TFLOPS
3080: 58 TFLOPS
Unterschied: 19%

Ja, der Hauptunterschied ist offenbar der Speicher: 24 GB vs 10 GB.

Ich wollte mir eigentlich die 3090 kaufen, aber ich warte die Testergebnisse ab. Leistungstechnisch macht offenbar eine 3080 SLI deutlich mehr Sinn - die 100€ Ersparnis gehen aber eh für den zweiten Wasserkühlungsblock drauf.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Clonemaster @Scrush

Sehe ich überhaupt nicht so. Verwende seit mehreren Generationen SLI und bin weiterhin sehr zufrieden - bei all meinen präferierten Spielen (allen voran gerade wieder Witcher 3 mit allen erdenklichen Grafik-Mods) ist die Leistung gut 70% höher; Ruckler/Grafikprobleme habe ich nie bemerkt.
Beitrag automatisch zusammengeführt:

@[mv]payne

Wow, auf das habe ich überhaupt nicht geachtet, da ich mit sowas nicht gerechnet habe.
Nvidia weiß logischerweise selbst, dass 2x 3080 im SLI Betrieb die bessere Wahl wären und schiebt dem direkt einen Riegel vor... wow.
 
Wirklich gesehen habe ich das nur auf den geleakten Bildern.
 
Soll das nicht unnötig geworden sein durch PCI-E Gen 4? da können doch die GPU´s miteinander kommunizieren ohne extra schnittstelle...oder verwechsle ich da was?
 
Wo soll der Anschluss sind befinden? Auf den Renderings ist selbst auf der 3090 nichts zu sehen.

Ein Bild aus dem Stream eben. Da wird man wohl ein Teil von dem Gehäuse abnehmen können um die Bridge zu stecken.

1598980742360.png
 
Soll das nicht unnötig geworden sein durch PCI-E Gen 4? da können doch die GPU´s miteinander kommunizieren ohne extra schnittstelle...oder verwechsle ich da was?
Das ging auch vorher schon... Nur bei 32GB/s Durchsatz maximal pro Richtung vs. 100GB NVLink bei Turing bzw. mehr? bei Ampere?? ist das einfach deutlich weniger.

Sehe ich überhaupt nicht so. Verwende seit mehreren Generationen SLI und bin weiterhin sehr zufrieden - bei all meinen präferierten Spielen (allen voran gerade wieder Witcher 3 mit allen erdenklichen Grafik-Mods) ist die Leistung gut 70% höher; Ruckler/Grafikprobleme habe ich nie bemerkt.
TW3 ist eine der wenigen Ausnahmen halbwegs aktueller Titel, wo SLI geht.
Kommt halt drauf an was du spielst... Es gibt von den neuen Titeln, die so in den letzten paar Monaten released wurden, nicht sonderlich viel SLI Support. Kommende Games werden da noch weniger mitmachen, weil SLI effektiv gestorben ist. Nicht weil man da keine Lust drauf hat(te), sondern weil es technisch bedingt einfach Probleme macht - natürlich gibt es immer Mittel und Wege, gerade unter DX12 mit Support vom Entwickler (bspw. nutzt SotTR für SLI einen DX12 Aufsatz, es geht auch nur mit DX12, nicht mit DX11), aber die Entwickler tun sich leider seeeeehr schwer damit, abseits der Nische noch ne Nische in der Nische zu bedienen... HighEnd MGPU ist leider nur die Nische von der Nische.
 
  • Danke
Reaktionen: Tzk
SLI ist tot...

Eine 3080 reicht, keinen Plan was Leute mit ner 3090 wollen. Schon alleine wie die aussieht. Als hätte Nvidia einfach 2 3080er zusammengeklebt. Jeder der halbwegs rational denkt kann eigentlich nicht ernsthaft ne 3090 kaufen, vorallem da man weiß das irgendwann auch ne 3080 Ti mit 20GB VRAM kommt.
 
SLI ist tot...

Eine 3080 reicht, keinen Plan was Leute mit ner 3090 wollen. Schon alleine wie die aussieht. Als hätte Nvidia einfach 2 3080er zusammengeklebt. Jeder der halbwegs rational denkt kann eigentlich nicht ernsthaft ne 3090 kaufen, vorallem da man weiß das irgendwann auch ne 3080 Ti mit 20GB VRAM kommt.

3440x1440 @ 144fps.

zeig mal wo das reicht ;) das schafft nicht mal eine 3090

eine 2080S krebst in rdr2 bbei 60-80fps rum.

für 144fps bräuchte man die doppelte power
 
Stellst paar Details runter, problem gelöst. 120FPS bekommst locker und das ist schon mehr als Smooth. Ich persönlich kann zwischen 120 und 144FPS sowieso sehr wenig Unterschied festestellen. Fühlt sich beides mega-smooth an.

Die 3090 ist halt mehr als Doppelt so teuer, aber das spiegelt sich nicht in der Performance wieder.
 
Für mich wären 100 FPS / Hz schon nicht schlecht. Gewohnt bin ich 60. Die werden auch die nächsten Jahre Standard bleiben (leider).
 
Ich war bis vor ein paar Monaten mit 2x 1070 SLI unterwegs.
Lief in ein paar Games (Witcher 3, Ghost Recon Wildlands, Borderlands 2, Overwatch) recht anständig, skaliert hat's eher mäßig.
Gibt halt leider immer mehr Games in denen SLI nicht aktiv ist und wenn man ihn zwingt rennts schlechter als ohne.

Ist zwar aus technischer Sicht sehr schade aber die Spieleentwickler haben halt kaum Interesse dran den Aufwand zu treiben.

Es wurde zwar immer berichtet DX12 würde alles besser machen, bis hin zu asymmetrischem mGPU aber davon hab ich nie nennenswert viel gesehen.

Ich setze lieber wieder auf schnelle Single GPU Lösungen.
 
Hi,
soweit mir bekannt ist wird es kein SLI/NVLink mehr geben, Nur noch die 3090 wird sowas haben.
Und wenn du 2 RTX 3090 gleichzeitig betreiben willst, dann kannst du denke ich mal deine Heizung ausbauen und dir nen AKW in den Garten stellen :LOL: .
Also persönlich würde ich sagen, dass eine 3080 vollkommen auslangt für die nächsten Jahre. Die 3090 ist eig. als Ersatz für die Titan-Reihe gedacht und somit mehr für andere Anwendungen als fürs zocken gedacht.
 
SLI ist nur noch was für Grafikberechnung

Für Games wars das schon länger aus mehren Gründen;
-Entwickler, kleine Teams, Games machen das immer weniger, Aufwand zu groß.

-Das gute alte Microruckler Problem, selbst wenn man es mal eine Generation/Game/Treiber hinbekommt, morgen gibs neues Game, neue Treiber, neues Windows - gehts wieder von vorne los + zuviele Mainboards, Monitore, Auflösungen und für jedes System, für jede konfiguration das immer wieder Top gelöst zu bekommen...

- Watt & Preis ; Die Menge an Leuten die sich n 1,2 Kw Netzteil und 2x ne 8800 Ultra oder jetzt halt ne 3090 einbaun..sind nicht sehr viele...also..wirklich nicht

- Sinn ; Ein Kollege von mir hatte mal 2x 8600Gt im SLI und ich selbst hatte mal just for fun 2x Ati X800 (und ganz früher 2x Voodoo2) im Crossfire - aber kaum kam die Geforce 9800 raus, oder die X1800 war eine Karte besser als 2x X800/8600gt, bei halbem Preis, halber Hitze Entwicklung, halben Stromverbrauch - das macht man max, 1,2 ..3x mit, dann fragt man sich warum man immer soviel Geld verbrennt, wenn es 1 Jahr später schonwieder das nächste gibt.

War mal lustig vor 10 Jahren, aber jedes Jahr war es ein Nutzer weniger, der sich das antat und so sank stetig die Verbreitung von SLI...ja..bis zum heutigen Tag, wo es in wievielen Games nochne Rolle spielt ?! ka, ich glaub vor 2 Jahren war mal n Artikel auf Hardwaredeluxx, da waren es noch gefühlt 20 Titel die SLI support hatten. ..jetzt wahrscheinlich nur noch 10.

Ich will ja auch 8K, bei 360 Hz, aber siehe 2080ti auf 4k, 144hz Anno1800, da macht die keine 40 FPS mehr, wir sind immer limitiert mit der Technologie unserer Zeit - träumen erlaubt, Grenzen ausreizen auch, mit der 3000er sind wir dann wohl endlich bei 4k flüssig bei 144 HZ ?! 4000er wird uns dann evt 8k ermöglichen, 5000er dann 8k flüssig...also in frühstens 3 jahren ?!

naja, wat solls, vergiss SLI, evt finden AMD/Nvidia n anderen Weg, war ein "experiment" - Praxistauglichkeit hat ergeben..."nope" - klar gehen tut alles..ist immer nur die Frage "wie"
 
Was meiner Ansicht nach passieren müsste damit multi GPU Setups wieder Erfolg haben können ist dass es den Herstellern gelingt das nahezu Software-unabhängig zu gestalten.
So lang jeder Spieleentwickler, auch diejenigen die die großen Engines verwenden, die Eigenheiten von SLI- oder Crossfire-Setups in ihrem Code berücksichtigen müssen wird da nicht viel passieren.

DirectX12 erlaubt ja prinzipiell die Nutzung mehrerer GPUs, angeblich sogar Herstellerübergreifend, es war ja sogar die Rede davon z.B. eine schwache Grafikeinheit in der CPU mit einer dedizierten GPU koppeln zu können.
Geworden ist daraus nichts.
DX12 wird auch wenig eingesetzt, dazu war mal zu lesen dass die Entwicklung für DX12 deutlich anspruchvoller sei als für DX11 und wenn diese MultiGPU Features damit zwar theoretisch umsetzbar sind, effektiv aber auch wieder in mühsamer Handarbeit obendrauf programmiert werden müssen, ist auch klar warum das nicht passiert.

Will also irgendein GPU Hersteller Gamern mehr als eine Karte verkaufen darf der Aufwand dafür maximal in der Hardware und im Treiber stecken, die Spieleentwickler müssen da außen vor gelassen werden.

NVLink wird ja auch immer schneller, vielleicht ist man irgendwann schnell genug um das für die Software irgendwie soweit transparent abbilden zu können dass das Thema mal wieder kommt.
Quasi aus zwei Karten gegenüber dem Game eine machen.

Jetzt muss man aber auch klar sagen dass der Gaming Bereich von Nvidia inzwischen ja nur einer von vielen ist.
Im professionellen Grafikbereich wrid man da wo es Sinn macht SLI evtl unterstützen, da ist die Software und die Hardware ja auch deutlich teurer.

Im Computingbereich werden die GPUs häufig ohnehin separat angesprochen, für erweiterte Anwendungen gibt es dann NVLink um auf den Speicher der anderen Karte(n) zugreifen zu können und sogar für die Anbindung der GPU(s) an die CPU(s) in einer Geschwindigkeit die deutlich über dem liegt was PCIe ermöglicht.

Insgesamt ist die Zielgruppe im Gamingbereich aber sicherlich sehr klein.
Ich finde das technisch zwar sehr reizvoll, würde mir aber sicherlich nicht mehrere GPUs zu je > 1000 EUR kaufen.
 
mit der 3000er sind wir dann wohl endlich bei 4k flüssig bei 144 HZ ?! 4000er wird uns dann evt 8k ermöglichen, 5000er dann 8k flüssig...also in frühstens 3 jahren ?!
UHD ist die vierfache Pixelmenge von FHD. Wie lang hat es jetzt gedauert, bis UHD überhaupt praktikabel wird? FHD spielt man schon seit 10 Jahren... mindestens.

Und jetzt weiter: 8K ist wiederrum das vierfache von 4K... und du denkst wir könnten in 3 Jahren Grafikkarten haben, die das packen? Dazu kommt ja auch noch, das die Grafik selbst bei gleicher Auflösung nicht stehen bleibt. Da wird immer mehr Raytracing eingebaut, dann gibts wieder irgendwelche neuen Effekte, Polygonzahlen steigen weiterhin, PhysX, usw. Abgesehen davon, das ich nichtmal glaube, das es schon in 3 Jahren überhaupt bezahlbare 8K Monitore gibt. Noch mehr abgesehen davon, das 8K am Schreibtisch erst bei Monitoren ab... 50 Zoll etwa(?) Sinn macht. Und klar, natürlich auch beim 115" TV.
 
Und wenn du 2 RTX 3090 gleichzeitig betreiben willst, dann kannst du denke ich mal deine Heizung ausbauen und dir nen AKW in den Garten stellen :LOL: .
Also persönlich würde ich sagen, dass eine 3080 vollkommen auslangt für die nächsten Jahre. Die 3090 ist eig. als Ersatz für die Titan-Reihe gedacht und somit mehr für andere Anwendungen als fürs zocken gedacht.

Gerade angemeldet und sofort unqualifizierten Quatsch zum besten geben...

- Sinn ; Ein Kollege von mir hatte mal 2x 8600Gt im SLI und ich selbst hatte mal just for fun 2x Ati X800 (und ganz früher 2x Voodoo2) im Crossfire - aber kaum kam die Geforce 9800 raus, oder die X1800 war eine Karte besser als 2x X800/8600gt, bei halbem Preis, halber Hitze Entwicklung, halben Stromverbrauch - das macht man max, 1,2 ..3x mit, dann fragt man sich warum man immer soviel Geld verbrennt, wenn es 1 Jahr später schonwieder das nächste gibt.

Ist dir eigentlich klar, wieviel Kosten bei einem Haus, zwei Kfz und Kinder so pro Monat/Jahr auflaufen, nur für den simplen Unterhalt/Instandsetzung?
Wenn sich jemand u.a. über den Stromverbrauch von zwei Karten für ein Hobby echauffiert, dann hat derjenige das falsche Hobby und/oder den falschen Job, mehr gibt es dazu nicht zu sagen.
 
also bei 4k144 sind wir noch lange nicht. doom ist eine ausnahme weil das rennt wie sau.

fast alles andere an spielen sind 4k144hz nichtmal mit einer 3090 drin. bei weitem nicht.

von RTX ganz zu schweigen und DLSS zählt nicht
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh