Beidseitiges Kühlkonzept: Foto soll GeForce RTX 3080 zeigen

sorry meinte natürlich 3 Jahre und ich finde es einfach traurig nach bereits 3 Jahren 11GB 1080ti dann auf eine 3080/ti/Super mit wieder 11/12 GB Vram zu wechseln und dafür dann wahrscheinlich auch noch 1500+ Euro abzudrücken zu müssen - selbst wenn die 11/12 GB derzeit noch reichen...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Würde mich ja freuen wenns bei Nvidia direkt ne Fullcover Karte geben würde. :d

Ansonsten wird es da wohl auch teurer und die Blöcke gehen Richtung 200€ weil aufwändiger zu bauen.
Naja mal gucken wann es endlich mal Offizielle Angaben gibt.
 
sorry meinte natürlich 3 Jahre und ich finde es einfach traurig nach bereits 3 Jahren 11GB 1080ti dann auf eine 3080/ti/Super mit wieder 11/12 GB Vram zu wechseln und dafür dann wahrscheinlich auch noch 1500+ Euro abzudrücken zu müssen - selbst wenn die 11/12 GB derzeit noch reichen...
Na ja, packen die 24gb drauf und verlangen deshalb (und weil sie es können) 2000 gefällt es auch wieder keinem ;)
Ich verstehe grundsätzlich was du meinst, aber solange da kein normales Limit ist und die restliche Leistung steigt, ist mir Wurst ob sie mehr oder die gleiche Menge an Speicher hat. Und ich denke mit 11GB kommt man noch ein ganzes Stück
 
24GB wie bei der 3090 müssen es ja nicht sein, aber 16GB wären schon schön beim 2080TI Nachfolger, so wäre das die 3te Gerneration mit 11/12 GB Vram bei der TI
 
Ist mir so ziemlich egal, mehr Speicher nur für's gute Gefühl brauche ich nicht. Die 2080 Ti könnte 8GB haben und ich hätte sie trotzdem gekauft, da stoße ich an überhaupt keine Grenzen. Meistens habe ich so 4-6GB Auslastung (bei 3440x1440).

Gut, ich zocke auch nicht jeden verkrüppelten Konsolenport, vielleicht sieht das Call of Duty & Co anders aus. Früher hatten wir hier mal die VRAM Liste, gibt es noch irgendwo aktuelle Vergleiche was Spiele wirklich brauchen?

Ach ja dann gibt es noch die Konsorten Middle Earth etc., mit ihren 40GB „Ultra HD“ Download Texturen, die einem den Speicher dicht schreiben, ingame dann aber immer noch Matschgrafik haben - gg.
 
hmm wenn wirklich die 3090 und nicht die 3080ti/super der 2080ti Nachfolger wird - dann Gute Nacht - denn bei einer 3090 mit 24GB Vram stehen dann wohl minimum 2000 Flocken auf dem Tacho....
ICH würde den Angaben zur Modellbezeichnung vorerst erstmal nicht zu hohe Bedeutung zuordnen. Das ist pure Spekulation von Igor und da gibts aktuell auch absolut nichts verwertbares. Ich finde ja Igors Tests wirklich 1a und für viele viele Zweifel erhaben, aber bei diesen Spekulatius Themen ist er mMn etwas arg weit vorn dabei, wenn es um das rumverbreiten von irgendwas geht. Aufgefallen ist mir das bei seinem "Fund" von irgendwelchen angeblichen Refresh APUs wegen den 4x50 Versionen -> was irgendwo ankam wie, als wäre das was neues, was er da gefunden hat. Die Pros hießen doch 50... Und waren auch vom Nummernschema anders -> TopDog = 4750 udn nicht 4800 oder gar 4900. Daraus wurde dann ein Refresh "erdacht". Kann alles so sein, aber realistisch ist sowas nicht.

Auch hier mit der 3090, bin ich der einzige, dem auffällt, dass da ne Titan fehlt? Was bitte, wenn nicht das Modell, was die 3090 in der Tabelle trägt, wäre besser geeignet als ne neue Titan?
Die GA100 GPU dürfte dafür raus fall, weil der GA100 keine RT-Cores hat. In Raytracing Benches und davon ist auszugehen, dass NV diese mit den 3000er Modellen wieder pusht wo es nur geht, würde ne GA100 also klar abstinken. 8k ALUs hin oder her... Keine Titan zu bringen halte ich für Unsinn. Da es DER Zwitterschritt war. Am Ende auch aber theoretisch Bumms egal ob das Ding dann Titan oder 3090 geschimpft wird. Es wird wohl das Modell, was die TitanRTX beerben wird. Da stehen also 2700€ im Raum - vllt mehr beim Nachfolger. In sofern verstehe ich ehrlich gesagt deinen Einwand nicht den 2000 Flocken nicht. Gemessen an 2700 Tropfen sind 2000 Flocken doch relativ wenig !? Nach bester AMD Manier könnte man einfach sagen, reicht ja auch aus, oder!? ;)

da hätte ich dann nach über 4 Jahren 1080ti mit 11 GB wieder ne KArte mit 11GB und die Top Karte bekommt zwar mit 24GB Vram massig Speicher aber der Preis wird wohl endgültig aus meinem Wohlfühlbereicht enteilt sein und ein mittelmaß mit 16GB scheint zumindest vorerst nicht in Plannung zu sein.
Ein Mittelmaß ist eben so ohne weiteres nicht. Es soll irgendwo technisch mittlerweile hinbaubar sein, aber keine Ahnung wie realistisch das ist und vor allem wie notwendig. Am Ende ist es auch Bumms egal ob du oder ich oder wer auch immer meinen, das wäre traurig die dritte GPU in Folge mit 11/12GB zu bringen über 4 Jahre hinweg... Am Ende ist entscheidend, was lässt sich verkaufen, was erfordert der Markt, welche Anforderungen gibt es. Aktuell schaut nicht sooo viel danach aus, als würden die VRAM Anforderungen durch die Decke gehen. Das kann morgen komplett anders ausfallen, stimmt -> ich würde aber mal behaupten, der Trend, den die Konsolen auflegen werden, ist eher weniger VRAM Bedarf - sondern mehr Storage Bumms für Streaming.

Btw. ich würde deine Kritik uneingeschränkt teilen, wenn die kommenden Konsolen mit 24/32GB gekommen wären. War aber nicht ;) Da stehen 16GB. Teils wohl mit Segmentierung wenn ich das richtig im Kopf habe? Bei der Series X 10GB für die GPU bspw. spuckt mir der Google auf die Schnelle aus.
Wozu sollte da ne Übertreibung stattfinden?

Am Ende ist es ultra einfach, für die OEMs den VRAM zu verdoppeln, selbst zu vervierfachen. 48GB gehen da definitiv drauf. Vllt mit kommenden Chips auch 96GB. Kommt also der Punkt wo man kurzfristig reagieren muss, jede Wette, da kommen dann einfach Modelle mit doppeltem VRAM und gut ist...
Man kann da jetzt warten und warten und warten... Oder man nimmt es so wie es kommt und reagiert wenn es notwendig wird. Die Kritiker der 1080TI 11GB Geschichte anstatt 12 oder 24 damals würden heute immernoch warten ;) Und hätten immernoch keine Notwendigkeit. 4 Jahre nach Release...

Also heißt es wohl auf Amd und Big Navi zu hoffen - das die was brauchbares mit 16GB Vram und noch halbwegs brauchbaren Preisen so mit 2080tiLeistung +30% in der Lage sind zu bringen...
Da kannst du hoffen wie du möchtest... AMD unterliegt den gleichen technischen Restriktionen wie NV auch. 16GB bedürfen einem 512Bit SI, wenn man gerade anbindet oder/und gängige Speichergrößen nutzen möchte. Oder HBM -> HBM hat AMD doch schon ausgeschlossen?? Oder verwechsel ich das? Und 512Bit SI würde ICH ganz klar ebenso ausschließen. Für so ein "Monster" was BigN an ALU Ressourcen sein soll, halt eich 256Bit auch mit den höchst taktenden GDDR6(X) Speichern am Markt, für unrealistisch wenig. Bleibt also 384Bit mit 12GB oder 24GB... DAS könnte ich mir noch eher bei AMD vorstellen, aber dann wird das ein ziemlich fetter Aufpreis werden.
 
Da kannst du hoffen wie du möchtest... AMD unterliegt den gleichen technischen Restriktionen wie NV auch. 16GB bedürfen einem 512Bit SI, wenn man gerade anbindet oder/und gängige Speichergrößen nutzen möchte. Oder HBM -> HBM hat AMD doch schon ausgeschlossen?? Oder verwechsel ich das? Und 512Bit SI würde ICH ganz klar ebenso ausschließen. Für so ein "Monster" was BigN an ALU Ressourcen sein soll, halt eich 256Bit auch mit den höchst taktenden GDDR6(X) Speichern am Markt, für unrealistisch wenig. Bleibt also 384Bit mit 12GB oder 24GB... DAS könnte ich mir noch eher bei AMD vorstellen, aber dann wird das ein ziemlich fetter Aufpreis werden.
Aye - BN wird im Vollausbau wohl eher bei 384bit mit 12GB landen - 24GB wird was für Datacenter. HMB wurde bereits ausgeschlossen und wird für BN nicht verwendet - weil AMD angefangen hat, Compute und Gaming zu trennen. Es mag evtl. eine CDNA2 µArch mit HBM geben, aber nix für Gaming. Die 505m^2 werden auf 80CU eingestellt werden, obwohl es bereits Spekulatius gibt, die sagen, dass selbst der Vollausbau mit Reserven gefertigt wird und jeder "Cluster" mit 4 möglichen Defekten berechnet wird, was eine "reine" BN GPU auf theoretisch 96CU bringen würde.

Die gibts dann entweder als Sonderedition oder es ist alles nur heiße Luft und 80CU ist bereits der Vollausbau ohne Reserven. Wie dem auch sei - BN muss auf 80CU skalieren oder das Teil wird absaufen. Die beiden GFX-Pipes deuten ja schon darauf hin, dass da ein Flaschenhals bereits weggefräst worden ist und wenn wir mal rein theoretisch eine doppelte 5700XT Performance annehmen plus 10-15% IPC oben drauf, dann *muss* Nvidia so ein Monster an 3900Ti FE rauskloppen. Nur: Die Differenz zwischen den Spielen wird auf Grund dieser massiven Divergenz enorm werden - das kann ich jetzt schon versprechen. Je nachdem, ob wir mit Vulkan zocken werden oder mit dem "Its mean to be played" Logo, brauchen wir uns keine Illusionen mehr machen, dass hier der Markt hart aufgespalten wird - was halt leider auch für Cyberpunk 2077 gelten wird.

Raytracing wird, genauso wie DLSS 2.0 wie blöde gepusht werden und je nachdem, ob man Effekte geil findet oder nicht kann man sich dann dazu entscheiden, was man nehmen will. Ich erwarte extreme Leistungsdifferenzen bei den Bench-Parkours, je nach Spiel.

Hier wird sich dann wohl auch wieder das Lagerverhalten erhitzen - nur wird das Eis so langsam dünner, weil die Studios ja auch irgendwie den konsolenmarkt bedienen wollen. Ich bin gespannt ^^

Preis Glaskugel: Die 24GB Version wird für 1.999€ kommen.
 
Ich behaupte, der Erfolg von Navi 2 steht und fällt mit den pps, ohne wirksame pps hat Navi 2 wenig Chancen.
 
PPS? (Performance per shader?)
 
Primitiv Performance shader

Die Wirksamkeit wird aber nur durch die Entwickler erreicht, die AMD im Boot haben muss, da sehe ich aktuelle die Herausforderung.
Es gibt inzwischen auch eine Bibliothek um die pps einzubinden, ob das die Spielehersteller nutzen werden ist aber fraglich.. Stichwort Lizenz Forderungen.
 
mir ist schon klar das sich die Hersteller leider nicht nach (meinen) Wünschen richten, das einzig gute daran ist, das ja glücklicherweise niemand gezwungen wird ne neue Karte zu kaufen wenn ihm/ihr (bzw in dem konkreten Fall mir) das PL Verhältnis nicht passt.

und das die 3090 vielleicht die neue Titan ist wurde ja auch schon von mir selbst gemutmaßt da dann die 24GB VRam Klotzerei eher passen würden.

derzeit sehe ich es auf alle Fälle nicht ein für einen 2080TI Nachfolger mit "wieder nur" 11 GB Vram 1500 oder mehr auszugeben, da muß mein Leidensdruck schon noch um einiges steigen.

Da müßte der Leistungssprung zur 2080ti schon beachtlich sein, das ich mir das schönreden kann mit wieder 11 GB Vram, dasselbe gilt auch für Big Navi - oder wenn die Leistung nicht dermassen gut ist müßte der Preis entsprechend niedriger sein um mich zum Wechsel von der 1080ti zu bewegen.

Die 1080ti ist zwar nicht optimal für 4K aber mit ein bisschen Reglerarbeit und ein paar Abstrichen in der Grafikpracht geht es auch damit noch ganz gut- vor allem seit Nvidia Sync auch für meinen Freesync Monitor freigegeben hat (was ohnehin schon lange überfällig war ).
 
Joar, ich würde auch sagen, dass alle, die sich damals die 1080Ti geschossen haben Glückspilze sind und die Karte so lange wie möglich innehalten sollten, bis sich am Markt mal was sinnvolles bewegt. Doppelte Leistung schön und gut, wenn der Preis aber 3x so hoch ist, kann man 1440p weitermachen bis zum Tod von dem Teil oder halt 4k tweaken und noch ne Generation oder zwei abwarten.
 
Jup... Jeder der damals eine 1080Ti um ~700€ gekauft hat, hat einfach nur alles richtig gemacht. Das ist ja quasi der 2600k/3770k/5820k der GPUs.
 
1080ti = 2080 = 3060, was ist jetzt daran so alles richtig?

hab ne 2080ti und die is halt dann die 3080 und dann die 4060

ein endloser Zirkel
 
Du nennst es Zirkel, ich nenn es Teufelskreis. :d
 
einfach immer die XXti kaufen und dann is man befreit von hätte wäre wenn ;)
 
Würde wie erwähnt diesen Spekulationen auch nicht sonderlich viel glauben schenken. Da passt so einiges nicht.
Bis auf das 384-Bit Speicherinterface der einen Karte ist, wie Igor erwähnt hat, alles nur Spekulation und Hörensagen. Alle gennanten Angaben zum Speicher, Verbrauch etc. können also falsch sein.

Ich spekuliere auch mal. Nach kurzem Überlegen hat es mit der 320/350 W Sache dies auf sich:
Das ist die TBP (thermal board power), und wohl die maximale TBP. Die TDP wird für rtx titan ampere und rtx 3080 ti mit Sicherheit wieder bei 250 - 300 W landen. So dumm sind die Beschäftigten bei nvidia nicht und einwickeln neue gtx 480/580 Karten. Über dem sweetspot laufen lassen und Effizienz senken werden sie diese mit Sicherheit nicht.
Da man nun solch einen tollen Kühler hat, wird man einfach das PT (power target) viel weiter erhöhen können. Deshalb auch die 320/350 W TBP. Das Board sollte dies maximal aushalten können. ;)
Die Founders Edition wird also nicht nur preislich sondern auch leistungsmäßig zu den custom Karten aufschließen. Noch mehr zum Ärgernis der Boardpartner als es noch bei Turing der Fall war.

Und mit heruntergelassener Hose wurden die Beschäftigten bei nvidia mit Sicherheit nicht erwischt. Sind ja nicht bei Intel :d
Und $ 150 kostet der Kühler in der gesamten Fertigung bestimmt nicht! Das ist vllt. der Preis für den man diesen auf dem Markt handeln würde. Der Kühler der Turing Karten kostet laut Angabe um die $ 25 - 35. Ich sehe bei diesem hier nichts was den Preis so explodieren lassen hat.
$150 würde eine rtx 3080 wie teuer werden lassen? 900 € Straßenpreise zu Release? Das kaufen noch viel weniger Menschen und dem Letzten sollten dann auch die Folgen seines Handels, dem Kauf, ersichtlich werden. Vor allem in/nach Zeiten der Pandemie.
Auch eine rtx 3080 ti würde somit wieder 1200 - 1300 € € kosten.

Rtx 3090 = Titan. Mit 24 GB Vram wohl wieder 2500 €
Ist aber nur Spekulation. Könnte auch eine rtx 3080 ti mit 12 GB sein für wieder 1200+ € sein.
Das man keine lukrativere rtx 3070 gleich zu Release bringt, sondern nur eine Titan/3080 (ti) halte ich für unwahrscheinlich. Würde man bei amd sofort abgreifen.
 
Zuletzt bearbeitet:
Es wurde von mehreren "Leakern" gesagt, dass Nvidia zum Release gleich ne Art titan rauskloppen möchte um nicht das Risiko eingehen zu müssen, dass ne RX6800 die RTX3080 schlägt. (Mal ausgedachte Codenamen hier)
Entsprechend kommt gleich die RX3080 Titan Variante um AMD direkt nen Deckel von oben draufzusetzen. 350W sprechen da ziemlich deutlich. AMD wird wohl ähnliche Wattzahlen fahren.
edit: Problematisch wirds halt nur, wenn Nvidia mal wieder 1.300€+ verlangt und AMD "nur" bei 1.000€ rumdümpelt. Die ganzen Leute, die "normale" Preise erwarten werden dann im Bereich der 3060 oder 3050 landen - und das wird nicht schmecken, wenn man 500 Flocken für ne "Einstiegskarte" hinblättern soll.
 
ich freue mich schon auf die günstigen 2080Ti im Marktplatz :popcorn: gibt doch "immer noch" mehr als genug die direkt 1,5K aus der Tasche ziehen wenn was Neues kommt.
 
Die 24GB Variante wirds nicht für 1.5k geben, die wird teurer. 2.000€ mindestens. Finanztechnisch macht Nvidia alles richtig und fähr die Apple Strategie.
 
Auf jeden Fall finde ich es schon mal gut, dass das Design die warme Luft in Richtung Gehäusefront abführt, und nicht nach hinten wo sie evtl. raus könnte.^^
 
Das die reale TDP weiterhin bei 250 - 300 W für 3080 ti/Titan bleiben wird und man nicht wie bei Intel kalt erwischt wurde, ist auch wahrscheinlicher als andersherum.

Bei nvidia weiß man auch schon längst was die rdna2 Karten annähernd leisten können werden und wie viel Strom diese verbrauchen.
Erste Version des PS4 Netzteils, Ausgangsleistung 250 W, dann 230 W. Realer max. Gesamtverbrauch der Konsole 165 W, dann 150 W. Bei der PS4 slim Gesamtverbrauch max. 110 W.
Xbox one Netzteil Ausgangsleistung 215 W. Realer max. Gesamtverbrauch der Konsole 120 - 130 W.
Schema ist immer dasselbe. Realer Verbrauch deutlich unter der Ausgangsleistung. Wohl auch weil es Netzteile mit 80 % Wirkugnsgrad sind.

Die xbox sx hat ein 315 W Platinum Netzteil. 258 W max. Ausgangsleistung. 90 % Effizienz sollten es sein.
30 W für den 3,5 GHz Prozessor. Max. 2,5 W pro Vram Chip, mal 10, macht 25 W. https://www.eeweb.com/profile/schar...-memory-ready-for-ai-primetime-hbm2e-vs-gddr6
4 Watt für die ssd. Noch großzügige 30 W für den Rest (15 W Laufwerk nicht miteinbezogen). Nun noch 10 % vom fehlenden Wirkungsgrad des Netzteils abgezogen.
Macht irgendwas um die ~ 150 W für die gpu; bei 12 tflops fp32. Real sollten es aber noch weniger sein; vllt. 120 - 130 W.
Edit: Das Netzteil der xbox one X 245 W Ausgangsleistung, realer Verbrauch unter 4k uhd gaming max. 180 - 190 W.
Nichts was man mit den Ampere Karten auch nicht schaffen könnte, 320 W reale TDP mit stock Konfiguration sind sowas von unwahrscheinlich.
Auch 250 W realer Verbrauch für 3080 oder 225 W für die rtx 3070.

@ilovebytes
Um nur 12 GB Vram bei der rtx 3080 ti, oder 10 - 11 GB bei der rtx 3070/3080 sind nicht kritisch.
Hier werden die Vram-Anfoderungen der Zeit vor PS5/Xbox sx und nach PS5/Xbox sx- also mit DX 12 Ultimate, VRS, sampler feedback, mesh shader, Speicher Kompression, Microsofts DirectStorage etc. - verglichen. Da wird deutlich weniger ständig vorgeladen und im Vram gehalten werden müssen.
 
Zuletzt bearbeitet:
wie schon oft geschrieben, es mag sein das 11/12 GB Vram noch einige Zeit reichen, aber als von der Fuji/Fury gebranntes Kind (auch da war der Tenor so ähnlich das aufgrund des massiv schnelleren HBM, das Nachladen in den Vram nicht auffällt usw.) kann man mehr Vram einfach durch nichts ersetzen, auch wenn es erstmal noch unnötig erscheint :d
 
Das " ... aufgrund des massiv schnelleren HBM, das Nachladen in den Vram nicht auffällt usw.) " und " also mit DX 12 Ultimate, VRS, sampler feedback, mesh shader, Speicher Kompression, Microsofts DirectStorage etc. " sind zwei verschiedene Paar Schuhe^^
Die Xbox sx hat 10 GB des schnelleren Vrams alleine für die GPU; vllt. wird noch 1 - 3 GB vom restlichen Vram ab und zu abgegriffen. Das wars.
Und die Konsole wurde mit dem Hintergedanken entwickelt Spiele in 4k uhd samt Texturen der nächsten 6 Jahre auszugeben.
Die 10 - 12 GB werden für die nächste Generation an Spielen ausreichen. Selbst wenn die Speicherarchitektur etc. beim PC hinterherhinkt.
Zumindest, je nach Spiel auf dem PC, für die nächsten 2 - 4 Jahre. 2022 Gibt es doch sowieso eine neue Generation. Dann aber mit deutlich mehr Vram.

Unoptimierte PC Spiele mit Mods, samt hohem Vram Verbrauch, sind leider nicht in der Gleichung enthalten :shake:
Aber dafür wird es ja die neue rtx Titan für fluffige 2k € geben :bigok:
 
So dumm sind die Beschäftigten bei nvidia nicht und einwickeln neue gtx 480/580 Karten. Über dem sweetspot laufen lassen und Effizienz senken werden sie diese mit Sicherheit nicht.

Langsam, du setzt Verbrauch mit Effizienz gleich. Eine 350 W 7 nm Nvidia Karte muss nicht zwingend ineffizient sein, sie könnte ja auch einfach irre leistungsfähig sein. Die GTX 480 war scheiße weil sie ineffizient war, darüber ist über die 7nm Nvidia Karte noch nichts bekannt, also abwarten und Tee trinken :coffee2:

Aber abgesehen davon, welche GPU lief zuletzt NICHT über dem Sweetspot (beste Effizienz)? Pascal lag deutlich über dem Sweetspot, Turing mit Sicherheit genauso.
 
Der mittlere Teil scheint tatsächlich keine Luft abzubekommen.
 
Versuche auch gerade, mir vorzustellen, wie die Luft da fließen soll?
Die V-förmigen Finnen sind ja zum ventilierten GPU-Bereich hin abgeschottet. Dann noch die von Igor erwähnten 21cm PCB-Länge dazugedacht, und es müsste ein großer Teil des Kühlers in der Luft hängen.
Komisch... wo sind dann die SpaWas? :unsure:
 
Jup... Jeder der damals eine 1080Ti um ~700€ gekauft hat, hat einfach nur alles richtig gemacht. Das ist ja quasi der 2600k/3770k/5820k der GPUs.

Hust, im Forum OVP für deutlich weniger bekommen. Unter Wasser gesetzt und dazu noch undervolted. Beste Anschaffung was die Leistung angeht und wurde damals gekauft kurz bevor die 2080 vorgestellt wurde, weil plötzlich alle nervös wurden und Geld gebraucht haben um direkt die 2080 zu kaufen. :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh