Beidseitiges Kühlkonzept: Foto soll GeForce RTX 3080 zeigen

"abenteuerlich" würde ich es nennen^^ Aber nun sieht man wenigstens dass er an einem Stück ist. Auch wenn ich gerade rätsel ob das Bild die Ober- oder Unterseite zeigt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@iLLuminatusANG Das Bild zeigt die Seite, die eingebaut nach unten zeigt
 
Den Namen für den Top-Dog auf 3090 bzw. 3090Ti zu ändern macht schon Sinn. Weil man dann ja eine neue Klasse einführt. Sowas wie Ultra-Premium-Enthusiast-Level.
Und damit den noch höheren Preis rechtfertigt obwohl es eigentlich "nur" ne 3080Ti ist. Das Spiel haben Sie ja zweimal gemacht.
GTX Titan bzw. 780Ti lässt grüßen.
 
Hallo zusammen,

bin echt gespannt, was eine Ampere Titan leisten wird. Wenn Leistung und Ram stimmen (24 Gb), dann würde
die Karte in die engere Wahl kommen. Cyberpunk 2077 braucht mit Raytracing und 4k wahrscheinlich viel Power, was die Karte
interessant machen würde.

Viele Grüße,
Schnitzel
 
Langsam, du setzt Verbrauch mit Effizienz gleich ...
Korrekt. Lies aber einfach Beitrag #164 und #167 dazu ;)
Bei den Fermi, Kepler Karten hätte man doch einfach die tdp auf 200 W senken können, und schon wären diese effizienter.
Zur Sache mit dem sweetspot für die xx80 ti Pascal und Turing Karten: Diese liefen im üblichen ~ 250 W Bereich immer noch halbwegs im sweetspot für diesen Bereich. Erst ab 280+ W wurden diese ineffizienter.
Ich setzte hier sweetstpot mit dem üblichen 250 W tdp Bereich für die xx80 ti Karten in Verbindung und ich halte es für ziemlich unwahrscheinlich dass die Beschäftigten auf die Idee kommen die tdp von 250 W auf 320 W zu erhöhen.
Die letzten Generation waren es die Grafikkarten bei amd die deutlich über dem sweetspot liefen.
350 W TBP, nicht TDP. Meine Spekulation ist es sind weiterhin 250 - 280 W tdp (vllt. auch 300 W für die Titan) und einfach ein höheres PT.
Der Benutzer selber kann sich dann die Effizienz mit overclocking verhauen :d

Die Bodenplatte mit Kontakt zur GPU ist jetzt auch aus Aluminium oder Kupfer + vernickelt?

Hallo Schnitzel ;)
 
Zuletzt bearbeitet:
Juhuu zusammen,

bin neu hier angemeldet, nachdem ich schon länger stiller Mitleser bin.
Komme aus München, meine Hobbies sind Filme gucken und Pc/Videospiele.
Freue mich auf gute Austauschinfos im Forum.

Viele Grüße,
Schnitzel
 
oioioi...der Kühler wird Power haben, wenn ich die dicken Heatpipes sehe, und der Hintere Lüfter durch was für eine Kühlfläche er da durchpustet. der Vordere Lüfter (nahe Slotblende) wird seine luft seitlich wegpusten richtung Slotblende und unter die seitlichen Kühlfinnen. Unterm Lüfter richtung mitte wird dann die GPU sitzen wie mir scheint. Es wird also anscheinend auch etwas von der abwärme rausgepustet aus dem Gehäuse, aber nicht viel. Unter den seitlichen Kühlfinnen scheinen die VRMs zu kühlen
 
Jau, der Speicher benötigt viel Strom.
Wie erwähnt benötigt auch schon ein gddr6 Chip mit 16 Gbps Datenrate 2,5 W.
Hier sieht man nvidias Sparpolitik: Selber sparen, dennoch viel den Käufer melken.
HBM2 samt Interposer würde viel weniger verbrauchen GDDR6 - HBM2 Tradeoffs

Der gute Igor spekuliert in letzter Zeit selber so viel ;)
Rechnet man nach seiner alten Rechnung (Vergleich nvidia Präsentationsfolie) die Werte für die rtx 2080 Super/rtx 2080 ti durch, fehlen da plötzlich 20 - 30 W.
Die Karten sind aber real jetzt nicht so effizient. :d
Und so wie der geleakte Kühler ausschaut wird er auch keine TBP/TGB 320 W, weniger 350 W, ordentlich abführen können. Da packen die Boardpartner ganz andere Kaliber drauf.
Vor allem bei den GPU-Taktraten von 2,1 - 2,2 GHz die man voraussichtlich fahren wird (samt Übertaktung).
Und da ist auch gar nicht ökonomische Komponente miteinbezogen, Folgen für die Boardpartner und Verkaufspreise.
Wenn die Karten kommen wie spekuliert, werden auch die Letzen die jene Folgen ihres Kauf nicht beachten, bei den Verkaufspreisen plötzlich Augen machen; das wird richtig teuer.
 
Es wird Zeit die 2,5 GHz zu knacken!
 
Bin ich dafür.
Wenn sich die 320/350 W bewahrheiten lässt man bei nvidia die gpu echt irgendwoe an der spekulierten 2,4 GHz Grenze laufen.
Dann meckern aber wieder einige dass kein Platz mehr für manuelles OC bleibt :-[
 
Jau, der Speicher benötigt viel Strom.
Wie erwähnt benötigt auch schon ein gddr6 Chip mit 16 Gbps Datenrate 2,5 W.
Hier sieht man nvidias Sparpolitik: Selber sparen, dennoch viel den Käufer melken.
HBM2 samt Interposer würde viel weniger verbrauchen GDDR6 - HBM2 Tradeoffs

Der gute Igor spekuliert in letzter Zeit selber so viel ;)
Rechnet man nach seiner alten Rechnung (Vergleich nvidia Präsentationsfolie) die Werte für die rtx 2080 Super/rtx 2080 ti durch, fehlen da plötzlich 20 - 30 W.
Die Karten sind aber real jetzt nicht so effizient. :d
Und so wie der geleakte Kühler ausschaut wird er auch keine TBP/TGB 320 W, weniger 350 W, ordentlich abführen können. Da packen die Boardpartner ganz andere Kaliber drauf.
Vor allem bei den GPU-Taktraten von 2,1 - 2,2 GHz die man voraussichtlich fahren wird (samt Übertaktung).
Und da ist auch gar nicht ökonomische Komponente miteinbezogen, Folgen für die Boardpartner und Verkaufspreise.
Wenn die Karten kommen wie spekuliert, werden auch die Letzen die jene Folgen ihres Kauf nicht beachten, bei den Verkaufspreisen plötzlich Augen machen; das wird richtig teuer.
Rein wirtschaftlich gedacht: warum sollte Nvidia HBM verbauen? Aktuell bringt das null und würde den Preis (bzw im Sinne von Nvidia: den Gewinn senken). Hat man zuletzt an den AMDs mit HBM gesehen, technologisch ganz vorn, aber "mehr" bringt es auch nicht.

Und zwecks: "die die Folgen ihres Kaufes nicht beachten". Ehrlich gesagt verstehe ich das immer nicht. Ich als Käufer zahle das, was mir der Artikel wert ist. Punkt. Und wenn ich bereit bin Summe X im Vergleich zur letzten Generation mehr zu zahlen, warum sollte ich dann verzichten? Jeder zahlt was er bereit ist. Oder verzichten die Ferrari Käufer, damit die Teile billiger werden? :)

Zum kühler. Dieser ist mir eigentlich Wurst, da eh Wakü drauf kommen würde. Hoffe nur, dass die Stromanschlüsse normal positioniert werden
 
Hoffentlich werden die Karten gut was schneller.
24GB sind für mich aber so sinnvoll wie 128GB RAM. Selbst 8GB reichen mir persönlich.
 
Ja die Wortwahl ist kein Versehen.
 
"abenteuerlich" würde ich es nennen^^ Aber nun sieht man wenigstens dass er an einem Stück ist. Auch wenn ich gerade rätsel ob das Bild die Ober- oder Unterseite zeigt.

Es gibt abseits einer Backplatte keine "Oberseite"...

Was die Bilder zeigen ist aber, dass weder der VRAM, noch die Spannungswandler direkt von diesem gekühlt werden - da wird es also noch eine Kühlerplatte zwischen dem PCB und dem eigentlichem Kühler geben.
 
naja 8/16 GB Ram is so 2007
 
ka. ob da was dran ist.
1591906819336.png

edit: link gefixt damit es auch alle sehen können...
 
Zuletzt bearbeitet:
Oh Man, das würde noch relativ gut aussehen für big Navi. :)
 
Es gibt abseits einer Backplatte keine "Oberseite"...

Was die Bilder zeigen ist aber, dass weder der VRAM, noch die Spannungswandler direkt von diesem gekühlt werden - da wird es also noch eine Kühlerplatte zwischen dem PCB und dem eigentlichem Kühler geben.
ich kenne nur dieses bild hier.
das zeigt mMn den kuehler von oben. nur ohne luefter und abdeckung drauf.
er scheint unter der aussparung fuer den luefter eine platte zu geben. dort vermute ich den chip drunter. drum herum dann der VRAM. dieser wird ueber die platte mit gekuehlt. soweit nichts neues.

weiter hinten sitzt dann der luefter auf der ruckwaertigen seite. dieser kann die luft dank fehlendem PCB super durch den kuehler pusten.

das design koennte echt was taugen. ich bin gespannt. :)
(mehr als auf den rest der karte. nvidia kommt mir eh nicht in den rechner)
 
Bekommt aber nur 12GB laut Liste.
 
12 gb finde ich sehr knapp; sollte eine Titan rauskommen, könnte diese 24 oder 48 gb Ram haben ?
 
Das ist nunmal die Quelle des Screens, der leider in Igors Forum hochgeladen wurde...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh