Beidseitiges Kühlkonzept: Foto soll GeForce RTX 3080 zeigen

naja...ich denke sosehr würde das garnicht stören bei den Kurzen Leiterzügen, damit hat man auch weniger etwas was als Antenne fungieren könnte. und wenn man da eine Massefläche drüber legt ist eh ruhe

Ich muss ganz ehrlich sagen, von so komplexen Platinen wie bei Grafikkarten bin ich Meilenweit entfernt. Ich kann also nicht beurteilen, wie gut sich das so realisieren lassen würde. Oder ob es sich mit anderen Bauteilen wie Entkoppelkondensatoren etc. schneiden würde.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ufff :eek:
Kaufe zwar keine Nvidia Karte und auch nichts über 700 €, doch deuten dann nicht auch die sehr aufwendige Kühllösung ($ 150) und die 300 - 350 W tdp Wärmeabgabe darauf hin dass auch die amd Karten ähnlich viel schlucken werden?
Solch ein hoher Verbrauch schmeißt doch die Effizienz total über Bord?!
Und weniger Verbrauch/fps wird rnda 2 bestimmt nicht bieten. Bei amd ist man vllt. in der Fertigung voraus aber die Beschäftigten bei nvidia haben immer noch die Nase in der Archtitektur, der Software und allem drumherum vorn.
Schwer vorstellbar dass die Rollen so schnell wechseln.

Wenn die Leaks stimmen, so deutet dies auf noch überteuertere Preise als bereits jetzt hin.
 
Solch ein hoher Verbrauch schmeißt doch die Effizienz total über Bord?!
Wie kommst du darauf?
Effizienz ist die Relation von Verbrauch zu Leistung. Das heist, wenn das Ding in Relation zum höheren Verbrauch auch entsprechend schneller ist, ist die Effizienz auch entsprechend gut/hoch...
 
Klasse, endlich mal wieder was Neues. Freue mich schon wie das fertige Produkt aussieht.
 
Bin eher gespannt was die neue Generation leisten wird. Ich schätze es wird wieder mal ein guter Sprung werden.
Was aber leider sehr wahrscheinlich bitter werden wird, sind die Preise...
 
Ne kurze Karte wäre schon mal wieder schön. Nicht so ein 31cm Klopfer^^ Aber mir schwant vor dem Preis für die 3090 :rolleyes:
1K ist schon meine harte Grenze.
 
Denke mal die werden so bei 1500 euro liegen.
 
1500 für die 3080 und 2K für die 3080ti, meine Vermutung.
 
Hab auf Twitter dieses Bildchen gefunden:

EaESqM7UEAEu1O3


Beide Lüfter haben also scheinbar nix miteinander zu tun, die Stromversorgung bekommt ihren eigenen Lüfter.
Bleibt ja nur das dann über Kabel zu verbinden wie von Igor erwähnt.

Mal sehen wie gut das Kühlt und ob der ganze Aufwand nen Mehrwert bietet.
 
Ich muss Mal ganz dumm fragen, aber woran wird denn erkannt, dass das PCB so komisch ausgeschnitten ist? Ich erkenne auf dem Bild eher wenig und denke ein Teil des PCB könnte auch einfach nur verdeckt sein?!
 
Ich muss Mal ganz dumm fragen, aber woran wird denn erkannt, dass das PCB so komisch ausgeschnitten ist? Ich erkenne auf dem Bild eher wenig und denke ein Teil des PCB könnte auch einfach nur verdeckt sein?!
Das ist sicher nur ne Annahme... Die SLI Connectoren entsprechen auch nicht den bisherigen Turing-NVLink Verbindern, sondern schauen eher nach der alten HB-SLI Brücke aus?
Ob dieses Power Delivery Board an der Stelle Sinn ergibt, würde ich auch bezweifeln - das steht voll im Luftstrom. Damit es die volle Spannungsversorgung mit den Phasen usw. usf. enthält, müsste es relativ groß, meint lang werden bzw. relativ breit. 2-3cm bestimmt. Das wäre mMn dort in der Position eher kontraproduktiv?

Das Thema mit der Stromzufuhr ist allerdings eh aktuell nicht geklärt. Igor meint, es wären irgendwelche flexiblen Kabel, hier hat es so ein Powerboard - auf den Pics sieht man nichts davon aktuell!? Also ob mittig am PCB oder irgendwo am Rand?
 
Ich muss Mal ganz dumm fragen, aber woran wird denn erkannt, dass das PCB so komisch ausgeschnitten ist? Ich erkenne auf dem Bild eher wenig und denke ein Teil des PCB könnte auch einfach nur verdeckt sein?!

Rein vom Aufbau bedingt. Sonst würde man den Lüfter ja nicht drauf bekommen.
Ich frag mich ob Custom Karten auch so gebaut werden müssen, ist ja aller erstmal nur mehr Aufwand in der Fertigen, sieht man ja schon am Preis dafür.
 
Wie kommst du darauf?
Effizienz ist die Relation von Verbrauch zu Leistung. Das heist, wenn das Ding in Relation zum höheren Verbrauch auch entsprechend schneller ist, ist die Effizienz auch entsprechend gut/hoch...
Stimmt so.
Meinte damit dass bei den üblichen Rahmen von ~ 250 W Wärmeabgabe denn solche Enthusiastenkarten bis dato hatten/haben, jeglicher Leistungszuwachs immer mit mehr Takt erkauft wurde.
Mehr Takt -> höherer Verbrauch, heißere Chips, Effizienz sinkt. Sweetspots für die Effizienz gibt es ja.
Erinnere mich hier an ein Video von Igors Lab und der wassergekpühlten rtx 2080 ti und der Ermittlung des Sweetspots.

Wenn die 320 W stimmen würden, würde dies ja heißen dass die Beschäftigten bei nvidia diese beiden Modelle so bauen, dass deren sweetspot bei 320 W liegt. Machen sie halt immer so.
Entweder dies oder diese drei Modelle werden deutlich über deren Sweetspots betrieben, mit viel zu hohen Taktraten und Verbrauch.
Deswegen finde ich dass bei diesen Leaks so vieles nicht zusammen passt.
 
Beidseitig wäre immer noch nicht übertrieben, hatte auch mal eine Thermal-Camera:

ir000028c1zde.jpg


Das sind die VRM bei ~270W TDP (also Peak kann höher sein)
Allerdings sind das zwei GPUs @ 100% Last/Load...
 
Ein wenig Besser wird’s schon werden das P/L Verhältnis. Aber so ist das nunmal bei einem quasi Monopol.. wenn amd nicht wenigstens mal in die Nähe des high end Marktes kommt gibts eben wieder die 3080 für 1k..

Ich sprach ja bewusst vom Mainstream Bereich, diesbezüglich sollte es eig. egal sein wie AMD im Highend Bereich aufgestellt ist.
Aber 7nm Navi wird wohl die Konkurrenz für PascaL/Turing bleiben, die 7nm Nvidia wird wieder weit weg sein.
 
Rein vom Aufbau bedingt. Sonst würde man den Lüfter ja nicht drauf bekommen.
Ich frag mich ob Custom Karten auch so gebaut werden müssen, ist ja aller erstmal nur mehr Aufwand in der Fertigen, sieht man ja schon am Preis dafür.
Aber dazu könnte das Board ja einfach bündig mit dem Lüfter abschließen?! :unsure:
 
Ahso meinste das :d

Keine Ahnung, würde halt so zum Gehäuse der Karte passen. Ist ja nur ein Bild was den Aufbau halbwegs erklären soll. Muss ja irgendwie überstehen um die Kabel oder was auch immer dran zu bekommen.
 
Aber dazu könnte das Board ja einfach bündig mit dem Lüfter abschließen?! :unsure:

Durch die runde Form eines Lüfters kann mit einem dreieckigen Einschnitt in das PCB die Karte in Summe etwas kürzer sein, als wenn dieser dreieckige Einschnitt nicht da wäre. (Die Fläche des PCBs bleibt dabei aber gleich groß)
 
und die 3090?^^

Ich glaub nicht dass die was bringen mit 2080Ti+ Leistung für max 1K.... Und wenn, shut up and take my money^^

Gab am Anfang nonOC Referenz 2080tis für 899€. Hättest also da zuschlagen sollen im Spätherbst/Winter 2018. Aber selbst, wenn man 1500€ vorraussetzt wäre das nach zwei Jahren die gleiche Leistung für 33% weniger Geld. Gab Mal Zeiten da hätte jeder Grafikkartenhersteller einen Shitstorm für diese Frechheit geerntet. Heute ist das offensichtlich der Traum des Kunden. Wie sich Zeiten ändern.
 
Zumindest Igor fasst die Gerüchte ein wenig zusammen und bestätigt quasi den Kühler. Auch die Sache mit dem Speicherausbau klingt interessant.
Ich verabschiede mich im Geiste schon mal von bezahlbaren Fullcover-Kühlern, zumindest fürs Spitzenmodell. :oops:
 
Ich sprach ja bewusst vom Mainstream Bereich, diesbezüglich sollte es eig. egal sein wie AMD im Highend Bereich aufgestellt ist.
Aber 7nm Navi wird wohl die Konkurrenz für PascaL/Turing bleiben, die 7nm Nvidia wird wieder weit weg sein.

Spielt mittlerweile fast keine rolle mehr ob 4nm, 7nm oder 12nm, es ist schon so klein das man schon nahe am Limit ist.
Hätte man Turing gleichzeitig in 7nm und 10nm gefertigt wären beide gleich effizient.
Architektur hat eine deutlich wichtigere rolle als mittlerweile das Fertigungsverfahren sonst wäre AMD schon Jahre meilenweit voraus.

klar wird nvidia auch auf 7nm oder gar 5nm irgendwann wechseln aber auch nur aus kosten gründen.



Man kann das auch nicht mit CPUs vergleichen, Intel ist stehengeblieben aber das Fertigungsverfahren war nicht die schuld das AMD vorbei gezogen ist.
Intel hat die Architektur knapp ein Jahrzehnt nur verbessert/refreshed/aktualisiert statt auf eine brandneue zu setzen
 
hmm wenn wirklich die 3090 und nicht die 3080ti/super der 2080ti Nachfolger wird - dann Gute Nacht - denn bei einer 3090 mit 24GB Vram stehen dann wohl minimum 2000 Flocken auf dem Tacho....

das wird wieder so typisch Nvidia - die wohl noch einigermassen bezahlbaren Karten bleiben auf 11 GB Vram stehen - da hätte ich dann nach über 4 Jahren 1080ti mit 11 GB wieder ne KArte mit 11GB und die Top Karte bekommt zwar mit 24GB Vram massig Speicher aber der Preis wird wohl endgültig aus meinem Wohlfühlbereicht enteilt sein und ein mittelmaß mit 16GB scheint zumindest vorerst nicht in Plannung zu sein.

Also heißt es wohl auf Amd und Big Navi zu hoffen - das die was brauchbares mit 16GB Vram und noch halbwegs brauchbaren Preisen so mit 2080tiLeistung +30% in der Lage sind zu bringen...
 
Zuletzt bearbeitet:
Was will man mit so viel speicher wenn die GPU leistung eh nicht dafür ausreicht, außer ein paar ausnahmen in manchen extrem schlecht optimierten games reichen auch die 8gb einer RTX2080 bis 4k. eine höhere Auflösung packt die Karte eh nicht.
Und wer viel vram braucht zwecks Modeling/bilder Verarbeitung/mining/rendering der greift eh zu was anderem.

Wäre ja genauso sinnvoll eine GT1030 mit 24GB speicher aufzurüsten, schneller wird sie dadurch nicht
 
Durch die runde Form eines Lüfters kann mit einem dreieckigen Einschnitt in das PCB die Karte in Summe etwas kürzer sein, als wenn dieser dreieckige Einschnitt nicht da wäre. (Die Fläche des PCBs bleibt dabei aber gleich groß)
Okay, macht Sinn. Ich bin gespannt. Aber glaube irgendwie noch nicht an die wirre Form. Und hoffe auf normales Design inkl. normalem Stromanschluss.

@ilovebytes was genau willst du mit mehr VRAM? Ich bin von 12GB (Titan X) auf 11GB (2080Ti) gewechselt und hatte bisher nie das Gefühl da fehlt Speicher ..
 
Das PCB ist kurz und hat keine dreieckige Form, das V förmige ist die Lüfter Halterung die aufs PCB geschraubt wurde.
Hab auch erst gedacht es wäre eine dubiose PCB form aber nach genaueren hinschauen sieht man es fast eindeutig.
 
Wenn man bedenkt, dass man die teure 150€ Kühllösung mitbezahlt, um sie dann runterzureissen, lohnt es sich vllt doch, auf bereits ab Werk mit Fullcover versehene Karten zu warten?

@ilovebytes hattest Du die 1080Ti ein Jahr vor ihrem Marktstart? Meinst bestimmt über 3 Jahre?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh