Beidseitiges Kühlkonzept: Foto soll GeForce RTX 3080 zeigen

1 cm über der Platine ragend könnte man die Kühllösung schon bauen. Dann bleibt halt kein Platz für PCIex1 Karten darüber.
Ist aber momentan bereits auch oft der Fall; da nehmen die Mainboardhersteller wenig Rücksicht beim Entwerfen. Denke nicht dass dies als Begründung herhalten würden.

Spekulierte 12 Speicherchips der rtx titan/rtx3090 mit 30 W Abwärme könnte man so gekühlt bekommen.
Mit 2 - 3 Heatpipes abführen ausreichend. Fraglich wird es wenn dazu noch die Abwärme eines 30 - 50 W Chips dazu kommt.
Und wie es da mit der Latenz aussieht? Die Daten wandern von der GPU, dann zum zweiten Chip und wieder zurück.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
1 cm über der Platine ragend könnte man die Kühllösung schon bauen. Dann bleibt halt kein Platz für PCIex1 Karten darüber.

Nicht jedes Board hat einen 1x-Slot noch darüber. Für alle Boards mit dem 16x-Slot ganz oben (mATX, ITX) wäre das fatal, da der Kühler dann mit dem RAM kollidiert.
 
Korrekt, dies kommt noch hinzu. Die Nachteile kann man gar nicht außer Acht lassen.
Schlussendlich werden es die leitenden Köpfe entscheiden (falls so eine Spekulation ansatzweise stimmt) ob man die wenigen % an Kundschaft verliert.
 
Solange keiner eine Highend-Karte bringt, bleibt doch der status quo erhalten.
Das Kühlsystem macht mich jetzt auch nicht sonderlich an. Braucht man das?
 
Hätte eher gehofft dass es eine non Ti ist und die 420€ 3070 dann die Leistung der 2080Ti bietet :)
An welcher Stelle steht dort, was es für ein Modell ist?
Sollte die Skalierung sich nicht bessern, dann legt der spekulierte TopDog GA102 auf den Ausbau der 2080TI ~23,5% Rohleistung drauf. Die 2080TI FE taktet im Schnitt wohl ~1,8GHz nach den Reviews. Mit bisschen über 1,9GHz legt man da auch nicht sooo viel zu.

AMD hat seinerzeit mit der Radeon VII ggü. der Vega64 ~40% Perf/Watt hinzubekommen. Und das vollständig in Mehrleistung investiert. Sprich Takt drauf... Hätte man auf Perf/Watt wert gelegt, gleiche Leistung bei niedrigerem Verbrauch, wäre sicher sogar mehr drin... Quasi aus dem Prozess ohne sonstwedes großes Zutun. Ich halte es für absolut unwahrscheinlich, dass eine NV nach über 2 Jahren nach Turing sich mit 30% von der alten TI zum absoluten TopDog zufrieden gibt. Das erscheint mir für den Prozesswechsel und die Zeit schlicht für zu wenig.

Aber vllt gibts dieses mal auch einfach ne "Nullnummer" bei NV. Nach drei Generationen in Folge voll eingeschlagen mit Maxwell, Pascal und ja theoretisch auch Turing (weil kein Prozesswechsel), muss es ja nicht ewig so weiter gehen... NV ist jedenfalls immer für ne Überraschung gut. Aber ggf. ist wirklich was dran an den Gerüchten, die seinerzeit mal aufkamen von wegen, 8nm Samsung -> und damit vor allem ggü. BigN ein vllt recht deutlicher Prozessnachteil.

Vielleicht steckt aber auch einfach pure Berechnung dahinter. Der preisliche Supergau wäre, AMD so weit rankommen zu lassen, dass AMD auch Preise jenseits der 1000€ Marke aufruft - und dann mit nem vorzeitigen Schwenk auf nen neuen Prozess wieder die bisherigen 25-50% je nach Gen. OnTop zu packen.

Auch die Spekulation von Igor dazu aus seinem jüngsten Video sind für mich nicht schlüssig. Er meinte was in Richtung, womöglich kommt direkt der TopDog als "Deckel" oben drauf um BigN Wind aus den Segeln zu nehmen und man platziert den mittleren 102er Chip erst nach BigN Release entsprechend -> aber das erscheint mir völlig unlogisch, weil sich kein Schwein für ne 2k+ Titan Ampere aus Sicht von nem Gamer interessiert. Ebenso die Spekulationen zum Verbrauch - in nem älteren Video sagte er mal, er wüsste ja schon Zahlen. Und dann rundert er so deutlich hin und her, dass es für mich nicht so ausschaut, als wüsste er was. 350W fürs PCB erscheinen mir auch für zu viel. Vor allem, wenn dann nur so Peanuts bei der Mehrleistung raus kommen sollen... Die TitanRTX bzw. 2080TI saufen 270-280W. 270*1,3=350... Sicher kann man so nicht 100% rechnen, aber das ist 1:1 nur nach oben gezogen. Da bräuchte man fast keinen neuen Prozess -> zumal mit breiterer GPU auch etwas mehr Effizienz einher gehen sollte.

Irgendwas stinkt da noch ganz gewaltig im Spekulatiushaufen...
 
Wenn das wirklich auf eine 3080ti/3090 zutrifft wäre der Leistungszugewinn noch schlechter als es von Pascal zu Turing eh schon aus meinersicht gewesen ist.
 
An welcher Stelle steht dort, was es für ein Modell ist?
Überschrift.

Nach drei Generationen in Folge voll eingeschlagen mit Maxwell, Pascal und ja theoretisch auch Turing (weil kein Prozesswechsel), muss es ja nicht ewig so weiter gehen...

Maxwell und Pascal sind absolut eingeschlagen, weil sie eben die vorherige Generation (sowie den ehemaligen Konkurrenten) in Grund und Boden gestampft haben. Das sehe ich bei Turing überhaupt nicht, da ist meines Erachtens gar nichts eingeschlagen, es handelt sich in meinen Augen eher um ne Portfolioerweiterung für die sich nicht so viele Gamer interessieren.

Daher erwarte/hoffe ich dass Nvidia nun nach 4 Jahren mal was Gescheites nachlegt. Aber dank 7 nm ist eig. schon mehr oder weniger gesichert dass nun ein bisschen was passieren wird. AMD konnte von Polaris auf Navi 70-90% rausholen (ich unterstelle mal hauptsächlich aufgrund des Shrinks). Ich denke mal Nvidia wird gegenüber Pascal auch irgendwie >50% drauf legen können, das wäre für mich schon nen guter Schritt nach vorn :)
 
Ich finde Turing seit Fermi der größte Performance Zuwachs zwischen denn Generationen.
Maxwell war auf Kepler aufgebaut und war nur wesentlich effizienter aber nicht besonders schneller 15%~.
Pascal war wiederum wieder ein guter Perfomance Zuwachs 30%~.

Von Pascal auf Turing sinds 45%~
Dank besseren Treibern und Modernen APIs wahrscheinlich schon über 50% in Vulkan und co.

Man hatte am launch auch nie gedacht das man eine 1080 ti nochmals deutlich übertreffen kann, viele sind ja nur von 15-20% ausgegangen.

Meine Glaskugel sagt mir das Ampere wegen denn RT Cores die Effzients gegenüber Turing ein wenig sinkt aber wenn die Leistung passt kann man das denke ich verkraften.
Ich vermute nvidia will denn RT Kritikern zeigen das man die Performance deutlich steigern kann.

Würde mich nicht wundern wenn die neue Konsolen gen. nur eine Limitierte Anzahl an Raytracing verarbeiten kann und der Rest wird halt noch altmodisch berechnet.
AMD kann nun mal nicht einfach so 10 Jahre aufholen
 
Zuletzt bearbeitet:
Ebenso die Spekulationen zum Verbrauch - in nem älteren Video sagte er mal, er wüsste ja schon Zahlen. Und dann rundert er so deutlich hin und her, dass es für mich nicht so ausschaut, als wüsste er was. 350W fürs PCB erscheinen mir auch für zu viel.
Ich rudere nicht zurück, denn es sind bis zu 350 Watt TGP für die SKU10. Ihr werdet Euch wundern. In vielerlei Hinsicht ;)
 
Wurde das schon gepostet, hier soll eine 3080? 30% über einer 2080ti liegen:
 
For those who are still skeptical about the authenticity of this result, I was able to 100% verify that this test was done by an Nvidia employee who’s name shall remain anonymous for obvious reasons.

yo klar kann aber jeder für sich behaupten ist aber noch lange kein Beweis.
In der 3D Mark Datenbank taucht diese GPU nicht auf und normalerweise wird auch offline gebencht


Falls der leak stimmt kann es sich auch um eine 3090/3080 ti handeln oder eine 3070/3060 etc, der GPU name wird im Leak nicht gezeigt sondern lediglich der Takt.
Von 1935MHz gehe ich persönlich nicht aus, das wird der non-boost takt sein und jeder der 3d mark häufiger verwendet weiß das oft nicht der wirkliche Boost Takt ausgelesen wird

Gehe von 2100-2200 MHz Boost takt aus, ye nach ASIC halt.
 
Zuletzt bearbeitet:
Igor hat ja gestern in einer Videobotschaft noch gesagt, dass er davon ausgeht, dass NV zunächst nur eine 3080 und Titan bringen wird. Daher tippe ich, was den Leak oben angeht auch auf eine 3080. :)
 
Ich rudere nicht zurück, denn es sind bis zu 350 Watt TGP für die SKU10. Ihr werdet Euch wundern. In vielerlei Hinsicht ;)


Hi Igor, bitte genau lesen. Ich sagte nicht "zurück", ich sagte "hin und her"...
Ein Zurückrudern wäre, wenn du sagst, das Teil kommt mit 350W und im nächsten Video sagst du, es kommt mit 200W bspw. -> was du ja nicht tatest, weswegen es auch nicht richtig wäre, es Zurückrundern zu nennen ;)

Btw. warum sollten "wir" uns wundern? Das ist ne Grafikkarte - oder es wird eine, es kommt wie es kommt... Ich bin bestenfalls gespannt, was kommt, wenns mist wird, wirds mist und wenn nicht, dann nicht. AMD baut auch schöne Hardware ;)

yo klar kann aber jeder für sich behaupten ist aber noch lange kein Beweis.
In der 3D Mark Datenbank taucht diese GPU nicht auf und normalerweise wird auch offline gebencht

Das kann ich so absolut nicht unterschreiben. Ich habe zwar TimeSpy und Firestrike nicht geprüft, aber durchbrowse hin und wieder die 3DMark11 Ergebnisse... Da finden sich aller allerhand Stuff, die von irgendwelchen Engineering oder Testsamples kommen. CPU wie auch GPU. Manches erkennt man am Namen. Anderes an irgendwelchen Nummern.

Die letzten Tiger Lake S Scores bspw in der 3DMark11 Datenbank stammen offenbar von Samsung, weil der Vendor des (unveröffentlichten) Gerätes Samsung ist - oder es ist Jemand, der Zugriff auf Samsung Engineering Books hat.
Offline ist da laaaange nicht die Regel.

Das Problem ist, es kommen so extrem viele Ergebnisse in TimeSpy und Firestrike, dass es mir zu lange dauert, das auszuwerten, deswegen schaue ich primär auf die älteren Benches, wo es nur ein paar zentausend bis wenige hunderttausend Werte im pro Monat sind.
Dieser _rogame macht nichts anderes - er hat ein Parserscript und holt alle Datenbankeinträge, die da gelistet sind zyklisch ab und wertet die Daten aus.


Btw. nicht veröffentliche Samples lassen sich NICHT über die Suche finden!
Die bekommst du aber, wenn du die ID kennst/weißt. Und die ID kennt/weiß man, wenn man einfach jede ID probiert -> es ist ne fortlaufende Nummer. ;)
 
Hör mit den Fan gelabber gleich wieder auf.

Man muss nur Navi beobachten und schon kommt das :kotz:
 
Wie immer, die Wahrheit über AMD erhält man in den einschlägigen Nvidia threads! :fresse:
 
Man vergleiche mal den 1060 Thread mit dem Polaris Thread. Die Verkaufszahlen dürfte etwa bei 90% 1060 und 10% Polaris liegen.

Dennoch:
1060 Thread: tote Hose, die Leute bauen die Karte ein und sind zufrieden
Polaris Thread: viel mehr los, die Leute versuchen irgendwie das erworbene Produkt nach ihren Vorstellungen lauffähig zu bekommen, mal mehr mal weniger erfolgreich.

Aber die Leute sind halt unterschiedlich leidensfähig.
 
Ich möchte aber nicht noch 3Monate auf eine 3090(3080TI) warten nachdem eine 3080 erschienen ist. 8-)
Außerdem hätte ich wenn dann gerne eine 3090TI *muhaha*
 
War doch bisher immer so dass die Ti noch einige Monate gebraucht hat bis sie vorgestellt wurde (Turing außen vor).
 
Es hat ja im Moment keiner die Eile irgendwelche Karten mal konkret vorzustellen. Mich dürstet es aber nach eine neuen GPU :-)
 
Nvidia hat doch fast nie Karten vorangekündigt/Paperlaunch betrieben. Wobei immer alle so gegen den Paper Launch wettern... ich finde sowas super, dann weiß man Wochen/Monate zuvor schon was einen erwartet.
 
Hör mit den Fan gelabber gleich wieder auf.

Man muss nur Navi beobachten und schon kommt das :kotz:
Fan gelabber? Bin kein AMD Fan btw. Navi hatte ich keine und seither auch nie Probleme mit den Treibern.
Deshalb ja meine Vermutung dass du wenige AMD Karten hattest, denn man fragt sich wo das "Problem mit den Treibern" her kommt ;)
 
Uuuund... es gibt den ersten möglichen Bench-Leak: https://videocardz.com/newz/nvidia-geforce-rtx-3080-ti-3090-ampere-3dmark-time-spy-score-leaks

NVDIA-GeForce-RTX-30-Ampere-3DMark-1-1000x480.png


Paßt soweit - +30% Performance bei ungefähr der gleichen Anzahl an zusätzlichen Shadern. (Speichergeschwindigkeit ist noch verbuggt) Mal gucken, wie BN dagegen anstinkt. Könnte je nach Skalierung knapp werden für Nvidia.
 
Ja ist halt immer noch unklar, welches Modell genau gebencht wurde, tippe aber noch immer auf eine 3080.
 
Mal gucken, wie BN dagegen anstinkt. Könnte je nach Skalierung knapp werden für Nvidia.

:ROFLMAO:
9 Jahre dabei und noch nichts gelernt.

AMD ist mit Navi auf 2016er Niveau angekommen (bzw. knapp darüber), kleiner Insidertipp: wir haben 2020 und Nvidia wird vermutlich dieses Jahr auch technisch das Jahr 2020 einläuten.
 
So ein Unsinn, AMD ist technisch mit Navi auf höhe der Zeit, warum müssen immer solche Märchen verbreitet werden? :rolleyes2:
 
Ja, die aktuelle Höhe der Zeit ist aber bald stark veraltet, sprich sobald die 7 nm Nvidia Karte kommt.
Ist das wirklich so schwer zu verstehen dass es nicht immer ausreichend ist, nur für ~6 Monate "auf der Höhe der Zeit" zu sein?

Ist ja schön wenn Intel einen Tag vor der 7 nm Nvidia Karte eine eigene GPU "auf der Höhe der Zeit" bringen wird, kaufen wird sie dennoch niemand weil sie sehr bald abgelöst wird.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh