Lovelace Smalltalk Thread

Der Effizienzgewinn durch den nodeshrink soll bei Team grün etwa 30-40% sein.

Aber:
Wenn die Chips geprügelt werden, also mehr Strom rein für mehr FPS, dann sinkt die Effizienz.
Stichwort untervolting. Stichwort OC.

Die Hersteller, grün wie rot, haben also Stellschrauben ihre Karten zu positionieren.

IMHO hast du in deinem Dreieck die Effizienz vergessen. Die 3070ti ist einfach schlechte Hardware. Zu wenig Leistung für zu viel Verbrauch, im direkten Vergleich in der gleichen Generation je ein Modell hoch und runter (3070, 3070ti, 3080).
Im Grunde stimme ich Dir zu. Dies gilt aber nur bei einer breiten Verfügbarkeit. Wenn uns die letzten zwei Jahre eines gelehrt haben, dann dass praktisch jede Karte an den Mann gebracht werden kann. Am Ende interessiert (im mittleren Bereich) nur die Leistung. Die 3070Ti mögen bei den Drops immer länger verfügbar gewesen sein als die anderen, aber am Ende waren sie alle weg.

Sollte sich das also geben, mache ich aus meinem Dreieck gerne ein Quadrat. :)

Jedenfalls würde ich mich für den Wohnzimmer PC über ne 2 Slotkarte mit der Leistung einer 3080Ti freuen, die dabei maximal 250W schluckt und deren zwei 90mm Lüfter auch unter Volllast nicht mehr als 1500RPM drehen müssen. Das wäre mal wieder was.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Jedenfalls würde ich mich für den Wohnzimmer PC über ne 2 Slotkarte mit der Leistung einer 3080Ti freuen,
Mit den 30% Effizienz durch shrink kannst du doch arbeiten.
Nimm ne 3080ti, schau auf die undervolting Ergebnisse, dann zieh 30% Strombedarf ab und überleg dir ob du in der Liga unter 200w landest (vgl. 3060ti Strombedarf, wobei die 2slot Modelle jetzt nicht super leise sind, erst wieder mit undervolting, also deutlich unter 200w usw.)

Oder andersherum:
Nimm eine 3060ti, hau 30% Leistung bei gleicher Stromaufnahme drauf, überlege ob du in der Liga 3080ti bist.

Dann weißt du doch ob deine Vorstellung realistisch ist für die nächste Generation.


(Kurz überlegt ich denke nicht dass es reicht. Aber zwischen einer 3070ti und einer 3080 unter 200w könnte realistisch sein. Wir haben bei der 3070ti gelernt, dass der gddr6x ineffizient ist und wenig bringt wenn die Rohleistung des Chips nicht passt.
Das bringt mich zur Frage, was wohl die größte Karte mit gddr6 sein wird? Und wie sich wohl eine 3080 mit gddr6 schlagen würde?
Gibt's da evtl ne quadro mit dem ga102 und gddr6?)

So genug Spekulatius von meiner Seite 🙊🍪
 
Erstmal vielen Dank für die Antworten, Adapter klingt logisch und wäre für mich erstmal kein Problem. Sollte sowas wie eine 4060ti
im DualSlot-Design mit ~250w auf 3080(ti)/3090 Niveau kommen, wäre das für mich auf jeden Fall ein schönes Upgrade im Wohn-
zimmer ITX System um meinen 4k TV weiterhin adäquat befeuern zu können.

Was mir allerdings aufstößt - bei einer 600w Karte mit Effizienz zu argumentieren. Wir sprechen hier idR. von Gaming-Leistung
und ich frage mich ob man von Effizenz sprechen kann, wenn diese genutzt wird um ein Videospiel in 4k @ 120 FPS spielen zu
können. Für mich ist das reine Effektivität - maximaler Einsatz (von Energie) um Ergebis X zu erreichen (4k @ 120 FPS z.B.).

Effizienz wäre mMn eher im Produktiv-Umfeld zu suchen, Arbeit X in minimaler Zeit, mit optimalem Ergebnis zu erledigen, da kann
ein höherer Energieverbrauch produktiven Nutzen generieren, der das Mehr an Kosten und Umweldbelastung aufwiegt.

Natürlich ist mir die bloße Berechnung der Energieeffizienz klar und im rein mathematisch ist eine 4090 mit 600w wohl unfraglich
effizient, wenn sich die bisherigen Gerüchte bewahrheiten.

...

Ansonsten weiß ich immer nicht, was Kriege, Klimawandel etc. mit den max. Stromverbrauch der Karten zu tun haben. Einmal nach Malle geflogen und man hat dem Klima mehr geschadet als mit ner 3090Ti in einem Jahr. Ziemlich scheinheilig hier, gabs alles auch schon zu früheren Graka Generationen. Entscheidend ist allein das Dreieck Leistung / Preis / Kühlung. Ich jedenfalls werde sicherlich nie auf eine Custom Wakü umsteigen also wäre das Limit bei mir immer die Lukü Leistung (und Lautstärke). Und natürlich das Spulenfiepen. Ich hoffe das wird mit Lovelace mal wieder besser.

Für mich ist diese Diskussion nicht scheinheilig. Nur weil du ein "Unterhaltungsgerät" ausschließlich mit deinem persönlichem Wohlfühl-Dreieck bewertest,
gibt es Menschen die andere Maßstäbe anlegen und auch andere Prioritäten setzen. Diese können sich je nach persönlicher und gesellschaftlicher Lage
auch verändern und für mich gibt es irgendwo auch Grenzen, die das Vertretbare überschreiten. Nicht ohne Grund wurde z.B. die maximale Leistungsauf-
nahme von Staubsaugern oder Glühbirnen in der EU massiv begrenzt.

Ich fliege übrigens auch sehr sehr selten, dafür habe ich vor Corona jährlich 1-2 Kreuzfahrten genossen. Diese ganz unabhängig vom Verbrauch meiner
GPU und so würde ich mich wohl auch trotz 600w GPU weiterhin durchs Nordmeer schippern lassen...da kumulieren sich die Umweltbelastungen irgendwie.
Übrigens versucht selbst die Kreuzfahrt-Branche mit LNG, Landstrom & co weniger Energie zu verbrauchen und umweltfreundlicher zu werden wärend die
GPU Hersteller sich in einem Umfeld von Klimawandel, Energiepreis Explosionen und Lieferengpässen berufen fühlen den Stromverbrauch eines reinen
Unterhaltungsproduktes (bei den RTX Karten wohl für die meisten Kunden) mal eben zu verdoppeln. Wo liegt da die Grenze? Sind 1000w für 8k @ 60 FPS
und 1500w für 8k @ 120 FPS weiterhin ok? Aktuell verbraucht eine 300w Karte bei ~1000 Std Vollast im Jahr für 100€ Strom, eine 600w Karte theoretisch
schon 200€ - klar 100€ jucken bei einer 1000€ GPU niemanden, aber was wenn jede Branche ihre Energieaufnahme genau so handhabt?

Diese Geschichte muss natürlich jeder für sich selbst bewerten, ich finde die zügellose Steigerung der Leistungsaufnahme sehr bedenklich.
 
Aktuell kommt ja auch jeder mit einer FE mit Adapter aus 😅
 
Aaah vollkommener Spekulatius:

1651555932195.png

 
Aaah vollkommener Spekulatius:
Wiederspricht besser informierten Quellen deren Infos sich in der Vergangenheit als Zuverlässig herausgestellt haben, ist daher eher als Clickbait und nicht als Quelle einzuordnen.

3 Punkte an denen ich es festmache, dass die ganze Liste absoluter Quatsch ist:
1) "Preis/Performance wird sich nicht massiv ändern von Ampere zu Lovelace".
2) "Lovelace wird mit einer der größten Karten starten und dann langsam die kleineren nachschieben".
3) Angenommen Nvidia baut Lovelace in TSMC 5N, ist mit einer Effizienzsteigerung von 30-40% zu rechnen, aber mit extremen Waferkosten und entsprechend Chippreisen. Die Power holt Lovelace aber nicht durch Technologie und Design, sondern durch größe. Am Ende ist es nur ein Ampere XXL auf einer kleineren Node. Mit der Überlegung passen Preise, Performance und Leistungsaufnahme nicht zusammen.

TLDR: Da hat einer irgendwas gemacht aber nichtmal bekannte Infos einfließen lassen.
 
Zuletzt bearbeitet:
TLDR: Da hat einer irgendwas gemacht aber nichtmal bekannte Infos einfließen lassen.
Ja natürlich, deswegen habe ich es nicht als allheilbringende Liste eingefügt sondern einfach nur als eine - nicht sonderlich durchdachte - Option.

Wobei manche Sachen pretty close zu den Sachen von kopite7kimi sind von Ende April, man wird es sehen.

3) Angenommen Nvidia baut Lovelace in TSMC 5N
Laut wccftech kommt das wohl in TSMC 4N: "As per the report, NVIDIA's Ada Lovelace GPUs, especially the AD102 chip, has seen some major breakthrough on TSMC's 4N process node."
 
Laut wccftech kommt das wohl in TSMC 4N: "As per the report, NVIDIA's Ada Lovelace GPUs, especially the AD102 chip, has seen some major breakthrough on TSMC's 4N process node."
Dann weißt du aber was das für die Preise bedeutet...
Wenn sie an der Spitze vor AMD sein wollen, müssen sie alles nutzen um eine Chance zu haben und selbst dann müssen sie vorher launchen, um kurz in benchmarks oben zu sein und damit das narrativ zu bestimmen.
 
Steht schon fest, dass AMD beim nächsten Mal die Nvidia ganz klar überholen wird? Oder nur Wunschdenken von AMD-Anhängern?
 
Dann weißt du aber was das für die Preise bedeutet...
Wenn sie an der Spitze vor AMD sein wollen, müssen sie alles nutzen um eine Chance zu haben und selbst dann müssen sie vorher launchen, um kurz in benchmarks oben zu sein und damit das narrativ zu bestimmen.
Das zählt aber sowohl für grün und auch rot. RDNA3 wird ja voraussichtlich in TSMC 5N kommen und auch im Vollausbau richtig teuer und durstig werden. Die aktuellen Preise für ne 6900 wird man für ne 7900 nicht bezahlen - eher 3090+ Niveau.

Egal was kommt, es wird a) teuer und b) durstig.
Leistungstechnisch ist es sowieso verdammt schwer zu sagen, da die Schwerpunkte ein bisschen anders liegen.
 
@ bobby, wär aber schon ok so. :)
 
Eine 16GB Karte mit 30-40% mehr Leistung bei gleichem Verbrauch wie meine aktuelle 3090 (350W) wäre wohl optimal für mich. Mein fast noch neues 850W Netzteil wollte ich nämlich nur ungern schon wieder austauschen und bei den Energiepreisen muss es echt nicht noch mehr sein. Habe mir ein Limit dieses Jahr bei 400W und 1000€ gesetzt :LOL:
 
Steht schon fest, dass AMD beim nächsten Mal die Nvidia ganz klar überholen wird? Oder nur Wunschdenken von AMD-Anhängern?
Das zählt aber sowohl für grün und auch rot. RDNA3 wird ja voraussichtlich in TSMC 5N kommen und auch im Vollausbau richtig teuer und durstig werden. Die aktuellen Preise für ne 6900 wird man für ne 7900 nicht bezahlen - eher 3090+ Niveau.

Egal was kommt, es wird a) teuer und b) durstig.
Leistungstechnisch ist es sowieso verdammt schwer zu sagen, da die Schwerpunkte ein bisschen anders liegen.
Davon kann man ausgehen, sollte es aber stimmen und die 7700 XT (Mittelklasse) schon 6900 Niveau erreichen braucht man vielleicht nicht das Topmodell. Ich habe mir eine 6900 geholt weil die 800 XT nicht kaufbar war, zum UVP musste man da auch nicht lange überlegen wenn man bedenkt was andere dafür bezahlt haben. Irgendwo ist aber auch mal Schluss. Mit einer 7800 XT dürfte wie ich denke locker genussvolles 4K144 drin sein. Es wird immer Spiele geben die mehr Leistung fordern, jedoch braucht man in grafikintensiven SP-RPGs auch keine 144 FPS.
 
Woraus lässt sich denn jetzt schließen, dass eine 7900XT eine 4090 (ti) überholen wird?
 
Woraus lässt sich denn jetzt schließen, dass eine 7900XT eine 4090 (ti) überholen wird?
Die Leaks sagen, dass die größte Karte von Team Rot schneller sein wird als die größte Karte von Team Grün.
Und das bei deutlich besserer Effizienz (600W vs unter 400W). Weiterhin wird gesagt dass Nvidia alles tut um nicht deklassiert zu werden oder möglichst weit oben zu landen, sowie möglichst früher am Markt zu sein, damit sie die Messlatte in den ersten und zweiten Benches sind.
Natürlich sind es Gerüchte, natürlich kann NV ihre Chips unendlich prügeln (vgl. 3090ti) und sie werden es tun. Die Frage ist am Ende nur ob es reicht.
 
Die Leaks sagen, dass die größte Karte von Team Rot schneller sein wird als die größte Karte von Team Grün.
Und das bei deutlich besserer Effizienz (600W vs unter 400W). Weiterhin wird gesagt dass Nvidia alles tut um nicht deklassiert zu werden oder möglichst weit oben zu landen, sowie möglichst früher am Markt zu sein, damit sie die Messlatte in den ersten und zweiten Benches sind.
Natürlich sind es Gerüchte, natürlich kann NV ihre Chips unendlich prügeln (vgl. 3090ti) und sie werden es tun. Die Frage ist am Ende nur ob es reicht.
Mhm interessant. Ich denke ich werde dieses Mal echt abwarten was AMD zeigt. 2020 waren ja schon alle irgendwie überrascht, dass AMD so nah an NV ran kam. Ich habe diesmal keine Eile, eigentlich kommt dieses Jahr nichts mehr raus, für das ich eine schnellere GraKa als die 3090 bräuchte, außer vllt. Starfield. Die Frage ist, wie es dann mit der RT Leistung sein wird, das wird ja sicher ein Feature, was immer wichtiger werden wird. Mal sehen was die nächsten Monate so an Leaks kommt.
 
Die Leaks sagen, dass die größte Karte von Team Rot schneller sein wird als die größte Karte von Team Grün.
Und das bei deutlich besserer Effizienz (600W vs unter 400W). Weiterhin wird gesagt dass Nvidia alles tut um nicht deklassiert zu werden oder möglichst weit oben zu landen, sowie möglichst früher am Markt zu sein, damit sie die Messlatte in den ersten und zweiten Benches sind.
Natürlich sind es Gerüchte, natürlich kann NV ihre Chips unendlich prügeln (vgl. 3090ti) und sie werden es tun. Die Frage ist am Ende nur ob es reicht.
Die 7900 XT wird auf jeden Fall ein harter Brocken. 2 MCM und dann noch der verbesserte Infinity Cache und Taktvorteil. Was der Takt ausmacht sieht man bereits jetzt, 3 GHz halte ich für locker möglich. Und trotz des Takts laufen bereits die jetzigen Karten bei AMD deutlich effizienter. Die Chancen stehen gut dass AMD zumindest weiter mithält, was bis zur 6900 XT ja immer belacht wurde. Jetzt ist es Realität. Die vorhergesagten 2,5 x mehr Leistung sind durchaus möglich, selbst wenn es nur 2 x wären wäre es immer noch eine Verdoppelung.
 
Die Leaks sagen, dass die größte Karte von Team Rot schneller sein wird als die größte Karte von Team Grün.
Und das bei deutlich besserer Effizienz (600W vs unter 400W). Weiterhin wird gesagt dass Nvidia alles tut um nicht deklassiert zu werden oder möglichst weit oben zu landen, sowie möglichst früher am Markt zu sein, damit sie die Messlatte in den ersten und zweiten Benches sind.
Natürlich sind es Gerüchte, natürlich kann NV ihre Chips unendlich prügeln (vgl. 3090ti) und sie werden es tun. Die Frage ist am Ende nur ob es reicht.
Wobei den Gerüchten zufolge AMD ja von ~100TFLOPS auf 75 runter musste also knapp 16000 auf knapp 13000 Stream Processors
Beitrag automatisch zusammengeführt:

Darauf beziehe ich mich:
1651607997708.png

1651608133636.png
 
Zuletzt bearbeitet:
Dann aber bitte auch den Preis runter. Die 6900 XT hat ~23 TFLOP. Das wäre also immer noch eine Verdreifachung und NVIDIA soll auch um die 80 schaffen. Momentan ist NVIDIA bei der Computeleistung zudem schneller.
 

Spannend wird es so ab 04:14. Wobei ich DIESE Performancesprünge immer irgendwie noch nicht so recht glauben mag. Aber auch hier ist von 600+W keine Rede mehr, eher 450W. Auch sehr viel, aber für eine gute Luftkühlung machbar.

Aber es zeichnet sich ab, dass ich mein 6 Monate altes Seasonic Prime 850PX behalten kann. Mit einer >4080Ti ist das sicher. Sehr schön. :)
 

Spannend wird es so ab 04:14. Wobei ich DIESE Performancesprünge immer irgendwie noch nicht so recht glauben mag. Aber auch hier ist von 600+W keine Rede mehr, eher 450W. Auch sehr viel, aber für eine gute Luftkühlung machbar.

Aber es zeichnet sich ab, dass ich mein 6 Monate altes Seasonic Prime 850PX behalten kann. Mit einer >4080Ti ist das sicher. Sehr schön. :)
Da wäre ich auch recht froh drüber. 450W wäre für mein Netzteil auch noch ok und ich würde noch gerade so mitgehen was Stromverbrauch angeht. Bei 600W wäre ich definitiv raus.
 
wenn solche leistungssprünge kommen und die preise seitens nvidia ähnlich wie ampere sind kann ich die 3080ti aufn flohmarkt bringen
 
Ich mache mich auch schon darauf gefasst für meine 3090 nur noch max den Preis einer 4070 zu bekommen. Der Wertverlust ist schon heftig wenn man die Top GraKa kauft. Denke dieses Mal wird es daher auch nur eine 4080 bzw. 7800XT
 
Na ja wen man vor 2 Jahren zum Release ne 3090 für um die 1650 Euro gekauft hat ist doch alles Top!
Meine 3080Ti hat mich letztes Jahr 1200 gekostet !
Geht gebraucht jetzt für ca 1000 über den Tisch zur Zeit !
Ich denke die Ti werde ich meiner Tochter einbauen!
 
wenn solche leistungssprünge kommen und die preise seitens nvidia ähnlich wie ampere sind kann ich die 3080ti aufn flohmarkt bringen
Gleiche Rhetorik wie 2020 als dann viele ihre 2080TI verkauft haben nach dem bekannt wurde das die 3070 auf dem Level ist.

Rest der Geschichte kennen wir alle. ^^
 
Massiver Preisverfall für zwei Tage, Mining-Boom (und auch sonst keine Verfügbarkeit) und wieder einihe hundert Euro mehr "wert". Ob es dieses mal vergleichbar ist, kann uns nur die Kristallkugel beantworten. Mining wird mMn wohl keine ganz so große Rolle mehr spielen, zumindest in absehbarer Zeit nicht. Oder die neuen Karten bescheren ein neues ATH 🌐
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh