Lovelace Smalltalk Thread

Gurkengraeber

Legende
Thread Starter
Mitglied seit
10.03.2005
Beiträge
10.361
Ort
Düsseldorf
Hi zusammen,

mit diesem Video


fand ich es sinnvoll, nun auch Lovelace einen eigenen Smalltalk Thread zu gönnen, hoffe das ist ok. Er fasst auch bisherige Infos von Igor etc. zusammen.

Eine Überraschung ist es sicherlich nicht mehr, aber die 600W für den Vollausbau bestätigen sich immer mehr. Gleichzeitig wird aber davon gesprochen, dass diese auch per Luftkühlung zu bewältigen seien. Ich hoffe damit ist nicht der Balkon im Winter gemeint und das wurde auch in Arizona um 12:00 Uhr Mittags getestet. :)



Und da auch ein bisschen Allgemeinbildung nicht schadet, hier noch etwas Hintergrundinfos zum Namen.

Sofern gewünscht, kann ich (offiziell bestätigte) Informationen auch hier im Startpost zusammenfassen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Sehr zeitig, Danke dafür 👍🏻
 
Hallo, habe das Video gerade angeschaut; bei 600 Watt nur für die Graka muss man wirklich Angst haben, dass die Sicherung rausfliegt; werde da mal meinen Dad konsultieren, ob die Leitungen das hergeben
 
Vielleicht wird es ja eine 4 Slot Noctua Edition geben. Dieses mal würde ich sie sogar in Betracht ziehen. :d
 
Die einzig wichtige Frage bei Lovelace ist eigentlich ob die xx80er Version mit 12 oder 20GB GDDR6X kommt.

Die einen Leaks sagen angeblich 20, wieder andere eher 12. In meinen Augen sind 20 schon ein muss, wenn man angreifen möchte. Die Preisgestaltung ist eh zweitrangig :d
 
Eine 4080 wird meine 2080TI dann begraben. Mal sehen was zuerst kommt, Raptor Lake oder Lovelace. Aufgrund des 4 slot Design und der power lege ich mir demnächst schonmal ein Enthoo Pro 2 zu, das hat schön viel Freiraum unter der Graka und ich kann Bodenlüfter einbauen. Glaube mir wird das sonst zu eng zwischen GPU und Netzteilshroud im Gehäuse.

Am Ende werden die Temps unter Luft im Verhältnis aber bestimmt genau so wie all die letzten viele Jahre, knapp unter 70° mit UV und damit ertragbarer Geräuschkulisse. Über 1300-1400 rpm auf den GPU Lüftern mache ich nicht gern mit.

Neue Netzteile, oder zumindest mit neuen Steckern sollten auch bald mehr vorgestellt werden, pcie 5?
 
Hallo, habe das Video gerade angeschaut; bei 600 Watt nur für die Graka muss man wirklich Angst haben, dass die Sicherung rausfliegt; werde da mal meinen Dad konsultieren, ob die Leitungen das hergeben
mein Vaddern hätte aus prinzip nein gesagt. Gut dass ich nicht mehr zu Hause wohne.
 
Meinem Vadder hätte ich das seinerzeit gar nicht erzählt. Aber so eine Karte hätte ich mir auch gar nicht leisten können, insofern wäre das Thema eh rein akademisch gewesen. :fresse:

Bin auf jedenfall gespannt, was die 4080 am Ende leistet und verbraucht. Mindestens 1,5 fache Leistung der 3080 bei maximal gleichem Verbrauch wäre annehmbar. Aber laut Video sind wir da auch bei 400+ Watt. :(
 
mein Vaddern hätte aus prinzip nein gesagt. Gut dass ich nicht mehr zu Hause wohne.
mh, ja wohne noch zu Hause, schaue mal die Mieten in München an; aussserdem kann ich beim Film gucken den Sound aufdrehen, dass die Wände wackeln, das ginge in einer Wohnung nicht
Beitrag automatisch zusammengeführt:

Hast du einen Wasserkocher?
ja, meine Eltern haben einen, weiss aber nicht, wieviel der zieht
 
Zuletzt bearbeitet:
Warte, steht das 1979 in deinem Nick für dein Geburtsjahr? Nicht dass ich verurteilen würde mit Ü40 noch bei den Eltern zu wohnen aber sich noch für Stromfresser vor den Eltern rechtfertigen zu müssen in dem Alter. Normalerweise kann man seine Nebenkosten in dem Alter mit einem Job selber tragen.

OnTopic:
Ich bin bis zur 2070 mit einem 450W Enermaxx über 10 Jahre zurecht gekommen. Mit der 3080 habe ich gezwungenermaßen aug 650W aufgerüstet. Jetzt muss ich für die 4080 wohl wieder ein neues NT kaufen :(
 
Warte, steht das 1979 in deinem Nick für dein Geburtsjahr? Nicht dass ich verurteilen würde mit Ü40 noch bei den Eltern zu wohnen aber sich noch für Stromfresser vor den Eltern rechtfertigen zu müssen in dem Alter. Normalerweise kann man seine Nebenkosten in dem Alter mit einem Job selber tragen.

OnTopic:
Ich bin bis zur 2070 mit einem 450W Enermaxx über 10 Jahre zurecht gekommen. Mit der 3080 habe ich gezwungenermaßen aug 650W aufgerüstet. Jetzt muss ich für die 4080 wohl wieder ein neues NT kaufen :(
yo, 1979 ist mein Geburtsjahr; wohne in einer seperaten Einheit wie meine Eltern; einen Job habe ich auch; mein Vater ist halt sehr skeptisch, was pc und filme gucken angeht; würde gerne auch einen neuen Beamer installieren, aber da sind meine Eltern noch skeptischer;
zum Netzteil, wahrscheinlich ist dann ein 1000 Watt Oschi nötig, wenn man die 4090 betreiben will ? aber vielleicht tuts auch eine 4080, wenn man in 4k und 144hz zocken möchte ?
 

Ab 2:50 wird es interessant. Auf Basis der Leaks kann man seiner Meinung nach recht genau berechnen, welche Performance zu erwarten ist.

Keine Ahnung ob nur Clickbait oder valide Berechnungen auf Grund der Leaks, aber ich fand es spannend. Vielleicht ist die 4060 mal wieder so'n Kracher wie die GTX 460 oder 670 seiner Zeit und schafft ne gute Balance im Performance / Verbrauch / UVP Dreieck.
 
Ist schon was bekannt, werden denn die neuen Karten dann auch schon PCIE 5.0 haben? Und gibt es dann Einbußen bei Verwendung im PCIE 4.0 Slot?
 
Oh man... 600W für eine Karte.
Und da wurden die Fans von custom Waküs die letzten Jahre belächelt "Das braucht doch kein Mensch mehr... Geldverschwendung, unnötiger Aufwand, technisch nicht mehr sinnvoll, die Hardware wird immer sparsamer XYZ..." 🤣
Ich glaube bald braucht man eine eigene 16A Sicherung im Sicherungskasten der Wohnung nur für den GRÜNEN PC 🤣
 
600W in der Spitze. Im Alltag denke ich mal, wird die keine 400W brauchen. (Hoffe ich)
Grafikkartenkauf ist für mich Pflicht, jede Generation. CPU kann man dann wieder machen, wenn die CPU sehr ausgelastet wird (beim jeweiligen individuellen Anwendungsfallprofil).
 
Glaub ich nicht. Hab bisher noch jede Karte ins Limit bekommen. 4K. :)
 
Wenn Nvidia schon mit 900W testet, sind regulär 600W in 4k bestimmt drin.
Also eine 600W GPU würde bestimmt noch mit meinem 750W Netzteil laufen, denn der Rest zieht maximal 80-90W. Lastspitzen sollen ja ab der 3090Ti wieder im Griff sein.
Aber will man das? Nunja wenn die 600W nur 2x die Leistung einer 3090 bringen, wäre das sogar ein Effizienz GEWINN!!!

Ich glaube aber das die 4090Ti, wenn überhaupt wieder eine 90er geben wird, maximal 500W ziehen wird, bei 2x Leistung der 3090Ti.
100% mehr Leistung wäre schon ein großer Sprung für eine Generation den es so schon länger nicht mehr gab.

50% mehr Leistung bei gleichem Verbrauch sollte aber auch drin sein. Wenns die 50% sind oder mehr bei gleichem Verbrauch, werde ich mehr wohl wieder eine GPU holen...hoffentlich werd ich da noch meine 3090FE gut los XD.
 
Also allein mein 12700K zieht schon mehr als 90W unter Last? Oder hab ich Dich da missverstanden?
 
Spekulatius von Samstag (glaub ich war's):
Quelle: moores law is dead loose ends, irgendwo mittendrin.

Die vermeintliche 4090 wird so schnell, dass 2160p/120Hz kein Problem ist und eher ein Limit darstellt...

Meine Gedanken dazu:
Welches HDMI/dp ist in der Lage so viel Daten zu übertragen? Und wenn's geht, über welche Leitungslänge? Uns ist das dann Kupfer? Und was kostet ein entsprechendes Kabel?

Und der zweite Gedanke:
Die Speerspitze von Team grün soll langsamer und deutlich ineffizienter sein als die Speerspitze von Team Rot.

Der effizienzgewinn von Team grün hängt davon ab welche node die GPU selbst wird und wie stark Nvidia die Chips prügelt. Stichwort untervolting vs. Absolute No1, wobei das gerüchteweise schon entschieden ist, bzw. Das obere Limit bei Team Rot deutlich höher ist als das von Team grün.
 
Ist es eigentlich sicher, dass man für die kommenden Nvidia GPUs ein neues Netzteil brauchen wird?

Damit wäre ich für diese Gen raus...hab mir erst letztes Jahr für beide Systeme neue Netzteile zugelegt *grrr*.

Für mein ITX System kommt eine neue NV Karte wohl eh nicht mehr in Frage, glaube kaum daran eine 4060ti oä. Im Singleslot Design mit maximal 250w bekommen zu können und mehr passt nicht und braucht auch nicht zu passen ;).

600w für eine GPU sind schon extrem daneben. Klimawandel, Krieg, Energiepreise, Corona Lockdowns in China... eigentlich müsste die EU Kommission da regulierend eingreifen :(.
 
ich denke dass wenn die neuen karten alle diese neuen anschluss bekommen man zumindest mit nem adapter leben muss. dann wirds neue netzteile geben die den anschluss von haus aus haben.

denke amd wird das gleiche machen.
 
Es wird ja nicht jede Karte in den Verbrauchsbereich vorstoßen, das dürfte nur die Topmodelle sein.

Die Karten darunter werden in ähnlichen Bereichen landen wie jetzt auch.

Und es wird ganz sicher auch wieder passende Adapter geben.
 
Adapter sind immer scheisse. Nehmen mindestens unnötig Platz weg bzw. sehen ätzend aus.

Spannend wird sein, welche Karte die Leistung einer 3090 übertrifft und dabei welchen Verbrauch hat. Schon die 4060? Oder 4070? Bei 250W oder weniger? Man spricht ja dieses mal von einem großen Leistungssprung, wobei da auch bei den voran gegangenen Generationen in den Gerüchten immer mehr drin steckte, als am Ende raus kam. Und dann möchte ich auch nicht mehr einen zur Leistung proportional ansteigenden Stromverbrauch mitgehen. Also bei 30% mehr Leistung sollten es nicht 30% mehr Leistungsaufnahme sein.

Ansonsten weiß ich immer nicht, was Kriege, Klimawandel etc. mit den max. Stromverbrauch der Karten zu tun haben. Einmal nach Malle geflogen und man hat dem Klima mehr geschadet als mit ner 3090Ti in einem Jahr. Ziemlich scheinheilig hier, gabs alles auch schon zu früheren Graka Generationen. Entscheidend ist allein das Dreieck Leistung / Preis / Kühlung. Ich jedenfalls werde sicherlich nie auf eine Custom Wakü umsteigen also wäre das Limit bei mir immer die Lukü Leistung (und Lautstärke). Und natürlich das Spulenfiepen. Ich hoffe das wird mit Lovelace mal wieder besser.
 
Zuletzt bearbeitet:
Der Effizienzgewinn durch den nodeshrink soll bei Team grün etwa 30-40% sein.

Aber:
Wenn die Chips geprügelt werden, also mehr Strom rein für mehr FPS, dann sinkt die Effizienz.
Stichwort untervolting. Stichwort OC.

Die Hersteller, grün wie rot, haben also Stellschrauben ihre Karten zu positionieren.

IMHO hast du in deinem Dreieck die Effizienz vergessen. Die 3070ti ist einfach schlechte Hardware. Zu wenig Leistung für zu viel Verbrauch, im direkten Vergleich in der gleichen Generation je ein Modell hoch und runter (3070, 3070ti, 3080).
 
Adapter sind immer scheisse. Nehmen mindestens unnötig Platz weg bzw. sehen ätzend aus.
Es steht dir natürlich frei extra für eine neue Karte auch ein neues Netzteil zu kaufen!
Sofern verfügbar…

Die Ausgangsfrage war aber ob es zwingend notwendig ist.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh