Lovelace Smalltalk Thread

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Erst heißt es September, dann Juli oder Anfang Q3 und jetzt auf einmal Oktober? So langsam wirds lächerlich, selbst für die Gerüchteküche...
 
Früher als an Ende September Anfang Oktober hab ich eh nicht geglaubt!
 
NVIDIA sieht wohl noch kein Grund für einen Vorzeitigen Release, die 3090ti verkauft sich einfach noch zu gut. :d
 

Mit 48 Gb was kein Gamer braucht und einem wohl möglich deutlich späterem Release Zeitraum 1 Jahr +- und einem Preis jenseits von gut und böse eh nur für ganz wenige interessant denke ich !
 
Zuletzt bearbeitet:
Bis 900 Watt das nenne ich mal sportlich und dass bei immer mehr steigenden Energiekosten. Respekt!(y)



Dann kann es ja auch nicht mehr lange dauern bis die ersten 2000 Watt Netzteile kommen.:unsure:



Man muss sich wohl langsam fragen wer so etwas noch braucht.:rolleyes2:



Selbst wenn man die Karte professionell betreibt für die Arbeit oder so bei einem 8 Std. Arbeitstag sind es 7,2 KWh den mit 0,42 Cent/h ( durchschnittlicher aktueller Stromtarif ) gerechnet kommt man dann in 8 Std. auf 3€ nur für die eine Grafikkarte.:oops:
Schon ganz ordentlich na ob dass der richtige Weg ist...:unsure:
 
Na ja so was wird dann eh kaum einer besitzen so ne Karte wird locker flockig die 3000 Euro Marke knacken und wer über 3K zahlt dem ist der Strom wohl auch Egal !
Für die anderen gibt es dann noch die 4090 non Ti 4080 und die 4070 wen man nicht zu viel Strom verballern will!
Wo bei die 4090 Ti oder Titan eh deutlich später kommen dürften wen sie den so erscheinen!
 
Zuletzt bearbeitet:
Selbst wenn man die Karte professionell betreibt für die Arbeit oder so bei einem 8 Std. Arbeitstag sind es 7,2 KWh den mit 0,42 Cent/h ( durchschnittlicher aktueller Stromtarif ) gerechnet kommt man dann in 8 Std. auf 3€ nur für die eine Grafikkarte.:oops:
Schon ganz ordentlich na ob dass der richtige Weg ist...:unsure:
Die Rechnung ist so aber nicht wirklich sinnig mMn. Die meiste Zeit wird so eine Karte auch im Idle laufen und damit nur geringfügig mehr verbrauchen durch den Vollausbau. Unter Last ist es erstmal "egal" was eine Karte im Peak verbraucht im professionellen Umfeld. Hier ist Performance/W wesentlich interessanter denn wenn die Arbeit entsprechend schneller ausgeführt wird ist die Karte auch schneller wieder im Idle. In dem Umfeld berechnet man ja gezielt Modelle und lässt die Karte nicht einfach 3h unter Last laufen (Gaming).
 
Bis 900 Watt das nenne ich mal sportlich und dass bei immer mehr steigenden Energiekosten. Respekt!(y)



Dann kann es ja auch nicht mehr lange dauern bis die ersten 2000 Watt Netzteile kommen.:unsure:



Man muss sich wohl langsam fragen wer so etwas noch braucht.:rolleyes2:



Selbst wenn man die Karte professionell betreibt für die Arbeit oder so bei einem 8 Std. Arbeitstag sind es 7,2 KWh den mit 0,42 Cent/h ( durchschnittlicher aktueller Stromtarif ) gerechnet kommt man dann in 8 Std. auf 3€ nur für die eine Grafikkarte.:oops:
Schon ganz ordentlich na ob dass der richtige Weg ist...:unsure:
Ich sag's ja nur ungerne aber Deutschland ist nicht der Nabel der Welt.
 
Irgendwann hab ich zum Beispiel aufgehört den PC unter den Schreibtisch zu stellen, weil die Luft da so schlecht zirkuliert. Früher war das nie ein Problem.
 
Leute haben über 2000€ für ne 3090 bezahlt, da sind die 3000€ nicht mehr weit weg. :fresse2:
Jo aber wir sprechen da von 1% vielleicht !
Im LuXX CB und PCGH und andere Foren Tummeln sich fast über all die selben Leute rum .
 
Zuletzt bearbeitet:
Ich sag's ja nur ungerne aber Deutschland ist nicht der Nabel der Welt.
Das ist wohl war im Ausland ist der Strom natürich billiger.
Leute haben über 2000€ für ne 3090 bezahlt, da sind die 3000€ nicht mehr weit weg. :fresse2:

Man hat ja bei Ampere gesehen was die Leute bereit sind für eine Karte auszugeben ich denke auch 3000€ würden die wenigsten noch abschrecken.
Die Rechnung ist so aber nicht wirklich sinnig mMn. Die meiste Zeit wird so eine Karte auch im Idle laufen und damit nur geringfügig mehr verbrauchen durch den Vollausbau. Unter Last ist es erstmal "egal" was eine Karte im Peak verbraucht im professionellen Umfeld. Hier ist Performance/W wesentlich interessanter denn wenn die Arbeit entsprechend schneller ausgeführt wird ist die Karte auch schneller wieder im Idle. In dem Umfeld berechnet man ja gezielt Modelle und lässt die Karte nicht einfach 3h unter Last laufen (Gaming).

Es sollte ja auch nur eine ungefähre Einschätzung sein.

Wobei wenn man von einer Firma ausgeht werden ja mehrere Rechner da stehen klar werden die dann nicht komplett 8 Std. auf Volllast laufen aber wenn da 10 solcher Rechner stehen und die nur 2 Std. auf Volllast laufen dann haut dass auch schon ganz schön rein.

Ich denke mal im Gaming Bereich werden die wenigsten so eine Karte kaufen, der typische Gamer versucht sich eher einen günstigen PC zusammen zu bauen, der in seinen Games genug Leistung bringt also viel mehr als was eine 4080 kosten wird sind die eh nicht bereit auszugeben eher noch darunter.
 
Ich persönlich wäre mit einer 4090 und 24 GB mehr als zufrieden das wäre ein schönes Upgrade kommend von der 3080Ti .

 
Ich persönlich wäre mit einer 4090 und 24 GB mehr als zufrieden das wäre ein schönes Upgrade kommend von der 3080Ti .

denke, bei mir wirds auch eine 4090, das wäre ein netter Sprung von der jetzigen 1080 non ti
 
Alter Schwede wenn die Leistung aus dem Diagramm stimmt, kostet die 4090 im Verhältnis bestimmt 2000-2500€. Denn zu 90% werden die neuen Karten sicherlich nicht günstiger. Da man sich ja an die teuren Preise mittlerweile gewöhnt hat.

Oder die Politik schaltet sich ein und gewährt Rabatt. :d
 
Ich hatte ja auch eine 3090 bestellt bei 1499 EUR bei Amazon, die wurde dann aber storniert. Also habe ich die 3080 von Alternate behalten.
Diesmal würde ich auch wieder hoffen, dass ich eine 4090 für um die 1499 EUR bekommen könnte, aber zur Sicherheit bestelle ich wahrscheinlich auch gleich eine (also mehrere) 4080 mit.
 
Ich hatte ja auch eine 3090 bestellt bei 1499 EUR bei Amazon, die wurde dann aber storniert. Also habe ich die 3080 von Alternate behalten.
Diesmal würde ich auch wieder hoffen, dass ich eine 4090 für um die 1499 EUR bekommen könnte, aber zur Sicherheit bestelle ich wahrscheinlich auch gleich eine (also mehrere) 4080 mit.
Jup meine Strixx kam auch nie an für 1600!
Aus der Not heraus für Cyberpunk ne 3080 gekauft dann wieder verkauft und für das Geld ne 6900XT geholt aus Neugierde .
Dann DLSS vermisst weil FSR 1.0 nicht so doll war also 6900XT verkauft und 1zu 1 ne 3080 Ti geholt :ROFLMAO: konnte man alles gut machen weil die gebraucht Preislich sehr hoch waren .
Beitrag automatisch zusammengeführt:

 
Zuletzt bearbeitet:
Aber die TDPs in dem verlinkten Videocardz-Artikel sind doch vollkommen krank. Und die 4070 hat eine niedrigere Speicherschnittstelle und damit später auch eine -Bandbreite als die 3070, die dort bei 256-bit liegt. Wer soll das denn kaufen? Dann verwende ich lieber die RTX 3070 weiter und überspringe die Ada-Grakas. Kann man den Titel dieses Fadens eigentlich noch ändern? Die neuen Grakas heißen Ada-Grakas, nicht Lovelace-Grakas, da hat sich NV doch noch für den Vornamen der Frau entschieden.
 
Also bisher hab ich immer nur beides zusammen gesehen, also Ada Lovelace.
 
Ada Lovelace ist sozusagen Vor- und Nachname. :)

Allerdings heißen die GPUs doch AD10X, also Ada. Daher heißen die klar Ada-Grakas. :)
 
Aber die TDPs in dem verlinkten Videocardz-Artikel sind doch vollkommen krank. Und die 4070 hat eine niedrigere Speicherschnittstelle und damit später auch eine -Bandbreite als die 3070, die dort bei 256-bit liegt. Wer soll das denn kaufen? Dann verwende ich lieber die RTX 3070 weiter und überspringe die Ada-Grakas. Kann man den Titel dieses Fadens eigentlich noch ändern? Die neuen Grakas heißen Ada-Grakas, nicht Lovelace-Grakas, da hat sich NV doch noch für den Vornamen der Frau entschieden.
Die fehlende Bandbreite wird wohl durch den höheren Cache und weitere Optimierung beschleunigt!
 
Und was interessiert denn den 0815 Käufer so ein technisches Detail wie Speicherbandbreite? Total irrelevant wenn die Balken in den Benchmarks am Ende nur lang genug sind.
 
Diese Geschichten wurden bei Radeon 6000 auch erzählt und haben da doch auch nicht gestimmt.
Was erzählst du da ?
AMD erreicht Topleistung mit Extra 128 mb Cache bei 256 Bit !

Selbst in 4K ist man mit der 3090Ti ca.gleich auf auch ohne 384 Bit!
Raytracing mal außen vor !

Bei AMD ist es aber ein separater Cache wen ich mich richtig erinnere bei NV wir der L2 direkt vergrößert bei der 4000ner.
Die 4090 oder Ti wird mit 96 mb angegeben derzeit die 3090 Ti hat nur 4 glaub ich !
NV wird da schon wissen was die machen!
Das OC später eventuell nur begrenzt skaliert bei den schwächer ausgestatteten Karten ist noch mal ein anderes Thema!
 
Zuletzt bearbeitet:
Und was interessiert denn den 0815 Käufer so ein technisches Detail wie Speicherbandbreite? Total irrelevant wenn die Balken in den Benchmarks am Ende nur lang genug sind.
Frag mal die 970 -Besitzer. Da war der Balken am Anfang lang genug und dann relativ schnell nicht mehr, und das nur wegen einem winzigem Mini-Detail bei der Speicherbandbreite.
Wobei weniger nicht unbedingt schlechter ist, ich hatte auch schon Grafikkarten mit 512 Bit
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh