Ampere Smalltalk-Thread (Startpost lesen, Handel nur im Marktplatz!, keine Botanfragen!)

Noch nicht so lang, erst seit 20 Jahren :ROFLMAO:

Die 50% als Referenz bei der 980 Ti (die ich übrigens auch im Rechner hatte und direkt gegen den Nachfolger ersetzt habe, als dieser rauskam) sind übrigens maßlos übertrieben. Ja, bei der 980 Ti gab es etwas mehr Headroom, aber sicher keine 50% :rolleyes2: Das "mindestens" in meiner Aussage hast du auch schön wegfallen lassen - es sind nämlich i.d.R. deutlich mehr als 10%!

Hast du denn überhaupt eine 3090 im Rechner und konntest Erfahrungswerte sammeln? :wink:

Langsam frage ich mich auch wieso ich hier überhaupt noch mitlese und muss @********* leider recht geben :(

P.S: Zumal es sich ja summiert... 3090 ohne UV/perfekter Curve.. -10 bis 15% / CPU mit Stock statt 5,2 GHz Allcore -5 bis 10% / Ram mit 3200 C14 XMP statt 4000 C16 und straffen Custom B-Die Sub - 20 bis 30% (in CPU limited Games). Aber hey, was sind schon 50% Leistung
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die 980Ti war stock knapp über 1000Mhz.
Partner verkauften die Shice afaik mit stock-MHz bis zu 13XY Mhz.
Unter Wasser liefen die Teile (auch meine) 1500Mhz wenn man Glück hatte.

Heute ocen die Boardpartner die Teile was ged und lassen Brotkrümmel übrig. :o

Brauche keine 3090 (wär nen Krücken-Update vs 2080Ti gähn), lese aber und seh was Sache ist. Außerdem schreibst selbst von 10%.

CPU heute 5-10%, Sandy 2600k von 3,4 auf 5Ghz -> Fast 50%
DAS war OC.
RAM Update merkt man in Spielen schon gar nicht, meistens ist man ohnehin im GPU limit.

Heute: 60EUR Mobo und 500EUR CPU und gut ist. :o
 
50% mehr Takt sind weder bei CPUs noch bei GPUs auch gleichzeitig 50% mehr Leistung - und waren es auch nie. So eine Skalierung gibt es schlicht nicht.

Davon abgesehen stimmen auch die 50% Takt bei der 980 Ti, wie schon erwähnt, nicht mal im Ansatz:

Jedes x-beliebige Partner Model boostete mindestens auf 1150-1250 MHz. Manche (ohne großen Aufpreis) auch auf lockere 1350+ Mhz. Wenn man 1200-1250 Mhz als Basis nimmt (was deutlich sinnvoller ist, weil mit Boost etc. in der Praxis keine Karte der Welt mit 1000 Mhz lief) und mit nem golden Sample @ Wakü auf 1500 MHz vergleicht (was schon nicht gerade fair ist) sind es schon gleich mal nur noch 20% mehr Takt und ca. 15% mehr Leistung (also fast das, was ich jetzt mit 3090 durch UV und via Curve auch raushole). Soviel zum Thema.

Brauche keine 3090 (wär nen Krücken-Update vs 2080Ti gähn), lese aber und seh was Sache ist. Außerdem schreibst selbst von 10%.

Komme auch von ner 2080 Ti und habe es keine Minute bereut. Die 2080 Ti war deutlich wärmer, ineffizienter und lahmer.

meistens ist man ohnehin im GPU limit.

Wenn man sich mit 60 Hz Gaming auf nem 4k Monitor zufrieden gibt dann stimmt das wohl. Aber befüttere mal nen WQHD Monitor mit 270 Hz (oder bald 360 Hz) mit entsprechenden Fps. Da biste selbst mit nem 12900k @ OC im CPU Limit und man merkt Ram OC mehr als deutlich.
 
Zuletzt bearbeitet:
Also mit ner 2080TI Krücke möcht ich heut nicht mehr zocken müssen, gähn 🥱
 
Verallgemeinern was Spulenfiepen angeht, geht wohl nicht. Es gibt solche und solche. Von dem was ich da hatte, waren die Strix aber was die relative Häufigkeit angeht das schlimmste.
Mein Ranking was mieses gefiepe angeht wäre daher:

1. Strix
2. Founders
3. TUFs
4. EVGAs

Überdurchschnittlich positiv waren in der Hinsicht tatsächlich die Ref Karten von Gainward, Palit etc.
Du vergisst MSI... meine Ventus zwitschert übertaktet nur ganz ganz leise, stock nur sehr selten, UV gar nicht.

Ich hatte zuvor eine 2080Ti von Gainward, die hat sehr lautstark ihr Leid geklagt. Das war wirklich heftig...
 
RAM Update merkt man in Spielen schon gar nicht, meistens ist man ohnehin im GPU limit.
FC6
Anno
CP77 mit und ohne rtx
Dying Light 2 mit RTX
GOW + Reflex

erreiche ich in keinem der spiele 120fps auf der cpu als minimum, geschweige denn 144fps mit nem 9900k

dieses "man ist eh meistens im gpu limit" ist hören sagen, aber defintiv nicht korrekt ;)
 
FC6
Anno
CP77 mit und ohne rtx
Dying Light 2 mit RTX
GOW + Reflex

erreiche ich in keinem der spiele 120fps auf der cpu als minimum, geschweige denn 144fps mit nem 9900k

dieses "man ist eh meistens im gpu limit" ist hören sagen, aber defintiv nicht korrekt ;)
Kommt halt darauf an. Mit bestimmten Einstellungen (4k, höchste Details) ist man einfach eher im GPU Limit als dass die CPU nicht mehr liefern kann, auch in allen von Dir genannten Spielen.

Aber die CPU ist halt nicht zu vernachlässigen. In RDR2 hatte ich unabhängig von der Auflösung in Städten immer so Performance Einbrüche auf 40FPS und weniger. Dies war mit einem 2600K @ 4.4GHz. Die Auslastung der Graka lag bei maximal 70%. Gleiche Graka, nur mit einem 12700K, gibt es keine Framedrops mehr, der Rechner ist immer voll im GPU Limit und hält die 60 bis 80FPS (4k, ohne DLSS, höchstes Preset), Auslastung permanent auf 99%.

Also mit der richtigen CPU stimmt diese These in vielen Games schon, aber natürlich gibt es hunderte Variablen, die eine Verallgemeinerung nicht zulassen.
 
natürlich bedeutet höhere settings auch höhere gpu last bzw weniger fps seitens der gpu.

das ziel ist aber NIE 99% GPU load sondern die CPU muss die wunsch fps erreichen und die gpu muss die wunsch fps erreichen. die auslastung der graka ist dann einfach das ergbnis.

mein 9900k ist je nach spiel somit deutlich zu lahm. auflösungsunabhängig logischerweise denn mein ziel sind 120fps :)
 
natürlich bedeutet höhere settings auch höhere gpu last bzw weniger fps seitens der gpu.

das ziel ist aber NIE 99% GPU load sondern die CPU muss die wunsch fps erreichen und die gpu muss die wunsch fps erreichen. die auslastung der graka ist dann einfach das ergbnis.

mein 9900k ist je nach spiel somit deutlich zu lahm. auflösungsunabhängig logischerweise denn mein ziel sind 120fps :)
Dann Upgrade doch endlich zum neuen 12KS und zu einer 3090Ti.
Dazu noch ein schnittiges 2000 Watt Netzteil und ein 420mm CPU Kühler.
Dann sollte über 120 FPS möglich sein :fresse:
 
Eine 2080ti ist kaum schneller als eine 6700XT, also ich würde mich schämen wenn ich damit in einem Hardwareforum flexen würde :unsure:
 
Hat nicht noch irgendwer ne Sony 100Hz XGA Röhre für den armen @Scrush übrig? :fresse2:

:love: #nohomo
 
nehm ich auch (y)
Aber warte...der Platz dafür.. argh...8-)
 
Überdurchschnittlich positiv waren in der Hinsicht tatsächlich die Ref Karten von Gainward, Palit etc.

Zumindest was Spulenfiepen angeht kann ich das für meinen Einzelfall sogar bestätigen. Die Gainward war komplett ruhig (da haperte es an anderen Sachen), FE war nicht lästig aber hörbar und FTW3 fiept nur wenn man sie tritt. Strixen mit heftigem Fiepen kenne ich aus dem näheren Bekanntenkreis sogar 3 mittlerweile, zwei 3080 und eine 3070.
 
50% mehr Takt sind weder bei CPUs noch bei GPUs auch gleichzeitig 50% mehr Leistung - und waren es auch nie. So eine Skalierung gibt es schlicht nicht.

Davon abgesehen stimmen auch die 50% Takt bei der 980 Ti, wie schon erwähnt, nicht mal im Ansatz:

Jedes x-beliebige Partner Model boostete mindestens auf 1150-1250 MHz. Manche (ohne großen Aufpreis) auch auf lockere 1350+ Mhz. Wenn man 1200-1250 Mhz als Basis nimmt (was deutlich sinnvoller ist, weil mit Boost etc. in der Praxis keine Karte der Welt mit 1000 Mhz lief) und mit nem golden Sample @ Wakü auf 1500 MHz vergleicht (was schon nicht gerade fair ist) sind es schon gleich mal nur noch 20% mehr Takt und ca. 15% mehr Leistung (also fast das, was ich jetzt mit 3090 durch UV und via Curve auch raushole). Soviel zum Thema.



Komme auch von ner 2080 Ti und habe es keine Minute bereut. Die 2080 Ti war deutlich wärmer, ineffizienter und lahmer.



Wenn man sich mit 60 Hz Gaming auf nem 4k Monitor zufrieden gibt dann stimmt das wohl. Aber befüttere mal nen WQHD Monitor mit 270 Hz (oder bald 360 Hz) mit entsprechenden Fps. Da biste selbst mit nem 12900k @ OC im CPU Limit und man merkt Ram OC mehr als deutlich.


50% mehr Takt bei GPUs waren gerundet 50% MOAR fps. (y) Das kam schon gut hin.

Und nein, es boostete nicht jedes beliebige Parntermodell über stock-MHz:
1649229267541.png


3090 vs 2080Ti, 40fps vs 60fps. Das haut nun wirklich nicht vom Hocker, also shice vs shice. :o Am besten sind Umstiege bei +100% mehr performance. Erst da geht einer up.(y) 40fps vs 80fps -> top. Bittet die 3090 vs 2080Ti aber kaum.

Du wirst auch heute mit einer 3090 bei "alten" Spielen im GPU limit landen. Lässt sich nicht immer verhindern. Wer nur solche Spiele spielt, der hats dann nicht anders verdient. Also reden wir von GPU limitierten Spielen, aktuelle AAA games von mir aus, die fordern auch in UWQHD die 3090 dicke.
Für 4k mit raytracing und alles maxed/ultra, ist auch die 3090 zu lahm (überwiegend <100fps). Also schön GPU limit, was auch in Ordnung ist und dafür ist die Karte auch gut. Streng genommen sind wir noch nicht mal bei angenehmen 4k gaming (überwiegend +100fps) angekommen. (y) Und weil die Hersteller +50% OC nicht mehr erlauben, bleibt es eben ein Krücken-Update. :o

Bei Dickschiff GPUs über Effizienz zu reden ist sowieso sinnlos, auch Lambos saufen dick und werden warm wenn man sie tritt. Für Effizienz kauft man sich besser einen Dacia. :o

Alles qool, how rain.
 
Zuletzt bearbeitet:
Boosting und OC hin oder her, das Hauptproblem bei den "Dickschiff GPUs" der Ampere-Serie ist doch eher, dass der GA102 einfach schon totgeritten wurde noch und nöcher.

die Topmodelle der letzten Generationen hatten auf der "x80ti" immer einen anderen Chip mit dickerem Speicherinterface etc. 980ti, 1080ti, 2080ti, gleiches Spiel.

Wenn man die 3080-12 dazurechnet gibts aktuell fünf(!) Modelle die auf dem GA102 rumreiten. Und wer hätts gedacht, die Ampere-Modelle mit dem besten P/L-Verhältnis (zur UVP) sind immer die die auf den nächsthöheren Chip gehen (3050 logischerweise, 3060ti, 3080). Ergibt ja Sinn dass da mit Custom-OC irgendwann nix mehr kommt wenn der Hersteller schon alle Schrauben anzieht wie's geht.
 
Boosting und OC hin oder her, das Hauptproblem bei den "Dickschiff GPUs" der Ampere-Serie ist doch eher, dass der GA102 einfach schon totgeritten wurde noch und nöcher.

die Topmodelle der letzten Generationen hatten auf der "x80ti" immer einen anderen Chip mit dickerem Speicherinterface etc. 980ti, 1080ti, 2080ti, gleiches Spiel.

Wenn man die 3080-12 dazurechnet gibts aktuell fünf(!) Modelle die auf dem GA102 rumreiten. Und wer hätts gedacht, die Ampere-Modelle mit dem besten P/L-Verhältnis (zur UVP) sind immer die die auf den nächsthöheren Chip gehen (3050 logischerweise, 3060ti, 3080). Ergibt ja Sinn dass da mit Custom-OC irgendwann nix mehr kommt wenn der Hersteller schon alle Schrauben anzieht wie's geht.
Wobei das aus Herstellersicht doch absolut nachvollziehbar ist? Potenzial, das nicht bepreist und verkauft wird, ist totes Kapital. Also wenn ich der 3080 noch eine 3080Ti nachschieben kann und die auch noch gekauft wird, dann hat NVidia alles richtig gemacht und wird (muss) dies auch immer wieder tun. Alles andere wäre den Shareholdern gegenüber nicht zu erklären.

Daher verstehe ich den Frust darüber generell nicht. Im aktuellen Lineup war für mich der einzige Faux Pas, dass die 3080 nicht bereits ursprünglich mit 12GB VRAM gekommen ist und dass es statt dessen bspw. die 3060 mit 12GB gibt.
 
Am Ende der Generation kann man sagen, dass die early adopter der 3090 alles richtig gemacht haben, auch wenn sie direkt zu Beginn belächelt wurden.
 
Am Ende der Generation kann man sagen, dass die early adopter der 3090 alles richtig gemacht haben, auch wenn sie direkt zu Beginn belächelt wurden.
Jup und alle die jetzt 3090 und 3090ti kaufen sollten mit Grund belächelt werden :P Weil die Karte nach 1 1/2 Jahren auf dem Markt teurer erstanden wird als von den early adoptern die wirklich lange Zeit jetzt die beste Karte hatten.
 
Generell ist Ampere (hat Slipknot ja schon angerissen) halt noch nicht die Sweetspot-Generation wenn man wirklich 4k spielen will und seine Karte länger behalten will.

Man vergisst gerne dass natives 4k nochmal 66% mehr Pixel sind als 21:9 1440p. Spiele die also im dreistelligen Bereich sind auf 3440x1440 (was ja echt schon sportlich ist) pendeln sich also gerne mal im Bereich von 60-70fps ein auf 4k, aber das ist halt selbst mit einer 3090 auf Kante genäht weil man immer mal Titel wie Cyberpunk hat die nicht sehr ressourcenschonend sind und diese 60-FPS-Grenze (teils deutlich) unterbieten. Wer aktuell (UW)QHD mit ner 3080/80ti/90 fährt macht alles richtig, aber Leuten denen jetzt in 2022 einfällt dass sie Bock auf ein 4k-Panel haben sollte man eher zur Geduld raten weil die kompromissloseren 4k-Karten eben dieses Jahr noch rauskommen.
 
Generell ist Ampere (hat Slipknot ja schon angerissen) halt noch nicht die Sweetspot-Generation wenn man wirklich 4k spielen will und seine Karte länger behalten will.

Man vergisst gerne dass natives 4k nochmal 66% mehr Pixel sind als 21:9 1440p. Spiele die also im dreistelligen Bereich sind auf 3440x1440 (was ja echt schon sportlich ist) pendeln sich also gerne mal im Bereich von 60-70fps ein auf 4k, aber das ist halt selbst mit einer 3090 auf Kante genäht weil man immer mal Titel wie Cyberpunk hat die nicht sehr ressourcenschonend sind und diese 60-FPS-Grenze (teils deutlich) unterbieten. Wer aktuell (UW)QHD mit ner 3080/80ti/90 fährt macht alles richtig, aber Leuten denen jetzt in 2022 einfällt dass sie Bock auf ein 4k-Panel haben sollte man eher zur Geduld raten weil die kompromissloseren 4k-Karten eben dieses Jahr noch rauskommen.
Macht halt aber die "Vorteile" der 3090 eigentlich auch wieder hinfällig da man in WQHD mit den 10GB RAM der 3080 eigentlich ganz gut bedient ist für die nächsten 2 - 3 Jahre. Zur not halt die 3080ti kaufen wenn man auf nummer sicher gehen möchte und wirklich bis zur 50er Serie die Karte hält.

Ansonsten AMD Karten sind auch nicht verkehrt ;) und haben alle passenden Speicher für die Leistung. Bin sehr zufrieden mit der 6800XT und kann ganz entspannt abwarten was bei der 40er Serie kommt, da die Karte quasi keinen Wertverlust hat und zur not schnell gegen eine 4080 oder ähnliches getauscht ist. Wenn die Preise nicht stimmen hab ich auf jeden fall genug Power und Speicher für die nächsten Jahre WQHD Gaming und das für weniger als die Hälfte der 3090 ;)
 
Bei AMD-Karten hatte ich zum Zeitpunkt des PC-Kaufs halt das gleiche Problem wie mit den Prozessoren. Die haben sich durch die Lieferschwierigkeiten ihr eigentlich besseres P/L verhagelt weil die Sachen im Retail dann auf einmal unsinnig teuer waren. Speziell die 6800xt. Gute Karte die sich nicht vor der 3080 verstecken braucht, aber wenn die (wie im Herbst) auf einmal 1250€ kosten soll als Custom-Modell geht man halt lieber zu Team Grün am Ende vom Tag. Die AMD Ref-Shitshow wollte ich mir zu keinem Zeitpunkt geben, das war ja noch schlimmer als NBB-Drops hier.

Selbes Spiel beim 5600x der immer teurer wurde und ursprünglich eine gute Comet/Rocket-Lake-Alternative war.
 
RAM Update merkt man in Spielen schon gar nicht, meistens ist man ohnehin im GPU limit.

HAHAHAHAAHAHAH HAHA HAHHAH AHHAHA HAHAH HAHHAHHAHAHAAAAA HHAHAHAHHAHAHAHAHAHAHHAHAH
Okay sorry, du hast echt mal gar keine Ahnung. Tu mir bzw. uns allen bitte einen Gefallen.. lass es sein.
50% mehr Takt bei GPUs waren gerundet 50% MOAR fps. (y) Das kam schon gut hin.

Und nein, es boostete nicht jedes beliebige Parntermodell über stock-MHz:
Anhang anzeigen 746492

3090 vs 2080Ti, 40fps vs 60fps. Das haut nun wirklich nicht vom Hocker, also shice vs shice. :o Am besten sind Umstiege bei +100% mehr performance. Erst da geht einer up.(y) 40fps vs 80fps -> top. Bittet die 3090 vs 2080Ti aber kaum.

Du wirst auch heute mit einer 3090 bei "alten" Spielen nicht im GPU limit landen. Lässt sich nicht immer verhindern. Wer nur solche Spiele spielt, der hats dann nicht anders verdient. Also reden wir von GPU limitierten Spielen, aktuelle AAA games von mir aus, die fordern auch in UWQHD die 3090 dicke.
Für 4k mit raytracing und alles maxed/ultra, ist auch die 3090 zu lahm (überwiegend <100fps). Also schön GPU limit, was auch in Ordnung ist und dafür ist die Karte auch gut. Streng genommen sind wir noch nicht mal bei angenehmen 4k gaming (überwiegend +100fps) angekommen. (y) Und weil die Hersteller +50% OC nicht mehr erlauben, bleibt es eben ein Krücken-Update. :o

Bei Dickschiff GPUs über Effizienz zu reden ist sowieso sinnlos, auch Lambos saufen dick und werden warm wenn man sie tritt. Für Effizienz kauft man sich besser einen Dacia. :o

Alles qool, how rain.

Was du laberst.. die GPUs, ja auch die 980 Ti, hat IMMER über den angegebenen Boost Clock getaktet. Egal wie low End die Karte war.
 
Generell ist Ampere (hat Slipknot ja schon angerissen) halt noch nicht die Sweetspot-Generation wenn man wirklich 4k spielen will und seine Karte länger behalten will.

Man vergisst gerne dass natives 4k nochmal 66% mehr Pixel sind als 21:9 1440p. Spiele die also im dreistelligen Bereich sind auf 3440x1440 (was ja echt schon sportlich ist) pendeln sich also gerne mal im Bereich von 60-70fps ein auf 4k, aber das ist halt selbst mit einer 3090 auf Kante genäht weil man immer mal Titel wie Cyberpunk hat die nicht sehr ressourcenschonend sind und diese 60-FPS-Grenze (teils deutlich) unterbieten. Wer aktuell (UW)QHD mit ner 3080/80ti/90 fährt macht alles richtig, aber Leuten denen jetzt in 2022 einfällt dass sie Bock auf ein 4k-Panel haben sollte man eher zur Geduld raten weil die kompromissloseren 4k-Karten eben dieses Jahr noch rauskommen.
...und sich hoffentlich vermehrt OLED Monitore in akzeptablen Preisregionen zeigen werden. :d

Trotzdem bereue ich den Wechsel zu 4k im Januar nicht, die Games sehen einfach um so viel besser aus, das ist schon krass. Und solange die Games, die ich zocke von der 3080 auf mindestens 50FPS gehalten werden (RDR2 ist bei mir das anspruchvollste Game, aber mit DLSS auch bei um die 80FPS), ist das ok. Und da die 3090 nun wohl doch nicht mehr in die <1700€ Regrion vorstößt was die Vendorenkarten angeht, werde ich auf Lovelace warten.

Da ich die 2000er Generation ausgelassen habe, war die Anschaffung einer Ampere Karte für mich aber ein riesen Sprung und hat sich voll gelohnt. Von der 1080 zu 3080 war selbst auf 1080p schon eine Offenbahrung.
 
Die 2000er Generation war aber auch irgendwie ein Schlag ins Gesicht was Preis-Leistung angeht nach der 1000er Gen. Bin nicht umsonst über 4 Jahre mit meiner 1070 TI unterwegs gewesen. :fresse2:

Aber auf 1440p hat das mittlerweile schon weh getan und ich fürchte, die Preise gehen nicht mehr sonderlich weit runter. Meine Motivation, mir für Lovelace ein neues Netzteil zu kaufen, ist auch eher gering um ehrlich zu sein...
 
Bei der Saturn TUF geht ja per Hand garnichts...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh