GeForce Special Event: NVIDIA stellt am 1. September die Ampere-Grafikkarten vor

NV hatte bis jetzt mit Handbremse gearbeitet, nun öffnet man die Macht Schublade, die, die bei Intel noch immer klemmt :lol:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn du verstanden hättest was Effizienz bedeutet hättest du diese Frage nicht gestellt. Eine 350W Karte muss nicht ineffizienter sein als eine 120W Karte.
Genauso wen hinten genug Leistung rauskommt ist alles im lot!
 
Genauso wen hinten genug Leistung rauskommt ist alles im lot!
Erstens das, zweitens kann man auch irgendwie schlechtere Effizienz vermarkten wenn da am Ende trotzdem mehr Leistung bei rum kommt.

z.B. GTX 480... Effizienz war mies... aber zumindest war es die schnellste Karte (verglichen mit der HD5870). Somit gab es einen Grund sie zu kaufen -> Leistung.

Was dann aber das Todesurteil bedeutet ist wenn Leistung UND Effizienz schlecht sind, dann hat das Produkt für viele Leute keine Daseinsberechtigung mehr.
 
Es werden immer noch Leute NVIDIA kaufen. Viele scheuen sich vor AMD, da es Gründe für deren schlechten Ruf gibt. Aber sehe ich auch, als Käufer des gesamten High-End-Sortiments bei NVIDIA bis Turing jedes mal wie die Leistung aufgrund fehlender Treiberweiterentwicklung jedes mal stagniert. Die Treiber sind super ab Tag 1, dafür hört es sofort bei einer neuen Generation auf. Bei AMD ist das genau andersherum.

Was am Ende zählt ist das Gesamtpaket. Ich sehe irgendwie nicht ein eine Ti für 1200 € kaufen zu müssen wenn die nur 12 GB hat, selbst wenn sie am Ende 10 % schneller ist. AMD holt das irgendwann sowieso ein und 10 % würden nichts reißen - Wären es 50 % sähe das wieder anders aus. Dann hat man kaum eine Wahl außer zu verzichten oder sich mit schwächerer Leistung zufrieden zu geben. Und so war es all die Male, wobei es bei der Turinggeneration für Besitzer einer Pascalkarte nicht so schlimm war, gerade bei der 1080 Ti (die leider auch schon oben beschriebene Symptome zeigt) gab es in all den Jahren nur eine sinnvolle Upgradeoption.
 
Nvidia ist seit Jahren sehr effizient. Warum hauen die dann solche Wattmonster raus?
Ich hatte die Effizienz auf den Sweetspot bezogen. Erstaunlich wie viele hier das Rad erfunden haben :fresse:
Wer sagt denn dass sie nicht im Sweetspot läuft? Woher nimmst du diese Info? Dass AMD und Nvidia gleichermaßen weit überm Sweetspot takten ist allgemein bekannt, aber welche Relevanz hat diese Aussage in diesem Kontext?
 
ich überlege ob neuer 75 Zoll 4 K Fernseher + PS5 oder neue High End GPU..
Eigentlich wäre der Fernseher sinvoller, mein Samsung 40 Zoll hat 12 Jahre aufm Buckel ,will aber einfach nicht kaputt gehen :fresse2:

warum nicht beides?

:d
 
Im Kontext war gemeint, dass es schon merkwürdig von Nvidia wäre, solche hohen Verbraucher "wiedereinzuführen" statt die Performance/Watt zu optimieren. Wenn wollen Sie den toppen wenn nicht AMD?

Du wirst sehen. Big Navi is coming :fresse:
 
oder man gibt sich mit nem 1080p 144hz schirm zufrieden. dann kann man auch mit ner 3070ti alles wegbolzen :d
 
ich mein bis vor wenigen jahren haben wir alle mit 1080p60 schirmen gezockt und es ging :d

ist echt ne miese zeit für graka käufer
 
ich mein bis vor wenigen jahren haben wir alle mit 1080p60 schirmen gezockt und es ging :d

ist echt ne miese zeit für graka käufer

Zu meiner Laptopzeit ja, davor habe ich gar mit 1280 x 1024 gezockt (Render-Auflösung 800 x 600 oder 1024 x 768). Das war ein Erlebnis, zu sehen wie scharf die Schrift plötzlich ist wenn man es hochstellt, aber lange Zeit war das performancetechnisch einfach nicht drin...

Ja genau so ist es mit den Hz, wenn ich jetzt mal an einen 60Hz Monitor ran muss bekomm ich Augenkrebs. :ROFLMAO:

Alles eine Gewohnheitssache. Ich zocke immer noch mit 60 FPS, dafür in 3840 x 2160. Die Schrift sieht aus wie gedruckt, man erkennt keine Pixel. Selbst auf dem großen Fernseher. Für mich wäre alles andere ein Rückschritt, ich denke wäre ich an höhere Hertzzahlen gewöhnt wäre es genau das gleiche. Wenn man ein Leben lang in niedrigen Auflösungen spielt kennt man nichts anderes. So war es für mich auch, damals waren für mich 35-Max-FPS gut und solange es die 25 hielt war es "spielbar". Anfangs hatte ich gar nur einen Laptop der meist zwischen 15 und 25 FPS schaffte (640 x 480 alles low), da war die spätere Auflösung und höhere Framerate gefühlt schon ein Riesenupgrade.
 
Ja genau so ist es mit den Hz, wenn ich jetzt mal an einen 60Hz Monitor ran muss bekomm ich Augenkrebs. :ROFLMAO:
Gibt doch 120HZ für 4K !
Mit Gsync Free Sync läuft das doch geschmeidig .
Doom lief bei mir mit Ti OC auf über 100Fps Average .
Aufwendige Singleplayer will man eh max Grafik haben da läuft es dann halt mit weniger!
 
Ziehe Auflösung auch lieber vor als hohe Hz.
 
ja als Mäusekino oder in 43 Zoll im VA Panel Schlierengeschwader

GG
Na ja ich halte von LCDs allgemein nix ich bin da ein Oled Fan!
Den letzten LCD den ich mir angesehen habe war dieser AOc für 2300 Euro mit 512 Dimming Zonnen und bin absolut enttäuscht gewesen von dem Gerät angeklemmt war der an einer 2080Ti .
Die Bildqualität fand ich unter aller Sau bei dem Preis der kalibriert Momentus vom Kumpel der da neben Stand konnte sogar teilweise gegen den 21:9 punkten und das für ca. 600
Aber auch hier gilt ich bin kein Masstab !
 
Zuletzt bearbeitet:
@*********
Bist dem Ziel ja schon ganz nah mit 2.1:banana:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh