GeForce Special Event: NVIDIA stellt am 1. September die Ampere-Grafikkarten vor

Du solltest dich mal informieren 😂.
Aber das ist falsche Thread für die Diskussion.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mit solchben Posts bringsts mich eher weniger zum "informieren"
Mir ist klar das sich die Oled Fraktion für was besseres hält, is mir aber wurscht.
 
ein OLED der größer als 70" ist spielt aber auch in einer ganz anderen preisklasse
 
Bei so hohen Preisen schaut man nicht aufs Konto :hust:
 
Wem das alles zu klein ist, dem kann ich nur raten mal in den Insolvenzbekanntmachungen nachzusehen, dort dürften bald einige Kinos auftauchen. Dann hätte man wirklich genügend Bilddiagonale und vieleicht noch 3D!
 
nen Beamer mit ner 5000Watt lampe :LOL:
 
dem schliesse ich mich an, reicht zu dem thema!
 
ich würde schätzen das 360Watt die max einstellbare PT sind und die karte original so bei ca300Watt rennt
 
Mit solchben Posts bringsts mich eher weniger zum "informieren"
Mir ist klar das sich die Oled Fraktion für was besseres hält, is mir aber wurscht.

Sehe ich genauso. Ich habe einen Samsung 4K aus 2016. Damals war der noch teurer, aber heute bekommt man sowas für 500 € oder weniger (Oft in Angeboten).

144 Hz wären nett oder wenigstens 90. Es gab da schon einen Monitor unter 1K mit Freesync, aber selbst da juckt es kaum da man die sowieso nicht befeuert bekommt. Das Budget wird erst mal für eine ordentliche Grafikkarte eingesetzt.

350 W sind sicher auch noch im Rahmen. Die Karten laufen dann noch näher am Limit wie es auch bei CPUs heutzutage ist. Die Zeiten des OCs sind definitiv vorbei, andererseits ist der OC heute auch nicht mehr zwingend nötig wie es früher manchmal war. Einbauen, vielleicht ein bisschen undervolten und fertig. Bei einer Grafikkarte würde mich eine AIO-Fullcoverlösung interessieren, so etwas sollte sich um die 200 € realisieren lassen - Da aber auch nur damit sie voll durchtaktet und dabei nahezu lautlos bleibt.
 
ich würde schätzen das 360Watt die max einstellbare PT sind und die karte original so bei ca300Watt rennt

Möglich, wobei man realistisch davon ausgehen kann, dass die meisten ein 400 Watt Bios aufspielen werden.
 
Ich persönlich nutze seit über 10 Jahren Produkte von Nvidia.

Diesmal wird Nvidia aber tierisch abstinken wenn Big Navi kommt :fresse:
 
Da deutet eig wenig drauf hin.
 
Bei der Materialschlacht gehe ich auch davon aus, dass Ampere die Leistungskone behalten wird, es muss sich aber noch zeigen, ob die User diesen Energiehunger und die damit verbundenen Nachteile schlucken werden, daher wird spannend sein wie das Gesamtpaket am Ende bewertet wird.
 
Ich persönlich nutze seit über 10 Jahren Produkte von Nvidia.

Diesmal wird Nvidia aber tierisch abstinken wenn Big Navi kommt :fresse:

Mich erschleicht irgendwie das Gefühl als würde die 3080 Ti zunächst richtig teuer und dann von der Big Navi deklassifiziert wird - Nicht wegen der Leistung, sondern dem Preis. Gute Customs werden sicher wieder ihre 1500 € kosten wie schon bei der 2080 Ti, da muss AMD nicht einmal schneller sein, sondern nur halbwegs in der Leistung mithalten. Alleine die möglichen 16 GB VRAM wären schon ein gutes Argument für die Navi, selbst wenn diese bedeuten dass die dann etwas über 1 K kosten würde. Der Gegenwert wäre trotzdem besser. Dann würde ich lieber noch eine Zen 2 CPU oder ähnliches nehmen als NVIDIA mit dem Geld zu füttern (und damit diese Melktaktiken zu belohnen).
 
Bei der Materialschlacht gehe ich auch davon aus, dass Ampere die Leistungskone behalten wird, es muss sich aber noch zeigen, ob die User diesen Energiehunger und die damit verbundenen Nachteile schlucken werden, daher wird spannend sein wie das Gesamtpaket am Ende bewertet wird.
Na ich hoffe doch auf eine XTX @LC 375W 2,3GHz die dann zeigt wo der Frosch die Locken hat!:bigok:
Die sollen alle beide mal zeigen was geht!
Scheiss der Hund drauf was die saufen wen die richtig brutal schnell sind!

Was garnicht geht ist 375 W und dann langsamer sein wie der Konkurrent!
 
375 W interessieren erstmal gar nicht nur was am Ende an Leistung rauskommt. Wenn die Leistung stimmt kann es dennoch effizienter werden als die Vorgänger.
 
Na sag ich doch Hauptsache schneller!
 
Jetzt stilisieren hier einige einen Chip, von dem man noch weniger weiß als von Ampere, zum GeForce-Killer hoch.
Und jährlich grüßt das Murmeltier... :fresse:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh