GeForce Special Event: NVIDIA stellt am 1. September die Ampere-Grafikkarten vor

die aktuellen preise sind aber noch gerade so vermittelbar/bezahlbar.

irgendwo muss nvidia halt machen damit man die midrange karten noch an den mann bekommt

zumindest hoffe ich das
Tja - ich hoffe auch. Rein strategisch ist die einzig sinnvolle Gegenmaßnahme entweder Team rot zu kaufen, damit Nvidia den Denkzettel nicht nur in Foren liest, sondern auch mal in der Kasse merkt - oder gar nix kaufen. Wie die Masse sich verhalten wird, wissen wir aber beide. Ich mach mir da keine Hoffnungen. Außerdem: AMD zieht auch kräftig an. die lassen sich von Nvidia nicht mehr vor den Karren spannen. Es wird keine 200€ Mittelklasse GPU mehr geben. Da hätte man zu Zeiten der HD7970 Nvidia abstrafen müssen. Es wurde aber grün gekauft und ATI ging kurz Zigaretten kaufen. The rest is history.
Beitrag automatisch zusammengeführt:

Welche Grafikkarte kostet denn bei Nvidia 500€ oder so mehr als eine vergleichbare von AMD?
Ist etwas spezieller, aber unter Linux kommt die 5700XT schon mal an die 2080S ran (ja, ist für windows nicht relevant- mir schon klar. Aber da du so schön gefragt hast --> )

https://www.hardwareschotte.de/preisvergleich/ASRock-Radeon-Rx-5700-Xt-p22149232 350€
https://www.hardwareschotte.de/preisvergleich/Evga-GeForce-Rtx-2080-Super-p22168900 872€

Alte Werte:
https://openbenchmarking.org/result/1907299-PTS-HIGHERTI81

Die relativ ordentlich zugelegt haben: (gibt leider keine aktuellen Direktvergleiche)
https://www.phoronix.com/scan.php?page=article&item=mesa202-july-aco&num=1

Irgendwie verurteilst du die Leute ja schon, indem du diesen vorwirfst, dass diese die Preispolitik von Nvidia unterstützen...
Nur über die, die sich über die Preise beschweren. Denn das ist Ursache --> Wirkung




Zur Einführung war die 2080 bereits ~6% schneller als eine 1080ti. Wenn man diesen Leistungsunterschied auf den UVP (819) der 1080ti addiert, dann landet man bei ca. 870€. Demnach hat eine 2080 mit einer UVP von 849 bei Betrachtung des UVPs ein besseres P/L-Verhältnis als eine 1080ti. Dabei ignoriert man noch die kompletten Verbesserungen, wie eine bessere Effizienz, oder neue Funktionen, wie RT, DLSS, usw...

Quelle: https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/8/
Zur Einführung der 2080 und der Ti war die 1080Ti noch verfügbar und kostete *keine* 870€. Was'n das für ne Logik? Darf ich jetzt auch die UVP von 2600k von damals nehmen und mit der heutigen Leistung in Cinebench skalieren und dann den Preis vom 3950X mit 3.000€ rechtfertigen? WTF...



Welche Karte gibt es denn aktuell von AMD zu kaufen, welche besser als eine 1080ti ist :unsure:
Die 5700XT. Wie oben auch: Unter Linux.

Das AMD ihre Treiber unter Windows nicht geschissen bekommt, ist leider traurige Realität.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also ich vermute: Nvidia denkt, dass die Big Navi auf 3070 Niveau sein wird, anders kann ich mir keine 3070 mit 16 GB VRam vorstellen. Die RTX 3070 sollte +- auf 2080 Ti Niveau sein
 
Kommt drauf an, was man zockt. Ich habe zum Beispiel schon seit Jahren eine RX 480 im anderen PC. Damit laufen einfachere Spiele wie Warframe problemlos in 4K mit 60 FPS. Die 1070 hatte ich auch, neuere Spiele gehen dann natürlich nur mit Kompromissen (und neu heißt für mich Spiele von vor vier Jahren). Die 1080 Ti war ein echter Lichtblick. So eine Karte mit dem selben Preis-/Leistungsverhältnis würde ich mir wieder wünschen.

Langfristig kann man nur hoffen dass AMD wieder einsteigt. Das hat man bei den CPUs schon gesehen, sobald eine gesunde Konkurrenz hergestellt ist sinken auch die Preise im grünen Lager wieder. Ob die Erfahrungen mit der MCM-Technik aus dem CPU-Bereich bei AMD mit in den GPU-Sektor einspielen werden?
 
Das hat man bei den CPUs schon gesehen, sobald eine gesunde Konkurrenz hergestellt ist sinken auch die Preise im grünen Lager wieder.

Bei Grafikkarten scheint das nicht zu funktionieren. Nvidia legt preislich vor und AMD zieht nach. Preiskampf sieht anders aus.

 
Das ist die Vergangenheit, die Vega war viel zu teuer. Das lag aber auch mit an den Minern. Mit Navi hat AMD nun endlich eine Architektur die mit Turing mitziehen kann, jetzt muss nur noch ein entsprechend skaliertes Produkt her.
 
Ich finde es auch jetzt wieder total lustig, wie sehr sich manche Leute auf Namens Schema einbrennen.

"Eine xx70 darf nicht mehr als XXX kosten!"

Was macht Ihr dann, wenn NVidia erneut die Brackets verschiebt, dieses Mal in eine andere Richtung?
Eine 3060 kommt dann mit der Leistung einer 1650 + 10% und darf dann trotzdem 300+ kosten, weil,... naja, es ist ja ne xx60!
Dafür gibt es dann auf einmal 3061, 3062, 3063 und co... dann ist man total aufgeschmissen im Versuch das irgendwie einem alten Bracket zuzuordnen.

Ich empfehle dringend auf Preis / Leistung zu schauen, statt auf nichtssagenden Namen und konstruierten Brackets.
Wenn man vorher bereit war 500 Euro für Leistung X zu zahlen, ist es ein Gewinn, wenn man mit Ampere X + 10% für 500 Euro bekommt. Jeder wünscht sich natürlich +100% bei -50% Preis, aber irgendwo muss man auch mal realistisch bleiben.

Natürlich hoffe ich auch, dass die Leaks stimmen und +50% Leistung mit geringeren Preisen kommen wird, aber wenn die Preise gleich bleiben und trotzdem +50% Rohleistung und 4x RTX? Dann ist das doch ein solider Schritt. Selbst wenn sie die Preise +30% setzen, wäre es immer noch ein solider Schritt, solange die Leistung mehr steigt als der Preis. Zu sagen, dass eine Firma verpflichtet ist immer +50% zum gleichen Preis zu liefern, ist doch eher Wunschglaube.

Zumal, ganz realistisch:
  • 1080p Gamer brauchen eh keine neuen GPUs. Da gibt es doch schon ewig billigste GPUs, die auf Ultra drölftausend FPS liefern.
  • 4k Gamer brauchen auf jeden Fall neue GPUs und haben daher kaum eine Wahl.
  • 1440p Gamer sind die einzigen, die etwas überlegen müssen. In einigen Titeln hat man high refreshrate easy, in anderen packt ne 2080ti mit biegen und Brechen 60fps.
 
Das lag unter anderen aber auch am HBM Speicher, hat mehr gekostet als der GPU Chip selbst.
 
Also zu sagen, dass HBM der Grund wäre, dass die Karten von Amd ins Hintertreffen geraten sind ist einfach Unsinn. HBM ist bisher jedem anderen Speicher System in Leistung überlegen, daher wird es im pro Bereich auch eingesetzt und selbst NVIDIA tut das.
 
Zuletzt bearbeitet:
Ich sehe nicht, wie man diesen Preis rechtfertigen möchte.
Bisher klappte das ganz gut mit dem Verweis auf die (nicht vorhandene) Konkurrenz, der Erfolg gibt ihnen recht (die Karten verkaufen sich scheinbar, auch wenn ich es nicht ganz verstehe). Ich weiß Navi ist auf den ersten Blick von der Hardware her ebenbürtig, aber mit Ampere/BN werden die Karten wieder neu gemischt.

Offenbar ist es für sie profitabler wenige Grakas zum hohen Kurs abzusetzen als viele Grakas zum ansprechenderen Kurs.
 
Zuletzt bearbeitet:
Ich spreche von den umkosten und du kommst mit Leistung?
 
CPU ist ein ganz anderer Markt, das kann man gar nicht vergleichen... Nvidia hat nicht wie Intel jahrelang nur 10% Leistung freigegeben. Außerdem kann AMD auch nicht wie früher beliebig Dumpingpreise fahren, die 7nm Fertigung will bezahlt werden. Wenn Big Navi jetzt von der Chipfläche zu Nvidia aufschließt, kann man das Teil nicht mal eben mehrere hundert Euro billiger verkaufen.

Finds immer lustig, wenn die Kommentare kommen "Früher gab es eine Generation weiter immer mehr Leistung zum gleichen Preis!!". Ja, habt ihr euch denn mal angeschaut, was das für winzige Chips waren mit im Vergleich zu heute total simpler Fertigung? Es müssen immer größere Anstrengungen unternommen und höhere Investitionen getätigt werden, um die nächste Prozessgeneration zu wuppen. Insofern: Nein, es wird nicht mehr billiger.
 
Die Wahrheit liegt doch dazwischen, die Preise müssen je aufwendiger die Technik wird nicht zwangsläufig explodieren.
Gesunder Wettbewerb und die Kombination von verantwortungsbewussten Käufern (Nachfrage) bestimmen den Preis.
 
Also zu sagen, dass HBM der Grund wäre, dass die Karten von Amd ins Hintertreffen geraten sind ist einfach Unsinn. HBM ist bisher jedem anderen Speicher System in Leistung unterlegen, daher wird es im pro Bereich auch eingesetzt und selbst NVIDIA tut das.

Das Problem ist, dass Gamer nicht bereit zu sein scheinen, für derartige Leistung auch zu bezahlen.
 
Hier werden jetzt 24 Titan und 20 für die 3090 genannt.
  • RTX Titan Ampere: GA102-400 (~5.376 Shader) mit 24 GiB und 384 Bit
  • Geforce RTX 3090 (3080 Ti): GA102-300 (~5.248 Shader) mit 20 GiB und 320 Bit
  • Geforce RTX 3080: GA102-200 (~4.652 Shader) mit 10 GiB und 320 Bit
  • Geforce RTX 3070: GA104-400 (~2944 Shader) mit 8 GiB und 256 Bit
  • Geforce RTX 3060: GA106-300 (?) mit 6 GiB und 192 Bit

Vielleicht abgegrenzt durch 16Gbs RTX3080 vs.RTX3090 19Gbs schon komisch das man nicht gleich auf 352 bit und 22GB geht bei der 3090 .
Mal schauen wieviel davon am Ende stimmt!
 
Zuletzt bearbeitet:
Jetzt sind es nur noch 8GB für 3070?

Sowas von uninteressant von meiner 1070.
 
Scheint ja doch bn mit 16gb gegen eine 3080 nicht so schlecht zu liegen. :unsure:
 
So wie sich das hier liest, scheinen einige Leute sich zu freuen mehr für ne Graka auszugeben - so wie bei ner Rolex. Ich kann ja verstehen, dass wir hier im Luxx durchaus mal höhere Ansprüche haben, aber das Hirn sollte man dafür nicht aus dem Fenster werfen.
 
So wie sich das hier liest, scheinen einige Leute sich zu freuen mehr für ne Graka auszugeben - so wie bei ner Rolex. Ich kann ja verstehen, dass wir hier im Luxx durchaus mal höhere Ansprüche haben, aber das Hirn sollte man dafür nicht aus dem Fenster werfen.
:heuldoch:
Ganz ehrlich wie oft willst das noch hier runter plapern.
 
Die Preise "explodieren" nicht, sie steigen graduell. Die Marge zu halten ist gesundes wirtschaften.
 
Hier werden jetzt 24 Titan und 20 für die 3090 genannt.


Vielleicht abgegrenzt durch 16Gbs RTX3080 vs.RTX3090 19Gbs schon komisch das man nicht gleich auf 352 bit und 22GB geht bei der 3090 .
Mal schauen wieviel davon am Ende stimmt!
da würd mich jetzt interessieren, was eine Titan mit 24 gb und eine 3090 mit 20 gb kosten soll
 
320-Bit für die Ti wären echt schade, statt schon beschnittenen 352-Bit gibt es dann noch weniger Interface für noch mehr Preis.
 
hoffe auch, dass die Meldung nicht stimmt; schön wäre es wenn die 3090 mit 384 bit und 24 gb kommt
 
Jetzt sind es nur noch 8GB für 3070?

Sowas von uninteressant von meiner 1070.

Wie oft hast den die 8gig der 1070 voll bekommen?
Wie oft wurde die FPS durch die Rohleistung reduziert?

Selbst wenn Spiele den VRAM voll machen KÖNNEN, bedeutet das nicht zwangsläufig überhaupt einen Unterschied. Belegt != benutzt. Natürlich ist es einfacher zu Entwickeln, wenn man einfach alles nur ablegt und nie austauscht,... aber wofür ist dann die Bandbreite da?
Für Gaming werden 8gig noch ne ganze Weile reichen. Ein Spiel, dass wirklich gleichzeitig in derselben Szene 8 Gigabyte an Texturen benötigt,... das wäre ja mal wild.

Mehr ist mehr, ja ist mir klar.
Haben ist besser als brauchen, auch klar.
Habe ich damit alle "Argumenten" zugestimmt?

VRAM kostet ne Menge Geld. Alle meckern wegen der teuren GPUs, aber Speicher muss so viel sein, dass ein komplettes Spiel simultan drin verweilen kann, ohne auch nur einmal ausgewechselt zu werden. Aber kosten darf das dann nix, natürlich nicht.

Als Referenz:
Ich habe, seit ich die 2080ti habe, kein einziges Mal den VRAM nördlich von 7gb gesehen. Es mag einzelne Games geben, die das machen,.. aber nötig ist es deswegen trotzdem nicht. Wenn ich mir denke, 24gb in einer gamer GPU,... die breite Masse an Games passt da komplett rein, 2-5x teilweise. Selbst wenn man davon ausgeht, dass die gesamte Spielinstallation nur aus Texturen besteht. Aber natürlich gibt es auch 100gb Installationen. Damit die spielbar sind, braucht man natürlich und ganz logisch dann 100gb VRAM.
 
da würd mich jetzt interessieren, was eine Titan mit 24 gb und eine 3090 mit 20 gb kosten soll
Die 3090 interessiert mich auch aber die 320 bit finde ich jetzt verwunderlich wäre jetzt nur zu verstehen wen die da den schnellsten Ram drauf bauen z.b 21Gbs oder so aber mal abwarten wieviel dran ist.
 
Bei Minecraft und Skyrim in 4K oder VR bekommt man den VRAM problemlos über 10 GB...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh