Umfrage - Preislimit bei einer RTX 3090 Nvidia

Bis zu welchem Preis würdet Ihr zu einer RTX 3090 (>=20GB VRAM) von Nvidia greifen?

  • 800-1.000 EUR

    Stimmen: 110 35,8%
  • 1.000-1.200 EUR

    Stimmen: 98 31,9%
  • 1.200-1.500 EUR

    Stimmen: 59 19,2%
  • auch über 1.500 EUR

    Stimmen: 40 13,0%

  • Anzahl der Umfrageteilnehmer
    307
  • Umfrage geschlossen .
Das ist hier das gleiche wie bei mir in der firma. Die Nachbarn von meinen Eltern haben 60000€ für ein Wintergarten bezahlt,
ich hab früher ma im Stahlbau als konstrukteur gearbeitet und durch conections zu meinem EX-Chef hat dann ein etwas größerer Wintergarten in mind. gleicher Qualität plus automatische Beschattung 48000€ gekostet, ja ok Aufmaß und Vorplanung hab ich gemacht (2500€ gespart durch eigenleistung, aber mein ex-chef kauft eben nen stahl,- alu,-und glaskontingent im jahr was eben niedrigere Preise zu lässt und die Fertigung ist anderst, aber man kann preise wuchermäßig erhöhen, was NV und AMD seit dem Miningboom schahmlos machen oder so wie es früher ma war (20% Preiserhöhung bei 100% mehrleistung) leicht erhöhen. Und Entwicklungskosten für Fertigung und Technologie als Alibi für so massive Preiserhöhungen vorschieben, können se sich stecken. Ich arbeite seit 10Jahren in der Entwicklung von Wehrtechnologie und ja nee irgendwann is mal gut, aber solang sich viele wie Kühe anstellen und sich melken lassen, ja nun gut lch als Konzern würd den extragewinn mit nehmen haha. Aber früher wars mal so, wenn was zu teuer war in sachen Leistung und Preis, ist der rotz liegen geblieben bis die preise angepasst wurden. Ich könnt mir auch jeden Monat ne neue Karte leisten aber bei den Preisen versenk ich nein Geld lieber in mein Waffenhobby oder Motorrad, da hab ich kein so Preisverfall in so kurzer zeit bzw. bei waffen wird vieles teurer mit der zeit, meine SIG P226 ist jezz auch 200€ mehr wert als vor zwei Jahren da sich die Fertigung (Qualität) bei den neueren geändert hat.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
1. Auf was beziehen sich denn die 2,8 % Margin genau? Da geht es doch um die Marge der GPU-Partner - also die Marge der Firmen, die bei nVidia die GPUs einkaufen - nicht um nVidias Marge selbst. Die eigl. Marge die nVidia mit dem Verkauf der GPUs macht wird nicht genannt. Was soll das Video diesbzgl. also genau "nachweisen"? Gar nix.

2. 11,69 $ für GDDR6 14Gbps bei einer Abnahme von 2000 Stück (Stand Januar 2019!). 20 - 40% Discount gibt es zudem für größere Abnehmer, damit wären wir dann grob zwischen 7 und 9 $. 12 GB würden demnach einen großen Abnehmer zwischen 84 und 108 $ kosten. Im Falle einer 2080 Ti wären das grob weniger als 10 % von der 999,- $ UVP!

Fazit: Viel geschreibsel und wir sind keinen Schritt weiter.
 
Fazit: Viel geschreibsel und wir sind keinen Schritt weiter.

Man kann halt viel annehmen, auch mit Quellen und deren Deutung.
Ich stehe halt auf dem Stand, dass garantiert ne Menge Firmen in der Branche wären, wenn es so einfach wäre gute Produkte zu besseren Preisen auf den Markt zu hauen. Das Duopol / Monopol geht ja nun schon nen paar Jahre. Da war genug Zeit. Auch ne Annahme natürlich. Evtl. wollen die alle nur keinen Anteil am dicken Geld, dass NVidia nachgesagt wird.

Mit BigNavi haben wir wieder ne Chance das besser zu deuten und weniger zu raten. Vorausgesetzt AMD setzt es nicht wieder in den Sand, das wäre natürlich ärgerlich. ;-)
 
@Topic
Die Preisrange 800 - 1000 ist für die 3090 wohl total unrealistisch, auch wenn ich es mir wünschen würde.
je günstiger NV anbietet, desto billiger wird dann mein AMD Krempel werden. :fresse:
 
Das ist hier das gleiche wie bei mir in der firma. Die Nachbarn von meinen Eltern haben 60000€ für ein Wintergarten bezahlt,
ich hab früher ma im Stahlbau als konstrukteur gearbeitet und durch conections zu meinem EX-Chef hat dann ein etwas größerer Wintergarten in mind. gleicher Qualität plus automatische Beschattung 48000€ gekostet,

Verstehe den Ansatz, aber ganz vergleichen kann mans leider nicht.
Einen Wintergarten hat sogar meine Stiefmutter selber gebaut. Qualität? Müll. Ist sie damit happy? Ja. War es billig? Ja.

Wie viele Kunden könnten eine GPU selber bauen, selber designen und dieselben Konditionen beim Einkauf bekommen?
Natürlich lässt sich eine Firma das bezahlen, wenn die Kunden gar keine Wahl haben. Das ist ja das Problem an nem quasi Monopol. Kunde kann nicht. Konkurrenz kann nicht. Dann gilt halt Angebot und Nachfrage. Leute wollen +50% Leistung, NVidia sagt das kost halt 2k dann.

Bis AMD oder Intel die Leistung für weniger anbieten, bleibt es wie es ist. Erst dann werden wir aber herausfinden wie sehr NVidia dieses Monopol ausnutzt. Sie könnten ohne Frage viel weiter gehen,... aber genauso könnten sie auch billiger sein, wenn sie müssten. ;-)

Bei Angebot und Nachfrage spielt aber der Kunde auch mit. Der Markt ist nicht unbegrenzt elastisch. Und dieser Topic will ja genau das auch ergründen ein wenig. Wie weit gehen die Kunden. Ich weiß es bei mir gar nicht. Muss zugeben, dass ich ohne eine Leistungszahl auch keine Eurozahl nennen kann. Wenn mich das Produkt überzeugt, ist das natürlich flexibler.
 
Ich stehe halt auf dem Stand, dass garantiert ne Menge Firmen in der Branche wären, wenn es so einfach wäre gute Produkte zu besseren Preisen auf den Markt zu hauen. Das Duopol / Monopol geht ja nun schon nen paar Jahre. Da war genug Zeit. Auch ne Annahme natürlich. Evtl. wollen die alle nur keinen Anteil am dicken Geld, dass NVidia nachgesagt wird.

Naja, das Geld wollen sie alle, aber merken dann wohl schnell das es hier nicht wie im Klopapier-Business zugeht... :d
 
<-- Titan RTX im Rechner = Schmerzbefreit oder vom Marketing gezüchteten Konsumkuh, mit dem "habenwillsofort" und "ich bezahl jedenpreis" -gen.
 
Zuletzt bearbeitet:
Die Erwartungshaltung könnte sein, dass es min. 30-40% mehr Leistung, als bei einer 2080Ti geben wird.
Mach da ohne dlss & raytracing eher max. draus.
1,2 - 1,3 wäre ich bereit zu zahlen (auch wenn ich mir solch eine Karte nicht kaufe), weil es verhältnismäßig zu solch einer Leistungsteigerung, Herstellung-/Entwicklungskosten wäre.
Alles drüber ist Gewinnmarge und neue Lederjacke :d
 
.. ist bald ne alte Karte, der eine normale 3080 vllt schon den Schneid abkauft. :asthanos:
 
Ja klar kann ned jeder ne GPU im Hinterzimmer drucken, aber ich wollt eigentlich nur verdeutlichen was für Schmuhh die Konzerne bei der Preisgestaltung ab ziehen, und irgendwelche DDR6-Preislisten sowas fürn Popo sind. Da gibts spezielle Entwicklungshilfen und Rahmenverträge unter zulieferern da stehen wieder ganz andere zahlen, als die welche offiziell herausgegeben werden. Sonst würd heut ne Schmeisser AR15-S4F auch 4500€ kosten anstatt 2300€ :ROFLMAO:
Aber das Hauptproblem seh ich in den, vom Marketing gezüchteten Konsumkühen, mit dem "habenwillsofort" und "ich bezahl jedenpreis" -gen.
Klar wenn ich JETZT die Leistung um JEDEN PREIS benötige kann ich mal mehr hin legen, aber für bescheidene Games mit immer der gleichen spielmechanik (was ja die letzten jahre sowieso schon traurig genug ist) würd ich nie im leben mehr als nötig aus geben, ja früher hat man sich immer das schnellste geholt aber seit der GTX780ti Preisverarsche damals sind die zeiten vorbei.
 
Nvidia begründete den Preissprung bei den 2000ern ja mit rtx. Die 1080ti gab's für 700€, die 2080ti für 1400€ mit 30% Mehrleistung. Habe gehofft dass das Teil wie Blei in den Regalen liegen bleibt, vor allem nachdem die erste Charge mit micron RAM auch noch hohe rma Werte erreichte, aber weit gefehlt. Wenn Nvidia in der nächsten gen wieder solche Preise verlangt wechsle ich ins rote Lager, die rx5700/xt sind für mich zur Zeit die Einzigen Karten bei denen die Preis/Leistung zumindest noch halbwegs stimmt.

Wenn sie die rtx2080ti als 1680ti mit identischer Leistung aber ohne rtx für 750€ in den Markt geworfen hätten würde jetzt sowas bei mir werkeln, befürchte aber dass sich die Technologie bei Nvidia als Preistreiber Argument eingenistet hat.
 
je günstiger NV anbietet, desto billiger wird dann mein AMD Krempel werden. :fresse:
Nvidia soll also die Preise reduzieren damit ihr das AMD Zeugs günstiger bekommt?

SCNR, dieser Spruch ist nicht ernst gemeint, ich wollte nur den typischen Spruch der AMD Fraktion mal umdrehen :shot:
 
Dann gilt halt Angebot und Nachfrage. Leute wollen +50% Leistung, NVidia sagt das kost halt 2k dann.
Das ist BWL Theorie - so funktioniert der Markt aber nicht. Denn das würde bedeuten, die rufen einfach 5k auf und setzen die gleiche Menge ab, nur halt bei 4x des Preises der Turing GPU. Neee...
Die Absatzmenge sinkt überproportional zum steigenden Preis. Das wird auch kein Angebot oder Nachfragethema verhindern, genau so wie eine Markenaffinität daran was ändern kann. Es gibt zwar immer Ausnahmen, die bedingungslos alles kaufen. Aber das sind am Ende eben nicht die Masse bzw. die Regel.

Schau dir nur mal als Vergleich dazu die Steam Zahlen an. nichtmal 1% für die 2080TI. Im vergleich hatten wir schon TopDogs damals von drei vier fünf Prozent. Oder zu Tiefpreiszeiten in 2009-2010 im Dreh, von über 10%.
Der Grund dafür liegt auf der Hand - es gibt keinen Zwang das Produkt für jeden Preis zu erstehen. Wir sprechen hier über Luxusartikel. Kein Mensch braucht ne 2k€ teure Gamer GPU. Das leisten sich die, die es wollen. Und da sinkt der wollen-Faktor um so stärker, desto mehr der Spaß kostet.

Dazu kommt, dass um so höher man ins Regel greift, desto weniger Leuten müssen dann umgerechnet den Spaß stemmen. NV wird nicht für Umme produzieren gehen. Oder für ne schmale Marge -> lieber lassen sie den Markbereich links liegen. Siehe AMD, die sich seit Jahren auf eher Absatzstärkere Märkte konzentrieren als dem letzten Dollar im HighEnd hinterher zu dackeln. Kommt der Punkt, wo NV nicht mehr die notwendige Menge erreicht und ein Preisanstieg das nicht abfedern kann - wird man das Produkt einstellen oder in andere Marktbereiche verlagern. Siehe x00 GPUs. Früher konnten die Gamer Modelle auch mal FP64, wenn auch zumindest teils deaktiviert - heute kommt keiner mehr auf die Idee, das fiktive Gegenstück einer GA100 GPU auf ner Gamer Grafikkarte zu verbauen. Weil viel zu teuer in der Form. Mit 8k ALUs, 48GB HBM2 und 400W oder mehr wäre das ne ziemlich heftige Geschichte. Sicher kaufen das auch ne Hand voll "Gamer". Mehr aber auch nicht ;) Der Rest regt sich auf, dass es zu teuer ist. Also lässt man es und bringt was kleineres... Gamer sind auch bei NV laaange schon nicht mehr Zugpferd. Leider... Aber seht der Wahrheit ins Auge. Das wird sich sicher nicht als bald bessern. Auch bei AMD nicht. Arcturus mit 128 CUs, wie aktuell spekuliert, das passt wie Arsch auf Eimer als GA100 Gegenspieler. ;) Kommt zu 100% nicht auf ner Gamer Karte.

2. 11,69 $ für GDDR6 14Gbps bei einer Abnahme von 2000 Stück (Stand Januar 2019!). 20 - 40% Discount gibt es zudem für größere Abnehmer, damit wären wir dann grob zwischen 7 und 9 $. 12 GB würden demnach einen großen Abnehmer zwischen 84 und 108 $ kosten. Im Falle einer 2080 Ti wären das grob weniger als 10 % von der 999,- $ UVP!
Worauf möchtest du denn hinaus? Wenn allein der Speicher 10% vom Verkaufspreis im Laden kostet, bei Großabnahme nach deinen Werte, da kann man ja wohl kaum von ausgehen, dass sooo extrem Geld einfach in die Tasche des Herstellers wandert. Das Ding produziert sich nicht von allein, Kühler kostet, Transport, Shipping, Lager, Marketing, Entwicklung, die Mitarbeiter und seien sie noch so unwichtig bei NV kosten, man benötigt Liquidität für zukünftige Ausgaben, der Firmensitz muss finanziert werden, Steuern und was weis ich nicht noch kommen noch drauf. Irgendwelche Lizenzkosten sicher auch. Die Software Entwicklung für die Treiber und den ganzen Beikram kostet auch.

Stell dir das mal bildlich vor - das wäre wie die Kalkulation bei nem Supermarkt nur auf die reinen Einkaufs- und Verkaufspreise der Produkte zu machen. Aber weder die Miete, Strom, Wasser, Personal noch sonstwas indirekt oder vllt gar nicht zusammen gehöriges zum reinen Verkauf zu zählen. Die Kosten sind aber immernoch da - die müssen gedeckt sein. Der Laden muss also so viel Marge machen, dass er auch die Kassenfrau bezahlen kann, genau so wie das Reinigungspersonal oder die Leuchtreklame an der Hauswand. Wie viel das anteilig sind - kein Plan, im Supermarkt sicher nicht sooo viel wie bei ner Grafikkarte ;) Es fehlt bspw. die Entwicklung fürs nächste Produkt. Das sowas auch mal schief gehen kann, belegt Intel. Architektur vorhanden, aber Fertigung nicht. Ergo, kein Fortschritt in dieser Richtung seit 2015/2016 im Dreh.
Zumal der Supermarkt vllt auch kein super gutes Beispiel war, denn es ist ne Art Grundbedürfnis der Menschheit, Essen/Trinken zu erstehen. Nicht aber ne HighEnd Gamer GPU zu haben ;) Die Menschen werden also auf absehbare Zeit weiter einkaufen, solange sich am System nix ändert. Aber man wird auf HighEnd Gamer GPUs spielend verzichten können. Die Klassen sind eh voll variabel. Auch der x04er Chip war schon mal HighEnd. Mit Turing haben wir nen 750mm² Chip als HighEnd. Also das andere Extrem ;)


Oder schau mal auf AMD, der letzten Quartalszahlen-Folie zu entnehmen hat AMD klar Umsatz eingebüßt mit Navi. Sprich trotz massiv höherem Preis und eigentlich guten Produkten verdient man damit nix bei Team Rot. Im Vergleich kostet der Spaß bei Team Grün irgendwo 10-20% mehr. AMD verdient nix - NV schon. AMD fährt Kampfpreise, NV nicht. Die Frage ist nun, was ist gesünder auf Dauer? Wo sind die ganzen Innovationen von AMD im Bereich Gamergrafikkarten in den letzten Jahren? Aktuell ist ganz klar NV am Technologie-Drücker. Sie pushen die Technik (auch auf Kosten des Preises, sicher). Aber ewig und fünf Tage der alten Kamelle hinterher zu dackeln bringt eben auch nix. Vllt war RT mit Turing genau der Gamechanger, der mittel- bis langfristig den beiden Parteien eine Grundlage geschaffen hat um weiter GPUs zu vertreiben? Immer nur Bandbreite und ALUs drauf ballern funktioniert halt nicht - es müssen andere Verfahren her, damit der steigende Aufwand nebst steigenden Kosten nicht die abflachende Skalierung auffressen. Das kann man aber mit keinem Geld der Welt herzaubern ;)
 
die rx5700/xt sind für mich zur Zeit die Einzigen Karten bei denen die Preis/Leistung zumindest noch halbwegs stimmt.

Wenn die Leistung Dir ausreicht, dann ist das ohne Frage eine fantastische Wahl.
Leider bietet AMD die nicht in größer / kleiner an und bedient quasi nur den einen Preis und Leistungspunkt.

Die finden doch sicher nen Azubi, der nen Stapel 5700er nehmen kann, hier und da nen Chip kaputt drückt und die "7" durch ne 5 ersetzen kann mit einem Edding.
Macht doch NVidia auch nicht anders im Großen und Ganzen. Alles unterhalb der Titan sind doch Teildefekte Komponenten, die je nach Anzahl der Defekte halt ne 80ti, 70 oder 60 werden.
 
Nvidia begründete den Preissprung bei den 2000ern ja mit rtx. Die 1080ti gab's für 700€, die 2080ti für 1400€ mit 30% Mehrleistung.


ist die 2080 Ti nicht mittlerweile 50-60% schneller als eine 1080ti?
Gab doch vor einigen Monaten Optimierte Treiber die Turing ordentlich nach vorne gebracht hat
 
Das ist BWL Theorie - so funktioniert der Markt aber nicht. Denn das würde bedeuten, die rufen einfach 5k auf und setzen die gleiche Menge ab, nur halt bei 4x des Preises der Turing GPU.

Nene, mir ist die Marktelastizität durchaus bekannt. Hatte ich weiter oben auch erwähnt.
Das gilt aber auch in beide Richtungen. NVidia musste die 2080ti nicht anbieten.

Man muss im Nachhinein aber auch sagen, dass die 2080ti ein denkbar dummes Leistungslevel hat. Nicht genug für 4k@60 ohne Kompromisse,... aber ne 2080 reicht leicht für 1440p. Der Drang das Flagship zu kaufen, wenn es dann trotzdem nicht reicht, ist natürlich noch mal ne Ecke kleiner. Hier erwarte ich bei der 3090 tatsächlich mehr Käufer (gleicher Preis vorausgesetzt), weil damit 4k endlich stabil laufen wird und man damit zwar weiterhin viel Geld in die Hand nimmt, dann aber wenigstens keine Abstriche machen muss. Dann sitzt das Geld etwas lockerer, als wenn man dann noch doofe Regler schieben muss. Pff. Eklig!
 
Nicht genug für 4k@60 ohne Kompromisse,...

Nicht genug Leistung für FHD ohne Kompromisse bei Games aus dem Jahr 2013.
Das hat mal gar nix mit der Auflösung zu tun.

gta5_2018_10_03_23_24h3c3c.jpg


Und schon gar nicht für Software aus diesem Jahr. Und hier auf dem Bild sind schon Kompromisse am laufen.

rdr2_2019_11_07_23_02cvj01.jpg
 
Du hast halt dem Game irgendwie 3 Fleißsterne extra gegönnt und das mit +500 % Leistungsbedarf bezahlt.
Kann man machen, ist aber sicher nicht der Bereich über den wir reden.

Mit der Epic Engine könnte man heute komplett fotorealistische Spiele machen, die nahezu komplett mit RT laufen und dann solide 2-3FPS haben.
Man muss da schon mit dem normalen Standard der Zeit rechnen, sonst landet man in wirren Bereichen. Und kann auch mit 3 Titans nicht FullHD spielen. ;-)
 
Wo sind die ganzen Innovationen von AMD im Bereich Gamergrafikkarten in den letzten Jahren? Aktuell ist ganz klar NV am Technologie-Drücker.

Ohne jetzt wieder Beispiele zu nennen, denke ich nicht, dass es AMD an Innovationen fehlt in dem Bereich, wir alle haben sicher mit bekommen, dass mit RDNA3 bereits MCM Thema sein wird, was nicht weniger als eine Revolution bedeuten könnte, eben auch für den Gamer. :)
 
Nene, mir ist die Marktelastizität durchaus bekannt. Hatte ich weiter oben auch erwähnt.
Das gilt aber auch in beide Richtungen. NVidia musste die 2080ti nicht anbieten.
Natürlich... Nur welchen Sinn hätte es, nur die Sidegrad-Karten zu bringen? Vor allem wo doch AMD nicht mitmischen kann und will?
Sie haben wohl die 2080TI gebraucht, damit man die ganzen Pascal HighEnd Käufer nach 1-2 Jahren nochmal mitnimmt. Wenn davon nur die Hälfte kauft, haben sie auch ihren Umsatz und sicher auch Gewinn. Das Produkt wurde eh entwickelt. Denn der Spaß mit RTX im Prof. Umfeld zieht ja eben gerade... Wünschenswert wäre vllt gewesen, sie hätten nen besseren Prozess bekommen, sodass mehr wie 30-40% im Schnitt auf alt Pascal möglich wären. Den Volta GV100 Architekturausbau mit RT von Turing in 7nm bspw. -> wären wahrscheinlich bei hohem Takt auf Pascal bestimmt 60%. Aber die Kosten wären wahrscheinlich noch höher gewesen. AMD sprach mal von Faktor 2 im Preis bei den yielded mm² für 7nm TSMC ggü. dem Vorgänger.
Und die 750mm² sind/waren auch nicht günstig. Was kostet so ein Wafer? 10k? 15k? 20k?
Es passen ca. 65 oder sowas im Dreh Einheiten mit 750mm² auf einen Wafer. Davon ist irgendwo grob 1/3tel bis 1/2 nach Yield-Calcus teildefekt oder weißt wenigstens Fehler auf. Bei 10k Dollar macht das bei sagen wir 50 Chips im notwendigen Ausbau allein 200$ - nebst den grob 100$ für den Speicher. Da ist schon 1/3tel der UVP weg. Ob sie wirklich was an TU102 verdienen - kein Plan. Sicher ein paar Taler. Aber die Notwendigkeit nach so einem Produkt sehe ich primär im Wahren des Alleinstellungsmerkmals. Das zieht für vieles ;)


Ohne jetzt wieder Beispiele zu nennen, denke ich nicht, dass es AMD an Innovationen fehlt in dem Bereich, wir alle haben sicher mit bekommen, dass mit RDNA3 bereits MCM Thema sein wird, was nicht weniger als eine Revolution bedeuten könnte, eben auch für den Gamer. :)
Und mit NVs Hopper kann man zum Mond hüpfen... Ähmm ja, keine Ahnung was du mit der Aussage sagen möchtest. Bitte die Lobpreisungen stecken lasse - du bist schon sonst wie oft auf die Nase gefallen mit dem Hypen von AMD Produkten. Vor allem bei den ungelegten Eiern... ;) Lass sie mal liefern, dann reden wir drüber.
 
Und wir alle haben auch mitbekommen, wie oft das von AMD gesagt wurde... immer bis kurz nach dem Release, dann war wieder still. Erst müssen sie liefern, dann können wir sie feiern. Nicht andersherum bitte. :-)

Stimme @fdsonne da voll und ganz zu:
Kampfpreise erlauben keine Innovationen, sondern nur Marktanteile. Irgendwann müssen sie teurer werden, damit sie langfristig überhaupt ne Chance haben.
Sie können mal ne Generation ne tolle Idee haben und mit sau wenig Geld irgendwas Tolles schaffen, aber auf Dauer wird das Glück nicht halten. Marktanteile + höhere Preise führt dann zu Innovation und Innovation führt dann endlich zu einem echten Duopol.
Dafür müssten sie aber mal nen breiteren Stack an GPUs anbieten und nicht immer nur 1-2 für nen Sweetspot und alle anderen Kundengruppen ignorieren. Das, oder die CPU Sparte muss aushelfen. Das wäre sicher sinnvoll und denkbar, aber ich weiß nicht wie da intern die Struktur ist und ob sie das überhaupt dürfen / wollen...
 
Mit 8k ALUs, 48GB HBM2 und 400W oder mehr wäre das ne ziemlich heftige Geschichte. Sicher kaufen das auch ne Hand voll "Gamer". Mehr aber auch nicht ;) Der Rest regt sich auf, dass es zu teuer ist. Also lässt man es und bringt was kleineres... Gamer sind auch bei NV laaange schon nicht mehr Zugpferd. Leider... Aber seht der Wahrheit ins Auge. Das wird sich sicher nicht als bald bessern. Auch bei AMD nicht. Arcturus mit 128 CUs, wie aktuell spekuliert, das passt wie Arsch auf Eimer als GA100 Gegenspieler. ;) Kommt zu 100% nicht auf ner Gamer Karte.
Wenn ich ehrlich bin, man braucht nicht immer das Beste einer Generation auch für Gamer, vor allem, wenn das die Preisgrenzen total sprengen würde.
Aber von Generation zu Generation erwarte ich für mich einen guten Leistungssprung mit keinem oder moderatem Preisanstieg, wie eben bisher auch immer.
Seit Turing nimmt das mMn. kranke Züge an.
 
Zuletzt bearbeitet:
Danke, dass sich so viele beteiligen! Top von Euch!!!!!!
 
Seit Turing nimmt das mMn. kranke Züge an.
Naja, ich seh das differenzierter. Turing ist/war der erste Leerlauf im P/L seit 10+ Jahren. Und Turing bekam keine neue Fertigung. Warum auch immer sei mal dahingestellt. Man kompensierte die 30-40% mehr Durchschnittsperformance mit 750mm² Chipfläche (ggü. 471mm² beim GP102!) - egal wie ich das drehe, das geht nicht in günstig. Ob es 1279€ wert ist, keine Frage, sicher nicht... Aber 800€ wäre mMn nicht in der Form gegangen.
Für den Nutzer hat das am Ende aber auch einen Vorteil - 30-40% kann man als 1080TI Besitzer aus sitzen ;) Um so größer wird der Sprung zu Ampere (oder BigN). Was den ggf. nochmal höheren Preis ein Stück weit relativiert. Ich für meinen Teil habe keinen Schmerz da 1000€+ zu zahlen, wenn der Gegenwert für mich passt. Was ich aber definitiv nicht brauch ist ne 800€ GPU, die nicht schneller ist als das, was ich schon habe... Denn das bringt mich nicht voran. Und wenn sie fünf Generationen lang auf der Stelle treten - da gibt es bei mir keinen Cent für...
 
Was ich aber definitiv nicht brauch ist ne 800€ GPU, die nicht schneller ist als das, was ich schon habe... Denn das bringt mich nicht voran. Und wenn sie fünf Generationen lang auf der Stelle treten - da gibt es bei mir keinen Cent für...

Ja, die 40% zur 2080TI müssen schon sein. Sonst wäre ich arg enttäuscht und würde ne Runde abwarten was AMD macht.
Eigentlich vertrete ich aber den irrationalen Punkt, dass ich die Karte sofort kaufen muss, damit sich die Leistung länger bewehrt, bevor die nächste Generation rauskommt.
Ich möchte die Mehrleistung sofort und dann so lange wie möglich ausnutzen.
 
1200 € würde ich auch noch aufbringen für eine 20 GB+ Karte, allerdings ist das wahrscheinlich utopisch. Um die 1K für ein schönes dickes FTW/Nitro-Modell wären das Optimum. 16-20 GB, fette Leistung, mindestens das doppelte einer 5700 XT.

Mehr als 1000 € zahlen wäre in der Tat weniger schmerzhaft wenn die Leistung stimmt. Leider tat sie das letztes Mal nicht. Raytracing-Marketinggeschichten jucken mich einfach nicht. Ich benötige eine Grafikkarte die in 4K brauchbare Bildraten liefert, auch in den neuesten Spielen und hohen Einstellungen.

Ich bete nur für AMD dass die endlich was Ordentliches bringen, dieses Mal ist es wenigstens kein reines Wunschdenken mehr.
 
Ja, die 40% zur 2080TI müssen schon sein. Sonst wäre ich arg enttäuscht und würde ne Runde abwarten was AMD macht.
Eigentlich vertrete ich aber den irrationalen Punkt, dass ich die Karte sofort kaufen muss, damit sich die Leistung länger bewehrt, bevor die nächste Generation rauskommt.
Ich möchte die Mehrleistung sofort und dann so lange wie möglich ausnutzen.
Ich tätige es idR ähnlich, aber eben nur, wenn mich das Produkt auch überzeugt. Eine Radeon VII hat mich bspw. nicht überzeugt, denn es war nicht schneller als Pascal 1080TI, hat mehr Verbraucht und war auch nicht günstiger. Dazu zeitlich viel später. Ergo kein Geld von mir für AMD. Ich wollte eigentlich zwei Vegas für die Renderbüchse, aber Turing hat viel mehr überzeugt, weil RTX beim Rendern eine Menge Punkte bringt/bringen kann. Das war mir auch das Geld mehr als wert ;) RTX in Games hingegen ist so lala - für mich zieht das nur bedingt, weil ich nicht einen einzigen Titel aktuell spiele, wo ich das brauchen würde. Ich habe SotTR irgendwann aufgehört, weil es mit RTXon nicht wirklich gut lief. Andere RTX Titel außer Minecraft hab ich nicht. Und letzteres läuft auch nur semi gut... 2xTU102 in Blender fetzt aber ;) Teils Faktor 3 und mehr besser als Pascal. Man rendert zwar nicht 24/7, aber es gibt schon in so mancherlei Hinsicht Vorteile von OptiX. Mit Ampere dürfte das wahrscheinlich nochmal nen Boost geben... Aber das wird sich wohl nächste Woche zeigen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh