[News] Nvidia RTX 3090: Neue Hinweise deuten auf riesigen Videospeicher hin

der vergleich hinkt und fürs gaming sind cpus anders gestrickt als gpus.

die gpus hängen am monitor und durch die ultrawides und 144hz monitoren ist der bedarf an gpu leistung massivst gestiegen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die UVP der rtx 2080 ti für $ 1000 galt/gilt nur für irgendwelche blower Versionen mit billigster Kühlung.
Die Masche sollte doch jeder begriffen haben?!

Das sage ich jedes mal. Die guten Karten mit den fetten Lüftern kosten gut und gerne 350 € mehr.

Preislich hängt es sicher auch von AMD ab. Die VII war sehr günstig, was aber auch nur daran lag dass sie nicht wirklich konkurrieren konnte. Leistungstechnisch ist sie in Ordnung, kommt aber höchstens auf das Niveau was NVIDIA 2017 hatte und verbraucht dabei noch mehr. Wahrscheinlich wird NVIDIA seine Karten früher präsentieren (Im September), die Spitzenmodelle aber zunächst weglassen. Die kommen erst nachdem AMD seine Flaggschiffe loslässt, preislich wird es sich dann daran orientieren. Meines Wissens soll dieses Jahr auch höchstens die 6900 XT kommen, wenn sie im November erscheint kann man aber davon ausgehen dass es vor 2021 ohnehin keine flächendeckende Verfügbarkeit mit Custom-Karten geben wird.
 
Billigste Masche etwas verhältnismäßig überteuertes noch irgendwo günstiger aussehen zu lassen.
Wenn du auf Marketing rein fällst - möglich... Wenn nicht, lässt dich sowas komplett kalt ;)
Die Masche funktioniert btw. auch andersrum, nämlich was noch teureres drüber zu setzen um die anderen Produkte "günstig" aussehen zu lassen... Den Trick zieht man bei AMD alle Nase lang aus der Tasche und die Leute feiern es. 750€ Mainstream CPUs, fast 4000€ HEDT CPUs, 450€ Mittelklasse GPUs, 700+€ für die Radeon VII usw. Das Argument ist dann immer, bei bei NV und Intel ist das noch teurer...

70er = 3. stärkste Karte.
8800GT = 3. stärkste Karte = <160€ :d
Funktioniert so nicht...
Die UVP der 8800GT ging bei 220€, nicht <160€. Das letzte Prozent Leistung hat damals wirklich hohe Aufpreise gekostet. Die 8800 Ultra lag teils bei 700€ und mehr. Die "Mittelklasse" mit ~30% drunter in Form der HD2900XT oder 8800GTS 640M lag bei ~400€, halbes Jahr später kam mit dem G92 in teildeaktivierter Form auf der 8800GT noch was günstigeres an den Markt - Weil Refresh des relativ großen G80 auf 65nm und später nochmal in 55nm! Der G80 war 90nm, R600 immernoch 80nm.
Genau genommen kann man sowas heute nur bedingt vergleichen, weil die Reihen komplett von einander getrennt sind. Nen Shrink + Verbesserungen gibts heute nicht mehr oder nur seeehr selten. Die Radeon VII hatte mit dem Vega20 einen solchen Shrink. Bei NV in diesen Marktbereichen seit ewig kein Shrink mehr...

Und natürlich - 3. stärkste Karte und so, kann man machen. Aber stimmt nur für diese eine Rosine. Denn der G92 wurde wirklich sonst wie oft verwurstet bei NV und war scheinbar eine wirklich günstige Allrounder GPU. Von 8800GT in der Mittelklasse bis teils rauf zur 9800GTX+ und später nochmal als GTS 250 wieder Mittelklasse. Zwischendurch noch 9600GT noch weiter unten. Das war die Zeit, als die Preise massiv gepurzelt sind, weil sich NV und AMD haben versucht gegenseitig zu unterbinden. Es gab alle Nase lang UVP-Preisnachlässe. (nicht der heute übliche Händler Wettbewerb sondern echte Preissenkungen von Herstellerseite)
Unter anderem kam sowas auch von dem noch vorhandenen Fortschritt bei den Herstellungsprozessen. Von G80 bis zum echten nächsten HighEnd, dem G200 vergingen lediglich ca. 1,5 Jahre - schon2 Jahre aber danach waren es 2-3 Prozess Schritte. Heute hast du 3-4 Jahre für einen! solchen Schritt. 90nm, 80nm, 65nm und 55nm. Die GTX 285 kam in 55nm 25 Monate nach der 8800 GTX in 90nm.

Das sage ich jedes mal. Die guten Karten mit den fetten Lüftern kosten gut und gerne 350 € mehr.
Das gilt aber Modell-Übergreifend ;) Die Relation vom niedrigst bepreisten Modell zu den Top Modellen der gleichen Karte als Custom OC liegen relativ gesehen recht nah beieinander. Wenn du bei NV 30% Aufpreis bei der 2080TI hast, hast du diese 30% auch irgendwo bei anderen Modellen, 2080, 2070, Navi 10 usw.
Einziger Unterschied ist nur - um so niedriger du im Regal rutscht, desto weniger wirst du diese Custom Sondermodelle finden... Für so ne günstige 5500 oder 5600er Navi Karte 30% für nen besseren Kühler wollen halt nicht sooooo viel aufbringen, weil das im Endeffekt dann die nächst höhere Klasse bedeutet beim Preis, aber normal nicht bei Vorteil durch den Kühler.

Im absoluten HighEnd Bereich kann man sich da natürlich vorzüglich austoben als Hersteller ;)
Am Ende fährst du mit der billigsten Ref. Platine + Wakü Umbau im Schnitt immernoch am Besten...
 
Soll die 3090 doch 24GB bekommen und 2.500 EUR kosten. Wie viel Prozent der Käufer betrifft das?
Die 3080TI mit z.B. 12GB und 1.500 EUR passt doch vielleicht auch? Oder egal was unterhalb sonst noch so ist.
 
TITAN RTX und RAPIDS sind ideal für Entwickler und Enthusiasten und bieten einen einfachen und schnellen Einstieg in die Nutzung von GPU-beschleunigten Workflows für die Datenwissenschaft auf Ihrem PC.

Die Titan war ist nicht nur eine Gamer Karte.
Es sieht danach aus als wen die 3090 als Gamerkarte ausgelegt wird und somit Preislich erschwinglicher wird .

Halt wie ich schon mal sagte eine neue Preisklasse aufmacht .
Es können z.b auch die 1500 Euro blower bis 2000 Euro hardcore Triplewassercolled ulitmate Turbo dabei sein mit 3*8Pin.

Ich denke mit den Titans hat NV sich einfach nochmal eine neue Lücke für solch ein Produkt geschafen.

Ist halt die Frage ob das dieses mal aufgeht?
Nur mal als Szenario sollte AMD Überraschenderweise mit 16GB und ca 10-15% Mehrleistung auf die 3090 aufwarten können und bietet diese für 1000 an bleibt NV nur noch der Leistungsvorteil bei Raytracing und den 8GB mehr .
Da wird sich dann zeigen ob die Leute noch bereit sind trotzdem mehr für eine NV zu bezahlen.
Ich sag mal so es ist nicht unmöglich das AMD diesmal Einfluss nehmen kann auf die Preise auch wen nicht gleich releas.
 
Zuletzt bearbeitet:
Sollte es so sein, wird AMD so ne Karte bestimmt nicht für 999$ anbieten^^
Es bleibt Träumerei dass AMD eine schnellere Karte raus bringt und diese auch noch günstiger, um uns endlich von der Tyrannei der grünen Geldkuh zu befreien :rolleyes:
 
Warum nicht?
Der Chip wird kleiner sein also mehr ausbeute .
Raytracing Leistung wird unter Garantie schwächer ausfallen bzw. ist mein Tip das AMD bei Raytracing mit dem Upscaler von Fidalaty FX ran muss also nicht Nativ 4K nutzen wird für Raytracing .

In Summe wäre es dann ein sehr gutes Produkt jedoch auch mit kleinen Kompromissen gegenüber der Konkurrenz.

Und am Ende des Tages will AMD ja auch Karten verkaufen können und bei uns wären 1000 Dollar am Ende auch um die 1150-1200 Euro im Laden bei Custom Karten auch mehr.

Aber wie gesagt so lange man nicht genau weis wie wer was macht ist es natürlich Spekulation.

Wen die 8nm bei NV stimmen (ehr an 10nm dran)
und AMD wirklich auf 7nm + bzw UEV setzt dann ist es durch aus möglich das AMD ganz knapp bei der Grund Performance als Sieger hervorgeht jedoch bei Raytracing das nachsehen haben wird.

Schauen wir mal wie das ausgeht und wieviel an aktuellen Gerüchten dran ist
 
Zuletzt bearbeitet:
Ist denn schon bekannt wann in etwa Karten ala 3070 im Customdesign verfügbar sein könnten?
Würde gerne für Alyx auf eine 2070 Super umsteigen aber nicht dass man sich hinterher ärgert..

Mfg.
 
Nein ist nicht bekannt aber gehe mal von Anfang 2021 aus.
 
Oder schon Mitte September
 
Soll die 3090 doch 24GB bekommen und 2.500 EUR kosten. Wie viel Prozent der Käufer betrifft das?
Die 3080TI mit z.B. 12GB und 1.500 EUR passt doch vielleicht auch? Oder egal was unterhalb sonst noch so ist.
Indirekt betrifft es wohl leider Alle. Denn so lange sich die HighEnd-GPUs zu solchen Albtraumpreisen überhaupt noch verkaufen, wird nvidia auch immer höher greifen - mit jeder Klasse in der AMD nicht direkt konkurrieren kann. Und durch den sehr großen Leistungsabstand ist somit Jeder, der kein Vermögen für eine Grafikakrte ausgeben will, dauerhaft zur Mittelklasse verdammt - die Zeiten in denen Viele auf Ultra und mit sämtlichen gerade aktuellen grafischen Features zocken konnten sind dadurch leider vorbei.
Beitrag automatisch zusammengeführt:


Sollte es so sein, wird AMD so ne Karte bestimmt nicht für 999$ anbieten^^
Es bleibt Träumerei dass AMD eine schnellere Karte raus bringt und diese auch noch günstiger, um uns endlich von der Tyrannei der grünen Geldkuh zu befreien :rolleyes:


Das wurde vor Ryzen auch über CPUs gesagt ;)
Aber natürlich muss man einsehen, dass die 5700 jetzt leider auch kein Preisbrecher war.. k.A. weshalb AMD da bei den CPUs den Hoffnungen gerecht wurde, aber bei den GPUs zumindest temporär auf den Preistreiberzug aufgesprungen ist...Vor allem in Hinsicht auf die erwartete Leistung der kommenden Konsolen-GPUs ist das einfach ein Schlag in die Fresse der treuen PC-Gamer...
Beitrag automatisch zusammengeführt:

..
Die Masche funktioniert btw. auch andersrum, nämlich was noch teureres drüber zu setzen um die anderen Produkte "günstig" aussehen zu lassen... Den Trick zieht man bei AMD alle Nase lang aus der Tasche und die Leute feiern es. 750€ Mainstream CPUs, fast 4000€ HEDT CPUs, 450€ Mittelklasse GPUs, 700+€ für die Radeon VII usw. Das Argument ist dann immer, bei bei NV und Intel ist das noch teurer...

...
Funktioniert so nicht...
Die UVP der 8800GT ging bei 220€, nicht <160€. Das letzte Prozent Leistung hat damals wirklich hohe Aufpreise gekostet. Die 8800 Ultra lag teils bei 700€ und mehr. Die "Mittelklasse" mit ~30% drunter in Form der HD2900XT oder 8800GTS 640M lag bei ~400€, halbes Jahr später kam mit dem G92 in teildeaktivierter Form auf der 8800GT noch was günstigeres an den Markt - Weil Refresh des relativ großen G80 auf 65nm und später nochmal in 55nm! Der G80 war 90nm, R600 immernoch 80nm.
Genau genommen kann man sowas heute nur bedingt vergleichen, weil die Reihen komplett von einander getrennt sind. Nen Shrink + Verbesserungen gibts heute nicht mehr oder nur seeehr selten. Die Radeon VII hatte mit dem Vega20 einen solchen Shrink. Bei NV in diesen Marktbereichen seit ewig kein Shrink mehr...
..
Richtig! Die damals manchmal sogenannte "Performance-Class" (z.B. GTX 570), die ca. 90%(!) der Leistung des Single-GPU-Vollausbaus (GTX 580) für einen erschwinglichen lieferte, bekam man seit Ewigkeiten für ca. 500€.
Heute bekommt man für 500€ eine RTX2070 super - vom Namen her zwar angeblich die aktuelle Entsprechung, aber mit eben nur armseligen 70% der Leistung des Vollausbaus. Denn dieser Vollausbau ist eben die RTX Titan. Auch wenn nvidia diesen seit einiger Zeit täuschend als Workstation-Chip deklariert ist es doch faktisch nicht mehr als die gleiche GPU ohne Abspeckmaßnahmen, also technisch gesehen klar der Gaming-GPU-Vollausbau.
Wer hingegen die ehemals üblichen 90% möchte, der muss mal eben eine 2080ti kaufen..und die kostet mit über 1000€ das Doppelte bis Dreifache!
Selbst wenn man die Inflation seit 2010 (Release der Fermi-Refreshs) mit sehr großzügigen 10% ansetzt, liegt man da bei einer Preissteigerung auf verfickte 190%!
Lasst euch doch nicht so leicht verarschen Leute!
 
Zuletzt bearbeitet:
@Elmario
da gibt's bestimmt besseres zu empfehlen als eine 5700. Die Preise der VII waren viel zu überzogen. Daher denke ich ja auch dass die sich so ein Kärtchen natürlich gut bezahlen lassen.
Mehr wir 500 Öre hätte ich für meine Vega auch nicht bezahlt, die 1080 war mir da auch zu teuer.

Wer ne Highend GPU will kommt klar nicht unter 1k weg, und für 1k wirds auch nicht nächtest Jahr eine 2080Ti+ Leistung geben.
 
Das wurde vor Ryzen auch über CPUs gesagt ;)
Aber natürlich muss man einsehen, dass die 5700 jetzt leider auch kein Preisbrecher war.. k.A. weshalb AMD da bei den CPUs den Hoffnungen gerecht wurde, aber bei den GPUs zumindest temporär auf den Preistreiberzug aufgesprungen ist...
Wo wurden sie denn bei den CPUs den "Hoffnungen" gerecht?
Da redest du dir leider was schön... Mit dem gleichen Maßstab müsste man da genau so kritisieren, dass die Speersitze dort jetzt schlappe 4000$ kostet. Und wenn du die TRs ausklammerst, immernoch 750€ oder wie viel das für den 16C Ryzen sind. Gegenüber den 300-400€ bei 4C bis Haswell bzw. 500-600€ mit 6/8C bei CFL haben die 700€+ nicht viel gemein... AMD hat die Mainstream CPUs wieder zu alten Preisen geführt.
P/L ist in der unteren Mittelklasse gut. Nur schau dir mal die Relationen an - ~160-170€ für den 3600er vs. 700€+ für poplige Faktor 2-2,5 mehr Leistung. Und dann noch quasi rein MT. Das ist mehr als Faktor 4 beim Preis. Sehe da keine positive Entwicklung.
Der Unterschied ist nur, im CPU Bereich reden sich die Leute schön, dass sie die Cores nicht brauchen und dass ihnen das kleine Ding ja reicht... Würde man das im GPU Bereich auch machen, sähe die Welt schon ein wenig anders aus. Funktioniert dort genau so. Nur möchte der geneigte Forenbubie im GPU Umfeld kurrioserweise TopEnd und das auch in günstig. Ansonsten wird geschimpft was das Zeug hält...

Richtig! Die damals manchmal sogenannte "Performance-Class" (z.B. GTX 570), die ca. 90%(!) der Leistung des Single-GPU-Vollausbaus (GTX 580) für einen erschwinglichen lieferte, bekam man seit Ewigkeiten für ca. 500€.
Heute bekommt man für 500€ eine RTX2070 super - vom Namen her zwar angeblich die aktuelle Entsprechung, aber mit eben nur armseligen 70% der Leistung des Vollausbaus. Denn dieser Vollausbau ist eben die RTX Titan. Auch wenn nvidia diesen seit einiger Zeit täuschend als Workstation-Chip deklariert ist es doch faktisch nicht mehr als die gleiche GPU ohne Abspeckmaßnahmen, also technisch gesehen klar der Gaming-GPU-Vollausbau.
Nur weil die TitanRTX auch den gleichen Chip trägt ist das lange kein Gamer Modell. Es sollte doch langsam durchgedrungen sein, dass das eine Mischkalkulation ist? Die "Gamer" Chips werden auch als Quadros im Profibereich für alles was nicht doppelte Genauigkeit sein muss, verwendet. Und entsprechend auch in gewissen Teilen dahin ausgerichtet. Am Ende muss das Produkt den Spagat zwischen Gamer und Profi schaffen. Weil ein reines Gamer Produkt am Ende ziemlich sicher allein gesehen teurer wäre ohne den anderen Markt und andersrum genau so. Also nimmt man beides mit einem Produkt und geht die Kompromisse ein. -> Es gab wie schon erwähnt bisher keine 750mm² GPU im Gamerbereich. Da kann man mit der Vergangenheit vergleichen wie man möchte. Das Teil ist mal eben über 40% größer und damit auch entsprechend irgendwo teurer in der Produktion zur sonst HighEnd üblichen ~500mm² Klasse. Mit dem Anfang von Kepler hat man sich massiv drüber beschwert, dass NV den 04er Mainstream Chip mit x80er Namen als "HighEnd" verkauft. Mittlerweile hat sich das nicht nur wieder gedreht, sie haben obendrauf einen noch viel größeren Chip drauf gesetzt.

Vergesst doch nicht immer, dass da ein Unternehmen dahinter steckt, was wirtschaftlich agieren möchte und alles dran setzen wird, einen Vorteil aus der Nummer zu ziehen... Die schenken nix! Nicht bei AMD, nicht bei NV, nicht bei Intel.

Btw. auch wenn ich mich dabei immer wieder wiederholen muss - der Vergleich zur Vergangenheit hinkt massiv. Denn du bekommst heute alle 3-4 Jahre EINEN anständigen Prozess-Sprung. Während das vor 10+ Jahren durchaus auch mal 2-3 in der gleichen bzw. einen in teils weniger als der halben Zeit war. Wo soll es denn her kommen?
Übrigens war Fermi die erste Generation an GPUs von NV nach dem Preistiefpunkt in 2009 - taugt für eine Preiskritik auch nicht sonderlich. Logisch, dass man nicht den Preis ver-x-fach, wo unmittelbar davor ~110€ für ne HD4870 oder ~130€ für ne 260er NV fällig waren. Schon Cypress mit der HD5870 hat bei ~300€ Releasepreis knapp Faktor 3 mehr gekostet -> bei läppischen 60% overall Leistungszuwachs und! gleichem VRAM. Heute, mehr als 10 Jahre danach feiert man die 300€, weil es so günstig war für HighEnd. Stimmt, war es... P/L war dennoch sehr schlecht durch den Mehrpreis zur Mehrleistung. Seit diesem Zeitpunkt gehts mit den Preisen normal bergauf. Und das wird auch nicht aufhören ;)

da gibt's bestimmt besseres zu empfehlen als eine 5700. Die Preise der VII waren viel zu überzogen. Daher denke ich ja auch dass die sich so ein Kärtchen natürlich gut bezahlen lassen.
Mehr wir 500 Öre hätte ich für meine Vega auch nicht bezahlt, die 1080 war mir da auch zu teuer.

Das ist halt das Problem - ihr wollt nicht mehr zahlen, aber immer mehr Leistung. Wie soll das denn unter einen Hut passen?
AMD hat sich massiver Kritik stellen müssen, weil sie initial ne sonder rabattierte Vega64 bei MF für ~500€ haben vertrieben -> zeitexklusiv für diesen Shop. Und die Meute beschwerte sich im Nachgang über die schlechte Verfügbarkeit, weil es nur 600€+ Modelle gab über die schlechte Verfügbarkeit... Dass das ne Sonderaktion war, wurde erst im Nachgang klar...
Die Radeon VII war zwar nicht sonderrabattiert - oder vllt doch? Sie war zumindest so teuer für AMD, dass es sich nicht hat gelohnt das Ding aufrecht zu halten. 16GB und HBM hin oder her. Auf die Hand voll Prozent kann man wirtschaftlich verzichten, wenn das Produkt, was man stattdessen bringt, nur 2/3tel der Die Size benötigt, deutlich weniger Strom verbraucht und ohne teuren HBM auskommt... Die Radeon VII war sicher nicht zu teuer - sie hätte, damit AMD daran was verdient, eher deutlich mehr kosten müssen. Und da beißt sich halt die Katze in den Schwanz. AMD vertreibt ihre Hardware bis dato etwas günstiger in Relation als NV - aber sie verdienen fast nichts dran (Quartalszahlen belegen das)

Was will denn der Kunde am Ende wirklich? Ein AMD, was Pleite geht oder ganze Modell-Linien ganz einstellt nur weil der Markt nicht bereit ist, den notwendigen Aufpreis zu zahlen? Oder einen eher gesunden Markt mit Wettbewerbern, die sich gegenseitig aus eigenen Stücken! konkurrieren können? Wenn letztes, sollte man endlich aufhören diese Geiz ist Geil Kiste zu fahren. Der Spaß ist nunmal teurer als vor Jahren. Kann man sich nicht aussuchen. Entweder man spielt da mit oder man lässt es. Meckern kann man immer - es wird aber in der Form keine Besserung geben können, wie AMD eindeutig belegt. Viel Luft nach unten ist nicht und +-0 bei den Quartalszahlen hindert mittel- bis langfristig die eh schon drastisch einknickten Entwicklungsfortschritte noch mehr...
 
Du widersprichst dich aber irgendwie etwas selber, bei CPU's prangert du an das mehr Kerne mehr Geld kosten, wobei das im Verhältnis eigtl. noch geht beim 12Kerner und 10Kerner im vergleich zu voherigen Gen.
Bei den GPU's sagst du wie soll mehr Leistung fürs gleiche Geld gehen.Soll ich für jede weiteren 20% mehr Leistung 20% mehr zahlen, die Marge ist bestimmt so schon mehr als gut.
 
Wieso? Ich sage doch nicht, dass mehr Leistung nicht mehr Geld kosten darf?
Wo siehst du das?

Ich sage, dass es nicht richtig ist, über den Preis im GPU Markt zu schimpfen und sich gleichzeitig dann nen anderen Markt zu picken (CPU) wo das noch viel viel extremer abgeht. Siehe eben TR. Und dann noch zu behaupten, im CPU Bereich würde das ja funktionieren mit AMD... Was völliger Käse ist, weil nur das LowEnd aktuell überhaupt P/L mäßig tut - oben wir des deswegen immernoch teurer. Das wird aber nicht erwähnt. Von 300-400€ Mainstream, die seit 2011 mit Sandy gängige Praxis waren, sind wir heute bei 750€ für das große Produkt bei AMD. Das ist ne Verdopplung vom Preis.

Das Ding ist, man merkt, wo die Markenaffinität den Leuten die Denke etwas vernebelt. Denn wenn es darum geht, im CPU Bereich die Ryzen und TR Thematik zu Lobpreisen sind die Leute ganz vorn dabei, die im GPU Umfeld über die Preise schimpfen. Nur dass ihnen CPU Umfeld die Relationen egal sind, da kommt dann das "reicht ja" Argument. Ne 2080 oder 2070S reicht ja auch... Theoretisch. Aber das wird dort nicht erwähnt. Oder ne 5700/5700XT - nein, da wird sogar mit der TitanRTX argumentiert.

Btw. kurz und knapp, ich sage, dass Leistung auch Geld kosten darf. Und auch muss... Denn der Hersteller muss Geld verdienen um Mittel- bis Langfristig finanzielle Mittel zu haben, die Entwicklung und Forschung stämmen zu können. Und eben diese Entwicklung wird auch immer teurer über die Zeit. Ob man sich das dann leisten kann oder will, steht auf einem anderen Blatt.
 
..
Der Unterschied ist nur, im CPU Bereich reden sich die Leute schön, dass sie die Cores nicht brauchen und dass ihnen das kleine Ding ja reicht... Würde man das im GPU Bereich auch machen, sähe die Welt schon ein wenig anders aus. Funktioniert dort genau so. Nur möchte der geneigte Forenbubie im GPU Umfeld kurrioserweise TopEnd und das auch in günstig. Ansonsten wird geschimpft was das Zeug hält...
Da brauch man Nichts schönreden. Für 95% der Leute werden 8 Kerne(vielleicht auch schon 6) noch mindestens die nächstens 5 Jahre reichen. Wer rendert schon, oder bearbeitet Videos? Ja, die restlichen 5%.

Nur weil die TitanRTX auch den gleichen Chip trägt ist das lange kein Gamer Modell. Es sollte doch langsam durchgedrungen sein, dass das eine Mischkalkulation ist? Die "Gamer" Chips werden auch
Nur weil nvidia dank des Highend-Monopols abartig absahnen möchte, ist die Mainstream-GPU noch lange keine besondere Hardware - sondern wie gesagt der Vollausbau der Mainstream GPU, ganz egal wie nvidia es vermarktet.
Und dies bedeutet in Hinsicht auf Entwicklungs und Fertigungskosten kein Argument zur Preiserhöhung.
 
@fdsonne
In deinen zweiten Absatz, aber generell finde ich die Preise haben sich halt in etwa verdoppelt in den letzten 7-8 Jahren.
Man muss halt sehen ein wirklich! brauchbares OC Board bieten nur noch wenige unter 300,- grade bei Intel, nen 8/10 Kerner der "Sorte" knapp 600,- usw..
Die derzeitigen Boardpreise bei Intel grade bei Asus sind mal echt verschämt.
Gibt aber auch gute Beispiele Speicher ist grade billiger und Monitore kriegt man auch schon günstiger.

Aber 1200-1300,- für die Highend Graka ist schon echt fett, dafür bekommt man dann wahrscheinlich 2,5x ne PS5 oder XBox, quasi einen kompletten Rechner, mit ner Graka in der Leistungklasse 500,-.
Die Entwicklungskosten werden umverlegt klar, aber was bekomme ich dafür, Leistung die nicht einmal für die derzeitigen Game´s in 4K reichen, siehe 2800TI.

Sprich ich brauch ja schon nen Upgrade beim Upgrade^^
Ich hoffe sie halten die Preise im Rahmen, bei 1000,- rum nehme ich die 3080Ti sofort, bei 1500,- und mehr naja, weiß ich ehrlich gesagt nicht.
 
Zuletzt bearbeitet:
der vergleich hinkt und fürs gaming sind cpus anders gestrickt als gpus.

die gpus hängen am monitor und durch die ultrawides und 144hz monitoren ist der bedarf an gpu leistung massivst gestiegen.
Aha und der Vergleich hinkt, weil?

Ja, CPUs sind anders gestrickt als GPUs. Das liegt in der Natur der Sache, sonst würde man sie nicht unterscheiden. Für die relative Leistung innerhalb ihrer Domänen ist das in wie fern relevant?

Ja, GPUs hängen in der Regel am Monitor und Helme setzt man in der Regel auf den Kopf. Das interessiert jetzt bei der bepreisung in wie fern?

Und zu guter letzt : du attestierst einen gesteigerten leistungsbedarf, nach Grundsätzen der marktwirtschaft führt das ja bekanntlich zu niedrigeren Preisen.

Also nochmal das Statement : für highend CPUs darf man 4 stellige Preise aufrufen, für 4 gpus nicht. Warum? Ausser Preis memory gibt es da keine sinnvolle Begründung für
 
Schonmal dran gedacht, dass sich auch die Währung in den letzten 15 Jahren verändert hat und 500€ nicht mehr 500€ sind? Alle Faktoren zusammen ergeben eben diese Preise, wo ist das Problem.
 
Schonmal dran gedacht, dass sich auch die Währung in den letzten 15 Jahren verändert hat und 500€ nicht mehr 500€ sind? Alle Faktoren zusammen ergeben eben diese Preise, wo ist das Problem.
Kann ich dir sagen, ich verdiene nicht das doppelte.... 😂 :poop:.Das hab ich aber auch schon meinen Chef´s gesagt, jede Sekunde die ich länger bleiben soll mach ich Nasse, hab ich ihm auch vorgerechnet^^.
 
Da brauch man Nichts schönreden. Für 95% der Leute werden 8 Kerne noch mindestens die nächstens 5 Jahre reichen. Wer rendert schon, oder bearbeitet Videos? Ja, die restlichen 5%.
MMn musst man sich da schon entscheiden. Entweder du willst TopEnd - dann bitte nicht vorher anfangen Einschränkungen und Tellerränder zu definieren um seinen Standpunkt irgendwo eine Basis zu geben. (von wegen 8C reichen auch) Und ja, für 95% werden 6-8C die nächsten 5 Jahre reichen, dem stimme ich zu. Für die gleichen 95% haben auch auch 2-4C die letzten 5 Jahre spielend gereicht, weil sie nämlich - und das zu einem riesigen Teil heute immernoch, Mobile kaufen und nicht Mainstream Desktop ;) Die Aussage ist ne Rosine... Reicht ja, funktioniert auch im GPU Umfeld. Warum möchtest du das aber nicht hören oder akzeptieren? Bspw. kannst du einfach ne 5600/5700er Navi oder 1660/2060(S) NV kaufen und aktuelle Titel stressfrei spielen. Genau so wie der 0815 Mainstream User mit seinem 2-4C 15W Prozessor all den ganzen Kram macht, bei dem die Kritiker in den Foren sonst wie viele Cores als Mindestanforderung sehen...

Nur weil nvidia dank des Highend-Monopols abartig absahnen möchte, ist die Mainstream-GPU noch lange keine besondere Hardware - sondern wie gesagt der Vollausbau der Mainstream GPU, ganz egal wie nvidia es vermarktet.
Und dies bedeutet in Hinsicht auf Entwicklungs und Fertigungskosten kein Argument zur Preiserhöhung.
Was macht dich so sicher, dass eine 750mm², das größte Produkt in Sachen Wafer Fläche bisher in diesem Markt, überhaupt eine Mainstream GPU ist? Warum darf es denn deiner Meinung nach nicht der aus dem Profibereich von oben reingebrachte Ableger für die Enthusiasten sein? Deine ganze Aussage basiert darauf, dass das teuerste Produkt überhaupt ja Mainstream sein MUSS - denn das ist die einzige Kritik!? Why?
Von den Die Abmessungen ist 750mm² über 40% mehr als üblich im HighEnd. Die ~545mm² der TU104 sind sogar im Schnitt eher groß zu den sonst für die TopDogs üblichen Die Größen -> GP102 ~471mm², GM200 ~601mm², GK110 ~561mm², GF100/110 ~520mm², G200 in 65nm ~576mm²/G200B in 55nm ~470mm², G80 in 90nm ~484mm².
Wie du erkennen dürftest - das sind die letzten 15 Jahren NV TopDog GPUs -> und bis auf GM200 knackt keine die 600mm² überhaupt. Geschweige denn 700-750mm². Um das weiter auszuführen, bis einschließlich Kepler GK110 gab es nur die eine TopDog GPU. Mit Maxwell hat man einen Graphics only Die mit dem als GP100 erstmals vermarkteten HPC Ableger gepaart. Seit dem gibt es HPC in eigener Linie. FP64 ist damit rausgefallen. Dass da andere Anforderungen abseits Gaming only heute nach wie vor reingemischt werden belegt bspw. das NVLink Interface. SLI ist tod... Daran gibt es nix zu rütteln. Aber es gibt im Profibereich die Anforderung via NVLink und geeigneter Software den VRAM von mehr als einer GPU zu sharen. Macht 96GB bei zwei 8000er Quadros.



Und natürlich spielt es eine maßgebliche Rolle, wie ein Produkt vermarktet wird. Ein Bugatti ist doch auch nicht, nur weil du das vllt gern so hättest, ein Mainstream Massenmarkt Auto... :stupid: Komische Ansicht, ehrlich...
Und natürlich bedeutet so ein riesen Die im Hinblick auf Fertigung eine Preiserhöhung... Wer soll das zahlen? Die Ausbeute in diesem Bereich ist auch schlechter als bei nur 250mm² der Navi GPU...
Es gibt da so wunderhübsche Yield-Rechner im Netz. Schau es dir selbst an. Es kommen ca. 30 voll funktionsfähige TU102 bei 300mm Waferfläche raus. Bei mehreren tausend Dollar den Wafer kannst du dir denke ich selbst ausrechnen, was das bedeutet. Vor allem auch, welchen Sinn es hat, zu teildeaktivieren anstatt den Vollausbau zu vermarkten. Und da sprechen wir von den Kosten für den Chip und nichts anderes. Kein PCB, kein Speicher, keine Entwicklung und Forschung, nix RT, nix Software, keine Treiberpflege usw. usf. Auch die Lederjacke fürs nächste Jensen-Event ist nicht dabei...
Ich sag dir noch was - früher hat man einfach Reserve mit eingebaut. Ist in anderen Bereichen auch üblich - Flash Memory bspw. Erhöht die Ausbeute und senkt den pro Stück Preis. Nicht anderes ist eine teildeaktivierte GPU...

Aber 1200-1300,- für die Highend Graka ist schon echt fett, dafür bekommt man dann wahrscheinlich 2,5x ne PS5 oder XBox, quasi einen kompletten Rechner, mit ner Graka in der Leistungklasse 500,-.
Die Entwicklungskosten werden umverlegt klar, aber was bekomme ich dafür, Leistung die nicht einmal für die derzeitigen Game´s in 4K reichen, siehe 2800TI.

Ja, fett ist das natürlich. Ich hoffe, dass ich sowas nicht immer dazuschreiben muss, ich emfinde die Preise generell als sehr hoch, in vielen Bereichen mittlerweile. Aber das ist halt der aktuelle Trend. Da kann man gegen schimpfen, wie man möchte. Es wird alles teurer und da oben, im eigentlich sogar eher unnützen Bereich noch viel mehr. Vllt könnte NV auch für 10-20% weniger. Vllt auch mehr. Aber ob sich das dann rechnet, ist eine andere Thematik.
Nimm dir mal die Die Size der Navi 10 GPU und rechne den Preis der günstigen 5700XT gegen die Die Size - und das gleiche machst du mal bei der 2070S mit deren Die Size und dem Preis... Ergebnis -> die Navi 10 hat pro mm² ca. 70% mehr "Preis" auf der Uhr stehen. Das deckt sich annähernd mit der Aussage von AMD zu Release der Zen2 CPU von wegen, 7nm kostet in Form von yielded mm² ca. Faktor 2 -> heute ist das sicher etwas weniger als Herbst 2019. Aber man erkennt sehr schön, das ist bei weitem nicht ausschließlich Willkür... Und wenn man dann die Die Size maximiert/maximieren muss, die Yields sinken, der Prozess-Fortschritt allgemein immer langsamer und dazu noch immer teurer wird usw. -> es kommt eins zum anderen...


Kann ich dir sagen, ich verdiene nicht das doppelte.... 😂 :poop:.Das hab ich aber auch schon meinen Chef´s gesagt, jede Sekunde die ich länger bleiben soll mach ich Nasse, hab ich ihm auch vorgerechnet^^.
Und was sagt er?
So einen Joker kann man schon mal ziehen... Je nachdem, welchen Standpunkt man im Unternehmen hat, zieht das sogar ;)
 
Ich brauch erstmal keine Überstunden machen 😂, ja gab schon ne Erhöhung, die war aber ne doll:poop:.

P.S.
Versteht mich nicht falsch mir steht einfach das max. was es auf den Posten gibt zu, nen paar Tage nach der Erhöhung hab ich auch gleich nach der nächsten gefragt. 😅
 
Zuletzt bearbeitet:
Ich seh das ganz entspannt - 1500€ auf 24 Monate sind 62,50€ im Monat. Das sind ~2,08€ am Tag. Leg dir jeden Tag ein 2 Euro Stück ins Sparschwein und dir tut der Kauf der GPU nicht weh. Wenn man das alle 2 Jahre macht und dann dazu noch den Kauferlös, sofern gebraucht verkauft, mit einbezieht, hat man gar für andere Spielereien noch genug über...
 
3090 = 2000-2500 €
3080TI = 1500€
3080 SUPER = 1000 EUR
3080 = 850€
3070 = 600€
3060 = 400€
3050 = 280€
3030 = 190€

So ähnlich sieht auch meine Gedankenwelt aus, vielleicht sind bei der 3060 und 3070 noch 50 € nach oben drin.
Eine schöne Custom bei der 3070 und man landet bei ca. 700 € - 750 €.

Ich gehe schwer davon aus, dass NV die neue Karten an der jetzigen Preis/Leistung anpasst oder zumindest schwer in die Richtung geht. Sie wären ja blöd, wenn man eine Karte mit Mehrleistung für das gleiche Geld anbieten würde. Ich denke auch nicht, dass die aktuellen Karten verramscht werden, vielleicht gibt es mal eine um die 50 € reduziert, aber das war es dann auch.

Bin gespannt was AMD aus dem Hut zaubert und ob die neuen Karten auch so Probleme wie die jetzigen haben. Sollten die neuen Karten sauber laufen und die Probleme bei den alten weiterhin bestehen bleiben, wissen wir, dass nicht der Treiber an allem Schuld ist ( was auch meine Vermutung ist ).
 
Ich seh das ganz entspannt - 1500€ auf 24 Monate sind 62,50€ im Monat. Das sind ~2,08€ am Tag. Leg dir jeden Tag ein 2 Euro Stück ins Sparschwein und dir tut der Kauf der GPU nicht weh. Wenn man das alle 2 Jahre macht und dann dazu noch den Kauferlös, sofern gebraucht verkauft, mit einbezieht, hat man gar für andere Spielereien noch genug über...
Lach ne das ist nicht das Problem.^^
Man hat ja viele Wünsche und die meisten sind ziemlich teuer.
 
Nen Shrink + Verbesserungen gibts heute nicht mehr oder nur seeehr selten.
Vermute zu teuer? Kosten für das Design, Herstellungsprozess etc.? Fertigungsprozess übergreifend nicht mehr möglich?
Zeitlich nicht möglich? Da man sonst riskiert hinten dran zu sein?
Zu kompliziert/komplex in der Umsetzung?

Das sage ich jedes mal. Die guten Karten mit den fetten Lüftern kosten gut und gerne 350 € mehr.
Um hier nicht in die Preisfalle zu tappen, habe ich mir deswegen einfach zwei noctua af 25 (also die 120 mm 30 € Lüfter) gekauft und packe diese einfach mit paar Gummis auf die Grafikkarte^^
Schlicht das günstigste Modell was noch einen guten Kühler hat und Garantie etc. bietet.

Heute bekommt man für 500€ eine RTX2070 super - vom Namen her zwar angeblich die aktuelle Entsprechung, aber mit eben nur armseligen 70% der Leistung des Vollausbaus.
Oder nur 60 % der Leistung (rtx 2070) des beschnittenen TU102 Chips.
Für mich als Käufer im Preisbereich zwischen 400 - 700 € relevant, ob der andere Mitbewerbe leistungs-/eigenschaftenmäßig genug Druck aufbaut, sodass die Beschäftigten bei nvidia nicht wieder auf die Idee kommen einen GA106 Chip (xx60) in die xx70 Grafikkarte zu packen und den GA104 Chip in die xx80 Grafikkarte, welche dann ab Marktstart für "nette" 500 - 600 und ~ 800 € in den Regalen landen.

AMD vertreibt ihre Hardware bis dato etwas günstiger in Relation als NV - aber sie verdienen fast nichts dran (Quartalszahlen belegen das)
Tun die Beschäftigten bei amd dies? Rein die Hardware, also das physische, ja, und die Software? Kalkuliert man hier die Kosten für die Beschäftigten mit rein, liest sich dies aus den Quartalszahlen heraus?
Bezogen auf die nvidia/amd Spielerkarten?

Was will denn der Kunde am Ende wirklich? Ein AMD, was Pleite geht oder ganze Modell-Linien ganz einstellt nur weil der Markt nicht bereit ist, den notwendigen Aufpreis zu zahlen?
Das ist aber nur Extreme als Auswahl.😐
Die Käufer wollen mehrheitlich ein gesundes Mittelmaß mit verhältnismäßig guter Leistung/Eigenschaften zu Preisen bei denen sich nicht die Unternehmensführung oder die Finanzindustrie bereichert, mitsamt all den anderen negativen Folgen (erwähne jetzt nur ich, die meisten schließen dies in Kaufentscheidung oder -überlegung eher nicht ein).

Oder einen eher gesunden Markt mit Wettbewerbern, die sich gegenseitig aus eigenen Stücken! konkurrieren können?
Genau dies gibt es eben wie lange nicht mehr? Seit der Radeon HD 7970er Reihe wenn ich mich korrekt erinnere 🙃
Dein Optimismus in Gottes Ohren! Nur fährt die Unternehmensleitung bei nvidia und die Finanzindustrie schon lange die zwei Zeilen darüber erwähnte Schiene.
 
Ich seh das ganz entspannt - 1500€ auf 24 Monate sind 62,50€ im Monat.
Dieses Forum kann man natürlich nicht als repräsentativen Durchschnitt von Deutschland betrachten, hier gibt es natürlich viele Leute denen die Hardware etwas mehr wert ist. Aber so locker wie du sehen das nur die wenigsten, etwa 0.72% laut Steam.

So viel (63€) wollen viele Teilzeitgamer nicht mal pro Jahr für eine GPU ausgeben.
 
Kann ich dir sagen, ich verdiene nicht das doppelte.... 😂 :poop:.Das hab ich aber auch schon meinen Chef´s gesagt, jede Sekunde die ich länger bleiben soll mach ich Nasse, hab ich ihm auch vorgerechnet^^.

Meine Kollegen, die 1995 angefangen haben, haben beim gleichen Betrieb, gleichem Abschluss und der gleichen Stelle weit weniger als die Hälfte verdient als ich 2012 zum Einstieg (2200 DM zu 3600€ pro Monat).
Ich finde die Preiserhöhungen gerechtfertigt.
 
So meine Ti ist jetzt verkauft die neuen Karten dürfen kommen :coffee3:
 
Hätte ich nie gemacht, solange ich noch etwas zocken wollte
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh