Ab 899 Euro: NVIDIA stellt die GeForce RTX 4070 Ti offiziell vor

Ja, es geht ja nicht allein um das Design, zumal ich mir das innere auch nicht mehr anschauen kann... :haha: aber ich weiss, dass ich da kein Monster drin hab, ist halt Kopfsache nebst Platzeinsparung
Auch nur Kopfsache ^^ Pack nen Wasserkühler drauf und das Teil ist eh extremst winzig. Verliert sich sogar bei mir im Gehäuse.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was laberst du denn? :d Es gab mal Zeiten da hat ne Geforce 2Ultra zum Release ne UVP von 500Dollar gehabt und die Karten waren kaum unter 1200DM zu bekommen, jetzt kannst ja mal 22 Jahre Inflation drauf rechen. Kennste noch die 6800Ultra? auch ne UVP von 500Dollar und im Euroraum knapp 600€ zum Release, rechne da mal 17 Jahre Inflation drauf. All das Sind Preise die "ähnlich" derer heute sind. Wenn man von einer Bereinigten inflation von "NUR" 3% ausgeht, kostete die GF2Ultra dann heutige 1150€ und die 6800U 971€...n Alles andere als halb so teuer....
Ja innerhalb 2 Jahren die uvps fast zu verdoppeln ist schon geil :) Inflation 10% sind keine 100% :)
 
Ohne zu sehr abzudriften, aber ne, ich bin trocken :haha: und bleibe es auch, das wäre mir zuviel Aufwand ;)
Aber die schnuckelige 3060ti ist ja eh erstmal außerhalb jeglicher Diskussion... die kleine niedliche die ... ;)
 
Laut nVidia ist die 4070 Ti bis zu drei mal schneller als die 3090 und ohne DLSS3 gehört die eh zum Alteisen.
Laut nVidia, allerdings bezweifel ich das, denn selbst eine RTX 4080 ist "nur" ca. 50% schneller als eine RTX 3090 mit oder ohne Ti unter Raytracing.

Und selbst ohne Raytracing ist die 4080 gerade mal nur max. 20% schneller.

Das mit 3x so schnell wird also nicht hinkommen.
 
Ja innerhalb 2 Jahren die uvps fast zu verdoppeln ist schon geil :) Inflation 10% sind keine 100% :)
Dazu kommen gestiegene Fertigungskosten (je kleiner der Node desto teurer wird es, zudem bedient sich Nvidia eines Custom Nodes und nicht bloß einfach der Standardkost) samt dazugehöriger natürlich gestiegener Forschungskosten, gestiegene Transportkosten, gestiegene Rohstoffpreise ect. ect. Da ist nicht nur Inflation im Spiel... Die ist nur das i Tüpfelchen... Das eine Semester BWL das ich hatte, hat mir sehr geholfen zu verstehen wie solche Preise zustande kommen und bringe daher dann doch etwas Verständnis dafür mit ;) Zumal die UVP der Vorgängergeneration (Ampere) teilweise sogar niedriger war als die der Gen (Turing) davor. Ampere war preislich (UVP nicht Realpreise) ein Ausnahmefall und würde ich nur bedingt als Vergleich hernehmen.
 
Ja innerhalb 2 Jahren die uvps fast zu verdoppeln ist schon geil :) Inflation 10% sind keine 100% :)
Also du redest von früher und kommst dann mit der letzten Generation, was nun? Aber egal, ich wollte nur sagen ob dass Preise wie jetzt schon sehr oft vorgekommen sind und sicherlich nichts mega ungewöhnliches sind.

Natürlich ist ne UVP Verdoppelung nicht schön, aber wenn man mal für die Hersteller die gestiegen Produktionskosten ansieht, ist das auch deutlich mehr als 10% der Inflation. Das müssen die weiter geben, dann kommen ja wegen der Lage noch Lohnerhöhung zu und all das wird weiter gegeben an uns.

Ich will damit auch nicht schönreden, dass sich etwas mehr in die eigene Tasche gewirtschaftet wird, aber ganz so dramatisch ist es nicht, wie viele behaupten...

Grüße
 
Laut nVidia ist die 4070 Ti bis zu drei mal schneller als die 3090 und ohne DLSS3 gehört die eh zum Alteisen.
Wow bis zu 3x schneller dann musst du Sie dir kaufen :) und exklusives dlss 3.0 hat Sie auch noch. Für solche Käufer sind die nvidia Folien wirklich klasse :)
Beitrag automatisch zusammengeführt:

Dazu kommen gestiegene Fertigungskosten (je kleiner der Node desto teurer wird es, zudem bedient sich Nvidia eines Custom Nodes und nicht bloß einfach der Standardkost) samt dazugehöriger natürlich gestiegener Forschungskosten, gestiegene Transportkosten, gestiegene Rohstoffpreise ect. ect. Da ist nicht nur Inflation im Spiel... Die ist nur das i Tüpfelchen... Das eine Semester BWL das ich hatte, hat mir sehr geholfen zu verstehen wie solche Preise zustande kommen und bringe daher dann doch etwas Verständnis dafür mit ;) Zumal die UVP der Vorgängergeneration (Ampere) teilweise sogar niedriger war als die der Gen (Turing) davor. Ampere war preislich (UVP nicht Realpreise) ein Ausnahmefall und würde ich nur bedingt als Vergleich hernehmen.
Höhere Fertigungskosten und Materialkosten bei einem halb so großen Chip? Wenn du in bwl aufgepasst hast ist dir ja bekannt was dann günstiger ist

Rede dir nicht alles schön:)
 

Anhänge

  • Screenshot_20230104_104454_WhatsApp.jpg
    Screenshot_20230104_104454_WhatsApp.jpg
    55,4 KB · Aufrufe: 88
Zuletzt bearbeitet:
Wow bis zu 3x schneller dann musst du Sie dir kaufen :) und exklusives dlss 3.0 hat Sie auch noch. Für solche Käufer sind die nvidia Folien wirklich klasse :)
Beitrag automatisch zusammengeführt:


Höhere Fertigungskosten und Materialkosten bei einem halb so großen Chip? Wenn du in bwl aufgepasst hast ist dir ja bekannt was dann günstiger ist

Rede dir nicht alles schön:)
Und wenn du aufgepasst hättest würdest du den Unterschied von Früher zu Heute kennen:

1672825927049.png


Dir ist bewusst dass aktuelle Belichtungen und Verringerung der Chipfläche extrem kostspielig sind. Allein schon in Forschung und Entwicklung? Dann noch die extrem teuren Techniken für die Belichtung?
Ach was rede ich, kleiner und weniger Material muss billiger sein.
 
Höhere Fertigungskosten bei einem halb so großen Chip? Rede dir nicht alles schön:)
Es ist nun mal so je komplexer eine Fertigung ist (und sie ist komplexer je kleiner es wird - das ist quasi als Fakt zu sehen) umso teurer wird es, weil da auch andere (teurere und bestimmt nicht wartungsärmere) Gerätschaften arbeiten und nicht die Urgesteine die noch heutzutage simple 14, 16, 20nm aufwärts Chips herstellen die quasi schon Betriebssteuerlich abgeschrieben sind und nur mehr Gewinn abwerfen. Die Chipgröße hat wenig damit zu tun wie teuer der sein "darf". Wenn ich jetzt Chipgröße anhand von Transistoren vergleiche hätte ich zwischen 4080 und 3080 ca. 66% der Chipfläche aber etwas über 38% mehr Transistoren. Auf einmal ist der neue Chip "größer"
 
Wie kommt man eigentlich auf die Rechnung, dass umso kleiner der Chip umso geringer die Kosten für die Fertigung sind? Hat dafür jemand eine Quellen-Angabe? Ist das nicht eher eine Milchmädchenrechnung? Wenn ich das richtig verstanden habe, ist doch eher so: Umso kleiner der Chip, umso höher die Wafer-Kosten:

 
Früher war doch alles besser :) für dich habe ich die aktuellen Chipgrößen extra vergrößert

Vielleicht fällt dir dann etwas auf
Ja, mir fällt auf dass du augenscheinlich keine Ahnung hast wovon du redest. Das ist aber auch alles!
 
Wo sind denn nun die Reviews? Fiel das NDA nicht um 00:00 Uhr? Immer dieses hinhalten... :d
 
Wie haben es die Hersteller nur geschafft, in den letzten 40 Jahren das ganze Verhältnis im groben trotz kleineren/modernen Fertigungen und trotz steigenden Fertigungskosten in einer moderaten Preissteigerungswelle beizubehalten und was ist plötzlich so extrem anders, dass dieses Prinzip daneben ist? und ich schliesse jetzt mal im Durchschnitt alle Schwankungen und Peaks da mit ein, trotzdem sticht der Preisanstieg der Produkte doch schon größer heraus...

P.S. War es nicht zwischendurch auch so, dass bei kleinerer Fertigung Kosteneinsparung gab, da es mehr "Stück" pro Wafer gab? Dagegen rechnen kann man gern die moderneren Belichtungsmaschinen etc.!? ;) Zumindest hat dieses "balancing" in früheren Zeiten (s.o.) nicht zu so drastischen Schwankungen geführt...
 
Es ist nun mal so je komplexer eine Fertigung ist (und sie ist komplexer je kleiner es wird - das ist quasi als Fakt zu sehen) umso teurer wird es, weil da auch andere (teurere und bestimmt nicht wartungsärmere) Gerätschaften arbeiten und nicht die Urgesteine die noch heutzutage simple 14, 16, 20nm aufwärts Chips herstellen die quasi schon Betriebssteuerlich abgeschrieben sind und nur mehr Gewinn abwerfen. Die Chipgröße hat wenig damit zu tun wie teuer der sein "darf". Wenn ich jetzt Chipgröße anhand von Transistoren vergleiche hätte ich zwischen 4080 und 3080 ca. 66% der Chipfläche aber etwas über 38% mehr Transistoren. Auf einmal ist der neue Chip "größer"

Ja weshalb war dann die uvp der letzte 5 gpu Generationen ungefähr gleich ? Unglaublich nach deiner Erklärung:)
 
Das ist echt zu geil. Nvidias Marge fällt von 65%(!) auf 45% und der Konzern kündigt großspurig an, dass man die langfristig projizierte Marge aber werde halten können. Ja wie wohl? Und kann kommen manche hier mit nem Semester BWL um die Ecke weil ja alles teurer wird mit dem Sprit und so. :fresse2:

Ey jetzt mal ernsthaft. Hier wird gemolken was das Zeug hält solange es geht, weil Nvidia einfach ihre alte Marge wieder haben will. Und der Einbruch auf 45% muss erstmal kompensiert werden.
Und AMD ist auch nicht viel besser mit ihrer Preisgestaltung. Die 7900 XT für 999€ Straßenpreis ist auch affig.

Wird sich zeigen ob die Kunden oder Nvidia den längeren Atem hat. Schade, dass Intel noch so verkackt und AMD seine Preise einfach nur an NVidia orientiert.
 
Wie haben es die Hersteller nur geschafft, in den letzten 40 Jahren das ganze Verhältnis im groben trotz kleineren/modernen Fertigungen und trotz steigenden Fertigungskosten in einer moderaten Preissteigerungswelle beizubehalten und was ist plötzlich so extrem anders, dass dieses Prinzip daneben ist? und ich schliesse jetzt mal im Durchschnitt alle Schwankungen und Peaks da mit ein, trotzdem sticht der Preisanstieg der Produkte doch schon größer heraus...

P.S. War es nicht zwischendurch auch so, dass bei kleinerer Fertigung Kosteneinsparung gab, da es mehr "Stück" pro Wafer gab? Dagegen rechnen kann man gern die moderneren Belichtungsmaschinen etc.!? ;)
Das bezweifelt auch gar keiner. Aber die Milchmädchenrechnung von Chipgröße und Material auf Fertigungskosten zu kommen erschließt sich mir nun mal nicht...
 
Wie kommt man eigentlich auf die Rechnung, dass umso kleiner der Chip umso geringer die Kosten für die Fertigung sind? Hat dafür jemand eine Quellen-Angabe? Ist das nicht eher eine Milchmädchenrechnung? Wenn ich das richtig verstanden habe, ist doch eher so: Umso kleiner der Chip, umso höher die Wafer-Kosten:
Worauf sich häufig bezogen wird, sind die yields pro Wafer. Ist der Chip kleiner, passen mehr davon auf einen Wafer und entsprechend sinkt der Preis pro Stück. Forschung und Entwicklung + die Technologie eine kleine Fertigungsgröße zu verwenden, wird dabei häufig außer Acht gelassen.
 
Den letzten Satz verstehe ich nicht so ganz, denn "Material" und Chipgröße sind doch Teil der Fertigungskosten, diese Variablen sind doch nebst Produktionsmaschinen und Lohnkosten essentieller Bestandteil dieser!? oder verstehe ich die Aussage falsch?
War auf @Tremendous bezogen...
 
und AMD seine Preise einfach nur an NVidia orientiert.
Oder TSMC das für seine Chips verlangt was sie nun mal nach Ansicht von TSMC kosten sollen ist noch keinem in den Sinn gekommen? Würden NVidia und AMD überhaupt billiger verkaufen können? Das AMD bei seinem Kühler gespart und NVidia nicht Unsummen für Adapter ausgibt wissen wir ja mittlerweile.
 
D
Den letzten Satz verstehe ich nicht so ganz, denn "Material" und Chipgröße sind doch Teil der Fertigungskosten, diese Variablen sind doch nebst Produktionsmaschinen und Lohnkosten essentieller Bestandteil dieser!? oder verstehe ich die Aussage falsch?
War auf @Tremendous bezogen...
Ob ich nun 2g Silizium habe oder 5g ist nicht der Kostentreiber. Der Kostentreiber ist die Belichtungstechnik und wieviel ich aus der Fläche dann rausholen kann. Und da kommen die Kosten zu Stande. Dann was noch alles um den Nacktchip konzipiert und angehangen werden muss. Der Materialwert der Rohstoffe ist völlig unerheblich, allein was man aus den Rohstoffen macht kostet den Hersteller...
 
Oder TSMC das für seine Chips verlangt was sie nun mal nach Ansicht von TSMC kosten sollen ist noch keinem in den Sinn gekommen? Würden NVidia und AMD überhaupt billiger verkaufen können? Das AMD bei seinem Kühler gespart und NVidia nicht Unsummen für Adapter ausgibt wissen wir ja mittlerweile.
Schau dir bitte den Screenshot von dem User mit der Die-Größe an. Das ist schon sehr aufschlussreich.

Ein über 600mm² Monsterchip als Haloprodukt kostet mit fetter Marge 1600$ UVP. Oder glaubst du Nvidia verkauft die 4090 mit Verlust? Einen guten 600mm² Chip zu produzieren ist TEUER. Und das Ding ist nichtmal Vollausbau.

Und jetzt schaut man mal auf die 4080. Was fällt da auf?
 
Tatsache Ist die UVP ist fast doppelt so hoch und der Chip ist fast halb so groß wie zur 3080/4080 :) da können die rechtfertigen wie Sie möchten :) win win für nvidia
 
Dazu kommen gestiegene Fertigungskosten
Macht so eine GPU mittlerweile 96% des Preises einer Graka?

Custom hier und custom da und Transport, Entwicklung und Forschung... Eine PS4 mit 500GB kostet(e) die meiste Zeit zwischen 499 und 549. Eine PS5 mit 825GB und Laufwerk, die meiste Zeit unter 700€.
Was soll uns das jetzt sagen? Ja genau. Was sagt uns das? Mal kurz die Prozentrechnung auffrischen...
 
Zuletzt bearbeitet:
Gibt es für diese Behauptung auch eine Quelle? Laut verschiedenen Quellen ist die Software drumherum der größte Kostentreiber:
Es ging um die Behauptung dass mit kleinerem Chip weniger Material erforderlich ist und somit der Preis in gleichem Maße fallen müsse. Rohmaterial ist aber nicht der Kostentreiber bei der Produktion. Bei der Produktion ist es die Belichtung. Bei der Entwicklung sieht das natürlich anders aus. Aber das weiß unser BWL Justus hier im Thread wahrscheinlich besser als wir...
 
Ein ernst gemeinter Vorschlag: Macht es vielleicht Sinn einen "ich hasse die NVidia Preise und NVidia gleich mit" Thread aufzumachen, wo all das ganze Gelaber abgeladen werden kann, so dass die eigentlichen Threads zum Thema sich dann wieder auf die echten Informationen konzentrieren können und nicht so verwässert werden?
Nein, denn ich habe für turbofucker mal so einen thread gemacht ind der wurde sofort geschlosse ln.
 
1k für die 4070 (das "ti" macht es auch nicht mehr besser) ... Prost Mahlzeit

Keine Ahnung, ob ich die mir mal kaufe. Aktuell eher nicht...
 
Es ist traurig, dass die Leute immer noch rechnen: Kosten + Marge = Preis.
Vielleicht fällt es irgend wann mal auf, dass das keine Plan sondern eine soziale Marktwirtschaft ist mit marktwirtschaftlichen Mechanismen.
 
Wie kommt man eigentlich auf die Rechnung, dass umso kleiner der Chip umso geringer die Kosten für die Fertigung sind? Hat dafür jemand eine Quellen-Angabe? Ist das nicht eher eine Milchmädchenrechnung? Wenn ich das richtig verstanden habe, ist doch eher so: Umso kleiner der Chip, umso höher die Wafer-Kosten:

Na wenn der Chip grob halb so groß ist von der Fläche her, dann kostet er auch nur halb so viel.

Nicht Strukturbreite und Chipfläche verwechseln. 😉
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh