NVIDIA GeForce RTX 2080 mit erstem TimeSpy-Ergebnis

Äh, und irgendwann bezahlen wir dann mal ein paar Millionen für ne neue Grafikkarte?
:stupid:
Das geht aber auch nur so lange wie Amd nichts vernünftiges liefern kann, was wohl noch länger dauern wird.
Aus Firmensicht machen die Preise also durchaus Sinn, auch wenn es manchen nicht gefallen mag.
Wenn überhaupt sollte man sich bei Amd beschweren.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gut aber es sind ja wohl nicht mal die Grafikkarten selber, sondern das Feature RT was sie nun so teuer macht, einfach mal differenzierter betrachtet, während AMD die Features bei Vega wie zuletzt on Top gebracht hat, auch wenn diese leider etwas ausgebremst wurden, ihr wisst was ich meine. :fresse:
 
Kannst du aber knicken mit den neuen RTX! ;) Es sind ja nur wenige Berechnungen welche die Karte per RayTrace kann.... im VFX Bereich (bin da selber sehr aktiv) sind ganz andere Anforderungen, wo eine RTX 0,0 bringt.

Ob die RTX dann in einem Blender die "Vorschau" in Echtzeit ohne Laden und Rauschen darstellt, waage ich zu bezweifeln. Zumindest bei der ersten Generation. Ob das aber dann wirklich 0,0 sind? Hängt das nicht letztendlich davon ab, ob und was der entsprechende Entwickler vom RT Core berechnen lässt?
 
Zuletzt bearbeitet:
man könnte hier auch von einer Art "Nötigung" sprechen,

:wall::stupid:

niemand, wirklich NIEMAND auf dieser Welt zwingt dich 1. eine NVidia zu kaufen und 2. damit zu spielen

wie kann man den ganzen Tag so einen Bullshit ablassen?
 
Naja... ich will nicht gleich von Zwang reden, aber AMD tut schon viel dafür dass man schlussendlich Nvidia kauft :p
 
Nvidia-be-like.jpg

Nein im Ernst ich denke die Karten werden ihr Geld wert sein und Nvidia wird auch mit der 2070 ne Karte bereithalten für die die eben nicht soviel ausgeben möchten und noch auf 1080p zocken.
 
Ich meinte genötigt zu werden dieses Feature RT mit zu kaufen, denn wenn ich eine große Nvidia will muss ich das doch tun, oder nicht? ;)
 
Und mich wird erst die Pimax8K, wenn überhaupt, zum Kauf einer neuen GPU verleiten. Meine 1080ti @2070Mhz ist unschlagbar. Den 4K monitor habe ich auch beiseite gestellt, 1440p@140Hz ist erheblich besser.
Fallout4 VR@ 1.30x SS langt auch. :fresse:

Ich frag mich die ganze Zeit was die Leute hier für Wellen schlagen. Erst mal eine 1080ti haben, dann sehen wir weiter!

Ehrlich gesagt tausche ich höchstwahrscheinlich den 1950X mit dem 2950X (31.8 release?). Ja solche Luxusprobleme muss man erst mal haben.
Das bringt mir mehr Spaß (overclocking :-D) als eine GPU (OC hard locked?), die mir am Ende noch mehr FPS um die Ohren ballert obwohl ich ohnehin schon mehr als genug Leistung habe. Quake Champions 170-190fps, langt.
 
Zuletzt bearbeitet:
639€ Karte für Leute "die eben nicht so viel ausgeben möchten" :bigok:

Intel wird sich freuen wenn sie selbst ggf. konkurrenzfähige GPUs bringen und Nvidia bereits dieses Preisniveau etabliert hat.
 
This!

Und für die, die nichts ausgeben wollen gibt's dann noch die 2060 für 499. :fresse:
 
Und mich wird erst die Pimax8K, wenn überhaupt, zum Kauf einer neuen GPU verleiten. Meine 1080ti @2070Mhz ist unschlagbar. Den 4K monitor habe ich auch beiseite gestellt, 1440p@140Hz ist erheblich besser.
Fallout4 VR@ 1.30x SS langt auch. :fresse:

Ich frag mich die ganze Zeit was die Leute hier für Wellen schlagen. Erst mal eine 1080ti haben, dann sehen wir weiter!

Ehrlich gesagt tausche ich höchstwahrscheinlich den 1950X mit dem 2950X (31.8 release?). Ja solche Luxusprobleme muss man erst mal haben.
Das bringt mir mehr Spaß (overclocking :-D) als eine GPU (OC hard locked?), die mir am Ende noch mehr FPS um die Ohren ballert obwohl ich ohnehin schon mehr als genug Leistung habe. Quake Champions 170-190fps, langt.

"Unschlagbar" :rofl: In Bezug auf was genau? Für eine RTX 2080 Ti müsste der Threadripper sowieso erstmal weichen, da du permanent im CPU Limit läufst.

Aber ja, es geht um Spaß. Manchen macht es Spaß sich als early adopter eine Graka für 1249 Euro zu kaufen, ohne das man direkt einen Nutzen der neuen Features hat, sondern "nur" ein wenig mehr Leistung als bisher unter herkömmlichen Umständen. Andere kaufen gerne CPUs, andere haben ein Notebook aus 2008 und spielen Solitär :d
 
Ob die RTX dann in einem Blender die "Vorschau" in Echtzeit ohne Laden und Rauschen darstellt, waage ich zu bezweifeln. Zumindest bei der ersten Generation. Ob das aber dann wirklich 0,0 sind? Hängt das nicht letztendlich davon ab, ob und was der entsprechende Entwickler vom RT Core berechnen lässt?

Gibts überhaupt ne Aussage dazu seitens den Blender Jungs? Mir wäre aktuell nicht bekannt, dass da was im Gange ist. Es finden sich Aussagen getätigt in der Woche zwischen Quadro und Geforce Vorstellung, dass Blender das schlicht nicht kann und auch nicht dran gearbeitet wird. NV führt auf der Page Blender einfach nur als Shaderbased GPU Beschleunigung. Während bei anderen (Autodesk bspw.) explizit auf die neuen Techniken hingewiesen wird...

Ansonsten, mit 2-4 1080TIs kann man schon ganz gut im Viewport von Blender arbeiten. Das "kann" also nur besser werden. Problem an der ganzen Kiste ist, dass der VRAM eben begrenzt ist. "Kein" Mensch baut sich zwei 10k Quadros da in den PC um privat mit Blender bisschen rumzuspielen -> weil damit 96GB VRAM nutzbar sind. Mit bisschen weniger Anforderung könnte man bspw. ältere Hawaii based AMD FirePros da nutzen (32GB pro Stück) - braucht halt paar mehr um auf Leistung zu kommen. Auf 1 Slot Wakü umgebaut frisst so ne Workstation durchaus 7x von den Teilen... :fresse:

Ja, aber was bedeuten dann 20% im absoluten Maßstab? Wenn ein 1GB GDDR5 Chip 20,- $ kostet, dann steigen die Kosten für GDDR6 um 4,- $. Bei 8GB sind das dann 32,- $. Deswegen muss eine Karte aber nicht gleich 100,- $ teurer werden, was aber leider oft so gehandhabt wird. Auch sind das meist grobe Vergleichsangaben der Speicherhersteller selbst. Ich denke, bei Großabnehmern (wie nVidia) sollte das kaum ins Gewicht fallen.

Vor ein paar Monaten hieß es noch 8GB GDDR5(X) kosten grob 100$ - lass es also heute 100$ sein, was NV die 8GB "kosten" - da hat aber noch keiner für gearbeitet, kein R&D Anteil usw. usf.
Preise von 2009 wo der Performancechip bei AMD und NV für 110-130€ real im Laden zu kaufen war, sind bei derartigen Kosten überhaupt nicht machbar. Die >500mm² bzw. die >750mm² bei der DIE Size tun ihr übriges dazu. Der TU104 ist größer als Fermi. Früher haben sich die Leute aufgeregt, dass der 04er Chip als eigentlicher Mainstream Chip mit Namen der HighEnd Karten für HighEnd Karten Geld verkauft wird. Mit Turing scheint eher der 04er Chip das zu sein, was vorher der 00/02er Chip war - und der TU102 kommt einfach OnTop...

Äh, und irgendwann bezahlen wir dann mal ein paar Millionen für ne neue Grafikkarte?
:stupid:

Warum?
Du bezahlst generell doch nur dann, wenn du das Produkt kaufen willst. Und auch nur so viel, wie du bereit bist zu zahlen. Kein normalo Bürger würde paar Mio für ne Grafikkarte ausgeben. Die Kohle hat einfach keiner.
ABER, es wird Leute geben, die das tun würden!! -> heist also, WENN ein Hersteller für diese gut betuchten Personen ne Grafikkarte bauen will - dann tut er das. Ist nichts für mich, ist nichts für dich und für 99,999% der Anderen hier im Forum auch nix. Aber vllt für den einen oder zwei - die zahlen dann alleine die Kosten + Marge und schon hat sich das für nen Hersteller gelohnt. Nichts anderes passiert mit jedweden Luxusgütern in sogut wie allen Branchen. (außer bei IT im Moment - da halten sich die Hersteller noch zurück -> obwohl der Trend mit 5 Stellige Preise für CPUs und GPUs im Profibereich schon in diese Richtung geht)

Nein, nicht ok, nach zwei Jahren Zyklus. Du schreibst es selbst, preis/leistung ist relevant. Das sollte sich aber mit einer neuen Generation verbessern. Turing macht da im Vergleich zu Pascal Stagnation, wenn nicht gar einen Rückschritt.

Um wie viel wollen wir wetten, dass sich MEINE Definition von "Leistung" von DEINER Definition von Leistung unterscheidet?
-> P/L ist nichts wert ohne die Leistung klar zu definieren. Und nein, Preis pro FPS ist nicht der Indikator, der so wirklich relevant ist... Für viele ist es ein großer Punkt, aber lange nicht (mehr) der alleinige. Leistungsaufnahme, Lautstärke, Teilweise Optik, Größe, Features, Garantie usw. usf -> alles Parameter die in "Leistung" eingehen... Und die Kosten verursachen.

Rein Preis pro FPS zu messen ist wie ein Vergleich von absoluten TopSpeed im Bereich Fahrzeuge. Da kann das Bike noch so schnell unterwegs sein - wenn du deine 9 Kinder transportieren willst oder 10t Zuladung mit in den Urlaub müssen brauchst du ganz andere Leistungsindikatoren - die am Ende auch den Preis bestimmen.
 
Ich hatte ja erwartet, dass jetzt 2050, 2060, 2070 und 2080 kommt und dann nach einem Jahr die 2080TI. Nun kam ja aber alles anders...

Frage: Ist bekannt was dann in einem Jahr kommt bzw. geplant ist? 2080TI+?

Jetzt eine 1300,00 Euro GPU kaufen, die dann in einem Jahr "nichts mehr" Wert ist, weil die neue (z.B. 2080TI+) Karte RTX endlich "im Griff" hat wäre sehr ärgerlich.
 
Frage: Ist bekannt was dann in einem Jahr kommt bzw. geplant ist? 2080TI+?

Als nächstes wird es einen refresh in 7nm geben von Turing (2085), wahrscheinlich schon im neuen Jahr, wie lange es dann dauert bis zu nächsten Gen. weiß man noch nicht.
 
Als nächstes wird es einen refresh in 7nm geben von Turing (2085)...

Wann gab es bitte bei NV das letzte mal einen "Refresh" einer Generation rein auf den Prozess beschränkt?
Das war G200 auf G200b, 65nm auf 55nm und ist mal ganz galant 9 Jahre her...

NV wird, wenn sie nächstes Jahr was neues bringen, eher einen Turing Nachfolger in 7nm bringen. Der "erste" Schritt des RTX Zeugs dürfte mit einem neuen Prozess sehr stark ins Hintertreffen geraten, je nachdem, wie das Feature bis dahin anklang findet und ob die Entwickler da in Fläche drauf aufspringen zeigt sich das dann beim Kunden. War eigentlich bei allen Neuerungen im GPU Bereich so - die erste Gen ist recht schnell überholt mit dem Nachfolger. Und meist läufts erst mit Gen. 2 oder gar 3 dann so langsam rund.

Einen Turing Refresh halte ich für absolut unwahrscheinlich... NV hat es seit effektiv Kepler mit jedem Release geschafft ne Punktlandung zu fabrizieren. Warum sollte das mit 7nm nur ein popliger Refresh werden?? Mitte/Ende 2019 wäre realistisch für ne neue 7nm Gen. lässt man sich bisschen mehr Zeit, wirds vllt Anfang/Mitte 2020. Am Interessantesten dürfte dann Intel als Gegenpartei werden. Ob AMD mit nem Navi 7nm GCN Aufguss was reißen können wird, wird sich zeigen. 1080TI Performance bei weniger Verbrauch als Vega64 ist schon im Rahmen des Möglichen. Obenraus dürfte aber da erst 2020+ was passieren (wenn überhaupt noch was dort passiert -> abwarten)
 
@fdsonne

Ganz recht, ich könnte mir aber vorstellen, dass Turing wieder ein Kandidat ist für einen refresh auf 7NM ist, ähnlich wie es bei G200 auf G200b war, aber ist natürlich alles noch Spekulation. ;9
 
Zuletzt bearbeitet:
Gibts überhaupt ne Aussage dazu seitens den Blender Jungs? Mir wäre aktuell nicht bekannt, dass da was im Gange ist. Es finden sich Aussagen getätigt in der Woche zwischen Quadro und Geforce Vorstellung, dass Blender das schlicht nicht kann und auch nicht dran gearbeitet wird. NV führt auf der Page Blender einfach nur als Shaderbased GPU Beschleunigung. Während bei anderen (Autodesk bspw.) explizit auf die neuen Techniken hingewiesen wird...

War rein exemplarisch gemeint. Aber gut, dass du es gleich belegt, eh.. widerlegt hast. Ersetze eben Blender mit was anderem, Maya oder 3dmax, je nach dem was da von Autodesk kommen soll. :)

2-4 1080Ti vs 1-2 2080Ti vielleicht, dank RT? Rein spekulativ, wird in paar Wochen etwas weniger spekualtiv und vermutlich erst im Laufe des nächsten Jahres klarer.
 
So ein Unsinn, Skynet.... :stupid:
Ich mache mir nur Gedanken über diese Entwicklung und das es klar weg geht vom Rechner daheim. Des Weiteren mache ich mir einfach auch Gedanken was und wohin von meinen Daten gesendet wird. Sollte man nicht so leicht hinnehmen, die Büchse der Pandora ist schneller geöffnet als einen lieb ist.

Ich bezweifle, dass Deine Daten irgendwohin gesendet werden.
Wieso sollte NVidia auf Nutzerdaten zu den Games warten um sie zu optimieren?
Der Optimierungsprozess dauert mit Supercomputer viele Stunden, oder sogar Tage. Und Deine Bilder vom Game sind dabei total irrelevant.

NVidia wird einfach das Spiel kaufen und es dann berechnen. Dann schicken sie das Modell via Treiber an die Karten. Total Offline, total ohne Verbindung zu einem Server.
Auf Der 20XX und deren Tensorcores wird dann dieses Model ausgeführt.

Im Extremfall kann ich mir vorstellen, dass NVidia zur Verfeinerung Analysedaten zum Model verschickt. Sprich: Hat das berechnete Model probleme gemacht? Gibt es einen Sonderfall der nicht bedacht wurde durch das Training?
Dann handelt es sich aber rein um die Analyse des Models zusammen mit den problematischen Settings die benutzt wurden + die PC Hardware und Treiberdaten.

Anhand derer kann dann das Model verbessert werden und allen Spielern zur Verfügung gestellt werden.
 
@Nitro

Also wenn du was neues brauchst ist 469€ für die 64er ein TOP Preis., würde ich nehmen. :)

Und ja dieses Jahr wird es wohl von AMD nichts neues für Gamer geben ...
 
Vor ein paar Monaten hieß es noch 8GB GDDR5(X) kosten grob 100$ - lass es also heute 100$ sein, was NV die 8GB "kosten" - da hat aber noch keiner für gearbeitet, kein R&D Anteil usw. usf.
Preise von 2009 wo der Performancechip bei AMD und NV für 110-130€ real im Laden zu kaufen war, sind bei derartigen Kosten überhaupt nicht machbar.

Mir ging es hier ja nur um den Vergleich zwischen GDDR5 und GDDR6. Nach dieser Quelle zu urteilen, ist der Unterschied für Großabnehmer kaum der Rede wert. Was man da als Großabnehmer - absolut gesehen - aktuell für Preise zahlen muss ist natürlich schwer zu beantworten.

Die >500mm² bzw. die >750mm² bei der DIE Size tun ihr übriges dazu. Der TU104 ist größer als Fermi. Früher haben sich die Leute aufgeregt, dass der 04er Chip als eigentlicher Mainstream Chip mit Namen der HighEnd Karten für HighEnd Karten Geld verkauft wird. Mit Turing scheint eher der 04er Chip das zu sein, was vorher der 00/02er Chip war - und der TU102 kommt einfach OnTop...

Was meinst du/schätzt du zahlt nVidia für einen (voll funktionsfähigen) TU102 Chip? Mich interessiert was du da gefühlt für einen Preis ansetzen würdest. Wer Lust hat könnte ja mal ausrechnen wieviel Chips sich aus einen 300mm Wafer entnehmen lassen und anhand der Waferpreise dann ungefähr schätzen. Ich tippe auf mal auf 200 - 250,- $.
 
Was meinst du/schätzt du zahlt nVidia für einen (voll funktionsfähigen) TU102 Chip? Mich interessiert was du da gefühlt für einen Preis ansetzen würdest. Wer Lust hat könnte ja mal ausrechnen wieviel Chips sich aus einen 300mm Wafer entnehmen lassen und anhand der Waferpreise dann ungefähr schätzen. Ich tippe auf mal auf 200 - 250,- $.

:eek:

Ich habe keine Ahnung von dem Thema, aber ich hätte viel weniger geschätzt!

Damals wurden Grakas mit 200mm^2 Chips (65 bzw. 40nm) für 100-150€ Endkundenpreis inkl. Steuer verkauft.

Da wird der Chip in der Produktion keine 3€ gekostet haben.
 
Zuletzt bearbeitet:
NVidia wird einfach das Spiel kaufen und es dann berechnen.

Ich glaub du hast ne völlig falsche Vorstellung wie das Zeugs da funktioniert :fresse:

Zum einen soll doch DLSS/DLAA nur durch explizites Ansprechen der Entwickler funktionieren (also nicht mal eben ein Spiel kaufen und ne KI trainieren) und zum anderen wird da kein Modell vorgerechnet oder ähnliches.

Die KI "lernt" sozusagen was das beste Ergebnis ist. Das kannst du dir so vorstellen, wie dass du jemanden hast, der noch nie draußen in der Natur war und ne Blume auf ein Blatt Papier malen soll. Das kann effektiv nur schief gehen, wenn der jenige nie eine Blume gesehen hat. Die KI bist du - dich schickt man raus ins freie zum Ansehen von Blumen. Wieder und immer Wieder. Und lässt sich dann malen, Blume um Blume. Irgendwann bist du gut, richtig gut, dass du ohne groß Aufwand eine Blume malen kannst wofür andere (nämlich die klassischen Methoden) einfach viel mehr Zeit brauchen weil viel mehr Aufwand existiert.
So in etwa kannst du dir das vorstellen...

Im konkreten Fall des AA Mechanismus gehts dort bspw. um eine Art Anti Aliasing. WIE Aliasing verhindern/verringern wenn man nie aliasingfreies Material gesehen hat? -> hier setzt die KI an. Klassisch rendet man das Bild in einer hohen Auflösung und rechnet den Spaß dann runter -> Aufwand ohne Ende. Die KI hingegen lernt, wie ein aliasingfreies Bild aussieht. Wie bspw. Kanten, die im Bild zu sehen sind, eben bei begrenzter Anzahl an Pixeln in der Berechnung optimal darzustellen sind, damit das eben nicht in einer Flimmerorgie mit viel Aliasing endet, sondern schön smooth, flimmerfrei und möglichst noch knack scharf ausschaut. Zusätzlich sprach man von einer Art Mechanismus, der aus einer Berechnung von einem Bild oder vllt auch Bildteil eben durch gezieltes erlernen ein Bild machen kann, was mehr Details hat als im Quellbild eigentlich vorhanden.
Simples Beispiel dazu, wenn ich nur 10 Pixel habe um einen Kreis darzustellen, wird der Spaß NIEMALS rund. Man könnte nun nen Kreis in 100x100 Pixeln oder 1000x1000 Pixeln errechnen und dann runter skalieren auf die native Auflösung. Oder eine KI errechnet die optimalen Bildinformationen durch vorheriges Anlernen, damit der Kreis in 10x10 Pixeln möglichst genau so ausschaut wie der runter skalierte 100x100 oder 1000x1000 Pixel Kreis - vllt sogar besser als diese. Die Berechnung der Hardware selbst bleibt aber bei 10x10 -> inkl. dem niedrigen Leistungsbedarf.


Wie das alles in der Praxis aussehen wird, werden wir sehen - aber ohne gewisse "Kenntnisse" die man der KI übergeben muss, wird das logisch nicht funktionieren. Wie die Daten dann in den heimischen PC kommen ist noch völlig offen. Per Treiberupdates - vllt auch per OnlineZwang mit direktem NSA NV draht?
 
:eek:

Ich habe keine Ahnung von dem Thema, aber ich hätte viel weniger geschätzt!

Damals wurden Grakas mit 200mm^2 Chips (65 bzw. 40nm) für 100-150€ Endkundenpreis inkl. Steuer verkauft.

Da wird der Chip in der Produktion keine 3€ gekostet haben.

Das war vielleicht einmal. An die 3,- $ für einen 200mm² Chip glaub ich nicht. Bei UVP von 150,- $ wären ~20,- $ für den Chip realistisch. Die Preise steigen mit zunehmender Die-Size exponentiell an.
 
Mir ging es hier ja nur um den Vergleich zwischen GDDR5 und GDDR6. Nach dieser Quelle zu urteilen, ist der Unterschied für Großabnehmer kaum der Rede wert. Was man da als Großabnehmer - absolut gesehen - aktuell für Preise zahlen muss ist natürlich schwer zu beantworten.
Steh ich jetzt auf dem Schlauch oder du?
Das sind doch Preise für 1GB Chips - also 8GBit. 26$ x 8 und du kommst ja schon bei >200$ raus für die 8GB auf der 2080. grob 300$ für die TI. Zzgl. Chipkosten und den ganzen anderen Stuff. Ne Marge von mindestens 20% liegt da ganz sicher auch drauf...

Was meinst du/schätzt du zahlt nVidia für einen (voll funktionsfähigen) TU102 Chip? Mich interessiert was du da gefühlt für einen Preis ansetzen würdest. Wer Lust hat könnte ja mal ausrechnen wieviel Chips sich aus einen 300mm Wafer entnehmen lassen und anhand der Waferpreise dann ungefähr schätzen. Ich tippe auf mal auf 200 - 250,- $.

Hab ich schonmal mal drüber nachgedacht. NV bekommt wohl overall irgendwo 68 Chips aus dem Wafer (775mm²).
Die Per Wafer Calculator - Caly Technologies
Kannste mal bisschen rumspielen ;)
Da gibts Formeln für um rauszubekommen, wie hoch so die Ausbeuten rechnerisch sein müssten/sein werden. 1/3 - 1/2 davon dürften grob voll funktionstüchtig.
Es finden sich Zahlen, dass ein 28nm Wafer grob 6000$ kostet. Bei nem 12/14/16nm dürften das deutlich mehr sein, kein Plan, 8-10k vllt?

Rechnen wir mal mit 10k - komm ich auf grob 550$ inkl. den 300$ für den Speicher. Reine Kosten!

Ich persönlich sehe das mit den Preisen halt schon kritisch - aber mache mir da definitiv nix vor. Niedrige Preise in diesem Techniksektor kommt so schnell nicht zurück. Nicht wenn man weiter so baut wie man aktuell baut... Konkurrenz hin oder her, da bringt auch AMD oder Intel nichts -> die haben ähnliche Kosten bei ähnlichem Aufwand/Ausmaßen.

Da wird der Chip in der Produktion keine 3€ gekostet haben.

3€ sind das nicht bloß. Aber alte Prozesse sind halt auch welten billiger. Die Kosten pro 300mm Wafer geprüft und mit hoher Ausbeute steigen recht krass mit jedem neuen Fertigungsschritt.
 
Sehe gerade ich habe mich vertan, ich bezog mich auf die 8800GT (140€) und die HD5850 welche zuletzt für 110€ verschleudert wurde, diese hatten einen 324 bzw. 334mm² großen Chip :eek:
 
Zuletzt bearbeitet:
Das war vielleicht einmal. An die 3,- $ für einen 200mm² Chip glaub ich nicht. Bei UVP von 150,- $ wären ~20,- $ für den Chip realistisch. Die Preise steigen mit zunehmender Die-Size exponentiell an.

Bedenke bei der G200b gabs damals Aussagen der Partner, die den Spaß eingestellt haben -> so wurde bspw. der Verkauf der GTX 295 gestopt, weil nicht mehr wirtschaftlich. Das was da 2009 für Preise gefahren wurden, war schlicht das absolut unterste Ende ohne Luft. AMD konnte sicher noch bisschen, denn die hatten den kleineren Chip. Aber das große G200b Teil auf ner GTX 260² für 130€ war schon sportlich...

Das hatte dann aber alles ein jehes Ende mit dem Cypress von AMD - der bei ~60% mehr Performance zur HD4870 einfach mal Faktor 2,4x oder sowas in der Größenordnung auf dem Papier unten Rechts zu stehen hatte. Seit dem steigt der Spaß...

Sehe gerade ich habe mich vertan, ich bezog mich auf die 8800GT (140€) und die HD5850 welche zuletzt für 110€ verschleudert wurde, diese hatten einen 324 bzw. 334mm² großen Chip :eek:

Was möchtest du uns denn nun damit sagen?
Fermi gibts heute auch hinterher geschmissen. Oder ne 8800GTX oder 8800 Ultra. Ist doch unsinnig so ein Vergleich da Abverkaufspreise ggü. den Vorbesteller Neupreisen der kommenden Generation zu setzen...
 
Steh ich jetzt auf dem Schlauch oder du?
Das sind doch Preise für 1GB Chips - also 8GBit. 26$ x 8 und du kommst ja schon bei >200$ raus für die 8GB auf der 2080. grob 300$ für die TI. Zzgl. Chipkosten und den ganzen anderen Stuff. Ne Marge von mindestens 20% liegt da ganz sicher auch drauf...

Ich versteh jetzt irgendwie auch nichts mehr. Was willst du mir mit dieser Rechnung sagen? Ich Zweifel das doch gar nicht an!? Ich sag ja nur, egal ob da nun GDDR5 oder GDDR6 drauf ist, an den Preisen würde das relativ wenig ändern.

Rechnen wir mal mit 10k - komm ich auf grob 550$ inkl. den 300$ für den Speicher. Reine Kosten!

Wahnsinn! :eek:

Das kommt mir dann doch arg viel vor. Glaube nicht das das so viel sein wird. Kann mir kaum vorstellen, dass man sowas überhaupt fertigen würde bei den Preisen. Wobei...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh