Grafikkarten-Preise fallen weiter

Stegan

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
16.12.2005
Beiträge
16.274
Ort
Augsburg
<p><img style="margin: 10px; float: left;" alt="hardwareluxx_news_new" src="images/stories/logos/hardwareluxx_news_new.jpg" height="100" width="100" />Es ist eigentlich kein großes Geheimnis, dass die Preise nach Einführung neuer Modelle nach unten korrigiert werden. Selten aber gibt es soviel Leistung fürs Geld. Während <a href="http://www.amd.com/de-de/" target="_blank">AMD</a>s neuster Mittelklasse-Chip in unserem <a href="http://preisvergleich.hardwareluxx.de/" target="_blank">Preisvergleich</a> bereits für <a href="http://preisvergleich.hardwareluxx.de/a426946.html" target="_blank">etwa 82 Euro</a> gehandelt wird und damit erstmals an der 80-Euro-Marke kratzt, ist die ATI Radeon HD 4850 hingegen schon für <a...<p><a href="/index.php?option=com_content&view=article&id=12013&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ist schon irgendwie Wahnsinn wie sich die Preies in dem letzten Jahr entwickelt hat. Früher hat man zu solchen Preisen nur ne Office Karte bekommen.
 
Jopp und eine hd4850 damit kannste auch auf 24er tfts noch alles zocken(und das nicht nur in mittleren einstellungen)
@bladespirit selbst wenn würde ich von CF abraten das macht noch mehr probleme als sli ;)
 
^^ ich investiere eh lieber in einen 16:9 24\" tft. sollte meine 4850 auch schaffen. Ich krebs hier noch mit 17\" rum...
 
Entweder ist die Nachfrage so gering dass der Händler seine Preise senkt um mehr Kunden anzulocken oder es ist ein Zeichen dafür dass bald der neue Chip raus kommt und der jetzige rv770 so schnell wie möglich abverkauft wird?
 
Da kann ich nichts dazu sagen da ich nur einen Monitor haben.
Mit aktuellen Treiber war SLI immer sehr zuverlässig und hat auch in den meisten Spielen recht gut skaliert.
 
CF laeuft in der Regel auch super, aber wehe man macht mehr mit seinem Rechner ausser Framegeil daddeln dann gehen bei den gruenen leider schnell die Lichter aus :kotz:
 
wenn ich mir den gerade wieder gestarteten Preiskampf den ATI da anzettelt anschaue, wird immer behauptet das ATI ja so toll mit den Preisen druck auf NV macht, aber

wer sagt das ATI sich das wirklich leisten kann?

wer sagt das ATI das nur macht, weil sie mom gegen NV die seit dem G92 ne menge vorsprung zu ATI haben nichts richtiges zu bieten hat.

der 4770 den 4850 so stark unter druck setzt, das die reste erstmal weg müssen.

NV sich das selbstzerfleichen ATIs in ruhe anschaut, und abwartet.
der G92 deckt den mittelklasse bereich immernoch super ab!

NV sich auf dem G92 nicht ausruht, und schon bald die ersten richtig guten DX11 Chips auf den Markt bringt, und ATI dann wiedet ne bauchlandung in der High end klasse erlebt ?
 
ATI hat NV nichts entgegen zu setzen? Vielleicht in der obersten High-End-Klasse, aber da wird nicht das Geld verdient. Sonst hat ATI doch überall ein passendes Gegenangebot. Und eine "Bauchlandung" hat ATI mit der 48xx Seire ganz sicher nicht gemacht.

Und wenn sich NV so unbeeindruckt zeigen würde, würden sie nicht ebenfals die Preise runtersetzen, so wie GTX 260 und 280 damals massivst gefallen sind innerhalb kürzester Zeit.

Bitte mal objektiv betrachten.
 
ATI hat NV nichts entgegen zu setzen? Vielleicht in der obersten High-End-Klasse, aber da wird nicht das Geld verdient. Sonst hat ATI doch überall ein passendes Gegenangebot. Und eine "Bauchlandung" hat ATI mit der 48xx Seire ganz sicher nicht gemacht.

Und wenn sich NV so unbeeindruckt zeigen würde, würden sie nicht ebenfals die Preise runtersetzen, so wie GTX 260 und 280 damals massivst gefallen sind innerhalb kürzester Zeit.

Bitte mal objektiv betrachten.

da erwartest du aber zu viel!!

da wir nicht in die kalkulationen der hersteller schauen können, müssen wir davon ausgehen, dass es preislich machbar ist für ati.
alles weitere sind spekulationen und persönliche meinungen.
 
da erwartest du aber zu viel!!

da wir nicht in die kalkulationen der hersteller schauen können, müssen wir davon ausgehen, dass es preislich machbar ist für ati.
alles weitere sind spekulationen und persönliche meinungen.

Natürlich kann keiner in die Kalkulationen schauen. Und es kann auch sein, dass es ATI sich nicht wirklich leisten kann, aber NV damit unter Druck setzt, was ja zu funktionieren scheint.

Die objektive Betrachtung bezog sic hauf Hardwarekenner, der Vorsprung, den Nvidia mal hatte, ist momentan nicht mehr vorhanden oder zumindest stark geschrumpft. In der nächsten Kartengeneration werden die Karten aber wieder neu gemischt.
 
mein erster satz bezog sich auch auf hardwarekenner ;)

im moment funktioniert aber der preisdruck, da braucht man nicht drüber diskutieren.
 
Es ist doch hinlänglich bekannt und auch bestätigt von manchen Boardpartnern, das NV mit dem Verkauf von G200 Modellen zu heutigen Preisen mehr oder weniger Pro Karte sogar Verlust einfährt... Ein Glücksgriff sind die Teile also bei weitem nicht.

AMD hingegen hat mit den RV770 GPUs einen guten Griff gelandet, kleine vergleichsmäßig günstig zu produzierende GPUs, welche obendrein den Top NV Modellen in so viel nicht nach stehen.
Mit dem RV790 wurde sogar nochmal ein Satz oben drauf gesetzt...


Wenn man den Spekulationen glauben mag, dann scheint sich das Blatt mit der kommenden Generation nicht wirklich zu wenden, NV baut nen riesigen Monster Chip, und wird damit sicher wieder die Leistungskrone im Single GPU Bereich holen, AMD wird sicher wieder auf deutlich kleinere GPUs setzen, vllt wieder so um die 25-30% langsamer, dafür aber mit nem hammer P/L Verhältniss, was NV wiederum drastisch zum Preise senken zwingen sollte...
Aber hier bleibt abzuwarten, was wirklich kommen mag...
 
Er kommt, er schaut und beginnt zu tippen...

Ich finds gut, dass die Preise fallen. Das ist vlt. der richtige Weg um Kunden halten zu können, vorallem jetzt. Meine NV 9600GT 1GB Karte werd ich noch behalten bis DX11 released wird. Bis jetzt konnt ich alles was ich mag (Grid, TDU und andere Racing Games) auf alles High + 1650x1080 zocken. Das reicht für mich.
Jetzt noch teueres Geld - gut wird ja billiger^^ - ausgeben, dass ist immo nicht dringend und auch nciht notwendig. Aber ich bin ja nicht alle.
 
@fdsonne: diese Taktik kann nVidia sich auf Dauer aber nicht leisten. Nehmen wir mal an, ATi baut mit der RV890 wieder ein super P/L Chip und verkauft den auch richtig gut; nVidia hingegen baut weiter seinen Monsterchip, fährt aber Verluste ein und ist gezwungen die Preise drastisch zu senken. Unter einen bestimmten Preis können sie nicht, da die Kosten für die gesamte Produktion und Entwicklung schon recht hoch sind und sie somit noch mehr Verlust einfahren würden. Also so weiter machen geht doch auch nicht?
 
@fdsonne: diese Taktik kann nVidia sich auf Dauer aber nicht leisten. Nehmen wir mal an, ATi baut mit der RV890 wieder ein super P/L Chip und verkauft den auch richtig gut; nVidia hingegen baut weiter seinen Monsterchip, fährt aber Verluste ein und ist gezwungen die Preise drastisch zu senken. Unter einen bestimmten Preis können sie nicht, da die Kosten für die gesamte Produktion und Entwicklung schon recht hoch sind und sie somit noch mehr Verlust einfahren würden. Also so weiter machen geht doch auch nicht?

Das frag ich mich auch wie das gehen mag...
Vor allem, wenn man bedenkt, das es bis jetzt keine Mainstream Karten auf G200 Basis gibt und wohl vorerst auch keine Mittelklasse auf G(T)300 zu erwarten ist frag ich mich wirklich, was NV da fabriziert...
Es schaut aktuell wirklich so aus, als ob die HighEnd GPUs wirklich nur für HighEnd gebaut werden...

Bei AMD hingegen gibts zu jeder neuen Gen auch neue verbesserte Mittel- und Einsteigerkarten dazu. Welche auf den aktuellen Std. aufbauen...
 
Wäre es aus technischer Sicht möglich (erstmal nur theoretisch betrachtet, über die anfallenden Entwicklungskosten und den Bedarf will ich gar nicht erst nachdenken :d)
eine GPU zu entwicklen, bei der man einen Aufbau ähnlich wie bei dem Core i7 hat? Also ein Art QPI oder Bus der alle Daten innerhalb der GPU nochmal verteilt und zu den einzelnen Rechenwerken schickt. Somit wäre die Möglichkeit gegeben, Teile von diesen Recheneinheiten ganz wegzulassen und somit adhoc einen Mainstream oder sogar Low-End Chip zu produzieren ohne zusätzliche Entwicklung. Man könnte sogar soweit gehen und sagen, Teile von diesen Recheneinheiten werden bei geringer Last abgeschaltet um Strom zu sparen.
 
@ PCZeis, sowas ist bei aktuellen GPUs nicht möglich.
Aber Larabe könnte sowas in die Richtugn werden, grob gesagt.
 
@copyright:
das kann man so nicht sagen! Vllt. ist es doch möglich (also das Grundgerüst der jetzigen GPUs kombiniert mit meiner Idee)
Auf jeden Fall steckt das ganze noch in den Kinderschuhen :)
 
Wäre es aus technischer Sicht möglich (erstmal nur theoretisch betrachtet, über die anfallenden Entwicklungskosten und den Bedarf will ich gar nicht erst nachdenken :d)
eine GPU zu entwicklen, bei der man einen Aufbau ähnlich wie bei dem Core i7 hat? Also ein Art QPI oder Bus der alle Daten innerhalb der GPU nochmal verteilt und zu den einzelnen Rechenwerken schickt. Somit wäre die Möglichkeit gegeben, Teile von diesen Recheneinheiten ganz wegzulassen und somit adhoc einen Mainstream oder sogar Low-End Chip zu produzieren ohne zusätzliche Entwicklung. Man könnte sogar soweit gehen und sagen, Teile von diesen Recheneinheiten werden bei geringer Last abgeschaltet um Strom zu sparen.

Nei den NVs ist das doch mehr oder weniger schon der Fall mit den ROP Clustern, du hast seit dem G80 ROP Clustereinheiten, welche du nach belieben in der Anzahl skalieren kannst.
Abschalten der Teile im Idle geht aber derzeit nicht, aber sollte technisch sicher auch möglich sein.
Wenn man so will könnte NV bei den G200 GPUs einfach noch weitere ROP Cluster anpappen und schon wäre die Büchse schneller bei gleichem Takt...

Nachteil ist aber du musst beim anpappen oder weglassen jedesmal ein neues Chipdesign entwerfen.
 
Das frag ich mich auch wie das gehen mag...
Vor allem, wenn man bedenkt, das es bis jetzt keine Mainstream Karten auf G200 Basis gibt und wohl vorerst auch keine Mittelklasse auf G(T)300 zu erwarten ist frag ich mich wirklich, was NV da fabriziert...
...

Wieso der lowend u midrange bereich könnte doch jetzt nach möglichkeit von den im sommer in 40nm gefertigten g200 chips bedient werden.Wenn dessen leistung nur um 30% ansteigt im vergleich zum 285er,kommt man doch aller vorraussicht nach dem 5000er chip von ati recht nahe.

Und der Highendchip gtx 380 bräuchte so erstmal nicht im preis gedrosselt zu werden,da man die passende antwort für die anderen bereiche mit dem g212 u g214 hätte:p

Vielleicht wird der 285 u 260 55nm ja von diesen beiden chips in 40nm abgelößt wer weiß;)
 
Zuletzt bearbeitet:
ich glaube nicht das man den G200 in der Form nochmal auf 40nm shrinken wird, vor allem, es ist ein Design, was ursprünglich mal auf 65nm aufgesetzt hat, ein Shrink ist zwar möglich aber ein natives Design, was direkt auf 40nm aufbaut bringt deutlich mehr Vorteile...

Man sieht ja auch, das das Einsparpotential zwischen den 65 und 55nm Karten beim G200 nicht wirklich viel war.
Andererseits zeigte AMD zwischen R600 und RV670 eine ganz andere (deutlich bessere) Figur, wie es hätte laufen können.

Der nächste Punkt ist, das der Chip auch in 40nm viel zu komplex und zu groß ist, um im Mittelklassebereich mitwirken zu können.
Ich würde meinen, NV hat damals von Anfang an geplant die heutige Mittelklasse mit dem G92 abzudecken, weil einfach das Teil recht klein ist und durch extrem hohen Takt dennoch konkurenzfähig ist.

Seit dem R600/G80 Zeiten läuft es im Mittelklassebereich bei NV aber irgendwie anders, es scheint mittlerweile gang und gebe, die "alte" HighEnd Klasse mit neuem Namen als Mittelklasse zu verkaufen, wenn schnellere Produkte draußen sind.
Klar das spart erstmal Entwicklungskosten, aber ob sich das am Ende wirklich ausgeht?
 
MMh gute frage ob sich das ausgeht:p

Aber der G212 u 214 ist ja nun für sommer bestätigt u ich wüsste nicht in welchen bereich nvidia sonst diese karten positionieren will.

Gut möglich das der 260er,285er u 295er höchstwahrscheinlich auch noch dieses jahr ausgetauscht werden u alles auf 40nm umgestellt wird,allein schon um die produktionskosten zu senken;)

Man müsste mal wissen wieviel 40nm fertigungskapazitäten nvidia bei tsmc geordert hat:d
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh