NVIDIA GeForce GTX 570 kostet etwa 350 Euro

Stegan

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
16.12.2005
Beiträge
16.288
Ort
Augsburg
<p><img style="margin: 10px; float: left;" alt="nvidia" src="images/stories/logos/nvidia.gif" height="100" width="100" />Der Dezember wird noch einmal richtig heiß. So soll nächsten Dienstag nicht nur der neue <a href="index.php/news/software/benchmarks/17160-futuremark-3dmark-11-kommt-am-7-dezember.html" target="_blank">3DMark 2011</a> zum Download bereit stehen und der <a href="index.php/news/hardware/prozessoren/17154-amd-phenom-2-x6-1100t-neues-flaggschiff-ab-naechster-woche-erhaeltlich.html" target="_blank">AMD Phenom II X6 1100T</a> seinen großen Tag feiern, sondern vor allem auch der Startschuss für die <a href="http://www.nvidia.de/page/home.html" target="_blank">NVIDIA</a> GeForce GTX 570 fallen. Bestückt mit einem Streaming-Multiprozessor weniger und...<p><a href="/index.php?option=com_content&view=article&id=17163&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Werden wir am 7. Dezember sehen.
 
@don: gibts endlcih wieder EINEN treiber für alle karten oder wieder nur einer der diese unterstützt, regt mich grad auf bei meiner GTX 580...
 
denke nicht und wenn doch sicher nicht viel .
Da es ja 2 komplett verschiedene Preisregionen sind
 
hmm. wird dann die 470 billiger?

wohin soll die 470 denn noch wandern? 200€ ist doch mhr als top momentan für die karte.
Wenn die 570 auf gtx480 niveau liegt und 350€ kostet dann wird bei der 470 nichts mehr passieren beim preis.

Sollte die 570 wirklich auf 480 niveau liegen dann finde ich sie btw auch zu teuer....
 
So ein Release Preis war doch von vornerein klar. NV wird jetzt abkassieren wollen, wie jedes Unternehmen eben auch. Solange da kein entsprechendes Druckmittel kommt, wird der Preis auch nicht sinken.
 
Genau da habe ich sie auch eingeschätzt. Die GTX 470 wird es nun deutlich schwerer haben und wahrscheinlich nach und nach in der Versenkung verschwinden. Genau wie die GTX 480. Die neue 5xxer Generation ist leiser, kühler und verbraucht weniger Strom bei mehr Leistung. Ich denke die GTX 470/480 wird nach und nach auslaufen, die Produktion wird minimiert und die Shops werden versuchen ihre Restbestände loszuwerden. Am Ende wird nur noch der stark reduzierte Preis für die 470 und 480 sprechen.

Was mich interessieren würde: nVidia hat die 480 durch die 580 und die 470 durch die 570 ersetzt. Plant nVidia auch die 460 durch eine 560 zu ersetzen? Oder ist es nicht wirklich nötig da die 460 bis jetzt die gelungenste Karte der Fermi-Generation ist?
 
Die 470 ist damals auch zu dem Preis gestartet.
Ohne gross Konkurenz sind die Preise echt unzumutbar, war ja bei der 58x0 auch schon so
 
Viel zu teuer, bevor sie nich in die 250er Region kommt, ist sie in Meinen Augen uninteressant.
 
SEHR nett..

Die Nvidia Geforce GTX 570, die am 7. Dezember vorgestellt werden soll, wird vermutlich in vielen verschiedenen Varianten auf den Markt kommen. Im Gegensatz zu fast allen Geforce-Grafikkarten hat Nvidia laut NordicHardware in diesem Fall nicht die kompletten Referenz-Karten ausgeliefert, sondern nur den GF110-Grafikchip.
Die Platine, die Stromversorgung, der Kühler und auch die Taktraten für GPU und Videospeicher können von den Nvidia-Partnern demnach komplett in Eigenregie entworfen und festgelegt werden. Daher könnten schon am ersten Tag Modelle der Geforce GTX 570 im Handel zu finden sein, deren Daten nicht denen aus den bisherigen Gerüchten entsprechen.
Die bisher bekannten Taktraten könnten also nur ein Wert sein, an dem sich die Hersteller orientieren können, aber nicht müssen.

Quelle:
Nvidia Geforce GTX 570 - Partner legen Takt, Kühler & Platine selbst fest - News bei GameStar.de
 
Viel zu teuer, bevor sie nich in die 250er Region kommt, ist sie in Meinen Augen uninteressant.

Seh ich genauso. Der Preis isn Unding auch wenns der eine oder andere nicht so sieht. Dazu kommt der geringe Speicher. Ich würd schon wenigstens mit 2GB in die nächsten 2-3 Jahre gehn wollen.
 
Ja das sehe ich auch so wie ihr! 350€ ist zu viel! Ok wenn sie nun nicht kastriert wäre im bezug auf speicher anbindung und dann auch mit 1,5Gb ram könnte man grade so sagen naja ok aber selbst dann sollte das teil bei 300€ liegen um wirklich fair zu sein!
Naja mal schauen wann der Cayman kommt und ob er die preise drücken kann!
 
Der Preis wird sicher genau so sinken wie bei der 470er...
Die Nachfrage regelt den Preis bei guter Verfürbarkeit...
 
350 € ist ein normaler Preis, die Karte ist schneller als eine 6870/5870!
wenn die 6950 später mit der 570GTX mithalten kann, erst dann wird Nvidia reagieren und die Preise anpassen.
 
Bei der Leistung der 470GTX im Vergleich zu den AMDs wäre der aktuelle Preis auch nicht gerechtfertigt, weil zu wenig. Daher auch meine Vermutung, man drückt den Preis um die Karten attraktiver zu machen. Aber mal abwarten...
 
Dann wartet bis 13.12 und kauft euch eine 6970, die wird die 580Gtx sowieso in der Pfeife rauchen oder kauft euch gleich eine 6990..
 
Zuletzt bearbeitet:
mh ne, lieber ein gutes bild. aber das wird sich zeigen ob amd was ändert.
 
Ja das BQ Thema werden einige Menschen auch noch in 10 Jahren bringen.. Es nützt NV nichts das die BQ Spitze ist, wenn die 6950 schneller, günstiger und verlustärmer ist. Ausserdem muss man ganz klar sagen, dieses Thema wird eh zuheiss gekocht, und leute wie Bawde pushen es unnötig, zumal es nichts mit diesem Thema zutun hat.

Also ich finde die 570 definitv zu teuer, 300€ einstiegspreis wären ok gewesen, so aber will man wieder Käufer melken. Habe ich bei der 5er Serie bei AMD nicht unterstützt und werde ich nicht bei NV unterstützen. Also abwarten bis die ersten Preissenkungen kommen. Intressant ist die Karte allemal
 
mh ne, lieber ein gutes bild. aber das wird sich zeigen ob amd was ändert.

Musst du diesen Senf in jedem Thread abgeben?
Es reicht doch das ein Thread zu dem Thema dicht gemacht wurde... Da musst du das nicht noch weiter auf andere Threads ausweiten und ein Ausarten provozieren...
 
Vielleicht ist 3DCenter eine neutrale Redaktion, die mir nur deswegen als Nvidia und Intel lastig erscheint, weil dort eben sehr viele AMD Basher sich aufhalten.
Zumindest schreiben die eine neutrale News über die BQ und der Aussage von AMD. Das ist eben das höhere Niveau auf dem man eine Diskussion aufbauen kann. Das generelle bashen von bawde in allen Bereichen gegen AMD zeigt auf, dass er sich nicht auf dem Niveau bewegt, bei dem man das Gefühl hat, auf eine Diskussion eingeladen worden zu sein.
Früher zu Nvidia 6 und 7 Zeiten wurde über die BQ von Nvidia hergezogen und die ATI Freunde und Nvidia Basher haben keine Sekunde versäumt, dies mit jedem Wort zu schreiben. Ich konnte zumindest mit meinen 6600,6800,7800 Grafikkarten das Bild sehr gut erkennen. Jetzt wird eben von jedem Nvidia Freund und AMD Basher über die BQ in jeder Sekunde berichtet, ich kann zumindest mit meiner AMD 5xxx Grafikkarte alles sehr gut erkennen.

News des 1. Dezember 2010
...Es muß aber unsererseits ebenfalls betont werden, daß dies nicht als genereller Beinbruch zu sehen ist, auch wenn manche der von uns diesbezüglich gewählten Worte unter Umständen auch mal drastisch herüberkommen: Denn auch die Filterqualität ist letztlich nur ein Teil der Gesamtsumme eines Grafikchips....
die AMD-Grafiklösungen haben dafür Vorteile in anderen Punkten, die genauso viel oder gar noch mehr wiegen....
3DCenter.org | 3D-Grafikkarten-Benchmarking, Downloads, News & Reviews

Ich konnte zu der hier immer als schlechte Bildqualität betitelten Geschichte nichts der gleichen erleben. Was ist eine schlechte BQ? Sehe ich dann nichts? Sehe ich dann gelbe Farben anstatt blaue? Vielleicht ist auch die BQ nicht schlecht, sondern einfach nur nicht ganz so toll, dafür aber eher nicht sichtbar. Ich konnte zumindest weder damals mit Nvidia, als auch heute mit AMD dieses Gewassel nicht bestätigen.
Für mich sind das eher nur Menschen, die ganz sicher keine niveauvolle Diskussion führen wollen.
 
Zuletzt bearbeitet:
Ja das BQ Thema werden einige Menschen auch noch in 10 Jahren bringen.. Es nützt NV nichts das die BQ Spitze ist, wenn die 6950 schneller, günstiger und verlustärmer ist. Ausserdem muss man ganz klar sagen, dieses Thema wird eh zuheiss gekocht, und leute wie Bawde pushen es unnötig, zumal es nichts mit diesem Thema zutun hat.

Also ich finde die 570 definitv zu teuer, 300€ einstiegspreis wären ok gewesen, so aber will man wieder Käufer melken. Habe ich bei der 5er Serie bei AMD nicht unterstützt und werde ich nicht bei NV unterstützen. Also abwarten bis die ersten Preissenkungen kommen. Intressant ist die Karte allemal

Es gibt doch mehr käufer die dadrauf gucken wie du denkst, grade in diesen preisregionen, denke so im GTX 460 HD 5770 usw bereich fällt das dann weniger ins gewicht.

Der Preis der GTX 570 ist eben nen normaler NV releasepreis für dieses leistungsklasse, angepasst wird wenn dei amd kommen, das aber auch nur bei guter verfügbarkeit und fals die nachfrage nachlässt
 
Früher zu Nvidia 6 und 7 Zeiten wurde über die BQ von Nvidia hergezogen und die ATI Freunde und Nvidia Basher haben keine Sekunde versäumt, dies mit jedem Wort zu schreiben. Ich konnte zumindest mit meinen 6600,6800,7800 Grafikkarten das Bild sehr gut erkennen. Jetzt wird eben von jedem Nvidia Freund und AMD Basher über die BQ in jeder Sekunde berichtet, ich kann zumindest mit meiner AMD 5xxx Grafikkarte alles sehr gut erkennen.

Das sind zwei unterschiedliche paar Schuhe...
Damals war der Knackpunkt die Winkel(un)abhängigkeit. NV Karten mit G7x und älter GPUs hatten eine starke Winkelabhängigkeit. Das heist, in bestimmten Betrachtungswinkeln filterte die Karte gar nicht. Was unschöne Effekte auf dem Bild nach sich zog... Denn in manchen Bereichen wurde AF angewendet, in anderen (wo der Winkel eben nicht passte) wurde nicht gefiltert. Das ist direkt sichtbar für jedermann, denn es verhält sich wie AF on gegen AF off.

Heute sprechen wir nicht mehr über Winkelunabhängigkeiten sondern über flimmern. Das AF beider Karten ansich ist sehr gut, nur neigen die AMD Karten stärker zum flimmern. Was zwar bei NV in den Std. Einstellungen ebenso etwas vorkommt nur kann man hier mit HQ nachbessern und das Flimmern weitestgehend ausstellen.
Bei AMD hingegen hat man keine Chance gegen das Flimmern zu wirken...

Aber das ist in meinen Augen nur Meckern auf höchstem Niveau. Denn das Flimmern muss einem auffallen. Das tut es nicht bei jedem. Das Problem damals hingegen war direkt ersichtlich. Weil einige Bereiche gar nicht gefiltert wurden.
 
Das generelle bashen von bawde in allen Bereichen gegen AMD zeigt auf, dass er sich nicht auf dem Niveau bewegt, bei dem man das Gefühl hat, auf eine Diskussion eingeladen worden zu sein.
ich vertrete einfach meine meinung. ;)
wenn da steht AMD raucht nvidia in der pfeife, sag ich da nur, kommt erstmal auf das level von nvidia, dann reden wir weiter.
und fatima...von mir wirst du nie auf eine diskussion eingeladen werden, weil mir das mit dir zu stupide ist.

die tests sind eh alle nicht 100%ig aussagekräftig, wenn AMD ständig mit der grafik schumelt. die seite mit den flimmer-videos hat es auf den punkt gebracht:
- AMD erschummelt sich mit schlechterer BQ mehr fps
- in der architektur hat sich fast nix getan
- die karten sind einfach nur Hd5000er, mit weniger produktionskosten
- wirtschaftlich hat AMD somit alles richtig gemacht
 
mh, dann könnte ich mir ja fast die 460 GTX leisten, ohne das die in einem monat nur noch 80€ kostet.:eek:

jop, is auch ne realistische news, 40 nm weissja noch jeder was da abging ,bei 28nm wirds eher noch schwerer bei dann 5,6 milliarden transistoren..

Würde mir aber wenn dann die GTX 560 holen aka GF 104 im vollausbau
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh