Feedback zum Test: NVIDIA GeForce GTX 570

@Don Danke, dass du diesmal die verfälschte Performance pro Watt Tabelle gleich weggelassen hast. So wirkt der Test gleich viel stimmiger...
die GTX500er gehen im gegensatz zur GTX470/80 in sachen stromverbrauch, wärme und lautstärke in die richtige richtung! ;)
Zustimmung. Mal sehen was AMD im Vergleich bieten kann, danach fällt die Entscheidung...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ist echt der Hammer, was die da aus dem Hut gezaubert haben...klar bringt es nahrzu nichts von der 480er auf die 570er zu wechseln, aber ich denke, der Preiskampf wird allein schon durch NV angefacht...wenn die 6970er nun nahe an die 580er drankommt und die dann auch "nur" 400.-€ kostet wird, dann wird es echt günstig, eine 580er zu schießen!


Was haben die den aus dem Hut gezaubert?
Die 580/570 Karten sind weder deutlich leiser noch sparsamer geschweige den schneller als die 580/570. Jeder kann das bei der 480/470 selber auch machen, einfach die vcore runter drehen.
Das was Nvidia da macht ist Kosmetik. Das eigentliche Fermi Problem wird dadurch nicht besser.

GTX 470 performance issue - NVIDIA Forums

oder

OpenGL glReadPixels performance MUCH lower on GTX480 vs GTX285 - NVIDIA Forums

Am Test selber ist eigentlich nichts aus zu setzen, nur warum der 10.10d und nicht der e?
 
Also ich habe mir für 315 bei Hardwareversand direkt eine bestellt die wohl übermorgen kommt .
Meine nächste Idee ist im Marktplatz zu versuchen den Kühler einer 580 zu ergattern von jemandem der selbst auf Wasserkühlung umgebaut hat und dann das zu machen was uns Nvidia vorenthält .
Wenn es dann noch von EVGA Backplatten zu kaufen gibt ist die gepimpte 570 perfekt .
 
Am Test selber ist eigentlich nichts aus zu setzen, nur warum der 10.10d und nicht der e?

Weil zum Zeitpunkt als ich alle AMD-Karten durch hatte, der 10.10d der aktuelle war ;)

Ich kann ja nicht bei jedem Hotfix alle Karte neu benchen, wie stellt ihr euch das vor? Beim nächsten Test werden dann die AMD-Karten mit dem 10.11 getestet sein und nur die neuen Karten mit dem jeweiligen Beta-Treiber.
 
Was die aus den Hut gezaubert haben ist ein sehr schneller, leiser, sparsamer und kühler Fermi im Vollausbau.
 
Wenn sich wer als Praktikant unter meinem Tisch herumtreiben möchte, ich hab Cayman-Karten hier (nur so als Anreiz).
Ich habe die nächsten 3 Wochen Urlaub und hätte Zeit :fresse:.
Mag im Budget und Midrange Segment nicht die Rolle spielen, bei den High End Single GPU's spielt das Gesamtpaket aus Leistung/Bildqualität und Features für viele Käufer aber sehr wohl eine Rolle.
Eben.
Und daher für mich auch absolut unverständlich, das AMD hergeht und ab 10.10 ab Werk eine schlechtere BQ einstellt. Warum muss ich mit meiner Highend 5870er erst hergehen und im CCC rumfummeln, damit ich wieder die SELBE BQ wie bei vorherigen Treibern bekomme? Trauen die ihren eigenen Karten top Leistung nicht zu?
Versteht mich nicht falsch, ich finde es gut, das es nun sowas wie Q und HQ gibt, nur sollte man dann auch ab Werk HQ einstellen und nicht Q, nur um vielleicht 5% mehr FPS rauszuholen auf Kosten von guter BQ :rolleyes:!

Was heißt fordern? Es ist lediglich als Anreiz und Ansporn gemeint die eigene Testqualität (weiter) zu erhöhen.
Natürlich wäre diese einmalige Sache mehr als nur ein Verbrauchsmesssgerät in die Steckdose zu packen.
Man wird es NIE jedem recht machen können.

Klar ist es interessant was eine Graka für sich an Strom aufnimmt, jedoch interessiert mich auch wieviel das Gesamtsystem mit Graka x oder y sich so aus der Dose holt.

Mal ganz davon ab, viele wissen garnicht WIE ENORM AUFWÄNDIG überhaupt so ein Test ist und bedingt durch die meist kurze Vorlaufzeit, muss man nunmal Prioritäten setzen.

Als erfahrener Internetsurfer klappert man nach Fall des NDA dann eh mehrere Seiten ab und findet hier und da das, was einem bei Test A noch gefehlt hat, um sich ein "komplettes abschliessendes Bild" machen zu können. :wink:
 
Also ich beurteile die Leistungsaufnahme im Vergleich zur Vorgänger-Generation und erwähne ja auch den Vergleich zur Radeon-HD-6800-Serie (im Fazit).
CB macht das fazit sehr dämlich wie ich finde. hammer sind immer wörter wie relativ :fresse:
 
Ich kann ja nicht bei jedem Hotfix alle Karte neu benchen, wie stellt ihr euch das vor? Beim nächsten Test werden dann die AMD-Karten mit dem 10.11 getestet sein und nur die neuen Karten mit dem jeweiligen Beta-Treiber.


Dürfte sich bei Barts schwierig gestalten.
 
@Dancop
Wenn die 580er vorn bleibt, warum sollte NV die Preise senken?

Warum hat ATI die Preise für die 5970er gesenkt, obwohl sie doch schneller als die 580er war?
Ne, mal im Ernst, wenn ATI ihre Karte bei fast gleicher Geschwindigkeit um 10 - 20% billiger anbietet, werden es sich viele drei Mal überlegen, die NV zu kaufen, also sinken die Preise. aber warten wir mal Januar ab - da werden wir sehen, wie der Preis steht!
 
Warum hat ATI die Preise für die 5970er gesenkt, obwohl sie doch schneller als die 580er war?
Ne, mal im Ernst, wenn ATI ihre Karte bei fast gleicher Geschwindigkeit um 10 - 20% billiger anbietet, werden es sich viele drei Mal überlegen, die NV zu kaufen, also sinken die Preise. aber warten wir mal Januar ab - da werden wir sehen, wie der Preis steht!
wer nur auf die leistung schaut, der wird zu ATI greifen. ob sich nvidia den atis anpasst kann man schlecht sagen, wird sich aber zeigen.
 
Ist ja nicht nur SGSSAA in allen APIs und die tendenziell bessere Software + Treibersupport bezüglich der Profile, dazu kommen auch noch PhysX, Downsampling @ DX9/Win7 und eine bessere anisotropische Filterqualität, oder anders gesagt bei AMD/ATI hat man derzeit SGSSAA nur unter DX9, kein PhysX, kein Downsampling @ DX9/Win7 und dazu auch noch ein deutlich flimmeranfälliges AF.
Im Vergleich zur mittlerweile günstigen HD5870 auch noch eine deutlich bessere Tess.-Leistung.
Toll, und bei nVidia hast du kein MLAA, kein winkelunabhängiges AF, mehr Banding, kein Bitstream Audio, kein Eyefinity, weniger GPGPU Performance und was weiss ich nicht noch alles. Wollen wir wieder mal Rosinenpickerei bis zum Umfallen betreiben? :rolleyes:


Meine persönliche Erfahrung besagt eines:

Wenn NV einen Bug oder Fehler behebt, dann bauen sie an anderer Stelle keine neuen ein.
Und meine Erfahrung besagt, nVidia baut auch schon mal dort Bugs ein, wo vorher keiner war. Ist auch nicht besser.


Der Sicherheitsmechanismus der GeForce GTX 570 & 580 lässt sich deaktivieren, dass wissen wir. Aber was stelle ich überhaupt mit solchen Werten an? Ich messe einen maximalen Verbrauch, den ich in der Praxis nicht erreiche.
Ist dem so? Wenn ich die c't mal zitieren darf:
Beim Zocken verheizt die GTX 580 durchschnittlich 181 Watt (1,4 Sone) mit kurzzeitigen Spitzen von 297 Watt, die GeForce GTX 480 kam auf 207 Watt im Mittel und Spitzen von 302 Watt.
...
Im Furmark-Belastungstest zieht die GeForce GTX 580 durchschnittlich 274 Watt aus dem Netzteil und damit 10 Watt mehr als ihre Vorgängerin
...
Im aktuellen Furmark drosselt Nvidia den Grafikchip, um ihn nach eigenen Angaben vor zu hoher Last zu schützen. Zukünftige Treiber sollen auch ältere Furmark-Versionen erkennen. Die Grafik-Hardware auch bei sehr anspruchsvollen Spielen zu drosseln ist zunächst nicht geplant, wie man in einer E-Mail mitteilte
Also ich sehe da schon einen gewissen Sinn, zu testen, was die Karte Worst-Case schluckt. Du nicht? Es ist sicherlich nicht repräsentativ für den Durchschnitt, trotzdem ist es wichtig für die Dimensionierung der Stromversorgung und Kühlung des Systems.
 
Zuletzt bearbeitet:
Worst case fall finde ich auch interessant,will ich aj bei der CPU auch wissen z.B.Prime oder IBT,bei der GPU interessiert mich das ja auch,wer sagt mir denn,das in naher Zukunft nicht ein Game auf den Markt kommt,was die GPU anders und dadurch stärker belastet.Objektiv sollte man schon die Sperre aushebeln,was bringt es eine GTX 480 ohne Sperre mit einer GTX 580 mit Sperre zu vergleichen?

Die GTX 580 und GTX 570 finde ich dennoch einen Schritt in die richtige Richtung,Leistung wurde gesteigert,Verbrauch ist afaik gleich geblieben bzw. evtl. sogar leicht besser.Abwärme und Lautstärke sind gesunken.Die GTX 580/570 hätten aber meiner Meinung nach aber gleich kommen sollen.
Aufgrund der kurzen Lebensdauer der GTX480/470 und der im eigentlichen Sinne geleisteten Optimierungsarbeit,wirkt der Release der GTX 480/470 bissel fad.Es gibt ja auch user,die sich nicht jedes Jahr ne neue GPU kaufen oder immer wie wir so Fachkundig sind!
 
Wennst der GTX 480/470 so wenig vcore gibst wie die 580/570 haben, dann drehen die Lüfter auch nicht so hoch.
Aber es ist ja Nvidia typisch, bissl da ändern, bissl hier anpassen und schon sind die neuen Karten fertig.
Ich finde es aber Toll das viele Testseiten auf Nvidia hereinfallen, den in Wahrheit hat sich nichts geändert.
 
Dennoch wurden die Karten optimiert,würde die GTX 480 zu 100% mit weniger Vcore laufen.würde das nV auch machen,aber sichelrich laufen nicht alle Karten mit der geringeren Vcore!
das hat auch nicht mit reinfallen zu tun,die Karten wurden optimiert,das diese nun nicht vollkommen neu sind ist klar,auch das die GTX 580/570 eher die wahre Fermi Generation ist,ist auch klar,dennoch sind sie auf jeden Fall ein Schritt in die richtige Richtung!
 
Ich denk eher wer eine 400er Karte hat kann die 500er Reihe sowieso Überspringen, die 500er Reihe kam viel zu schnell und das nur weil ATI und Nvidia ihre Messlatte mal wieder aus der Hose holen wollen ^^
 
Toll, und bei nVidia hast du kein MLAA, kein winkelunabhängiges AF, mehr Banding, kein Bitstream Audio, kein Eyefinity, weniger GPGPU Performance und was weiss ich nicht noch alles. Wollen wir wieder mal Rosinenpickerei bis zum Umfallen betreiben? :rolleyes:


Banding ist kein Problem bei Nvidia, sondern war primär ein Problem bei Cypress, was man mit Barts soweit beseitigt hat das es in der Praxis keine Rolle mehr spielt.
Bezüglich der Winkelabhängigkeit ist der Unterschied zur Referenzimplementierung weder bei NV noch bei AMD/ATI in der Praxis wahrnehmbar, im Gegensatz zum Flimmer-AF speziell bei Barts.

AMDs Radeon HD 5800/5900/6800 mit Rückschritten bei der Filterqualität | 3DCenter.org

Bei allen anderen Dingen ist es natürlich eine Frage womit man arbeitet, wenn man 3 Monitore ansteuern will ist man bei NV sicherlich nicht an der richtigen Adresse und wer sich die Karte für Folding @ Home kauft wird vermutlich auf full-speed double precision performance achten.
Allerdings bezweifele ich das Dinge wie "full-speed double precision performance" große Relevanz besitzen für User die sich die GPU's in erster Linie zum Gaming kaufen.

SGSSAA unter allen APIs, PhysX und sichtbar besseres AF sind da Dinge die deutlich mehr Gewicht haben für die Masse der Käufer einer High End Single GPU.
Downsampling wiegt Blur-MLAA mehr als auf, ein Feature das ich nicht mehr missen möchte und mittlerweile sehr hohe Relevanz besitzt, zumal die Power dafür bei immer mehr Konsolenports ohne vernünftige AA Implementierung mehr als vorhanden ist im High End Single GPU Bereich.
Man kauft sich heutzutage sehr teure und schnelle Grafikkarten nicht um 100fps zu haben wo man sonst 65fps hätte, sondern um Leistung in maximal hochwertige Bild- und Filterqualität umzuwandeln, sei es via High Quality Filtering SGSSAA, top notch AF, oder Downsampling und gelegentlich auch PhysX-Effekte und dort bietet NV derzeit einfach mehr.
 
Zuletzt bearbeitet:
Ich finde es aber Toll das viele Testseiten auf Nvidia hereinfallen, den in Wahrheit hat sich nichts geändert.

Viel interessanter finde ich wie geschickt und taktisch klug Nvidia vorgeht.
Anstatt 580 und 570 zusammen zu präsentieren machts man nacheinander und so darf jede 500er gegen die 480erran , die ihrerseits die meiste Kritik einstecken durfte. Sonst würde man die 570 mit 470 vergeichen und da schauts so aus
~20% Leistungsteigerung bei 5-10% höheren Leistungsaufnahme vom Preis rede ich erstmal gar nicht, überragend ist das nicht
 
Unternehmerisch betrachtet hat Nvidia alles richtig gemacht, nachdem sie alles falsch gemacht hatten.
Jede Karte hat was für sich, aber mit dem 480/470 Wurf, naja - da lag AMD vorn in den Verkaufszahlen.. also schiebt man schnell eine 460 nach, die im Ruf schon besser da steht.
Und kaum ist Halbzeit (Mid-Life kicker) präsentiert man einen Nachfolger.. 485,.. nicht mehr nicht weniger.
Aber wegen dem schlechten 480/470 Verkauf, schraubt man halt der bestehenden Fermi-Architektur und holt alles raus. Zugleich schlägt man AMD ein Schnippchen,.. kommt ihnen mindestens zuvor. Bin gespannt, ich denke die AMDs werden 5-10% langsamer sein.. zu den 580/570 Pendants.
Halt mit weniger Verbrauch, damit weniger Wärme und Lautstärke. Und sie werden günstiger sein..

Jede Karte hat was für sich und die Spannung ist doch schön.. Problematisch wird es, wenn Nvidia sich sehr gut auf den Kepler vorbereitet..
aber erstmal abwarten was AMD jetzt so bietet.. (auch wenn bisher für mich Nvidia das bessere Bild hatte G92-F110)
 
Oh man wie Geil ist das denn .
Gestern für 315 € ne Zusage und heute kostet die gleiche Karte beim selben Händler wieder 390 .
Das beste ist sie ist und war verfügbar und meine Toxic ist auch schon verkauft .

mfg Mega
 
Ja die haben sofort die Preise angezogen. Gestern habe ich für 321€ die GTX570 SC bestellt und kurze Zeit später 409€. Übel...
 
Die SC war aber leider nicht verfügbar und ich will sie so schnell wie möglich haben .
Normalerweise bevorzuge ich auch EVGA aber die POV sind bestimmt auch nicht schlecht .
Zumindest ist Hardwareversand kein unbekannter Händler .
Ich habe vor später eine Backplatte von EVGA zu bestellen und den Kühlkörper einer 580 von jemandem zu erwerben der seine mit Wasserkühlung umgebaut hat .
Sozusagen eine GTX 570 Brabus aus dem Teil zu basteln .
Aber erstmal sehen was ich für ein Sample erwische , am liebsten mit OC und untervolting gut zu optimieren wie es bei meiner 260 möglich war .
Ich freu mich so endlich wieder Nvidia auch wenn die Toxic eine super Grafikkarte war und viel besser als ich es erwartet hätte .

mfg Mega
 
HI,
warum wurde bei 3dMark 11 nur die NVidia Karten getestet?
warum wird bei dem test die 5970 weg gelassen? Okay ist ne Karte mit zwei Chips, sie spielt aber trozdem in der gleichen Preisregion wie die 580er mit.

Gruß
Alex
 
Hmm...
Ich habe eine GTX 470 und wollte eigentlich ein SLI System aufbauen, ich bin am überlegen ob ich mir einfach noch ne 2. dazu kaufe oder lieber 2 GTX 570er?
Ich bräuchte noch Wasserkühler dazu, das wird also ein recht teurer Spaß.
Lohnt es sich?
eine weite GTX 470 ca. 260€ inkls. Wakü
2 GTX 570 606€ (Hab ich bei Hardwareversand für 303€ bestellt, werde dann aber zur Not stornieren, die Karte ist jetzt aber gut 70€ teurer ^^) + 160€ Wakü - 250€ für meine alte = 516€
Lohnt es sich das doppelte zu zahlen? Sind ja nur 10-20% Mehrleistung im verhältnis zu den GTX 470ern oder?
 
Zuletzt bearbeitet:
Ich denk eher wer eine 400er Karte hat kann die 500er Reihe sowieso Überspringen, die 500er Reihe kam viel zu schnell und das nur weil ATI und Nvidia ihre Messlatte mal wieder aus der Hose holen wollen ^^

Das sehe ich komplett andersherum ! Die 400-er Serie hätte man getrost überspringen können.

Ich warte noch noch bis nach Weihnachten, nachdem die verschiedenen Händler gestern tüchtig die Preise angezogen haben ! Angebot u. Nachfrage !

Mal sehen, wie sich die 570-er entwickelt. Mit 219 Watt und 2 x 6-Pin Anschluss paßt die in mein System etwas logischer als eine 580-er.

Zur Zeit leider viel zu teuer !


Skull
 
Ja aber die 315 Euro die Hardwareversand gestern für die verfügbaren GTX 570 von POV aufgerufen hat waren schon ein gutes Angebot das wohl so schnell nicht wieder kommt .
Und ich habe eben gschaut die Karte ist bei denen schon um 4 Uhr heute Nacht komissioniert worden und wird wohl auch wie erwartet Morgen mit DHL bei mir eintreffen .

mfg Mega
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh