NVIDIA GeForce GTX 580 im Detail: Eine Zusammenfassung

Man kann nur hoffen das AMD sein AF Problem mit den neuen Karten in den Griff bekommt,

Welches AF Problem? AMD hat sich entschlossen zugunsten der FPS die BQ etwas runterzusetzen.

Für 97% der Gamer die sich nicht auskennen, ist es auch gut so.
Und die Restlichen 3% (zu denen so manche Luxxer sich zählen) werden ja wohl den Regler im CCC finden :rolleyes: .
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hätte mich auch gewundert wie sie es machen wollen mit mehr takt und mehr SP.
Ohje die Presse wird sich wieder tierisch das Maul drüber zerreißen :(
 
Es ist auch nur ein Gerücht, genauso wie die 20% weniger, die Wahrheit liegt eh vermutlich wieder mal irgendwo dazwischen ^^
Wahrscheinlich wird nvidia halt die Spannung gesenkt haben, was aber wieder durch Takterhöhung und mehr Einheiten "zunichte" gemacht wird.
 
genau dazwischen liegt die magische 60fps vsync grenze :hail:

aber ich stimm dir zu: hauptsache minfps ist 60+

Warum magisch:confused: Nicht jeder nutzt einen Billig TFT mit 60 Hz:d Mein TFT benötigt bspw. mind. 75 fps aufwärts für VSYNC ;) Nur weil die Mehrheit 60 hz TFT's hat würde ich nicht gleich von einer magischen Grenze sprechen :d

Mal gucken wie die GTX570 wird ;)
 
Zuletzt bearbeitet:
gerade bei CB entdeckt

GTX580 water cooled units ready to ship in November | KitGuru

Also genau das Gegenteil von den 20% weniger Verbrauch...:stupid:

Dann stehen eben Gerüchte gegen Gerüchte, letztlich kann man keinem richtigen Glauben schenken, bis man die Fakten auf dem Tisch hat.
Und solange ich keinen Test gesehen habe (einen richtigen!) und offizielle Bestätigung der TDP von NV bleibt das eben alles nur Gerüchteküche...:fresse:

Letztlich bleibt uns auch nichts anderes übrig als zu warten. :coolblue:
 
Und mal ganz ehrlich: Freaks die die Karte haben wollen, legen weniger Wert auf die Leistungsaufnahme.
 
Wer hat den etwas anderes erwartet? Vor einiger Zeit wurde mal ein Test mit den vollen SPs gemacht, da konnte man schon sehr gut erkennen wie viel mehr Performance das im Vergleich zur stark angestiegenen Stromaufnahme ausmacht.

Dass die GTX 580 nun auch der HD 5870 auf etlichen Seiten gegenübergestellt wird sollte auch kein Wunder sein. Das sagt einfach aus, dass NVIDIA noch etwas mehr Zeit gebraucht hätte um den eigentlichen, fertigen Fermi zu releasen.
 
As for the rumous that this is a paper launch, we can definitely tell you that people have cards as we speak, the big names are testing them now and they should get available on the November 9th, after the official launch

Na dann
 
Welches AF Problem? AMD hat sich entschlossen zugunsten der FPS die BQ etwas runterzusetzen.

Für 97% der Gamer die sich nicht auskennen, ist es auch gut so.
Und die Restlichen 3% (zu denen so manche Luxxer sich zählen) werden ja wohl den Regler im CCC finden :rolleyes: .

Was ist das denn für eine Aussage?
97% werden beschissen weil sie sich nicht auskennen?

Es wird auf Balkenlänge beschissen PUNKT und AUS und da kannste deine Regler hinschieben wo du willst.

3DCenter Forum - AMD/ATI - Qualität des AF auf Radeon HD 6800 - Seite 28

und ob das einer sehen will oder nicht steht hier gar nicht zur Debatte sondern das B E S C H I S S E N wird.

Wäre das selbe, ach wir werben mal mit 200 PS verbauen aber nur 170 da brauch man weniger Sprit, die Idioten merken das eh nicht.
 
Zuletzt bearbeitet:
Im Endeffekt muss jeder doch selber entscheiden, ob das Produkt seinen Vorstellungen entspricht bzw. ob er bereit ist dafür den Preis zu zahlen. Die Diskussion mit dem informieren und kaufen von irgendwelchen Produkten hatten wir schon bis zum Erbrechen!

Viel entscheidender ist doch für uns hier im HWL, was die Karte wirklich leisten kann bzw. wie es mit OC aussieht ;)
 
Geforce 500 cards are a tweak, a real kicker so you will be able to tell the difference, especially with GTX 560 parts that should bring a lot of performance in sub $ (€)200 market.
das find ich mal geil...SLI FTW:hail: leider vermutlich erst (viel) später:heul:
 
Könnte man auch etwas billiger mit der jetzigen GTX. Ich bin nicht wirklich überzeugt davon, dass die paar Einheiten mehr es reißen werden.
 
Nein entscheident ist was sich AMD erlaubt, siehe obige Aussagen und das ist ein Witz³

Wem das nicht juckt oder nicht sehen will steht auf einem anderem Blatt.
ich kann mich aber nicht hinstellen und sagen "die Deppen merken das eh nicht" laßt uns mal weiter so machen.

Da brauch sich keiner hinstellen und so einen Quatsch schreiben.

"Viel entscheidender ist doch für uns hier im HWL, was die Karte wirklich leisten kann bzw. wie es mit OC aussieht"

Und das ist mit Bestimmtheit nicht die Meinung vom HWL, da wärt ihr sehr schnell sehr einsam hier.

Und hat außerdem nichts mit der Aussage von 97 und 3% zutun.
 
Zuletzt bearbeitet:
mayer2, das Thema hatte wir schon einmal gehabt und sind trotz ausführlicher Diskussion zu keinem Konsens gekommen. Erinnerst du dich? :)

NVIDIA wird an dem Design von der jetzigen 480er bzw. kommenden GTX 580 nichts mehr ändern, dazu ist es einfach zu spät. Interessant ist auch die GTX 560, wie sich dort evtl. Upgrads/Verbesserungen auswirken ;)
 
Könnte es sein das all die Waküfreaks Glück haben und sich am PCB Layout nix geändert hat:hmm:
 

Anhänge

  • GTX580.jpg
    GTX580.jpg
    108,3 KB · Aufrufe: 104
Hm schwer zu sagen. Das PCB hat sich ja schon etwas verändert, es fehlen z.B. auf diesem Bild die beiden Lüfterlöcher am Ende der Karte. Genauso es kann auch passieren das bestimmte Bauteile jetzt höher sind und einen Kurzschluss verursachen können in verbindung mit einem GTX480 Kühler oder eben niedriger und diese nicht richtig gekühlt werden.
 
es fehlen z.B. auf diesem Bild die beiden Lüfterlöcher am Ende der Karte. .

Abgesehen von der Area der Lüftungsschlitze sieht die Rückseite der Platine der Vorgänger 480 täuschend ähnlich,wenn sich vorderseitig nichts an der Positionierung der Bauteile geändert hat sollte der alte Kühler eventuell passen
 
Zuletzt bearbeitet:
bei fudzilla heißt es zudem, dass für dezember eine dual-version geplant sein könnte. Diese soll vermutlich auf zwei gf104-chips setzen und könnte so die 400-watt-grenze sprengen, was bei der kühlung neue maßstäbe fordern würde.
autsch!!!
 
@sapphire_fan
Diese soll vermutlich auf zwei GF104-Chips setzen und könnte so die 400-Watt-Grenze sprengen, was bei der Kühlung neue Maßstäbe fordern würde. Ohne Wasserkühlung wäre ein solches Modell kaum halbwegs leise zu kühlen. Auch wenn dies höchst spekulativ ist, ganz undenkbar ist es nicht, denn auch bei AMD gehen ja die Gerüchte um eine Radeon HD 6970 Dual-Cayman um, die wohl neue Maßstäbe beim Stromkonsum setzen dürfte.
Wenn dann scheint das auf beiden Seiten zu passieren.
Also doppelt autsch mmh lecker.:d
 
Glaube ich ehrlich gesagt nicht wirklich dran das sowas kommen wird...
Wer schonmal ne HD4870 X2 im PC hatte, weis wie gut sich 375W in Furmark unter Luft kühlen lassen... -> sogut wie gar nicht. 100°C+ auf den GPUs bei 100% Lüfterspeed.

Ich denke/hoffe die Herstelle begehen derartige Fehler nicht nocheinmal.
 
@fdsonne
Na ja für Luftkühlungs Fans sicher sehr schlecht.
Aber wenn man eine Wakkü hat .
Ein Objekte der begirde.
MFG
 
Auch eine Wakü muss genügend potential haben um das widerum abzuführen. Und ne Wakü ist jetzt nicht unbedingt etwas was in jedem zweiten Rechner verfügbar ist.;)

Selbst wenn man hier im Forum die Karten immer wieder gerne als Enthusiasten Karten "verkauft" - es sind normale Karten die jeder 0815 Mensch mit genügend Geld erwerben kann, daher sollte man von ausgehen das ein Hersteller seine Standardkühlung so dimensioniert das selbst in suboptimaler Umgebung die Karte nicht überhitzt.
 
Der Potentielle Käufermarkt für eine derartige Karte ist sowieso schon extrem gering. Die jenigen die davon ne Wakü haben werden auch nur ein Bruchteil davon sein...

Ich könnte mir aber vorstellen, man geht auf einen tripple Slot Kühler oder sowas...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh