nVidia GeForce GTX 480 + FAQ - Bei Fragen bitte die erste Seite lesen!!! [Part 1]

Status
Für weitere Antworten geschlossen.
... Die treiber sind mir da wichtiger und da wurde ich von den "grünen" noch nicht enttäuscht^^
...
Weder bei AMD / ATi, noch bei nvidia gibt es besonders schlechte oder besonders gute Treiber.
Beide haben Fehler. Es gibt Leute die haben Probleme mit nvidia Treiber, es gibt Leute die Probleme haben mit ATi Treiber, genauso gibt es Leute die noch nie Probleme hatten, egal mit welcher Firma.

Dieses "ATi hat schlechte Treiber" sind schlicht und ergreifend einfach irgendwelche Vorurteile, die aber gebetsmühlenartig wiederholt werden.
Wann hattest du denn das letzte Mal einen ATi Treiber? Wieviele Jahre ist es her?
Inzwischen sind selbst die ATi Treiber unter Linux auf Augenhöhe mit den nvidia Treibern.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Frage ist welche Komponente(n) der wahre Stromfresser ist. z.B. ist es bei der HD4k Serie der GDDR5 Speicher der sich nicht runtergetaktet hat, wohingegen Chiptakt runterdrehen und Chip untervolten fast gar nichts brachte.
 
So ne typische Argumentation. Wenn dies jenes euch nicht passt seid ihr nicht die Zielgruppe. Was soll das bitte für eine Zielgruppe sein? Die mir ist alles scheiss egal" Zielgruppe?

...mit Zielgruppe meint er wohl "Enthusiasten"

Nur wenn ich mich mal so durch Foren durchlese, scheinen selbst
Hardcore-Enthusiasten "auf einmal" kein Interesse mehr am Fermi zu haben.

seltsam, oder? :lol:
 
Naja, ich sehe das etwas aus der wirtschaftlichen Sicht. Dann soll nvidia doch gleich 600€ oder 1000€ für die Karte verlangen wenn sie eh nur die Zielgruppe Enthusiasten haben die eh nur 0,x bis 1,x % der Kunden ausmacht.

Aber so ein Unternehmen hat normalerweise Interesse Gewinne zu erwirtschaften und nicht um irgendwelche Menschen zu verwöhnen die in der absoluten Minderheit sind. Das ist doch keine Zielgruppe...
 
Wenn das deine Prioritäten sind gut,meine sind es nicht,da erste beide Dinge unter H2O eh null u nichtig sind.

Mich persönlich stört nur der hohe Idle Verbrauch


das wären sie unter anderem, da ich auch ne WAKÜ habe..aber null und nichtig wenn das Teil so heizt....mit meiner 295er mußte ich im Sommer einen zweiten Kreislauf legen...oder kein CPU OC......trotz Mora und Laing....stell dir das nicht so einfach vor mit so einem Heizkübel....

Allerding nicht bei dem idle verbrauch und nicht für das Geld bei der Leistung...wenns DX11 Spiele en Mass gebe könnte man auch da drüber nachdenken..dann aber auch wiederum nur bei einer 512....halbe Sachen bei einer Graka nö und schon garnicht wo der refresh eh ins Haus steht....nene
 
Zuletzt bearbeitet:
Allerding nicht bei dem idle verbrauch und nicht für das Geld bei der Leistung...wenns DX11 Spiele en Mass gebe könnte man auch da drüber nachdenken..dann aber auch wiederum nur bei einer 512....halbe Sachen bei einer Graka nö und schon garnicht wo der refresh eh ins Haus steht....nene

Also ich finde das Fermi nicht wirklich eine bessere DX11 Leistung hat als Cypress .. wenn ich mir die Differenzen bei Dirt 2 und Metro 2033 zwischen DX9/10 & 11 anschaue so sind die in etwa gleich ;)
Ein synthetischer Tesselation Benchmark sagt meiner Meinung nach nix aus .. hübsch anzuschauen .. das wars dann auch .. da könnte man auch anfangen aus synthetischen Benches wie zB dem Texture-Fill Test im 3DMark Vantage Rückschlüsse auf die Gesamtleistung einer Karte in Spielen zu ziehen.
Außerdem, wenn ich mich korrekt erinnere, wird Tesselation bei ATI und nVidia grundverschieden berechnet .. ATI nutzt soweit ich weiß spezielle Hardware-Bereiche im Chip dafür welche wie auch andere Untis wie zB Shaderanzahl in einem vernünftigen Verhältnis zum ganzen Chip stehen während nVidia mehr oder weniger softwarebasierend alle Cores für die Berechnung nutzen kann .. also sind die Tesselation Benchmarks wenig aussagekräftig von der realen Spieleleistung in denen es eben nicht nur um Tesselation geht sondern um ein ausgewogenes Verhältnis.
 
Mmh denke die Karte ist eher ne Techdemo, finde es auch gut dass sich die Architektur sehr wohl auch für Games eignet, Tesselation ist sicherlich ne Zukunftstechnologie. Für den jetzigen Zeitpunkt hat ATI allerdings die effizientere Lösung. Schneller ist aber immerhin die NV, teuer erkauft, aber wie der R600 wahrscheinlich die Ausgangsbasis für deutliche Weiterentwicklungen.

Der Verbrauch macht die Karte etwas unzeitgemäß, von der Architektur her scheint sie sehr modern, ich bin gespannt auf ATIs Antwort, und ob 5d-Shader letztlich das gleiche leisten können und das evtl. noch effizienter.

In der Spieleleistung zeigt sich das alte Spiel TMU/ROP vs. Shader/Computing/Tesselation, da gibt es kein Optimum. Letztlich reichen aber bei aktuellen Spielen die Shader der ATI, 200fps braucht man nicht, und wo ATI 20fps hat hat die NV selten deutlich mehr, RAM und TMU/ROP begrenzen nach unten, kaum die Shader. Heisst, NV ist seiner Zeit voraus wie ATI mit der x1000er-Reihe in Sachen "Shaderleistung"... Geschichte wiederholt sich ;)

Nur das NV nirgends spart, anders als ATI. Vernunft ist sicher nicht die Grundlage der fermi-Entwicklung, eher Enthusiasmus. Durchaus nicht schlecht wenn man es sich leisten kann. Aus dem Fermi wird die gesamte Industrie sicher technisch einiges lernen...

Die allermeisten Käufer wird dieses Prodult aber wohl nicht ansprechen. Und ich bin gespannt wie sinnvoll die Fermi-Architektur im Low- und Mid-Segment sein wird, oder ob NV da zunächst weiter auf den G92 und G200 baut..

Technisch echt ne spannende Sache^^
 
Zuletzt bearbeitet:
@oese
Das sich die Karte deiner Meinung nach "sowohl" für Games eignet zeigt nur das Marketing funktioniert ;)

Wenn Cypress auf Computing optimiert & vermarktet würde wäre sie meiner Meinung nach Fermi überlegen:
Fermi: 1344/672 GFLOPS (SP/DP) bei ~300W Leistungsaufnahme
Cypress: 2720/544 GFLOPS (SP/DP) bei ~190W Leistungsaufnahme
 
das wären sie unter anderem, da ich auch ne WAKÜ habe..aber null und nichtig wenn das Teil so heizt....mit meiner 295er mußte ich im Sommer einen zweiten Kreislauf legen...oder kein CPU OC......trotz Mora und Laing....stell dir das nicht so einfach vor mit so einem Heizkübel....

Dann werden die neuen 140er Radis halt mit GPU only getestet an Stelle von CPU only. :haha:
Dann kann ein Black ice 560 SR1 oder Mora3 gleich zeigen was er kann.

Aber mal im Ernst, im sommer mit nem Front und Heck Lüfter werden wohl einige Probleme mit der Karte bekommen und an die SFF Fraktion hab ich bis ebend noch nicht gedacht :fresse:

MfG
 
Zuletzt bearbeitet:
Mmh denke die Karte ist eher ne Techdemo,[...]

Keine Firma wirft eine Techdemo auf den Markt, aber aus der Not heraus musste etwas auf den Markt geschmissen werden, wenn auch mit "Kinderkrankheiten" (ja ist untertrieben), um ATi nicht noch mehr Marktanteile und das Prestige überlassen zu müssen. Die Architektur ist einfach nicht effizient genug und es wurde auf komme was wolle versucht mit allen Mitteln die schnellste Karte rauszupressen. Das die Rechnung nicht aufgeht sieht man.

Allerdings hat nvidia in den nächsten Generationen die Möglichkeit wieder was gut zu machen, auch wenn ich es bezweifel das 28nm großartig etwas bringt wenn man dem Chip nicht eine höhere Leistung pro Takt/Transistor beibringt.

Die nächsten Monate werden nicht einfach. Die HD5870 2Gb steht in den Startlöchern, die HD5890 kommt evtl. auch noch, dann klingelt die HD6k Reihe auch schon wieder.
Was den Bereich Verbrauch und Temperatur betrifft liegt ATi wieder ein deutliches Stück vorne.
 
@oese
Das sich die Karte deiner Meinung nach "sowohl" für Games eignet zeigt nur das Marketing funktioniert ;)

Wenn Cypress auf Computing optimiert & vermarktet würde wäre sie meiner Meinung nach Fermi überlegen:
Fermi: 1344/672 GFLOPS (SP/DP) bei ~300W Leistungsaufnahme
Cypress: 2720/544 GFLOPS (SP/DP) bei ~190W Leistungsaufnahme

hehe ich habe nach GFlops gesucht, kannte die Zahlen des Fermi nicht und war zu faul zum Rechnen, das macht natürlich Eindruck^^. Das Problem ist ja nur, dass 1D-Shader flexibler sind, d.h. die Software nicht so aufwendig optimiert werden muss. Ob das jetzt eine gute Entschuldigung ist. Wahrscheinlich hat NV nicht nur wegen der guten "Unterstützung" der Spieleentwickler daher bei den Programmierern einen Stein im Brett...
 
Vielleicht waren die Experten bei Nvidia auch so damit beschäftigt, neue Namen bzw. Modellbezeichnungen für alte Karten zu finden, so dass sie einfach verplant haben mal in neue erwähnenswerte Richtungen zu arbeiten! Aber mich freut es das AMD so langsam wieder Fuß fassen kann und das im CPU und Grafik Sektor - TOP! :)

Gruß
Martin

€:

hehe ich habe nach GFlops gesucht, kannte die Zahlen des Fermi nicht und war zu faul zum Rechnen, das macht natürlich Eindruck^^. Das Problem ist ja nur, dass 1D-Shader flexibler sind, d.h. die Software nicht so aufwendig optimiert werden muss. Ob das jetzt eine gute Entschuldigung ist. Wahrscheinlich hat NV nicht nur wegen der guten "Unterstützung" der Spieleentwickler daher bei den Programmierern einen Stein im Brett...

Das könnte auch daran liegen , dass immer wieder Gerüchte auftauchen die behaupten das Nvidia ne Menge zahlt um bei den jeweiligen Studios "ein Stein im Brett zu haben" ;)
 
Zuletzt bearbeitet:
Mit dem Multimonitoring wird es keinen Fix geben, das ganze scheint dem DDR5 geschuldet. Siehe 4000 und 5000er ATI Serie.

Und nein die Karte kann kein SSAA :wink:
 
Eine Karte für Enthusiasten... Ein Sportwagen mit höherem Verbrauch hat auch deutlich bessere Leistungswerte, die sehe ich hier nicht. Die Leistung ist zwar schön, aber der Preis, der dafür gezahlt werden muss, ist deutlich zu hoch.
 
Am geilsten finde ich jetzt ehrlich gesagt die Aussage "Karte für die Zukunft" :d

Oh man ihr haut euch echt sowas von selber die Taschen voll das ist unglaublich, man muss echt schon absolut vernarrt sein.

Auch eine 480GTX schafft es nicht bei Metro mit Tess vernünftig spielbare Frameraten zu liefern , aber he für die Zukunft , ja nee ist klar oder :wall:

Das Ding ist einfach ein Griff ins Klo, ich warte auf die nächste Gen, da nützt auch das bisschen mehr Power bei DX11 nicht. Wie Crysis und die 8800GTX damals, läuft aber trotzdem unspielbar.

PhysX? Bei dem Verbrauch hab ich Luft und kann mir ne kleine Nvidia in Rechner bauen hab dann alle Features.

Was ich am meisten vermisse sind die soooo viel besseren Min-Frames? Wo sind die sooooo viel besseren Frameverläufe? Hier sieht man am besten das sich die beiden nix geben.
 
Zuletzt bearbeitet:
Der immer wiederkehrende Fehler bei Nvidia u Multimonitoring

Also wurden meine Befürchtungen doch bestätigt... :(
Neja, war irgendwie ja auch zu erwarten...

Somit wird wohl neben dem so schon extrem hohen Verbrauch das viel angepriesene 3D Surround Gaming eine hitzige Angelegenheit. Wenn man zwei Stromschleudern brauch und davon eine sogar im idle dank dem zweitem Monitor noch deutlich mehr verballert.

EDIT:
Ich hab mal bisschen haltloses von der ersten Seite rausgekehrt ;)
 
Die GTX 480 hat praktisch keine Konkurrenz. Denn die 5870 muss sich mit der 470 schlagen.
 
Zuletzt bearbeitet:
JA das stimmt, aber die 480 muss sich ihre Leistung extrem Hart erkaufen , sage da nur: Wärme und Verbrauch.
 
Wie die 480 und 5870 aufgestellt zueinander hängt immer von den gewählten Games ab die beim Benchen verwendet wurden.

Dadurch natürlich auch die diesmal großen Unterschiede bei den Reviews.

Dadurch das es die 480GTX in manchen Games zum Teil sehr stark abheben kann und bei anderen wieder gar nicht, kommen dieses sehr durchwachsene Performance Rating der Seiten zusammen.
 
Selbst wenn ATI den Chip aufbohrt und die Taktraten erhöht bleibt sie vom Stromverbrauch unter der GTX480.

Wenn ich mir erst ein neues Netzteil kaufen muss damit ich die Karte betreiben kann dann geht das zu weit!
 
@ Froggy

weil die Spiele in denen sie davon ziehen kann, für die 480GTX optimiert sind!
 
Battleforge und Dirt 2 kann man nun nicht gerade Nvidia optimiert nennen ;)
 
Moin,

mal nebenbei - ein "normaler" Kühschrank hat eine Leistungsaufnahme von ca. 80W. Wenns viel mehr ist, ist es ein amerikanischer, begehbarer oder man sollte die Schranktür einfach zumachen.;)

Zum Thema:

Geile Karte! Leider, wie alle schon angemerkt haben, hat sie im Punkt
W/fps geloost. Ein derart gestiegender Idleverbrauch ist schon fast ein
absolutes "No Go"! Auch unter 3D Last ist der Wirkungsgrad W/fps vergleisweise schlecht.:mad:

Ich bin leider technologisch total entäuscht und werde mich mal bei ATI umsehen oder meine 285er bis zum nächsten Release behalten - bald ist wieder Sommer!;)

Greez
 
Bin gespannt ob das nun zu einem Umdenken bei NV führt. Wäre wünschenswert.

Außerdem bin ich gespannt ob NV in ~3 Monaten schon einen optimierten Refresh anbieten kann.
 
~3 Monaten Refresh ?

laut gerüchten wird das dieses Jahr wohl nix mehr, nur noch die Mainstream und Lowend Chips und das wars
 
Für mich ist die Karte ein Riesenfail. Da ich kein Wakü-Fan bin, dürfte für mich die Karte überhaupt nicht in Frage kommen, denn sie ist unendlich heiß und dazu noch grausam laut. Klar, bei ca. 95° GPU Temp (100% Lüfter), geht es nicht anders.
Ich erkenne an, dass sie momentan am schnellsten ist, aber sowohl der Preis, als auch das zuvor Erwähnte, machen sie zu einem Fall für Nvidia Fanboys.
 
mein Gesamtfazit: viel Lärm um nichts. Ich habe von anfang an gesagt 15 %, mehr ist ned drin. Und über die hohe Leistungsaufnahme brauche ich gar ned zu schreiben. Da hat NV aber krampfhaft die Leistungskrone zu erringen, ohne Rücksicht auf Verlust bzw Verlustleistung :fresse:
Eine HD 2900 von NV ist diese Serie nicht geworden, aber die hat nicht wie ne bombe eingeschlagen wie die NV fans sich wünschen.

Haben die alle mit dem neusten Treiber (10.3) bei ati karten getestet? weil durch den treiber hat man locker 5 % leistungszuwachs und das ist bei dieser Konstellation nicht gerade wenig
 
Also mein Senf zu den neuen Fermi-Karten: eine regelrechte Frechheit, was Nvidia da abliefert. Als Jahrelanger Nvidia-Fan bin ich schon länger maßlos enttäuscht, wie Nvidia am Markt vorbei entwickelt. Die dämlichen Aussagen des CEOs dieses Unternehmens mal außen vor gelassen.

1. Der Stromverbrauch ist schlicht und einfach nicht hinnehmbar!
2. Die Lautstärke ist inakzeptabel, ein Wasserkühler daher ein Muss!
3. Angeblich legt Nvidia mit Cuda wert auf den professionellen Bereich, danke, wo bitte sind die Display Port Anschlüsse, die ich mittlerweile benötige und Profis einsetzen!? Meint ihr, ich kaufe für meine Rendersysteme eine oder zwei der maßlos überteuerten Quadro-Karten!?
4. Es ist über MiniHDMI keine Bitstream-Ausgabe von Dolby TrueHD und dtsHD möglich, nur LPCM, meine Güte, wir sind im Jahr 2010“!
5. Es können nicht mehr als zwei Bildschirme gleichzeitig angeschlossen werden, dann braucht man zwei Fermis !
6. Die paar Prozent Vorsprung bei den Spielen ist gemessen am Preis schlicht Nebensache.
7. Für den Preis einer GTX480 bekomme ich zwei 5850er ATIs, die der GTX480 in jeder Beziehung überlegen ist und zusätzlich alle oben aufgeführten Eigenarten besitzt und dazu noch weniger Strom verbraucht.

Zusammen gefasst: Nvidia, diesmal bekommt ihr keinen Cent von mir, die Karten könnt ihr behalten!

Wie immer schaffen es auch die meisten Reviews der Portale im Internet nicht, mal Tacheles zu sprechen, die Fazits sind wie immer Larifari und zeigen, bloß nicht zu viel drauf hauen, wir könnten ja von Nvidia keine Muster mehr bekommen.
Und zum Schluss bleibt mir nur zu sagen – Nvidia-Fans boykottiert diese Hardware, ich bin, oder sollte ich sagen ich war, selber Fan dieser Firma, jetzt hat ATI meine Sympathie und die Treiber sind auch mittlerweile gut geworden – CIAO Nvidia!
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh