nVidia GF10x/Geforce 4xx [Speku-, News- & Diskussionsthread] Part 4 (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
Wenn man jetzt mal einige Tests miteinader vergleicht,fallen die Unterschiede schon teilweise recht groß aus,die einen kommen auf +15%,die anderen auf +20%,andere wieder auf +30%.Die Wahrheit liegt sicher in der Mitte und ist von der Anwendung abhängig,wie Game oder Bench.

2Sachen stören mich aber gewaltig,diese habe ich auch schon gestern vor den Tests geschrieben...das Fazit von Luxx gibt mir Recht,Fermi erkauft sich die Leistung durch teilweise gravierende Nachteile!


1.Verbrauch...alles wird Stromsparender,CPU's,Boards,Speicher überall hat wie beim Autobau das Downsizing Projekt eingesetzt,gleiche oder oftmals viel bessere Leistung bei gleicher oder weniger Energiezufuhr,ausser bei nV...was bringt es einen überall mehr Geld auszugeben um eben die Sahnestücke an Hardware (CPU usw.) zu bekommen,wenn der Fermi mehr als doppelt soviel der Sparmaßnahmen wieder verdonnert!

2.Die Temperatur,sicherlich hält eine GPU 90Grad aus,aber teilweise 100Grad und mehr die hier gemessen wurden,sind abartig,hier wurden bestimmt gutbelüftete Gehäuse genommen,ich möchte nicht wissen,was in einem vielleicht nicht optimal belüfteten Tower im Sommer passiert,wenn die Zimmertemperatur auch mal 30 Grad betragen kann.
Selbst wenn mit der GPU nix passieren sollte,heizt sie dennoch auch die umliegenen Komponenten extrem auf,ich hatte mal eine 4890 Superclocked,welche auch extrem heiß wurde bzw. gab sie die Hitze an Board und CPU ab,welche dadurch im Schnitt 7Grad mehr hatten als bei der vorhergehenden 9800GTX!

Diese 2 Nachteile überwiegen für mich persönlich gesehen (ich feinde hier keinen an oder so) den Vorsprung,welcher von marginal bis Okay reicht deutlich!

MfG Cole

Ein User meinte im "Was kauft ihr euch 480GTX oder 5870?"
Die 480GTX sei,was Ebergiezufuhr betrifft einfach an der zeit vorbei entwicklet,da gebe ich ihm Recht,das wäre genau das gleiche,wenn z.B. VW einen RGolf reucbringt,welcher schneller als der vorhgehende RGolf ist,aber auch viel merh Sprit benötigt,nein währnded der R32 Golf 4 glaube noch einen 3,2Liter Motor hatte,hat der neue R Golf 6 mehr Ps bei einem Hubraum von 2,0L...keiner würde den sich kaufen,wenn der nun einen 4,0L Hubraum hätte...doofes Bsp...mir fiel aber kein anderes ein!
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Leistung der 480er scheint ja ganz gut zu sein, hoffentlich wird der refresh von der weniger warm. Sowas hätte ich dann ganz gerne für Mafia 2
 
Das Ding ist ja wirklich ein Epic-Fail. Ich habe ja gestern nicht mehr soviel gelesen, aber je mehr Infos und Reviews ich mir jetzt angucke, umso schlechter wird das Teil in meinen Augen.

Das macht ja einen startenen Jet Konkurrenz.
 
meine güte, klingt wie ein staubsauger das ding. ich hätte nie gedacht, dass NV den käufern sowas antun wird. echt schade, hatte mit dem gedanken gespielt, nach 3x ATI, wieder nen NV karte zu kaufen. tjo, wirds halt wieder ne ATI ;-)

Vlt sollte mal jemand hardtecs4u sagen, dass ein dB-Meter in ein Meter Entfernung aufgestellt werden muss.
Beim Micro ebenso. So objektiv wie die agieren, haben sie sicher das Micro direkt an die Karte gehalten und nochmal die Lautstärke verstärkt..
 
Naja CUDA ist nicht zu unterschätzen, wenn ihr einen 1 stündigen h264 Filme encodiert, gehts locker 4-6 mal schneller wie mit dem Quad.
ATI Stream ist dagegen seit release hängen geblieben und eher nicht zu gebrauchen.
Es gibt keine Software, die es sinnvoll einsetzt und da es nicht einmal in opensource/Freeware eingebaut wurde muss schon was heißen.

Das die Karte so viel Strom verbraucht und selbst beim encoden laut wie ein Staubsauger wird zerschlägt das ganze Bild wieder.
 
[...] Wenn die Shader nicht viel zu tun haben, stehen diese Kapazitäten eben für Tesselation zur Verfügung (Spitzen). Sind diese Kapazitäten aber nicht vorhanden, weil die Shader anderweitig ausgelastet werden, bricht die Tesselation Performance weg. Das ist bei ATI weniger kritisch, da Tesselation nicht komplett über die Shader läuft. [...]

Hast du mal 'ne Quelle dazu, dass das bei NV über die Shader abläuft? Imho war das eine Falschinformation, die Charlie mehrfach kolportierte.

[...] vor allem durch das warm kalt also ich weiss nicht. [...]

Derzeit gibt's doch keinen warm/kalt Wechsel. Nur sehr warm/heiß. :fresse:

nvidia hatte ein halbes Jahr lang Zeit die Treiber zu optimieren, denn die Karte sollte schon vor einem halben Jahr erscheinen. Ich denke da wird kein großartiger Sprung kommen wie z.B. beim 10.3
Wieso? Solange scheint's noch keine lauffähigen Exemplare zu geben, wenn selbst die Taktungen bis kurz vor Ende nicht sicher waren... Kann man ja bei jeder neuen GPU sagen. Die Treiberwentwickler hätten Jahre Zeit gehabt. So lange, wie schon an der GPU geforscht wird... :rolleyes:
(das geht auch an FoA :p)
 
Die Karte wäre vor einem halben Jahr bis Dezember schon released worden, hätten sich nicht bei den ersten Produktionstestläufen vor einem halben Jahr die Probleme herauskristallisiert, die sie versucht haben bis zur letzten Sekunde zu minimieren. Das Treibergerüst stand schon und es ging nur noch darum den Verbrauch, Temperatur und Yield Rate zu verbessern. Das heißt also das die Treiberabteilung 6 Monate Zeit hatte sich zu bemühen.
So massiv waren die Veränderungen am Chip dann auch nicht das die Treiber von Grund auf neu geschrieben werden müssten und ein riesiges Potential noch aufweisen können. Bezweifel ich sehr stark. Hier und da vielleicht noch etwas Optimierung, das wars dann aber auch schon.
 
@ cVd

Ja das ach so tolle Cuda :lol:

GPGPU-Anwendungen, die für Endkunden Relevanz haben, sind nach wie vor praktisch nicht vorhanden; abgesehen von ein paar Beta Video-Encoder Tools, über die ernsthafte Video-Freaks im aktuellen Stadium nur schmunzeln können. Die Ausnahme bilden derzeit die Hand voll Distributed-Computing Anwendungen, mit denen selbst Endkunden die Rechenleistung für das unterstützte Projekt massiv steigern können. Daher war der heutige Vergleich in Ermangelung relevanter Software weniger ein GPGPU-Vergleich im Allgemeinen, als vielmehr ein Distributed Computing Vergleich für GPU-Anwendungen im Speziellen. Aus diesem Grund sind die Erkenntnisse natürlich nur auf diesen Bereich anwendbar.

Super was man mit Cuda im Video Breich alles machen kann :fresse:
Nvidia ist in diesem Breich auch nicht viel besser als ATI.

ATI Stream ist dagegen seit release hängen geblieben und eher nicht zu gebrauchen.
Es gibt keine Software, die es sinnvoll einsetzt

Der war gut :haha:
GPU Computing - Review und Analyse - Grafikkarten - Planet 3DNow!


Mit CUDA hat NVIDIA bereits vor geraumer Zeit eine Programmierschnittstelle geschaffen, die es Entwicklern erlaubt mit relativ einfachen Mitteln GPGPU-Programmierung zu bewerkstelligen. Das war das große Plus der NVIDIA-Karten in den letzten 2 Jahren. Mit der Einführung von OpenCL als gemeinsamer Nenner sollte sich dieser Vorteil in den kommenden Monaten und Jahren egalisieren.

Soviel zu Cuda :)
 
Zuletzt bearbeitet:
@Turbostaat: Du stützt dich doch genauso auf Vermutungen wie ich^^
Ich hoffe nur, dass ich da Recht behalte. :fresse:
 
@ cVd

Ja das ach so tolle Cuda :lol:

Frag mal bei gewissen Unis nach.
Cuda hat schon seine Vorteile bei gewissen Berechnungen mit riesigen Datenmengen.
Ist zwar nicht direkt für den 0815 Endverbraucher interessant, aber das sind solche Features sowieso nie. Und selbst mit sehr hohem Stromverbrauch hat man mit einem Cuda-Cluster mehr Leistung pro Watt als mit einem reinen CPU-Cluster.

Nicht ohne weiteres hat sich bei genau solchen Anwendungen Cuda stark verbreitet, wo man ATIs Stream (noch) fast nirgends findet.
 
Ist schon etwas bekannt welche Modelle Nvidia unterhalb der 470er plant? :confused:

@ blubb0r87

Liess einfach mal den Link durch, bzw. Foren in den es um GPU-Anwendungen im Speziellen geht. Im Folding ist Nvidia sicherlich sehr gut aber das liegt zu Großteil daran das der Client die Radeon's nicht unterstützt, deshalb die schlechte Leistung es gibt aber noch viel mehr und dann schaut's für Nvidia weniger gut aus...

Dass die Radeons ggü Geforces so abkacken, liegt es einmal an der Hardware, aber insbesondere daran, weil der GPU2-Client für die R600er geschrieben wurde und seitdem nicht weiterentwickelt wird

Außerdem ist OpenCL für die Zukunft die bessere Alternative.

Der nächste Punkt ist, dass viele Firmen den Aufwand für CUDA scheuen. Es muss ja sichergestellt werden, dass die Anwendung auch ohne CUDA-fähige Karte nutzbar ist. Also muss ein 2. redundanter Code-Pfad erstellt und gepflegt werden und das will eigentlich keiner machen. Das Problem könnte in Zukunft auch besser werden, einerseits durch OpenCL für Grafikkarte und CPU. AMD hat das bereits jetzt, aber die Software ist noch nicht für den produktiven Einsatz geeignet.
 
Zuletzt bearbeitet:
@Turbostaat: Du stützt dich doch genauso auf Vermutungen wie ich^^
Ich hoffe nur, dass ich da Recht behalte. :fresse:

Ja, aber dann frage ich mich was die Treiberabteilung von nvidia die letzten Wochen / Monate gemacht hat wenn nicht am Treiber geschrieben? :)
Haben sich ja wohl nicht Urlaub genommen, Däumchen gedreht o.ä. Und die "Software Heinis" werden wohl kaum an der Hardware großartig entwickelt haben.
 
@ cVd

Ja das ach so tolle Cuda :lol:



Super was man mit Cuda im Video Breich alles machen kann :fresse:
Nvidia ist in diesem Breich auch nicht viel besser als ATI.



Der war gut :haha:
GPU Computing - Review und Analyse - Grafikkarten - Planet 3DNow!




Soviel zu Cuda :)

Ich habe hier vom Video encoding gesprochen und nicht vom stupiden Zahlen rechnen oder hash bruteforcen.

Es ist nunmal fakt, das ATI die schnitstelle nicht weiter entwickelt hat und deswegen auch keine vernünftige source anbietet.
Deswegen können Programmierer es auch nicht vernünftig in Programme einbetten.
Wenn es denn mal vorhanden ist, dann viel zu langsam.

CUDA wird bereits in so vielen Programmen unterstützt, bei Bildbearbeitungsprogrammen oder 3D Software lässt sich noch streiten.
Das nutzt vllt. nicht jeder.

Ich encodiere jedoch sehr oft Videos ins h264 Format und gerade da leistet CUDA brachila stärken.

CUDA ist zum einen in vielen Programmen vertreten, auch in der Freeware Mediacoder.
Es lässt sich wie mit der CPU ins h264 format encodieren, ohne Einschränkungen.
Bloß das es wie gesagt 4-6 mal schneller geht wie mit einem Quad.

CUDA mit ATI auf dieser hinsicht zu vergleichen ist schon crazy.
Du kannst dir ja mal eine günstige Geforce 220 kaufen und dann mit einer 5870 inklusive ATIs integriertem AVIVO testen was schneller/besser ist.

AVIVO hat nur voreingestellte Profile, bedeutet du kannst garnichts einstellen, das encoden auf basis von h264 wird somit völlig zerschlagen.
Anstatt dem Schema kleine größe, sehr gute Bildqualität ist es bei AVIVO einfach größe:schlechte Bildqualität.
Außerdem nutzt AVIVO nicht einmal die GPU, mein Quad wurde zumindest immer zu 40% ausgelastet, ein 170mb mpeg4 Video in h264 zu encoden hat 7 min gedauert und das bei einer Ausgabedatei von über 700mb.
Das geht mit meinem Quad selbst schneller und das noch einmal in einer kleineren Ausgabedatei ohne schlechtere Bildqualität.

Darüber kann man einfach nur lachen !

OpenCL streitet ja keiner ab, aber bis ATI und Nvidia auf dieser unabhängigen Plattform laufen vergeht mindestens noch dieses Jahr..
Bis dahin hat Fermi schon nen refresh draußen :lol:
 
Ein Nachtest brachte außerdem ein kleines Problem zu Tage. Beim Versuch, dieses Verhalten zu reproduzieren, versagte die Lüftersteuerung. Die Chiptemperatur stieg stetig an, bis der Bildschirm bei 112°C schließlich schwarz wurde, ohne dass das System aber anhielt. Ein schneller manueller Reset verhinderte möglichen Schaden an der Grafikkarte.
Wirklich praktikabel ist Folding@Home auf der GeForce GTX 470 in dieser Form nicht, wenn die Chiptemperatur dadurch dermaßen ansteigt.
GeForce GTX 470 : Tests: DirectX 11, CUDA & PhysX - Review Hartware.net

Genau das was ich den ganzen Tag schon suche - ein Test in einem geschlossenen Gehäuse und genau das, was ich vermutet habe...das Ding wird zu heiß, stürzt ab...
Jetzt noch Sommer dazu und Nvidias RMA Abteilung glüht mindestens genauso wie ihre Karten :lol:

Die Karte ist der Epic Fail des Jahres, was nützt die schnellste Karte der Welt, wenn ich nen Gehörschaden bekomme, der Stromverbrauch des Rechners sich mal eben verdoppelt und am Ende das ganze nicht stabil ist :fresse:

PS: und ich als Bencher nehme für die schnellstmögliche Performance echt einiges in Kauf, hab nen Gulftown Q3QP hier liegen aber DAS werd ich mir ganz sicher nicht antun. Da kauf ich lieber noch ne weitere 5870, diesmal eine Special Edition von MSI, Asus oder Gigabyte und bin im Prinzip genauso schnell ;)
 
Zuletzt bearbeitet:
@SoF
Eben die meisten Review benches wurden auf offenen Systemem gemacht. Bei ca 20° Zimmertenp. Im geschlossenen Gehäuse und Sommertemp 30° + 1 St Crysis und schon
steigt der Rauch auf war zu erahnen.
 
Zuletzt bearbeitet:
katastrophe, mehr ist ned zu sagen
Die Leistungskrone wurde teuer erkauft, 150 w mehr als 5870 im Last ist einfach unakzeptabel.
Da hat sich NV keinen Gefallen getan.

Genau das was ich den ganzen Tag schon suche - ein Test in einem geschlossenen Gehäuse und genau das, was ich vermutet habe...das Ding wird zu heiß, stürzt ab...

krass jetzt weiss ich was es mit dem Fermi zertifizierten Gehäuse auf sich hatte :d
die von PCGH testen die karte ja ohne Case drumrum, und das ding ist schon 93° heiß,
Ich will ned wissen welche t° die karte im Sommer haben wird

http://www.hartware.de/review_1079_17.html

es sieht bei 470 keien deut besser oder???

5850 vs 470

Hier geht die Schere zwischen diesen beiden Grafikkarten auch sehr weit auseinander. Zwischen 371 und 255 Watt besteht ein riesiger Unterschied, auch wenn es 'nur' unter Last ist, die ja nicht ständig anliegt.

120 w mehr , holy shit!!!
 
Zuletzt bearbeitet:
Nvidia schickt als erstes die GeForce GTX 480 und die GeForce GTX 470 in die Händlerregale, die in einer etwas anderen Konfiguration als bisher gedacht an den Start gehen werden. Denn obwohl der GF100 eigentlich über vier Graphics Processing Clusters (GPCs) mit jeweils vier Streaming-Multiprocessors (SM), insgesamt sind es deren 16, verfügt, deaktiviert Nvidia selbst bei dem Flaggschiff GeForce GTX 480 einen SM.

Damit erhält der Käufer nicht die theoretisch möglichen 512 ALUs (CUDA-Cores), sondern nur 480. Warum Nvidia diesen Schritt unternommen hat, ist unklar. Gerüchte gehen davon aus, dass nur so die TDP (maximal mögliche Leistungsaufnahme) in einem gewissen Rahmen gehalten werden konnte, andere vermuten einen Designfehler, der erst spät erkannt worden ist und einen SM unbrauchbar macht.

Wie auch immer, die 15 Streaming-Multiprocessors haben weitere Folgen: Denn die GeForce GTX 480 vertraut auf 60 vollwertige Textureinheiten anstatt auf die 64 verbauten im GF100 und es geht eine „Polymorph-Engine“ verloren, die sich um die Raster- und Geometrie-Arbeit kümmert. Auf der GeForce GTX 470 ist ein weiterer SM abgeschaltet, weswegen noch 448 ALUs, 56 TMUs und 14 Polymorph-Engines übrig bleiben.

:hmm: entweder alles oder gar nichts.........

(Quelle: Test: Nvidia GeForce GTX 480 (Seite 2) - 27.03.2010 - ComputerBase)
 
krass jetzt weiss ich was es mit dem Fermi zertifizierten Gehäuse auf sich hatte :d
die von PCGH testen die karte ja ohne Case drumrum, und das ding ist schon 93° heiß,
Ich will ned wissen welche t° die karte im Sommer haben wird

Vor allem in dem Video von PCGH (letzte Seite Fazit bei deren Test) musste ich einige male

lcz537vt.jpg


"Im Furmark erreichte der Lüfter maximal 83%, welche wir hier jetzt im Afterburner Tool aplizieren können. In der Praxis wird das wahrscheinlich nicht erreicht" so oder so ähnlich lautet der Kommentar des "Experten"....erm ja wenn eine Karte im OFFENEN Aufbau mit Furmark 83% Fanspeed erreicht, wird das im geschlossenen Gehäuse und ach so wenig anspruchsvollen Spielen bestimmt nur 50% Fanspeed sein....


Hab mich echt gefragt wie das Wetter auf deren Planeten so ist :lol:
 
warum, du kaufst ja nicht bei NV, sondern bei nem Händler. Dieser gibt 2 Jahre Gewährleistung. Also biste jedenfalls abgesichert.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh