nVidia GF10x/Geforce 4xx [Speku-, News- & Diskussionsthread] Part 4 (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Sebbe83
So wie ich es mitbekommen habe hat nvidia in den letzten Monaten gerade noch an der Tessalation Unit gebastelt sowie versucht die PCIe 2.0 Spezifikationen einzuhalten.
das die HD5k dann auch noch beim Stromverbrauch so gepunktet hat muss für nvidia eine bittere Pille gewesen sein.
Allerdings frage ich mich wie der nvidia CEO bei der Präsentation des Holz Models auch noch so große Töne spucken kann / konnte...
Dazu noch das arrogante Auftreten vor ~ 1,5 Jahren
Nvidia weiß genau, wo bei AMD/ATI der Schuh drückt - WinFuture.de

Der nvidia Forschungschef hat jetzt wohl auch einen drückenden Schuh...
 
Ja wie gesagt es wurde noch versucht da und dort zu optimieren wo es nur geht(eben auf Teufel komm raus bzw mit aller Kraft) das meinte ich ja Leistungsmässig am oberen Ende in 40 nm. So kommt mir das ganze Geschoss halt auch vor wie eine einzige Kraftanstrengung.
Aber klar viel Leistung hat sie ohne Frage.
 
Tja - in Sachen Leistung ist ja über die Bank gesehen nicht schlecht, aber die Verbrauchswerte, auch im direkten Vergleich zur 470er, sind schon böse.
Auch die Loadtemperatur und vor allem Lautstärke des kleinen 65er Delta Lüfters sind bedenklich. Dieser macht dann zwar mächtig Krach, kann die Temperatur aber nicht unter 9x °C bringen. Die Loadtemperatur könnte im Extremfall (Sommer, Case nicht gut gekühlt) sogar zum Throttlen führen. Beginnt wahrscheinlich auch bei 105°C.


Der hohe Anteil an Transistoren, die die DP Leistung erhöhen, hat sich hier sicherlich auch negativ ausgewirkt -> weniger Transistoren = weniger Verbrauch = weniger Abwärme.

Bei GF104 könnte für Gaming überschüssige GPGPU Leistung wegfallen...das ist wohl auch nötig.


Ich denke mal, dass selbst Boardpartner davon zurückschrecken eigene GF100 Dualkarten zu entwickeln - bei den Verbrauchswerten und Lasttemperaturen. Vielleicht bringt ja Asus eine Version inkl. WaKü.



Auch nochmal OC:

Was mich wundert ist halt die Tatsache, dass sie bei XS den Lüfter der 480 (800/1600/1054 MHz) auch auf 80% gesetzt haben - bei 101°C Spitze (getestet mit FC 2 und DiRT2) !

PCGH hat bei der GTX 480 825/1650/1150 MHz @ 80% aber konstante 75°C - bei Crysis WH.


Vielleicht haben sie bei XS das System in einem Case gehabt ??? - PCGH testet afaik ja "on air" - mit MoBo-Aufbau.


PCGH schrieb:
Geforce GTX 480/470 im Test: Overclocking
Bis dato ist lediglich ein einziges Tool in der Lage, eine Geforce GTX 480 oder GTX 470 zu übertakten: die Beta-Version 1.9.2 von EVGAs Precision-Tool. Dieses basiert wie auch MSIs Afterburner auf Rivatuner-Technologie. Da Asus, MSI, EVGA und Konsorten alle mit OC- und Overvolting-Fähigkeiten werben, erwarten wir in Kürze Updates aller gängigen Tools.

Zum OC-Test angetreten sind eine Geforce GTX 480 von Nvidia sowie eine kurz vor dem Test-Ende eingetroffene Vorserien-Geforce GTX 470 von MSI. Bei letzterer verweigerte uns Precision das Ändern der Lüfterdrehzahl, was die OC-Werte etwas limitiert. Die GTX 480 von Nvidia lässt sich deutlch höher takten - insbesondere der schnelle 0,4-Nanosekunden-Speicher schafft fast sein theoretisches Maximum von 2.500 MHz. Für die OC-Tests setzten wir die Lüfterdrehzahl der GTX 480 auf 80 Prozent, womit die GPU-Temperatur 75 Grad Celsius nicht übersteigt.

DIe Geforce GTX 480 skaliert linear mit dem Chiptakt: Das 18-prozentige Plus resultiert in einer gleichermaßen höheren Bildrate. Der Speicher auf der MSI Geforce GTX 470 ist nur wenig übertaktungsfreudig. Die GPU-Übertaktung von fast 24 Prozent bringt ihr dafür 17 Prozent mehr Bilder pro Sekunde ein - anscheinend ist hier die Speicherbandbreite der Flaschenhals. Immerhin schafft es die GTX 470 OC deutlich an der Radeon HD 5850 vorbei, ohne jedoch die HD 5870 zu erreichen.

1fhn9.png


Die 470er OC kommt zwar nah an die 480er default heran, aber kann doch nicht gleichziehen.
Der 0,5 ns GDDR5 scheint auch nicht so der Bringer zu sein - immerhin haben die Chinesen es auch mal auf 1000 MHz geschafft.
Da geht der 0,4 ns GDDR5 der 480er doch schon deutlich besser.
 
Zuletzt bearbeitet:
[...] Steht in 4 Monaten kein Ersatz für den GF100 geht die Firma bankrott. [...]
Hast du bestimmt auch damals beim NV30 gesagt, oder? :rolleyes:
Wenn's nach solchen kurzsichtigen Aussagen ginge, dann is AMD schon 100x bankrott gegangen...

@realmaddog: Damit, dass Fermi verdammt viel Strom verbrauch? Ja, das stimmt.
In Bezug auf die Leistungsfähigkeit hatte er (wie immer bei NV Produkten) leider nicht den richtigen Riecher... :fresse: :shot:
 
in bezug auf die leistungsfähigkeit bei aktuellen titeln hatte er sehr wohl recht. er hatte ja nie gesagt das sie langsamer ist sonder glaub 5-10% schneller.

naja wie auch immer der fermi is raus aber leider nicht lohnenswert zu kaufen - ein vergleich mit dem FX 5xxx sowie auch intels P4 dilema kann man da schon ranziehen.

DIe frage ist eher ob diese architektur sich deutlich genug verbessern kann mit der nexten generation. Weil da MUSS nVidia nun ansetzen - denke auch nicht das sie zu viele chips davon produzieren werden, das sie das gleiche dilema haben wie bei der gtx2xx serie - wo jetzt noch massiv viele der zu teuren chips rumliegen.

Ich denke AMD is da den besseren weg mit ihrnen deutlich kleineren GPU gegangen und wenn Tesslation an wichtigkeit gewinnen sollte - dürften sie mit der dezidierten tesslationseinheit wohl noch möglichkeiten haben diese archtektur weiter in diese richtung deutlich zu verbessern.
Von den rohwerten ala GFLOPS sind se ja eh schon deutlich über der GTX4xx.
 
Tja - in Sachen Leistung ist ja über die Bank gesehen nicht schlecht, aber die Verbrauchswerte, auch im direkten Vergleich zur 470er, sind schon böse.
Auch die Loadtemperatur und vor allem Lautstärke des kleinen 65er Delta Lüfters sind bedenklich. Dieser macht dann zwar mächtig Krach, kann die Temperatur aber nicht unter 9x °C bringen. Die Loadtemperatur könnte im Extremfall (Sommer, Case nicht gut gekühlt) sogar zum Throttlen führen. Beginnt wahrscheinlich auch bei 105°C.


Der hohe Anteil an Transistoren, die die DP Leistung erhöhen, hat sich hier sicherlich auch negativ ausgewirkt -> weniger Transistoren = weniger Verbrauch = weniger Abwärme.

Bei GF104 könnte für Gaming überschüssige GPGPU Leistung wegfallen...das ist wohl auch nötig.


Ich denke mal, dass selbst Boardpartner davon zurückschrecken eigene GF100 Dualkarten zu entwickeln - bei den Verbrauchswerten und Lasttemperaturen. Vielleicht bringt ja Asus eine Version inkl. WaKü.



Auch nochmal OC:

Was mich wundert ist halt die Tatsache, dass sie bei XS den Lüfter der 480 (800/1600/1054 MHz) auch auf 80% gesetzt haben - bei 101°C Spitze (getestet mit FC 2 und DiRT2) !

PCGH hat bei der GTX 480 825/1650/1150 MHz @ 80% aber konstante 75°C - bei Crysis WH.


Vielleicht haben sie bei XS das System in einem Case gehabt ??? - PCGH testet afaik ja "on air" - mit MoBo-Aufbau.


Die 470er OC kommt zwar nah an die 480er default heran, aber kann doch nicht gleichziehen.
Der 0,5 ns GDDR5 scheint auch nicht so der Bringer zu sein - immerhin haben die Chinesen es auch mal auf 1000 MHz geschafft.
Da geht der 0,4 ns GDDR5 der 480er doch schon deutlich besser.

vieleicht war auch der Balkon offen..... :d im Sommer nützt das alledings auch nix...
 
Naja Tessalation. Worauf setzen denn die Entwickler erstmal? Richtig, auf die Hardware die die Kunden am ehesten in ihrem PC haben, das werden wohl eher die HD5k Karten sein als die GTX400er Modelle.
Bis die Spiele wirklich Tesaltion intensiv nutzen sind wir schon 2 Generationen weiter, und der Fermi hat dann immer noch ein grottenschlechtes Watt - Leistungs Verhältnis.
 
In Bezug auf die Leistungsfähigkeit hatte er (wie immer bei NV Produkten) leider nicht den richtigen Riecher... :fresse: :shot:

SemiAccurate :: SemiAccurate gets some GTX480 scores
"The GTX480 can barely beat the second fastest ATI card, and it doesn't have a chance at the top.

GTX480 is too hot, too big, too slow, and lacks anything that would recommend it over a HD5870, much less the vastly faster HD5970."

Diesmal hatte er wohl doch den richtigen Riecher. Wer sich so eine Karte kauft, spielt doch auch eher in Auflösungen 1920x1200 aufwärts und dort ist der Performanceunterschied zur HD5870 auf Kosten von Strom und Lautstärke und Preis einfach in keiner gescheiten Relation .
 
Zuletzt bearbeitet:
AMD/ATI bietet fast immer mehr Rohleistung im Vergleich zu NV, nur verpufft diese bzw. wird nicht gut genug umgesetzt.

Der Vergleich mit NV30 und Prescott insoweit ja, dass der Stromverbrauch für die gebotene Leistung viel zu hoch ist.

Charlie meinte auch, dass Fermi mit 625MHz an den Start geht und deutlich weniger als 10% schneller (oder immer langsamer) is, wenn ich mich nich irre. Kann natürlich sein, dass das mit 625MHz Core clock wirklich so ist/war. :fresse:
 
ok, GF100 war im Vorfeld schon bekannt recht viel im Load zu verbrauchen. Unter Last habe ich mir das nach den Senkungen allerdings etwas anders vorgestellt. OC aufgrund der eklatanten Hitze von 100°C (frage mich wie es bei nem SLI aussieht^^) wohl eher fragwürdig. Idle bewegt sich das Ganze grenzwertig im erträglichen.
Das die Karte aber SO ENORM heizt hätte ich bei so nem Monsterkühler nicht erwartet.
Meine Speku war im Idle leise aber warm und hält diese Temp nahezu im Load.
Viel erschreckend enttäuschender finde ich, dass es qualitativ nicht meine erhofften Schmankerln gibt.
Trotz höchster Qualitätseinstellungen bietet jetzt ATI immernoch mehr. Zwar ist die NV performanter, aber genau das war ja mein Ziel - ich kaufe Qualität.
Auch Der Performanceschub bei neuen Games machen sich gut, aber nur bedingt. Wenn ich bedenke wie man bei BF BC2 oder Metro über die schlechtaussehende DX11Qualität spricht, macht es diesen Performanceschub wieder schnell zunichte.
Die wie sooft spekuliert wurde, weit über der ATI bleibenden min fps machen für mich auch den Anschein als ob es diese Thematik nicht gegeben hat bis auf Spiele mit Tesselationsvorteil.
540,-€ halte ich für diese Aspekte als eine überteuerte Betakarte, die man so nicht dem Markt hätte präsentieren dürfen....
dann lieber sagen ok-shit happens 40nm sind ein Griff in´s KLo- wir sind gezwungen diese Serie als Mainstream zu verkaufen...aber sowas kommt ja nicht in Frage den Marktführer vom Thron zu drängen^^.
Ja, laut NV wären es 450,-€ und ließe sich preislich mit den ATIs gleich stellen. Die Shops wollen eben Profit machen, schon klar. Diese werden spätestens Montag einsehen, dass sie da gaaanz schnell wieder die Preise senken müssen.

Treiberoptimierungen hin oder her. Sie hatten schon einige Zeit um Optimierungen anzustellen. Auch wenn die voll in die Tassen hauen würden mit Treibern, würden sie vorhandene Mankos nur schwer ausbügeln können.

Wir sind davon ausgegangen, das wir überrascht werden und das der gF100 zwar seine Nachteile wie oben schon genannt haben wird, aber WO in HerrGottes Namen ist denn nach solchen Tests der Anreiz diese Karte kaufen zu wollen??? Wo sind die positiven Aspekte hin?
Ich habe aber keine Lust mehr zu warten und schon garnicht ein weiteres 3/4 Jahr bis wieder eine ähnliche Situation ansteht. Morgen Früh dackel ich zu meinem PC shop und hol mir zwei Vapor die mich bis dahin trösten dürfen.

Liebes NV Team ... fangt am besten jetzt schon mit der neuen Fertigung an und bricht die Vertäge mit der 40nm Fertigung ab....der Scheiß kostet euch Kopf und Kragen...warum also in totes Kapital noch lohn und Mühen stecken ?
 
Man sollte das ganze auch aus der Perspektive der alten GT200-Generation sehen. Da ist die 470er sehr interessant mit fast doppelter Power gegenüber einer GTX260/GTX275. Wenn man keine ATI im Rechner gewöhnt ist, hat man also immer noch eine Alternative.
 
@cVd: Wir alle kommen nur auf Seite n-1, niemand war auf n selber. :fresse:

@elcrack0r: Wie gesagt, ich kann mich mit Charlies Äußerungen auch ein wenig irren.
Ich kümmere mich nicht um das, was er absondert. ;)

Nee, mindestens seit dem R300 ist die reine Rechenleistung immer über den Nvidia Pendants...

Edit: ja, mit geringeren Takten hätten sie aber mit dem derzeitigen Treiber nicht die Nase vorn. ;)
 
Zuletzt bearbeitet:
So ich hab hier mml kräftig durchgewischt... Die Erste Aufregung hat sich ja nun gelegt. Also bleibt bitte beim Thema.

Ansonsten so Sachen wie hundert tausend mal schon durchgekautet brauchen wir hier auch nicht zwingen.
 
Finde ich nicht, mit OC gute Basis im Gegensatz zur 480GTX ;)
 
Ich bin mal auf die Preise gespannt, am Anfang! *g* Das Teil hat schon richtig Dampf, nur auf kosten von Temp und Stromverbrauch! Da hätte A/A auch auf biegen und brechen noch mehr rausholen können, aus ihrer Gen.
 
problemstellen ?

in zeiten von green-it ist ein derart hoher stromverbrauch nicht zu rechtfertigen. ich wollte mir eigentlich eine 480 gtx holen, werde mir das aber aus dem kopf schlagen und mich im MP nach ner schönen 5870 umschauen, da bekomme ich mehr für mein geld und schmeis mein geld nicht dem stormanbieter in den rachen

mfg
 
Cuda Cuda Cuda, was kannste den mit Cuda? Was machen den die vielen Millionen Heimanwender mit Cuda, ich lach mich tot. Komisches Argument. :hmm:

Und erzähl mir vom Pferd das alle die ganze zu Hause sitzen und wie wild Videos umrechnen und umcodieren.

Dafür reicht ne 200er Geforce auch , das ist kein Argument für solch einen Stromfresser.
 
Zuletzt bearbeitet:
ich finde es geht etwas unter, dass die fermi-karten auf ner neuen architektur basieren, aus dem nichts gestampft wurden und jetzt verbessert werden können über die nächsten 2-3 oder noch mehr generationen. der schwierigste schritt ist geschafft und auch ohne große, jahrelange optimierung ist der chip von der leistung her mehr als ebenbürtig.
wenn amd dann mal dne sauren drops in den mund genommen hat können wir gerne weitersehen, ob idle sub 30watt jetzt deren hochgelegte messlatte ist und vor allem gehalten wird! r600 auf dem heute noch die hd5800er in weiten teilen setzen lässt grüßen, war auch kein goldener schuß am anfang eienr architektur meine herren.

das der fermi momentan eher mit bauchschmerzen vorne liegt in der leistung und damit nicht die bessere wahl darstellt wird für die meisten klar sein, aber die architektur an sich ist ein fortschritt gegenüber einem möglichen aufpolieren und aktualisieren der gt200(b)´s.
fazit: auen zu und durch. hämisch kommentieren kann jeder, wenn es keine eierlegende wollmilchsau ist, aber so schlimm siehts nun auch wieder nciht aus. ist eben ne etwas größere radeon4890 mit aktualisierter performance und die haben ja bekanntlich auch einige trotz ihres grottigem konzepts gegenüber den mitbewerbern am markt erwählt.


www.tweakpc.de meint:
Dazu gilt es zu beachten, dass diese Karten nur die ersten einen brandneuen Architektur sind, mit künftigen Shrinks und weiteren Verbesserungen im Fertigungsprozess wird diese Architektur sicher erblühen. Im Moment erinnert uns GF100 sehr an ATIs R600 - jeder weiß, wie erfolgreich ATI mit dieser ursprünglich ebenfalls verspäteten und zunächst verkorkst erschienenen Architektur schließlich wurde, obwohl jeder zunächst über den exorbitanten Verbrauch, die Lautstärke und zudem auch noch schlechte Performance gelacht hat.

Das R600-Prinzip liegt auch noch der HD 5000 Serie zugrunde, die derzeit ein absoluter Hit ist. Die Annahme, dass GF100 erst im Zuge weiterer Generationen sein wahres Potential entfalten wird, ist also alles andere als abwegig. Die Architektur hat Potential, die Probleme wird NVIDIA im Laufe der Zeit gewiss ausräumen können.

meine rede.
 
Zuletzt bearbeitet:
Cuda Cuda Cuda, was kannste den mit Cuda? Was machen den die vielen Millionen Heimanwender mit Cuda, ich lach mich tot. Komisches Argument. :hmm:

Und erzähl mir vom Pferd das alle die ganze zu Hause sitzen und wie wild Videos umrechnen und umcodieren.

Dafür reicht ne 200er Geforce auch , das ist kein Argument für solch einen Stromfresser.

ein mann, ein wort :xmas:

wahrheit -> :shot: <- CUDA
 
Zuletzt bearbeitet:
Die Karte ist nun mal für Heimanwerder, wenn du das Zeugs in den Raum wirfst bring passende Altagsbeispiele oder lass es einfach.
 
so nach zig Jahren Nv only gestern eine 5870VaporX geholt, bin ja so aufgeregt :d

warte auf nen Refresh der 480, diesmal ist die nix für mich...
 
Zu dem HWLuxx Battllefield Benchmark kann ich leider nicht wirklich zustimmen.
Wie habt ihr getestet und auf welcher Karte ?
 
Guten Morgen zusammen, ...
ich hatte die Nacht wenig Zeit, das alles hier zu verfolgen.

Großartig Neues gab es ja nicht, was wir vorher nicht wussten.
HWL hat wieder mal ein top Review geschrieben, wie immer eigentlich.
Schade dass ihr die Karte schon so früh wieder abgeben musstet, so dass kein OC getestet werden konnte. Trotzdem top.

Olli ;)
 
@bawde: lass wahrlich gut sein, das feature eyefinety gilt überall, weil ja jeder 6 monitore hat, aber die möglichkeit mit cuda sachen enorm beschleunigt anzugehen zählt nicht. wo nutzen spiele das schon und welcher heimanwender nutzt was anderes als crysis... schon klar.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh