nVidia GF100/Geforce 4xx [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Na und?

War Crysis auch und lief nicht für ne Mark mit VeryHigh DX10 Details auf der 8800GTX:d

Ja Ja der Fermi :d


Die neue Hardware soll doch auch verkauft werden,was glaubst du wie viele sich damals wegen "Performanceproblemen" eine oder mehrere Kärtchen gekauft haben mich eingeschlossen:d
 
Zuletzt bearbeitet:
Warum sind hier einige so Aggressiv ??

Es ist doch eigentl. vollkommen egal ob die GTX 470/80 jetzt schneller als eine ATI 5870 ist oder net .... Und wenn sind es viel. 20/30% an Leistungsunterschied.
Aber deswegen so ein Theater zu machen als ginge es hier um Gott und die Welt verstehe ich nicht. Es wird in naher Zukunft ohnehin kein Spiel geben welches aktuelle High-End Karten in die Knie zwingt. Und dann ist Fermi eh ein alter Hut.... Maßstab ist immer noch Crysis was FPs angeht... und das Game ist ja mittlerweile 2 Jahre alt - Selbst MW2 oder Bc2 kann ich mit einer 260er auf allen max.Details auf 1900x1200 Problemlos zocken. Denkemal es geht dann eher um die Benchmark Kiddies die sich was beweisen müssen.

Aber mal ehrlich ... kommt mal wieder runter...finde die Art von machen hier echt unangebracht..schliesslich sitzen wir alle im gleichen Boot und es geht letztendl. nur um eine Grafikkarte. Als hätte man keine anderen Probleme :d

So schauts aus :)
 
TSMC wurde kräftig durch geschüttelt:

:-(
Nicht nur das sie von den Grafikkartenschmieden kräftig durchgeschüttelt werden,jetzt schüttelt die auch noch das Erdbeben.

Kein Wunder das die nicht zum produzieren kommen:cool:

Wollen wir hoffen das nicht zu viel Staub aufs Silizium gekommen ist dabei:coolblue:
 
Zuletzt bearbeitet:
Ein paar weitere "Chinabenches" @ 2560x1600 mit 4xAA oder 8xAA (GeForce 196.78 & Cat 10.3) - leider ohne fps Angaben:



Gepostet bei 3DC:

3DCenter Forum - nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0 - Seite 715


Die "Ergebnisse" könnten hinkommen. Leider ist es ja bei diesen Settings so, dass auch die etwas flottere Karte noch fern der 20 - 30 fps liegen kann (Beispiel aus dem CB Test -Cryis WH @ 2560x1600, 4xAA/16xAF -> HD 5870 -> 13,9 fps ! Da hat dann auch die 5970 nur 19,3 fps.)
 
Zuletzt bearbeitet:
Frage ist ob man das für bare Münze nehmen kann;)

IMO ist das ein Hin u Her mit den ganzen "Benches"
 
Zuletzt bearbeitet:
bin echt gespannt auf die reale leistung. vielleicht kommt ja doch noch eine dicke überraschung!? den g80 hatten damals auch alle tod gesagt und die gpu war am ende ihrer zeit weit vorraus. gönnen würde ich es ihnen. meine hoffnung ist aber eher gering.
 
220Watt Leistungsaufnahme sind unrealistisch für 2x6Pin wo soll da noch ein Sicherheitsspielraum sein
Wo steht, dass ein Sicherheitsspielraum garantiert ist? Wie gesagt, die HD 5970 hat da auch kaum etwas. Ich sprach auch nicht von Leistungsaufnahme, sondern von TDP. ;)

Wenn sich das so bewarheitet und Fermi dort besonders stark ist, wäre das schon ein wirklich wichtiger Punkt!
Ich kann mich täuschen, aber für mich sieht das bisher ziemlich nach Augenwischerei aus. Wenn die Shader nichts zu tun haben und ihre volle Kapazität für Tesselation verfügbar ist, dann ist es logisch, dass sich dort gute Performance zeigt. In realen Anwendungen mit AA/AF, Physikberechnungen und dergleichen dürften da aber sehr schnell die Grenzen erreicht sein.
 
Wo steht, dass ein Sicherheitsspielraum garantiert ist? Wie gesagt, die HD 5970 hat da auch kaum etwas. Ich sprach auch nicht von Leistungsaufnahme, sondern von TDP. ;)

Bei dem Thema solltest du NV und Ati nicht vergleichen, dann während NV immer deutlich unter der maximalen möglichen Leistungsaufnahme bzgl. PCI-E Spez. geblieben ist (sogar noch mit Reserve), hat Ati die PCI-E Spez. sogar schon gebrochen (ohne Reserve). Nimmt man noch das angekündigte OC-Feature dazu ist eine gute Reserve mehr als nur wahrscheinlich.

Ich kann mich täuschen, aber für mich sieht das bisher ziemlich nach Augenwischerei aus. Wenn die Shader nichts zu tun haben und ihre volle Kapazität für Tesselation verfügbar ist, dann ist es logisch, dass sich dort gute Performance zeigt. In realen Anwendungen mit AA/AF, Physikberechnungen und dergleichen dürften da aber sehr schnell die Grenzen erreicht sein.

Auch wenn der Heaven-Benchmark synthetisch ist, so ist er doch keine reine Tesselationsdemo, da wird auch nicht weniger dargestellt als in einem typischen Computerspiel. Was AA/AF betrifft gebe ich dir recht, allerdings belastet dies die Shader der HD5870 auch. Allerdings rechne ich auch damit, dass aktiviertes AA sich zugunsten von Ati auswirken würde.
 
Bei dem Thema solltest du NV und Ati nicht vergleichen, dann während NV immer deutlich unter der maximalen möglichen Leistungsaufnahme bzgl. PCI-E Spez. geblieben ist (sogar noch mit Reserve), hat Ati die PCI-E Spez. sogar schon gebrochen (ohne Reserve).
Das kannst du von mir aus auch noch ein drittes mal behaupten, es bleibt trotzdem falsch. nVidia hat die Spezifikationen genau schon so überschritten wie ATI. Die geben sich da beide praktisch nichts.

Nimmt man noch das angekündigte OC-Feature dazu ist eine gute Reserve mehr als nur wahrscheinlich.
Ja, so wie bei der HD 5970.
 
Ich sprach auch nicht von Leistungsaufnahme, sondern von TDP. ;)
.

Ich denke u hoffe doch das du dir im Klaren darüber bist das ein Chip der eine Wärmeentwicklung von 220Watt erzeugen soll,auch mindestens 220Watt aufnehmen muss um diese zu ereichen.

Noch hat niemand von den Chipschmieden das Perpetuum Mobile erfunden


Ausserdem beziffert Nvidia die Leistungsaufnahme(nicht mal die TDP bzw auf deutsch Wärmeentwicklung!!!) der Tesla Karten mit 3 bis 6 GB Speicherausbau mit 190Watt,da wird ein Geforce 470 GTX mit den selben Spezifikationen der noch dazu weniger Ram verbaut hat wohl kaum mehr als diese verbrauchen bzw aufnehmen.

unbenanntzdkm.jpg


Klick

Aber du darfst gerne weiter von deiner exorbitant hohen TDP von 220 Watt träumen
 
Zuletzt bearbeitet:
Nicht nur das sie von den Grafikkartenschmieden kräftig durchgeschüttelt werden,jetzt schüttelt die auch noch das Erdbeben.

Kein Wunder das die nicht zum produzieren kommen:cool:

Wollen wir hoffen das nicht zu viel Staub aufs Silizium gekommen ist dabei:coolblue:


Zieml pietätlos kann man da nur sagen ... * No Comment *
 
Zieml pietätlos kann man da nur sagen ... * No Comment *

Es ging hier um TSMC und die Fertigungsprobleme u nicht primär um das Erdbeben u die damit verbundene Katastrophe:confused:

Muss man hier jedes Wort auf die Goldwage legen bzw schon erstaunlich welche Gedankengänge manche hier verfolgen:shot:
 
Zuletzt bearbeitet:
*Gähn*

Kennen wir doch alles schon ;)

Ollen Non-working Sample von Nvidia :)
 
Die Bilder haben wir doch schon seit 2 Tagen bei CB und bereits bestens bekannt ;)
 
Nein sind es nicht ! Es ist ein und die selbe Karte.

Ich denke doch das ich das besser weiß als du ;)

Aber das müssen wir nicht hier ausdiskutieren :wink:
 
Die Bilder sehe ich zum ersten mal , danke scully1234!
 
wenn das ein und dieselbe Karte ist ...mußte mir das mal versuchen zu erklären....das wären dann 3x 6pin und 1x 8 pin......zb....
 
Hä?

Sag mal habt ihr da andere Bilder als ich ?

Er hat selber noch den 2 Tage alten Link zu CB gepostet und sagt mir es sei neu ?

Und ihr wisst schon das ihr gerade die 470 mit 480 vergleicht?

und wo zum Geier sind da 3x 6Pin?
 
ruhig junger Padawan .... wenns ein und dasselbe Kärtchen wäre :d frag mich nur wieso die bei der angeblichen 480er den PCIe Stecker abgeklebt haben...
 
Nein sind es nicht ! Es ist ein und die selbe Karte.

Ich denke doch das ich das besser weiß als du

Aber das müssen wir nicht hier ausdiskutieren


Ähm Froggi, das sind definitiv nicht die einen und selben Karten (bzw. PCBs). Schau dir doch einfach mal beim Lüfter hinten die Bauteile an (Kondensatoren Anordnung) ;)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh