nVidia GF100/Geforce 4xx [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
1. Was interessiert mich das ob die Architektur neu ist, oder sie nicht mit ihrem Zeitplan zurecht kommen? Entwerder das Produkt überzeugt mich oder nicht!

2. Was interessiert mich wofür die GPU eigentlich gedacht war. Für mich zählt Spieleleistung. Wenn Nvidia aufgrund zu hoher Preise oder Leistung nicht konkurenzfähig im Spielesektor ist, dann ist mir das doch egal. Die Bedenken der Boardpartner sind schon berechtigt. die Teslakarten sind für den professionellen Bereich. Die GTX4xx Serie nicht! Und hier nutzen bestimmt 99% der Anwender das Teil als das was es gedacht ist, - als Grafikkarte!



1. Stimmt komplett, ich habe nur auf einen möglichen Grund hingewiesen warum es sein könnte, ob er dir oder jemand anderem wichtig ist steht ausser Frage. ;)

2. Dann Kauf dir den Fermi nicht, NVidia hat das Teil hauptsächlich gebaut um in GPGPU erfahrugen zu sammeln, dass die dann icht perfekt zum spielen geeignet ist, ist dir ja egal, aber denen die es Objektiv betrachten eher nicht.
Du kaufst auch nicht nen Traktor von Lamborghini und beschwerst dich dann warum ein Gaillardo mit 400 PS 300 KM/h fahren kann der Träcker aber nüsch.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
2. Dann Kauf dir den Fermi nicht, NVidia hat das Teil hauptsächlich gebaut um in GPGPU erfahrugen zu sammeln, dass die dann icht perfekt zum spielen geeignet ist, ist dir ja egal, aber denen die es Objektiv betrachten eher nicht.
Du kaufst auch nicht nen Traktor von Lamborghini und beschwerst dich dann warum ein Gaillardo mit 400 PS 300 KM/h fahren kann der Träcker aber nüsch.

Grundsätzlich macht diese These ja sinn und du sprichst Le_Frog99 damit auch aus der Seele. ;) Wenn dies allerdings wahr wäre, dann müsste man doch in der Architektur sehen können, an welchen Stellen sich die Entwicklung für GPGPU negativ auf die Spieletauglichkeit des Chips auswirkt. Beim Betrachten der Architektur sieht es aber so aus, als wenn der Chip für beides Ideal geeignet ist.
 
Sie war sogar sehr gut. Die Architektur der FX-Reihe konnte nichts dafür, dass die Dx-Version welche erst nach der Entwicklung der Fx entstand die Nutzung der 16bit Recheneinheiten nicht unterstützte.

ich weiss ja nicht welche maszstaebe du fuer eine gute gaming grafikkarte hast, aber meine sind folgendermaszen (und in dieser reihenfolge):

- stabile und grafikfehler freie treiber
- gute bildqualitaet
- speed
- verbrauch/waerme (lautstaerke faellt dank wakue flach)

mir ist egal wie "gut" die neue graka generation ist, wenn sie langsam ist ist sie langsam (und noch dazu laut und heiss), das intressiert mich als endkunden.

---------- Post added at 16:11 ---------- Previous post was at 16:09 ----------

2. Dann Kauf dir den Fermi nicht, NVidia hat das Teil hauptsächlich gebaut um in GPGPU erfahrugen zu sammeln, dass die dann icht perfekt zum spielen geeignet ist, ist dir ja egal, aber denen die es Objektiv betrachten eher nicht.
Du kaufst auch nicht nen Traktor von Lamborghini und beschwerst dich dann warum ein Gaillardo mit 400 PS 300 KM/h fahren kann der Träcker aber nüsch.

wenn der traktor als "highspeed supersportwagen" angeboten wird duerfte er es aber ;)
 
Bleibt doch jez beim Thema und kommt nicht wieder mit den 5800ern oder ATI, sonst ist der Thread ganz schnell wieder zu.

Derzeit gibts nurBenchmark Ergebnisse, toll, nichts weltbewegendes, ich will sehen wie die Karten in Games performen, alles andere ist zu vernachlässigen.
Vorallem wie schnell eine GTX470 wird, weil sie eine deutlich bessere P/L haben sollte.
 
@ulukay: Ist doch schön und gut, trozdem hat es nichts mit der Hardware zu tun, wenn die Software sie nicht unterstützt. Bei der GF100 ist die Software kein Problem, da dx11 lange fertig ist und NV sowieso die volle Unterstüzung der Spieleentwickler hat. Also geht es nur noch um die Hardware und da ist eben die Tatsache, dass die Hardware von NV immer gut war ein entscheidendes Argument. Dies war eben auch bei der Fx-Reihe der Fall, dass die Karten wegen mangelnder Softwareunterstüzung lahm waren hat doch mit der GF100 nix zu tun.
 
sie waren lauter, heisser und lahmer als atis gegenstueck
sowas nennt man FAIL - schlicht und einfach.
http://techreport.com/r.x/geforcefx-5800ultra/ut-hq-inferno-aa.gif

und wenn man vorherige produktlaunches nicht mehr mit aktuellen vergleichen darf (in einem Speku und Diskussions(!!!)thread) ohne dass mods ihren herrschaftstrieb ausspielen muessen dann ist das peinlich.
dann machen wir halt einen 2 seitigen "wie hat sich der FX5800 launch auf weitere nvidia launches ausgewirkt" thread auf wenns den herrschaften besser gefaellt :lol:
 
Zuletzt bearbeitet:
sie waren lauter, heisser und lahmer als atis gegenstueck
sowas nennt man FAIL - schlicht und einfach.
http://techreport.com/r.x/geforcefx-5800ultra/ut-hq-inferno-aa.gif

Ich glaube wir reden aneinander vorbei. Niemand bestreitet, dass das Gesamtpaket Fail war bei Fx. Es geht mir nur darum, dass dies nicht an einer Fehlentwicklung der Architektur lag. Da die Karten durch das Softwareproblem nun arg lahm waren musste man dann natürlich beim Takt bis zum äußersten gehen -> daher laut und heiß.

und wenn man vorherige produktlaunches nicht mehr mit aktuellen vergleichen darf (in einem Speku und Diskussions(!!!)thread) ohne dass mods ihren herrschaftstrieb ausspielen muessen dann ist das peinlich.
dann machen wir halt einen 2 seitigen "wie hat sich der FX5800 launch auf weitere nvidia launches ausgewirkt" thread auf wenns den herrschaften besser gefaellt :lol:

Sehe ich genauso (hat sich denn jemand beschwert?), es gehört hier rein, da der Bezug zu 100% da ist. Allerdings darf so eine Diskussion auch nicht ausarten, aber ich denke ich hab nun auch alles dazu gesagt.
 
Grundsätzlich macht diese These ja sinn und du sprichst Le_Frog99 damit auch aus der Seele. ;) Wenn dies allerdings wahr wäre, dann müsste man doch in der Architektur sehen können, an welchen Stellen sich die Entwicklung für GPGPU negativ auf die Spieletauglichkeit des Chips auswirkt. Beim Betrachten der Architektur sieht es aber so aus, als wenn der Chip für beides Ideal geeignet ist.

Naja wäre auch gut möglich dass der Chip für GPGPU super ist, und da die Rohleistung Passt auch für das Gamen (mit höherem takt und anderen Treibern) geeignet ist.

Aber du hast Recht, sollte NVidia die Karten weiterhin hauptsächlich für GPGPU herstellen, könnte es durchaus negative folgen für uns Gamer haben.

Und zum anderen Punkt. Nvidia hat doch gesagt dass sie den Chip mit Hauptaugenmerk auf GPGPU herstellen, und es davon auch Gamingkarte gibt.
Aber dass es DIE GAMING GPU wird hat NV nicht gesagt, die sagten lediglich sie sei (Powerful) Also Kraftvoll, dieses "Es wird Gottähnlich" kommt dann von der Grünen Front, die sich leider gerne etwas hineininterpretiert.

Ich wünschte auch dass das teil wie bei der G80 der OBerhammer in sachen leistung wird. Das ist aber nicht Immer möglich.

Genauso wie manche sich so ein Teil ansehen und dann über den Stromverbrach klagen.
Die Eierlegende Wollmilchsau gibt es nicht. Wer ne Sparsame Graka will kauft sich eine, wer High-End gaming will muss es mit mehr Strom bezahlen.
50W unter Last und 60FPS in Crysis ist noch ein Ding der Unmöglichkeit.
 
1. Stimmt komplett, ich habe nur auf einen möglichen Grund hingewiesen warum es sein könnte, ob er dir oder jemand anderem wichtig ist steht ausser Frage. ;)

2. Dann Kauf dir den Fermi nicht, NVidia hat das Teil hauptsächlich gebaut um in GPGPU erfahrugen zu sammeln, dass die dann icht perfekt zum spielen geeignet ist, ist dir ja egal, aber denen die es Objektiv betrachten eher nicht.

Irgendwie muss man sich ja das Ding schön reden, aber das echt hart! Glaubst du die Mehrheit der Käufer ist bereit 25% mehr Geld auszugeben, weil die Grafikkarte in anderen Bereichen toll ist, die sie garnicht nutzen? Nvidia hat die Quadro/ Tesslakarten für den Profibereich. Die normalen Karten sprechen eine ganz andere Zielgruppe an. Wenn du gerne bereit bist Nvidia Geld in den Rachen zu stecken dafür, dass sie ja so toll "Erfahrung sammeln" nur zu!


Du kaufst auch nicht nen Traktor von Lamborghini und beschwerst dich dann warum ein Gaillardo mit 400 PS 300 KM/h fahren kann der Träcker aber nüsch.

Was das denn für ein Vergleich?^^
Traktoren von Lamborgini wurden frührer gebaut. Soll mir das sagen ich soll einen Fremi kaufen, weil er ein Sammlerstück wird? Da muss ich dich leider enttäuschen, - was den Hardwarebereich angeht keine gute Idee... :d


Oder soll mir das sagen Fremi ist wie der Traktor von Lamborghini, draußen ein wilder Stier drauf und fährt dann trotzdem nur 25km/h? ^_^
 
Ich rede gar nix schön, ich sage dir nur wieso NVidia was macht :rolleyes:

Auch heute baut Lamborghini Traktoren;)
Und ich habe keinem gesagt er soll sich einen Fermi kaufen, ich habe gesagt, wem die Leistung nicht passt braucht sich keine Karte kaufen.


Und das letzte nein ich vergleche Fermi nicht mit nem Traktor.

Wäre nett wenn du nicht alles was ich sage komplett verneinst und dann diese Verneinung Angreifst......:rolleyes:
 
Was nicht heißen soll, dass der Flamewar hier ausgetragen wird! :wink:
 
Der Einbruch der ATI ist fast schon kriminell unter TESS :d ich habs gerade mal nachgestell mit 4xAA/16AF, ich verliere 2/3 meiner FPS >min19...wenn da Games kommen die das "richtig" nutzen hat ATI ein prob....allerdings hab ich nur die 1.0 Version von Unigine, NV bencht wohl mit 1.1.
 
Der Einbruch der ATI ist fast schon kriminell unter TESS :d ich habs gerade mal nachgestell mit 4xAA/16AF, ich verliere 2/3 meiner FPS >min19...wenn da Games kommen die das "richtig" nutzen hat ATI ein prob....allerdings hab ich nur die 1.0 Version von Unigine, NV bencht wohl mit 1.1.

Da liegt der Knackpunkt. Bis das "richtig" genutzt wird, sollten bereits neue Karten da sein.
 
jo genau...wozu brauchen wir Fermi wir warten einfach auf die nächste Generation und zocken dann...so langsam wird das Forum hier der Witz des Jahrhunders, adios.
 
GTX 470 Stock Kühler.... oder wahrscheinlich treffender: FX 5800 reloaded....:wall:

ein 70mm Lüfter, welcher mit 12V@1,8A alleine 21,6W zieht bei 100% Lüftergeschwindigkeit. :stupid:

Wenn man schon bei der "kleinen" <225W 470 einen derart leistungsstarken Lüfter verbaut dann ahne ich nix gutes für die 480.

Zum Vergleich: ne Stock 5870 hat nen 92mm Lüfter mit 12V@0,8A und die ist ab 50% Lüftergeschwindigkeit schon kaum zu ertragen.

Ich weiß, das sind verschiedene Lüfter, aber die Richtung in die es geht ist ja wohl klar....
 
Zuletzt bearbeitet:
Mal eine kleine Zusammenfassung der neusten Bilder - Kühlkonzepte der GTX 480 & 470 (der Übersicht halber sind auch ein paar ältere Pics, in der Hauptsache von CB, dabei):

Kühlblock GTX 480:

nvidia_gtx480_cooler9ewf.jpg


ältere Pics GTX 480 Kühlung:







GTX 470:

Auch die GTX 470 wird Heatpipes besitzen - diese sind aber durch das Gehäuse verdeckt:

dsc_3666vcgv.jpg


nvidia_gtx470_coolercf8t.jpg


dsc_36867fxe.jpg


dsc_3687je7k.jpg


70 mm Radiallüfter Delta BFB0712HF (GTX 470):

gtx470sog_4_dh_fx57yd7i.jpg


Bei EXPreview sprechen sie aufgrund der Daten (12V, 1.8A) von "Fan violence" :fresse: , nun ja, im Alltag wird er sicherlich auch nicht lauter als die Lüfter der GTX 200er sein. ;)

ältere Pics - GTX 470 Kühlung:






Quellen - neue Bilder:

Google Nachricht

NVIDIA GeForce GTX 400 auf der CeBIT - Fakten, Gerüchte und Mission Impossible - Nachrichten bei HardTecs4U
 
Zuletzt bearbeitet:
Word of the Year 2010 Fermi oder Tesselation ? :fresse:

interessante kühlkonstruktion
hat mal einer den kühler ne Cypress Gpu zerlegt?
 
Jetz neu mit direct touch. Dagegen sieht der Kühlkörper meiner G92-400 ja wie Kindergarten aus. :fresse:
Aber nur weil der Lüfter bis zu 21.6W verbraucht heißt das ja nich, dass der das auch dauerhaft macht. ;)
 
Siehste mal. Dann sind die doch gar nicht so schlimm beim Verbrauch. Abgesehen vom Lüfter. :fresse:
 
Stimmt. Das passt dann dazu, dass NV die VCore jetz via Software einzustellen erlauben will.
Rein für's OC. :) Da braucht man sich nicht extra 'nen potenteren Kühler à la AC Accelero und Konsorten für teueres :-)fresse:) Geld nachkaufen - beim Fermi kann man nur sparen. Und das meine ich durchaus (teilweise) ernst! :d
 
Da musst du aber das Gehäuse mit Backsteinen beschweren wenn das Ding voll aufdreht wirkt das wie ein Helikopter;)

3 Stück im Triple SLI u du hast nen eigenen Windkanal:fresse:
 
Zuletzt bearbeitet:
Also wenn der Lüfter bis zu 21,6 Watt verbrät bleibt für die eigentliche Karte ja nur noch 200Watt an Power Konsum übrig bei 6+6Pin

Die Ampere-Angaben auf Lüftern sind meist viel zu hoch.
Ich hab hier Yate Loon Lüfter mit 12V / 0,5 A aufgedruckt, ziehen tun sie bei 12V gerade mal 0,15 A.
Man sollte die Angaben also nicht überbewerten.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh