nVidia GF100/Geforce 4xx [Speku-, News- & Diskussionsthread] Part 3

Status
Für weitere Antworten geschlossen.
das ist gar nicht so abwegig

glaubst du etwa im Ernst, dass wenn die Karte wirklich so viel Power hat, sich
nVidia das mit einem Taschengeld bezahlen lässt? :lol:
Die meisten werden daher sowieso erstmal zur 470er greifen, falls
sie überhaupt eine in die Finger bekommen, das ist noch ein anderes Kapitel..

Wenn der derzeit vermutete Preis bei 500 Dollar liegt, dann kann es u.U. sein, dass wir 500.- und durch die Dreistigkeit der Händler sogar 550.- löhnen müssen. Für 450.- würde ich aber vermutlich zuschlagen, gerade weil die Ati derzeit auch mindestens 380.- Euro kostet und falls Ati nichts daran ändert, wird nVidia sicherlich den Preis hoch beibehalten.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn der derzeit vermutete Preis bei 500 Dollar liegt, dann kann es u.U. sein, dass wir 500.- und durch die Dreistigkeit der Händler sogar 550.- löhnen müssen. Für 450.- würde ich aber vermutlich zuschlagen, gerade weil die Ati derzeit auch mindestens 380.- Euro kostet und falls Ati nichts daran ändert, wird nVidia sicherlich den Preis hoch beibehalten.

Weder ATI noch NVIDIA haben ein Interesse an einem Preiskampf. Die Preise dürften also hoch bleiben, mit leichtem P/L-Vorteil auf Seiten von ATI. NVIDIA hat schlicht und ergreifend den besseren Ruf (und Sachen wie CUDA/PhysX) und lässt sich dies bezahlen.
 
ich denke ich werde dieses mal nicht als einer der ersten dabei sein wie sonst.
klar wird die gtx schneller sein aber besser..!? die 5870 von ati ist ein sehr "rundes" produkt mit einem guten PL und war zudem seiner zeit (nv) 6monate vorraus...bzw. ist technisch auch mit dem fermi noch auf augenhöhe. ich werde das gefühl nicht los das die 480gtx mit macht fertig werden musste und das wir sehr zeitnah mit einem optimiertem produkt rechnen können.
 
was hat diese frage in diesem thread verloren? :hmm: andererseits kannst du das gegenteil nicht behaupten, aber es wäre logisch wenn man den chip untervolten kann.
.

Falsch es wäre logisch wenn das Nvidia schon in einem akzeptablen Maß getan hätte ohne das der User händisch eingreifen muss

Falls das Nvidia nicht gelungen ist ist es logisch das es dem user wohl auch nicht sehr weit gelingen wird

Ein hoher Verbrauch unter Last ist zweitrangig aber ein hoher Idle Verbrauch:shot:
 
Zuletzt bearbeitet:
unter windows noch schön den DDR5 runtertakten (Nvidia funzt sehr gut mit rivatuner im vergleich zur konkurrenz) und ein bisschen an der volt-schraube drehen, da wird einiges drin sein.

???
ich hoffe doch sehr das das automatisch bei den gtx,en gehen wird!?

bei der 5xxx serie von ati braucht man nicht undervolten;)
 
Manchen fällt es halt schwer in der Niederlage Größe zu zeigen...
Niederlage? Bist du überhaupt in der Lage, die Zusammenhänge richtig zu erfassen? Fermi hat über 50% mehr Chipfläche als RV870. Sollte der Chip dann nicht auch insgesamt mindestens 50% schneller sein? Ob du es glaubst oder nicht, Performance ist nicht das einzige entscheidende Kriterium. Es gibt noch viele weitere Aspekte bei der Chipentwicklung. Informationen sagen auch, dass ATI Evergreen absichtlich abgespeckt haben soll, da ihnen die Probleme mit TSMC schon länger bekannt sind. Und das Ergebnis sehen wir ja, die Verfügbarkeit ist zwar nicht berauschend, aber immerhin hat ATI seit einem halben Jahr etwas auf dem Markt. Was hast du denn von Fermi in den letzten 6 Monaten gesehen? Nicht viel. Was also nützt nVidia ein Chip, der am Ende 10% schneller ist, in Relation mehr Strom braucht und nicht vernünftig zu produzieren ist, während ATI schon lange an einem Refresh bzw der Next-Gen arbeitet? Wovon du sprichst, ist maximal ein Pyrrhussieg. Und darauf wird ATI gut und gerne verzichten können. nVidia muss erstmal nachweisen, dass sie mit Fermi genauso viel Geld verdienen können wie ATI mit Evergreen. Dann können wir uns nochmal darüber unterhalten, wer denn besser gearbeitet hat. ;)
 
... Informationen sagen auch, dass ATI Evergreen absichtlich abgespeckt haben soll, da ihnen die Probleme mit TSMC schon länger bekannt sind...

quelle bitte, gerne auch per pm falls das hier zu ot wird, oder is das nur wieder dein uebliches "ich weiss mehr als alle anderen" gesabbel ? :)
 
Was glaubt ihr wieso der Speicher auf der GTX480 trotz schneller GDDR5 (die auch auf der 5870 sitzen) nur 925 MHz takten?

NVidia hat es nicht geschafft den 384 Bit SI zu synchronisieren bei höherem Takt. Lächerlich, 275 MHz Differenz.
 
@scully1234

Wenn ich etwas niedriger Takte, dann verwende ich auch lansamen Speicher. Wenn ich aber einen schnellen Speicher langsam takte, dann habe ich Signalprobleme und versuche mit dem gewinn der Signalqualität des besseren Speichers diese zu glätten.
 
@scully1234

Wenn ich etwas niedriger Takte, dann verwende ich auch lansamen Speicher. Wenn ich aber einen schnellen Speicher langsam takte, dann habe ich Signalprobleme und versuche mit dem gewinn der Signalqualität des besseren Speichers diese zu glätten.

Du weisst aber schon das die niedrige Taktung der TDP geschuldet ist;)

Hier nochmal die Auflistung von Nelis

512er Shader 725/1450/1050 295 TDP (maybe B1 ???)

480er Shader 725/1450/1050 275 TDP (OC Edition???)

480er Shader 701/1400/950 250 TDP (480 GTX)
 
Zuletzt bearbeitet:
@scully1234

Wenn ich etwas niedriger Takte, dann verwende ich auch lansamen Speicher. Wenn ich aber einen schnellen Speicher langsam takte, dann habe ich Signalprobleme und versuche mit dem gewinn der Signalqualität des besseren Speichers diese zu glätten.

da machst es dir scho bissel einfach wenn du das auf nur eine ursache beschraenkst, deine aussage ist imho eine der "gewagtestes" spekulationen im ganzen thread. :d
 
ich denke ich werde dieses mal nicht als einer der ersten dabei sein wie sonst.
klar wird die gtx schneller sein aber besser..!? die 5870 von ati ist ein sehr "rundes" produkt mit einem guten PL und war zudem seiner zeit (nv) 6monate vorraus...bzw. ist technisch auch mit dem fermi noch auf augenhöhe. ich werde das gefühl nicht los das die 480gtx mit macht fertig werden musste und das wir sehr zeitnah mit einem optimiertem produkt rechnen können.

Genau meine Meinung.... !! Ich kauf mir die HD5850 Vapor-X wenn es sie für 180,- gibt (in ca. 2 Jahren :d) und flashe dann das BIOS der HD5870 drauf. Zur Not kommt dann noch eine zweite rein.

Aber im Moment kommt es mir so vor als ob Crysis noch sehr lange das hardwarehungrigste Spiel bleiben wird was Grafik angeht... und da sehe ich eh noch keinen Grund die HD4890 auszutauschen. Mit der bin ich hochzufrieden...einziger Wermutstropfen ist das Geflackere der Texturen.

@topic: ich denke mal schon dass der Fermi gerade was Min-fps angeht punkten kann. Dadurch, und natürlich durch den Ruf, werden sich wohl schon Abnehmer genug finden. Denke aber dass die Karte im Gamerbereich eher floppt...jedenfalls im Vergleich zur 8800er Serie.

Schonmal vorsorglich: Der Post spiegelt nur meine eigene Meinung wider !!! Ich kann mich ja irren...
 
Du weisst aber schon das die niedrige Taktung der TDP geschuldet ist;)

Hier nochmal die Auflistung von Nelis

512er Shader 725/1450/1050 295 TDP (maybe B1 ???)

480er Shader 725/1450/1050 275 TDP (OC Edition???)

480er Shader 701/1400/950 250 TDP

Sorry aber nicht beim Speicher. Ein von 900 MHz auf 1200 MHz getakteter GDDR5 Speicher zeiht vieleicht wenn es hoch kommt 3W mehr. Der Chipteil der für den Speicher verantwortlich ist, ist so verschwindend klein das deren Takterhöhung nicht mal als Messwert ermittelt werden kann, aber gehen wir großzügig von 2W aus. Addieren wir noch Unfähigkeit von NV dazu mit 5W, sind wir in der Summe bei 10W für ein Speicherdurchsatz von 225 GB/s.
 
Zuletzt bearbeitet:
Stören tut mich das bei den Games die mit ner 5870 probleme machen der Fermi auch ziemlich abkakt. Metro und Crysis machen da bei wirklich hohen Auflösungen auch nicht wirklich spass. Da hätte ich mehr erwartet.
 
Sorry aber nicht beim Speicher. Ein von 900 MHz auf 1200 MHz getakteter GDDR5 Speicher zeiht vieleicht wenn es hoch kommt 3W mehr..


Du siehst aber schon das hier nicht nur der Speicher,sondern auch alle anderen Takte verändert wurden bzw sogar mehr Shader aktiviert sind

Und neliz(wer ihn kennt) als Quelle war bis jetzt eigentlich immer seriös


Wo hast du denn das mit dem SI her?
 
Zuletzt bearbeitet:
Du siehst aber schon das hier nicht nur der Speicher,sondern auch alle anderen Takte verändert wurden bzw sogar mehr Shader aktiviert sind

Es bleibt die Aussage. Wenn ich schnellen Speicher verbaue und den Takt nicht nutze, habe ich meine Hausaufgaben als Hersteller nicht gemacht. Ich habe eine möglichkeit Geld zu sparen ausgelassen wegen meiner unfähigkeit ein Produkt richtig zu machen.
 
Es bleibt die Aussage. Wenn ich schnellen Speicher verbaue und den Takt nicht nutze, habe ich meine Hausaufgaben als Hersteller nicht gemacht. Ich habe eine möglichkeit Geld zu sparen ausgelassen wegen meiner unfähigkeit ein Produkt richtig zu machen.

Oder ich halte einfach meine Werbeversprechen, da die Karte mit extrem OC-Eigenschaften beworben wird. ;)
 
Oder ich halte einfach meine Werbeversprechen, da die Karte mit extrem OC-Eigenschaften beworben wird. ;)

Beworbenes OC ist nur eine faule Marketingausrede wenn ich nicht in der lage bin sicher zu stellen das alle meine Produkte hoch Takten. Ich wälze das Problem an den Kunden ab und sage dann " Haben Sie dann Pech gehabt mit diesem Stück Silicium. Andere sind besser."
Wieso muss ein Kunde überhaupt OC'n. Wieso nicht gleich ein Produkt schnell machen.

Oh, ups, ich vergaß, sorry. Weil man dann eine Heizung abliefert die nur noch Storm frisst dessen Transistoren dann auch im Idle mit Hochspannung laufen müssen.

Der Fermi kann sich direkt einreihen:

ATi 7500
NVidia 5800 Ultra
ATi R600
.... reserviert für Fermi
 
Zuletzt bearbeitet:
was ihr alle vergesst wenn hier über den preis geredet wird. klar is die ATI 5870 wegen der lieferschwierigkeiten teurer als vorgesehen - aber auch die 500 euro für die gtx480 werden steigen da diese karte auch (wenn nicht noch mehr durch die größere DIE) durch die produktionsschwierigkeiten bei TSMC betroffen ist.

Und solang beider nur bei TSMC bauen lassen wird sich nichts ändern.
 
Wenn ich schnellen Speicher verbaue und den Takt nicht nutze, habe ich meine Hausaufgaben als Hersteller nicht gemacht. .

Wenn ich im Chip viele Shader als Redundanz verbaue wie sieht es denn da mit den Hausaufgaben aus?

Oder will ich da auch nur etwa die Ausbeute erhöhen,weil der Chip nicht die gewünschten Yields hervorbringt

Du siehst also wer im Glashaus sitzt sollte nicht mit Steinen werfen;)
 
Zuletzt bearbeitet:
Ähm die Taktung von Speicherbausteinen (die wesentlich mehr können) und "eine Hand voll" mehr Shader für die Redundanz einzubauen ist irgendwie ein Äpfel - Birnen Vergleich in meinen Augen.
 
Wenn ich im Chip viele Shader als Redundanz verbaue wie sieht es denn da mit den Hausaufgaben aus?

Oder will ich da auch nur etwa die Ausbeute erhöhen,weil der Chip nicht die gewünschten Yields hervorbringt

Du siehst also wer im Glashaus sitzt sollte nicht mit Steinen werfen;)

Verbraucht der RV870 unter Idle etwa viel Strom mit dem warscheinlichen 12,5% Shaderowerhead. Wäre mir ja neu.

Aber ich lasse mich ja etwas besseren belehren.

Ach ja es waren ja nur ca. 25W. Puh, habe nochmal schwein gehabt. :teufel:

NVidia soll nicht Ressourcen bei TSMC verschwenden. Die produzieren momentan ehe Schrott. Sollen die die Waferkontingente geben an die Leute die mit denen auch umgehen können.
 
Zuletzt bearbeitet:
Ähm die Taktung von Speicherbausteinen (die wesentlich mehr können) und "eine Hand voll" mehr Shader für die Redundanz einzubauen ist irgendwie ein Äpfel - Birnen Vergleich in meinen Augen.

Eine Hand voll triffts wohl nicht so ganz oder liege ich da falsch?

Wieso Äpfel mit Birnen es geht um "gemachte Hausaufgaben" u da siehts eben genauso aus wenn man schon davon redet

---------- Beitrag hinzugefügt um 00:51 ---------- Vorheriger Beitrag war um 00:49 ----------

Verbraucht der RV870 unter Idle etwa viel Strom mit dem warscheinlichen 12,5% Shaderowerhead. Wäre mir ja neu.

Aber ich lasse mich ja etwas besseren belehren.

Ach ja es waren ja nur ca. 25W. Puh, habe nochmal schwein gehabt. :teufel:

Ich sage lediglich das man die Kirche im Dorf lassen sollte weil es ebenso Gegenargumente gibt auf anderer Seite
 
Wo gibt es ein Gegenargument gegen die Shaderpolitik bei ATi. Nenn mir bitte einen Realen.

Ist die Karte zu stromhungrin? NEIN
Ist die Karte zu hieß? NEIN
Ist die Karte zu laut? NEIN


Und wer sagt dir das der Overhead gewollt ist?

Der ist genauso ein Zeichen für einen nicht voll funktionsfähigen Chip

Genausowenig wie der Speichertakt bei Nvidia der der TDP geschuldet ist nicht dem SI oder die 480er Shader der Yield
 
Zuletzt bearbeitet:
Beiträge entfernt, das sinnlose geposte hat erstmal ein Ende !
 
Falls die Benchmarks noch nicht gepostet wurden:
Futuremark / YouGamers Forums - View Single Post - The Truth. I have seen it.

73529807.jpg

gtx4802.jpg


Sehen eigentlich nicht unbedingt schlecht aus. Nen paar mal ist knapp und des öfteren kann die 480 gegen die 5870 nen guten Vorteil verbuchen.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh