nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 3

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Aber glaube und lasse dich von NV zu einem 500€ Kauf eines Ofens überreden:fresse:

Überreden gutes stichwort... generell wird in dem forum hier mehr dazu überredet fermi sei schlecht als nvidia überredet fermi sei gut. was einer der gründe ist weshalb ich lieber warte um mir selbst ein bild machen zu können. ständig wird einem hier halbwissen um die ohren geworfen wo man als laie zwar passen muss, als experte aber wohlmöglich den kopf schüttelt.

von mir aus kann jeder kaufen was er will aber was haben andere damit zu tun? wenn das gesamtkonzept des fermi stimmt dann interessiert mich auch nicht dessen abwärme oder leistungsaufnahme das nur mal so am rande. wem das stört der musses ja nicht kaufen... und wem das ... http://www.tomshardware.com/de/WDM-GDI-WDDM-ATI-Radeon,testberichte-240480.html ... stört der kauft auch das nicht... auch zu diesem gerücht behaupten viele es sei frei erfunden... und?

mein fokus liegt nunmal erstmal darauf das fermi überhaupt mal zeigt was er kann. und vor allem wie präzise hier die ganzen prophezeiungen waren hier im forum sobald es wirkliche fakten gibt...

danach kann ich nämlich entweder behaupten "ui hier waren wirklich experten auf die ich hätte hören sollen dann hätte ich schon längst eine radeon" oder aber ich denke "aus dem forum werde ich mich in zukunft fern halten, da hier mehr über ungelegte eier diskutiert wurde als sonst wo"
 
@ Neurosphere

512 ALUs @ 1,512 GHz sind bei Fermi bedingt durch FMA (MUL gefolgt von ADD, das "verlorene" MUL von GT200 fällt weg) sind 1548,3 GLOPS und damit theoretisch (GTX285 = 1062,7 GFLOPS) "nur" +46%, wobei das nur die theoretischen Maxima sind. Eine HD 5870 schafft ja btw 2720 GFLOPS. Angesichts dessen, dass eine HD5870 idR 15-50% vor einer GTX285 liegt, sollte Fermi bei den von mir veranschlagten Füllraten und der Bandbreite ohne Effizienzsteigerungen die HD5870 meist knacken. Bleibt nur die Frage, ob die A3 die 1,512 GHz schafft - und da ist noch nichts durchgesickert.

Wenn Fermi 1/2 Jahr später und mit 50% mehr Transistoren den Cypress nicht schlagen würde, dann könnte Invidia ja echt einpacken. Nach meinen Berechnungen wird die neue GeForce irgendwo zwischen HD5870 und HD 5970 liegen, sowohl hinsichtlich Performance, Stromverbrauch und Preis. Schön wäre es natürlich wenn Preis und Stromverbrauch knapp über einer 5870 und die Leistung knapp unterhalb einer 5970 liegen würden, es sieht allerdings laut neuesten Meldungen aus Las Vegas eher umgekehrt aus, also Preis und Stromverbrauch auf HD5970-Niveau, Leistung knapp oberhalb 5870.
 
Wenn Fermi 1/2 Jahr später und mit 50% mehr Transistoren den Cypress nicht schlagen würde, dann könnte Invidia ja echt einpacken. Nach meinen Berechnungen wird die neue GeForce irgendwo zwischen HD5870 und HD 5970 liegen, sowohl hinsichtlich Performance, Stromverbrauch und Preis. Schön wäre es natürlich wenn Preis und Stromverbrauch knapp über einer 5870 und die Leistung knapp unterhalb einer 5970 liegen würden, es sieht allerdings laut neuesten Meldungen aus Las Vegas eher umgekehrt aus, also Preis und Stromverbrauch auf HD5970-Niveau, Leistung knapp oberhalb 5870.

nach meinen berechnungen .... ich :kotz: ab... was für ein gelaber unnd geschwäze ...
 
Ihr habt echt nix besseres zu tun als darüber zu diskutiern wer nun "Puppy" gesagt hat und wer nicht, ... also wenns nix wichtigeres im Leben gibt, dann tuts mir echt Leid irgendwie! :stupid:

Freu mich auf neue Karte und Deinen Thread dazu, vielleicht haben wir wieder Glück, und erwischen wieder eine taktfreudige Karte.:bigok:
 
Jetzt fängt sogar schon FUDZILLA mit schlechten Vorhersagen bzgl. Fermi an.

Kurz: Zu laut, zu heiss, zu teuer und dazu nicht mal viel schneller als HD5870. Allein die GPU koste 200$ pro Stück und würde daher mit Verlust verkauft werden müssen. Und sie munkeln, dass er deshalb auch nie wirklich in grossen Mengen verfügbar sein würde, da NVDIA die teuren GPUs lieber in professionelle Grakas verbaut um damit etwas Gewinn zu machen.

Interessante Prognose. Ich bin weiterhin gespannt.
 
Sämtliche Aussichten auf den Fermi regen eigentlich nur eins an, den Brechreiz...
Ich habe im Leben noch nie eine Karte von ATI besessen, aber dieses mal könnte es klappen.
Bravo Nvidia !
 
oder du behälst einfach die Alte und kaufst noch eine dazu...wenns noch welche gibt :fresse: ... die 285er sind rar ...2GB Variante?
 
Jetzt fängt sogar schon FUDZILLA mit schlechten Vorhersagen bzgl. Fermi an.

Kurz: Zu laut, zu heiss, zu teuer und dazu nicht mal viel schneller als HD5870. Allein die GPU koste 200$ pro Stück und würde daher mit Verlust verkauft werden müssen. Und sie munkeln, dass er deshalb auch nie wirklich in grossen Mengen verfügbar sein würde, da NVDIA die teuren GPUs lieber in professionelle Grakas verbaut um damit etwas Gewinn zu machen.

Interessante Prognose. Ich bin weiterhin gespannt.

Es geht nicht um den Ort wo es gepostet wurde sondern um den Schreiberling. Wenn Fuad schlechte News postet....dann würd ich mir sorgen machen.

200$ pro Stück wären ca 20-25 GPUs pro Wafer...na, wieviele passen da drauf? ;)
 
Nein, ist die 1GB-Version.
Noch eine 285er, habe ich auch schon lange hin & her überlegt, aber die sind ja nicht nur rar, sondern auch viel zu teuer...
Würde max. 70% mehr Power bringen, aber etwa 2x so viel Strom fressen.
Dagegen würde eine HD5870@1000/1300 ca. 50% mehr Leistung als eine GTX285 bringen & weniger oder gleich viel Strom brauchen & auch in der Anschaffung kaum mehr kosten.
 
also ein SLI aus zwei GTX285 skaliert doch deutlich besser als die Leistung der einzelnen 5870. Abgesehen davon ist es auch nicht die Regel eine 5870 auf 1000/1300 zu takten. Abgesehen von deinem vermeindlichen Einsparungen an Strom schnellt der Verbrauch der Karte da ganz schön nach oben und wird auch aufgrund der hohen Abwärme ganz schön laut. ... es sei du nimmst eine LCS, dann würde mich das weniger wundern, aber der Stromverbrauch ist auch nicht unbeding toll dann. Sollte es dann eine LCS Variante sein bist du mit deinen Anschaffungskosten auch nicht wirklich niedriger^^
Ich denke mit ner 2. 285 stehste dich besser. Neu muß nicht zwangsläufig besser sein ;)
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Wenn ich die 285 gebraucht mit Wakü für 200€ bekommen würde, wäre das sicher eine Überlegung wert, ansonsten ist das zu viel Geld für todgeweihte Hardware...
In meinen Augen ist Nvidia dabei es gründlich zu verkacken !
Sehr schade, aber was anderes sehe ich momentan nicht.
 
dann greif zur LCS...Ich würde zwei nehmen :d
 
Da liegt schon wieder das nächste Problem, CF skaliert nicht so toll, da wo es mich interessiert, sind es nur 50%...
Wir haben morgen sicher Verbot in diesem Tread !
 
nach meinen berechnungen .... ich :kotz: ab... was für ein gelaber unnd geschwäze ...

Vielen Dank für die Würdigung meiner Berechnungen!
Für jeden Benchmark, bei dem eine Fermi-Grafikkarte eine Hemlock schlägt oder gegen eine Cypress abloost, kriegst du einen virtuellen Kasten Bier.

Gegenangebot? Oder bist du noch nich 16?
 
Wenn es stimmen würde, würde mich das nicht überraschen.

ATI hat auch Palit rausgehaut, jedenfalls sehe ich keine 5000er von palit.
Welche ist eigentlich DIamond....so ne neue marke auf alternate, produzieren die vl auch für NVidia?
wieviele boardpartner hat nvidia ofiziell zur zeit?
 
was? ich dachte XFX war und ist immer noch das zugpferd von NV?
hat es damit was zu tun dass XFX bei ati eingestiegen ist?
 
NV hat jetzt EVGA als zugpferd.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh