nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 3

Status
Für weitere Antworten geschlossen.
Ich bezeichne den Fermi schon als neue Architektur. Und deswegen können wir alle nix abschätzen.

P.S.: Der Huang hat echt geschwitzt gestern.:fresse:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
also immernoch G80 architektur, nur auf 40nm shrink und aufgebohrt und hier und da ein paar kleine optimierungen ?

wäre schade, aber nicht schlecht. die G80 architektur ist immerhin wirklich Super und Spitze.

bei ATI ist seit dem R520 ja (quasi) auch immer die selbe architektur am werke. (falls es doch erst ab R600 war, korrigiert mich)

und die G80 architektur ist der ati architektur was die effizienz angeht nicht unterlegen.

wer ist da eig weiter vorne ? evtl kann fdsonne das beantworten.

wenn man beide architekturen mit der gleichen anzahl an transistoren (impliziert auch die anzahl der rechen einheiten) und gleicher fertigungs größe und gleichem ram austattet, welche würde mehr fps pro watt bringen ?
 
So Jungs wir machen erstmal wieder paar Minuten Pause !
 
So ich eröffne den Thread wieder mit folgender Ankündigung ->

Kommen hier die gleichen User und spammen den Thread wieder mit unnützen Dingen zu, gibt es für jeden einzelnen eine Sperre für diesen Thread.

Damit gibt es keinen Zugang mehr hier -> kein lesen und kein schreiben !

Überlegt euch vorher was ihr hier posten wollt, das gilt für jeden !
 
ich würde es besser finden wenn hier in nächster zeit nichts mehr geschrieben wird, bis fakten von Nvidia kommen, über die anständig diskutiert werden kann.
 
Jungs ich würde vorschlagen die GPGPU Diskusion an dieser Stelle zu beenden...

Hier geht es nicht um GPGPU, wenn ihr über GPGPU sprechen wollt, dann macht dazu bitte nen eigenen Thread auf, der einzig dafür da ist.
Die Sache hier heizt doch nur die Gemüter beider Parteien weiter an und artet schließlich wieder aus...

In diesem Sinne :btt:@Fermi
 
Edit: ich schreibe grade mit nem Kumpel aus tschechien der hat fast immer solche neuen karten als testsample vor ort vieleicht sagt er ja was.. Vorausgesetzt er hat eine von nv bekommen!
Damals zum GT200 hat er auch 3 stück bekommen!

Du hattest ja geschrieben (wurd leider beim "Wischen" mitgelöscht), dass er ein Testsample (mit niedrigeren Taktraten als die finalen) des GF100 von NV erhalten hätte und er gesagt hätte, dass die GTX 380 im Schnitt (natürlich abhängig von Anwendung und Settings) ~ 15% langsamer wie die HD 5970 (also ~ 5850 CF) sei.

Wahrscheinlich mit finalen Taktraten verglichen? Laut Gerüchten sollen die der früheren Revisionen ja recht niedrig gewesen sein.
Also wenn er ein Testsample erhalten hätte,
dann kennt er vermutlich auch schon die finalen Taktraten.

Mit der Rev. A3 sollten diese ja stehen oder halt bald stehen....zumindest falls Charlie nicht Recht hat und noch eine Rev. A4 kommt.
In diesem Fall würde aus März aber ganz schnell Mai als Release-Termin (wenn nicht etwas später).

Ich schätze mal, dass 650/1400/1000 MHz als finalen Taktraten für die GTX 380 hinkommen könnten.

Das Ergebnis wär auf jeden Fall ein anständiger Wert - vor allem dann, wenn man bis 250 Watt verbrauchen würde (die HD 5970 ist ja mit 294 Watt angegeben).
Grob gesagt ist ja die 5970 zwschen 40 und 50% schneller als die HD 5870.
Folglich wär die GTX 380 auch grob geschätzt zwischen 25 und 35% flotter als die HD 5870 -
zumindest falls man es mit der Fermi Architektur schafft im Vergleich zu ATi nicht mehr so sehr bei 8xAA einzubrechen (ok, bei 8xAA sind die Karten eh nicht so gut vergleichbar, da man unterschiedliche Modi nutzt).


Wär halt schön, wenn die Prognose deines Bekannten stimmen würde...was sie zumindest vor Release des G80, R600 oder GT200 gewesen war.
Optimal wäre es dann, wenn er anonym ein paar Benches mit Screens (z.B. auch GPU-Z) veröffentlichen könnte. :fresse:


Nun ja...hoffentlich gibts dann wenigstens zur CeBit echte Fakten von NV - am besten wär natürlich der Fall der NDA.



Zum Thema Multimonitoring: Ist zwar schade, dass eine einzelne Karte weiterhin maximal nur 2 Monitore ansprechen kann, aber im Bezug auf 3D Vision Surround find ich die Lösung alleine aus Gründen der Performance besser (Karte 1 wird dann wohl Monitor 1 und 2 ausgeben und Karte 2 Monitor 3...optimal wär ja eine Last - Verteilung von 50/50). 120 Hz (3D) und dann noch Multimonitoring würden echt zuviel Leistung kosten, um es mit einer GPU flüssig darstellen zu können. Schon alleine 3D Vision lässt die fps ja halbieren.


Das würden auch die ATi Single GPU Modelle nicht schaffen (also Eyefinity + 3D).

Hier kann man mal als Vergleich sehen, wie stark die Leistung mit je 1 x HD 5870, 5850 und 5770 einbricht
(mittlerweile sollte das ja auch in CF laufen, zumindest wohl bei der HD5970....bin da aber nicht auf dem neusten Stand; der Artikel von Ende Oktober auch nicht):

http://www.computerbase.de/artikel/...y_spieletest/4/#abschnitt_direct3d9benchmarks
 
Zuletzt bearbeitet:
Gibt es in nächster Zeit einen "wichtigen" Event, an dem nVidia evtl was bringen könnte zum Fermi? Solange wir nichts neues haben, gehts hier eh drunter und drüber! :-)
 
Ist es denn so schwer beim Fermi zu bleiben?

Schreibt halt nix, wenn es nix zu diskutieren gibt. Aber die Diskusion über die effizienz alter Kamellen wie der RV770 ist nun wirklich nicht hier das Thema...


Ebenso gehört hier GPGPU nicht mit rein. Zumindest nicht im allgemeinen. Leistungsmäßig auf den Fermi bezogen von mir aus.
Der Rest von GPGPU geht hier weiter:
http://www.hardwareluxx.de/community/showthread.php?t=679102
Hier hab ich auch die Diskusion von vorhin reinverschoben...

In diesem Sinne :btt:
 
Edgecrusher86 schrieb:
ok, bei 8xAA sind die Karten eh nicht so gut vergleichbar, da man unterschiedliche Modi nutzt
Nope, beides SGMSSAA.

Da sich 8x MSAA aufgrund der Radeons zu einem beliebten Bench-Setting entwickelt hat (auch wenns in der Praxis imo angesichts von 4x TAA witzlos ist) und NV hier Dresche bekommt, werden die Grünen hier vermutlich nachgebessert haben - ansonsten ereilt Fermi ein ähnliches Schicksal wie die GXT285: Mit 4x MSAA klar vorne, mit 8x MSAA gibts aufs Maul.
 
Nope, beides SGMSSAA.

Da sich 8x MSAA aufgrund der Radeons zu einem beliebten Bench-Setting entwickelt hat (auch wenns in der Praxis imo angesichts von 4x TAA witzlos ist) und NV hier Dresche bekommt, werden die Grünen hier vermutlich nachgebessert haben - ansonsten ereilt Fermi ein ähnliches Schicksal wie die GXT285: Mit 4x MSAA klar vorne, mit 8x MSAA gibts aufs Maul.

Aber auch die RV870er haben wenn man CB mal trauen kann bei 8xAA im Gegensatz zu 4xAA etwas an Boden verloren. So ist der Unterschied zwischen HD5870 und HD4870 bei 4xAA größer als bei 8xAA...

Die Frage ist, ob sich NV hier überhaupt darüber Gedanken machen will/muss. Denn 8xAA ist doch weitgehendst sowieso für die Masse uninteressant. Die neuen Games bekommen das mit brauchbaren Auflösungen eher schwierig hin, egal ob nun NV oder AMD Karten im Rechner stecken. Und dort wo die Leistung reicht, spielts auch nicht so die Bohne ob nun 40 oder 50FPS rauskommen...
Echten Handlungsbedarf seh ich da für NV eigenltich nicht...
 
Ich sehe persönlich auch keinen Handlungsbedarf, da 8x MSAA wie gesagt imo ein reines pro-Radeon Bench-Setting ist und von mir auch auf der HD4870 und HD5870 noch nie genutzt wurde (stecke die Fps lieber in AAA oder CF bzw. SSAA). Allerdings ist 8x MSAA eben der höchste vergleichbare Modus, es sei denn, Fermi kommt ebenfalls mit SGSSAA. Ansonsten wird Fermi auch an 8x MSAA gemessen und da hatte NV seit G80 das Nachsehen. Die HD5870 verliert evtl. deshalb etwas Fps auf die HD4870, weil letzter (Caches usw. mal außen vor) weitaus mehr Bandbreite zu Verfügung steht - das könnte der Grund sein.
 
Bestimmt n besonderes NT das viel A auf der 12V Schiene hatoder son Spaß, aber es sind trotzdem nur 1x6 und 1x8Pin Anschlüsse vorhanden.
 
New: DXXI ready!
Full support of most current >300W DX11 graphics cards due to minimum two 6+2P (8P) PCI-E connectors


nvidia_geforce_100_2.jpg
 
Zuletzt bearbeitet:
Sieht einfach absolut merkwürdig aus. Also ich hab das so noch nicht gesehen.
 
sieht so aus als ob er 6 pin normal ist und der 8 pin 2 kabel angebunden hat.(Zwecks ampere)
ist aber unwarscheinlich,
Nvidia verkauft doch keine karte wo du n spezial nt brauchst.
vl haben die probleme mit der stabilität...
 
seltsam ist es schon, ich kann auch nicht sagen was das fürn NT ist, vielleicht haben die ne besondere Kabelführung bei dem 6+2 Pin Stecker. Normalerweise sind die doch zusammengesleeved und nur ein Stückchen stippt ab wenn man die auseinander macht^^
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh