nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ach, die sind doch schon vor ein paar tagen an anderer stelle aufgetaucht und bisher unbestätigt. also einfach abwarten. bis zu den ersten tatsächlichen test, werden noch einige dieser netten balkendiagramme erscheinen.

grüße
actionB52
 
ich alter luxxer doch nicht...war wohl meine konservative seite ;)
 
was mich nun aber stört, dass es nicht ansatzweise nen DX11 Benchmark gibt :hmm:...was zum Henker ist DX10 lightning ?
 
wär ja auch ein zu extremer sprung
 
Naja für gewöhnlich ist der Hardwaremarkt ohnehin um einiges schneller als der Softwaremarkt, ich glaube wenn der Spielemarkt nicht wär würde heute kaum jemand privat so potente hardware brauchen ob CPU oder GPU.

Selten das Spiele auf den Markt kommen mit der zum Release Aktuelle Hardware nicht klar kommt. z.B. Crysis oder Stalker. Wobei ich würde mich nicht wundern wenn die Hardwarebranche in genau solche Titel Unsummen investiert damit auch wieder Stärkere hardware verkauft werden kann :)
 
ist doch schon älter und fake ist es nebenbei auch.

achja, das war die hochgerechnete Tabelle...ich dachte es wäre wieder was neues. - sry
ich weiß aber immernoch nicht was DX10 lightning ist. Kann mir das bitte einer erklären ?! thx
 
ist das nicht sowas wie bei stalker mit der lichtberechnung!?
 
Selten das Spiele auf den Markt kommen mit der zum Release Aktuelle Hardware nicht klar kommt. z.B. Crysis oder Stalker. Wobei ich würde mich nicht wundern wenn die Hardwarebranche in genau solche Titel Unsummen investiert damit auch wieder Stärkere hardware verkauft werden kann :)
zu nem damaligen Zeitpunkt war FEAR1 ja auch so ne Überraschung. An Shift hat man wohl auch gut zu knabbern und die DX11 Welle kommt ja erst noch, wobei da mehr Titel bei sind die mich nicht interesseieren, als das ich da jetzt schon geil drauf wäre. Bei der Cryengine3 kann man durch DX11 wohl eher mehr Performance erwarten als neue Features.
Jedenfalls kann man behaupten im nächsten Jahr mehr als nur gut zurecht zu kommen mit der neuen Hardware :bigok::xmas:

---------- Beitrag hinzugefügt um 10:00 ---------- Vorheriger Beitrag war um 09:59 ----------

ist das nicht sowas wie bei stalker mit der lichtberechnung!?

klingt interessant, wenn du das was du aufgeschnappt hast mit ner Quelle untermauern könntest, dann würde ich mir den Rest auch gerne erlesen :d
 
zu nem damaligen Zeitpunkt war FEAR1 ja auch so ne Überraschung. An Shift hat man wohl auch gut zu knabbern und die DX11 Welle kommt ja erst noch, wobei da mehr Titel bei sind die mich nicht interesseieren, als das ich da jetzt schon geil drauf wäre. Bei der Cryengine3 kann man durch DX11 wohl eher mehr Performance erwarten als neue Features.
Jedenfalls kann man behaupten im nächsten Jahr mehr als nur gut zurecht zu kommen mit der neuen Hardware :bigok::xmas:

War aber auch das Ziel von DX11. Mehr Performance durch mehr Effizienz. Es ist übrigens erstaunlich was alleine mit DX9 möglich wäre, allerdings sind die Maschinen zu Hause halt zu langsam ;)
 
Hmm, die Ergebnisse sehen ja gut aus. Fehlt nur noch ne unabhängige Quelle.
Frage ist, wieviel Strom braucht die Kiste? Soll ich neben mein Häuschen schonmal Fundamente für die 3 Megawatt Windmühle ausheben?
 
Will endlich eine GTX380 haben meine 5870 langweilt mich schon wieder.
 
5gaw724nf150jekte7.png

:d
 
Wieso halten es alle für unmöglich, dass der GF100 doppelt so schnell ist wie die GTX 285??? Das Ding befindet sich mittlerweile seit 5 1/2 Jahren in Entwicklung, und was so eine lange Entwicklungszeit bringen KANN hat man beim G80 gesehen (Entw. 2002-2006);) Lassen wir uns einfach überraschen, außerdem würde es mich nicht wundern, wenn die GTX 380 die HD 5970 schlägt, da MultiGPU Karten immer noch ihre Macken haben....


mfg
 
@CypressFX
nach den bisher bekannten werten können bei den Fake Bench ergebnissen schon berechtigte Zweifel aufkommen. Wie NV mit DX11 und Tesslation klarkommt weis auch noch niemand.

Ati 5870
Rechenleistung 2720 GFlOPs
Pixelfüllrate 27 GPixel/s
Texturierleistung 68 MT/s
Speicherbandbreite 154 GB/s

Ati 5970
Rechenleistung 4640 GFLOPs
Pixelfüllrate 46,4 GPixel/s
Texturierleistung 106 MT/s
Speicherbandbreite 256 GB/s

Ab hier Spekulation, da Taktraten nicht final !

~ Nvidia GTX 360
Rechenleistung 1152 GFLOPs
Pixelfüllrate 26 GPixel/s
Texturierleistung 62,4 MT/s
Speicherbandbreite 168 GB/s

~ Nvidia GTX 380
Rechenleistung 1740 GFLOPs
Pixelfüllrate 31,2 GPixel/s
Texturierleistung 83,2 MT/s
Speicherbandbreite 202 GB/s

~ Ati Radeon 5890
Rechenleistung 3200 GFLOPs
Pixelfüllrate 31,8 GPixel
Texturierleistung 80 MT/s
Speicherbandbreite 192 GB/s
 
Zuletzt bearbeitet:
Könnte schon hinkommen, dass eine 380 ungefähr so schnell ist wie eine 5890.
Zumindest wäre das plausibler, wobei man sehen muss, wie die Rechenleistung auch anwendbar ist.
Papier ist geduldig.
 
Alles ist möglich aber zweifel an den gefakten benches sind wohl angebracht wir werden sehn.
 
Zuletzt bearbeitet:
Hallo,

gerade ist mir das linke Diagramm auf dieser Folie aufgefallen:
Klick
Nach der Folie müsste eine Karte der Tesla20-Serie in SP bei ca. 1,5 TFlops liegen.
Die Folie ist afaik nVidias einziger direkter Hinweis auf die SP-Leistung.
Bisher hat nVidia nur Infos zu DP rausgegeben und wir haben uns unter gewissen Annahmen die SP-Leistung ausgerechnet.
Danach sollten es aber nur 1,2 Tflops sein.

ciao Tom

P.S vielleicht ist das Diagramm aber auch nur schlampig erstellt worden.
 
Das Thema hatten wir schon oft genug. Zum einen sind die Quadro- und Tesla-Karten immer deutlich niedriger getaktet gewesen als die GeForce und ums gleich deutlich zu sagen, da brauch jetzt nicht wieder drüber diskutiert werden, denn das ist einfach eine Tatsache. Zum anderen haben die Tesla-Karten ECC-Speicher und das betrifft auch die Caches, diese liegen im Chip und somit könnte dies auch die Frequenzen negativ beeinflussen. Im GPGPU-Markt ist zuverlässigkeit halt oft wichtiger als ein paar MHz mehr.
Außerdem bringt es uns auch nichts die Tflops der GTX380 zu kennen, denn beim Vergleich mit der GTX285 haben wir die MUL-Diskussion. Ein Vergleichen mit Ati ist noch schlechter, da die Tflops bei Ati eh nur heiße Luft sind, da kann es sogar vorkommen, dass nur 20% genutzt werden.
 
Zuletzt bearbeitet:
@Hentur
mein Posting hast Du aber schon genau gelesen?
Ich beziehe mich darin nur auf die Tesla-Reihe.
 
Hallo,

gerade ist mir das linke Diagramm auf dieser Folie aufgefallen:
Klick
Nach der Folie müsste eine Karte der Tesla20-Serie in SP bei ca. 1,5 TFlops liegen.
Die Folie ist afaik nVidias einziger direkter Hinweis auf die SP-Leistung.
Bisher hat nVidia nur Infos zu DP rausgegeben und wir haben uns unter gewissen Annahmen die SP-Leistung ausgerechnet.
Danach sollten es aber nur 1,2 Tflops sein.

ciao Tom

P.S vielleicht ist das Diagramm aber auch nur schlampig erstellt worden.

Es arbeiten immer 2 Cuda-Cores an einer DP-Berechnung. Somit hast du nurnoch die halbe Rechenleistung über die Shader, deshalb hast du den Faktor 2 von DP zu SP. Hatten wir hier aber auch schon mal.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh