nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
Wir können eh nicht mehr als abwarten. Schade das es von den einschlägigen Gerüchteküchen aus China nicht schon ein paar Balkendiagramme gibt in unsinnigen Settings über die man sich Tagelang auslassen könnte ;)

Lord schrieb:
Logischerweise wird in einem nVidia-Thread nie jemand über Fudo jammern, der sagt zu dem Thema ja auch nichts. Wenn du in ATi-Spekuthreads noch nie gelesen hast, dass Fudo unglaubwürdigen Schwachsinn schreibt, dann lies nochmal genau.

Stimmt. Im Prinzip stochern beide in den negativsten Möglichkeiten des unliebsammen Chipherstellers herrum. Da schreibt Fudo das ATI angst vor NV hätte und die Karte im Plan liegt, sowie Charly schreibt ATI wäre meilenweit in Vorsprung und NV würde sich aus dem GRakamarkt zurückziehen. Schreiben halt beide Müll, kommt nur drauf an welcher Seite man lieber zuhört.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo,
da früher bei den ATI Karten mal die Rede davon war das die Streaming Prozessoren nicht vergleichbar sind mit den von nVidia, habe ich mich mal auf die suche begeben!
Das ist dabei raus gekommen:
http://nostasolutions.com/2008/11/03/stream-processing-units-implementation-nvidia-vs-amdati/

Sollte das auch auf die HD5870 noch zutreffen, dass 5 Streaming Prozessoren vergleichbar sind mit 1 Unified Shader von Nvidia, würde es so ausshen:

HD5850: 160
GTX285: 240
HD5870: 320
Fermi: 512

Hinzu kommt noch das nVidia bei Fermi jedem Unfied Shader 2x Recheneinheiten zuweist, was nun auch double precision erlaubt!
Wenn sie das nur halbwegs hinbekommen sollte die Rechenleistung der Fermi richtig gut werden!

:coolblue:

MfG
 
Zuletzt bearbeitet:
@Phantomias88
les Dir Deinen Link nochmal bis zu Ende durch.
Wie der eine Satz genau zu verstehen ist, auf den Du Dich beziehst, kann ich leider auch nicht sagen. Im nachfolgenden Text wird jedenfalls darauf eingegangen, dass ATIs Ansatz schwieriger auszulasten ist.
Ja, im negativen Extremfall könnte man sagen, dass bei der HD 5870 quasi nur 320 Shader-Einheiten genutzt werden können.
Wenn man sich diverse Tests anschaut, dann bewegt man sich in der Realität irgendwo zwischen dem schlimmsten Fall und dem Idealfall (vollständige Auslastung). Das variiert dann noch von Spiel zu Spiel und von Spielsituation zu -situation.
Diese Unterschiede von Anwendungsfall zu Anwendungsfall dürften bei Nvidia aber nicht anders sein (wenn vielleicht auch nicht so extrem).
 
Zuletzt bearbeitet:
@ Dampfkanes

Ja den habe ich schon genau gelesen! ;)

Gut das nVidia sich nun als Softwareunternehmen darstellt! :d

Also mal Wild spekuliert, die HD5870 wird wohl locker mit 15-20% geschlagen werden von Fermi!
Aber wenn der R900 (3200 SP) rechtzeitig kommt, wird es wirklich Spannend! :cool:
 
DAs gute ist doch, sollte es noch länger dauern, kommen zumindest AUCH NV karten mit 3gb ram, da bis dahin die ati partner wohl auch 2 gig modelle draussen haben, und man schelcht die ber nv karte launchen kann mit weniger ram als ATI Xter architekturaufguss
 
Aber wenn der R900 (3200 SP) rechtzeitig kommt, wird es wirklich Spannend! :cool:
das find ich auch recht witzig. Es haben noch nichtmal alle Interessenten eine Karte mit Cypress-Chip, da wird von vielen schon vom Nachfolger geträumt (ein Spekuthread war afaik auch schon offen. Vielleicht ist er es ja bereits wieder).
Wobei sich hier die Geschichte zu wiederholen scheint:Eröffnung des Speku-Threads zur HD 5000-Reihe am 26. Juni 2008
darin stand gleich zu Beginn folgendes:
Die ersten Quellen gehen von einem Release gegen Ende 2008 aus, wahrscheinlicher ist aber ein Release Anfang 2009, anschließend soll noch in der ersten Hälfte 2009 eine Dual-Lösung erscheinen.

Von daher bin ich noch etwas skeptisch, ob sich die Chips mit den Insel-Namen bereits 2010 blicken lassen.

Aber wir schweifen vom Thread-Thema ab.
 
Ich sag nur 2,13 mal so viele Streamprozessoren / CUDA Cores wie ne GTX285 und ich glaub mal kaum, dass NV die Karte so entwickelt hat, dass die Däumchen drehen. Gerade weil sie so viel Zeit hatten, sind Flaschenhälse in der Architektur unwahrscheinlich. Soll sich jeder selber ausmalen wo sich die Karte platzieren wird. :d

Wenn die Spekus nur halbwegs hinkommen, dann könnten die neuen NVs irgendwann mal ein TMU Limit bekommen...

Wenn man sich nur mal die Entwicklung der TMUs zu den Shadern anschaut.
- 8800GTX = 71,04MTex/s pro GFlop
- 250GTS = 67,00MTex/s pro GFlop
- 285GTX = 48,77MTex/s pro GFlop

Eine G300 mit 512 1D Shadern, 750/1700 GPU/Shadertakt und 128 TMUs wäre da im Verhältniss nur noch bei 36,77MTex/s pro GFlop...


Zum Vergleich, eine HD3870/HD4890/HD5870 kommt hier alle samt auf ~25,00MTex/s pro GFlop

Und man sagt ja nachhaltig AMD Karten nach, das diese oft ein wenig Filterlimitiert sind, was in Games die hohe Filterleistung brauchen (Stalker, usw.) deutlich bemerkbar ist...


Was ich damit sagen will...
Ich befürchte nachhaltig das bei einer derart drastischen Erhöhung der Shaderanzahl und dessen Takt wohl die TMUs ein wenig zu kurz kommen werden und wir hier und da immer mal im Filterlimit hängen werden...
Hoffen wir mal das beste...

Aber wie immer, alles nur Spekulation meinerseits ;)

DAs gute ist doch, sollte es noch länger dauern, kommen zumindest AUCH NV karten mit 3gb ram, da bis dahin die ati partner wohl auch 2 gig modelle draussen haben, und man schelcht die ber nv karte launchen kann mit weniger ram als ATI Xter architekturaufguss

Was ist dann bitter der GT300?
Nur so nebenbei... Ein Architekturaufguss des G80 ;)

Ne gänzlich neue Architektur soll wohl mit der Nachfolgegeneration kommen, und wohl bzw. vllt auch weg von 1D Shadereinheiten...
 
Zuletzt bearbeitet:
"Now, I have one right here. This, Ladies and Gentlemen, this puppy here is Fermi"

mit diesem Satz und dem dazugehörigen Grafikkarten-Dummy, auf dem nicht einmal eine GPU verlötet war.


:fresse::fresse::fresse: :lol: :lol: :lol:

Selten so gelacht wie jetzt grad ebend.
 
3dfx hat auf der Comdex 99 auch nen Voodoo 5 6000 Dummy gezeigt der nicht Funktionsfähig war. Ich möchte nicht wissen wie oft das schon passiert ist, nicht weils schlimm wäre, sondern relativ egal. Wenn er in aktion gezeigt wird bringt mir das schon mehr.
 
Immerhin wird NV im direkten Vergleich mit der HD 5000 Serie aber wahrscheinlich mehr Architekturänderungen bzw. Verbesserungen haben, auch wenn es halt weiterhin keine komplett neue Architektur wird (wie etwa RV970).

ATi hat halt hauptsächlich alle Ausführungseinheiten gegenüber dem RV770 verdoppelt und vor allem die BQ verbessert und den AA Algorithmus etwas effektiver gemacht.
Auf jeden Fall wird der G300 kein "lauwarmer" Aufguss wie G9x (der halt vor allem rentabler als der G80 war bzw. aktuell noch ist - GTS 250).
 
Zuletzt bearbeitet:
Immerhin wird NV im direkten Vergleich mit der HD 5000 Serie aber wahrscheinlich mehr Architekturänderungen bzw. Verbesserungen haben, auch wenn es halt weiterhin keine komplett neue Architektur wird (wie etwa RV970).

ATi hat halt hauptsächlich alle Ausführungseinheiten gegenüber dem RV770 verdoppelt und vor allem die BQ verbessert und den AA Algorithmus etwas effektiver gemacht.
Auf jeden Fall wird der G300 kein "lauwarmer" Aufguss wie G9x (der halt vor allem rentabler als der G80 war bzw. aktuell noch ist - GTS 250).

Wenn du so willst wird der GT300 das selbe wie der G200 im Vergleich zum G92...

Sprich Architektur im Grunde das selbe, aber mehr Ausführungseinheiten, größeres SI, ggf. anderer Speicher. Und hier und da ne Optimierung...
Nicht mehr und nicht weniger...

Aber was ist so schlimm dran?
Das ist gang und gebe, vor dem R600 basierte alles auf dem R300 von ATI. Bei NV auf der Geforce FX Technik, bis der G80 kam...
 
Stimmt schon - für den professionellen Bereich würde halt noch die deutlich erhöhte Double Precision sprechen.

Klar, sofern man das beste aus der grundlegenden Architektur rausholt, schadet es nicht, wenn der Ursprung ein paar Jahre alt ist.

Ich denke mal, dass die Nachfolgegeneration des G300 auf einer komplett neuen Architektur basieren könnte.


Somit beträgt die Zeitspanne einer Grundarchitektur eigentlich bei beiden Herstellern im Schnitt etwa 3 - 4 Jahre.
 
Zuletzt bearbeitet:
Fermi - wird bestimmt gut!

Ich glaube das er auf jedenfall besser wird,
erstens wirkt er ausgreifter, so was man an berichten über die A1-A3 Revisionen hört, zweitens geht es NVidia nicht so schlecht, wie es ATI beim Launch der HD2900XT ging!
Und drittens habe ich noch nicht den Eindruck das sie hudeln, denn selbst wenn sie schwitzen auf ihren Arbeitssitzen, die haben ordentlich was getönt, und ich denke auch das da wenigstens ein wenig wahrheit dahinter steckt!!!
 
Ausgereifter als was? Ehrlich gesagt wirkt Fermi bisher alles andere als reif.
 
Hab ein paar Beiträge entfernt, Bierdiskussionen bitte im OT-Bereich führen... ;)
 
Ausgereifter als was? Ehrlich gesagt wirkt Fermi bisher alles andere als reif.

Was wohl auch damit zu tun hat das man so wenig über ihn weiß. Es wurden ja immer wieder neue Gerüchte gestreut die sich im Nachhinein als falsch herrausgestellt haben. Das NV Probleme hat das Dingen fertigzustellen steht auser Frage, aber auch auf dem Papier sieht es mit den vielen Fragezeichen zu einzelnen Spezifikationen schon irgendwie merkwürdig aus.
 
Was wohl auch damit zu tun hat das man so wenig über ihn weiß. Es wurden ja immer wieder neue Gerüchte gestreut die sich im Nachhinein als falsch herrausgestellt haben. Das NV Probleme hat das Dingen fertigzustellen steht auser Frage, aber auch auf dem Papier sieht es mit den vielen Fragezeichen zu einzelnen Spezifikationen schon irgendwie merkwürdig aus.

Ehrlich gesagt frage ich mich, wie hier immer alle darauf kommen, dass NV nicht pünklich liefern kann? Alles was für eine Verzögerung spricht, ist die Tatsache, dass Ati keine Grafikkarten liefern kann und beide bei TSMC fertigen. Die ganzen anderen Gerüchte konnten doch lückenlos auf Ati-Fanboys zurückgeführt werden.

- 8800GTX = 71,04MTex/s pro GFlop
- 250GTS = 67,00MTex/s pro GFlop
- 285GTX = 48,77MTex/s pro GFlop

Eine G300 mit 512 1D Shadern, 750/1700 GPU/Shadertakt und 128 TMUs wäre da im Verhältniss nur noch bei 36,77MTex/s pro GFlop...

Diese Entwicklung sollte doch normal sein oder? Je aufwändiger die Effekte, desto mehr GFlop werden doch für 1 MTex/s benötigt. Im Moment hängen wir zwar bei DX9 Games fest, aber die werden den Fermi eh nie auslasten. Außerdem kennt NV die Auslastungsrate der TMUs beim G200 sehr genau, also glaube ich nicht, dass sie dem Fermi zu wenige spendieren. Naja bis wir Benchmarkergebnisse haben können wir nur schätzen.
 
Tuesday, November 17 – Thursday November 19 | NVIDIA Booth # 2365

See “Fermi” in Action

Come see a live demonstration of the next generation CUDA™ GPU computing architecture, codenamed “Fermi”. The Fermi-based Tesla™ GPUs are mass market parallel processors and fuel the HPC industry’s transition to parallel processing. Compared to the latest quad-core CPUs, the Fermi-based Tesla GPUs deliver equivalent performance at 1/20th the power consumption and 1/10th the cost.

http://www.nvidia.com/object/sc09.html

Neuer Input in Aussicht..
 
Naechste Woche gibt es eine praesi.... Soso :Fresse:
 
Zuletzt bearbeitet:
Und irgenwdie hab ich im Urin das ein Chinese auf der Bühne stehen wird, mit einer zusammengetapten GPU und zeigt dabei auf ne Powerpoint Präsi wo dann steht wow GPU Computing is now 46% faster then ever!!11elf...

Ich erwarte mir ehrlich gesagt NIX von der Präsi und wenn nur GPU Computing Demos -.-

MFG Jubeltrubel
 
Und irgenwdie hab ich im Urin das ein Chinese auf der Bühne stehen wird, mit einer zusammengetapten GPU und zeigt dabei auf ne Powerpoint Präsi wo dann steht wow GPU Computing is now 46% faster then ever!!11elf...

Ich erwarte mir ehrlich gesagt NIX von der Präsi und wenn nur GPU Computing Demos -.-

MFG Jubeltrubel
und wenn die präsentation nur schwachsinn wird - ist doch egal.
der fermi wird nächstes jahr mit einigen anderen neuen produkten starten,
das erste quartal wird ein sehr wichtiges für nvidia.
 
So gehts halt wennn man heilige Kühe angreift.:d
Wissen tun dies schon aber ob sies auch hinnbekommen steht in den Sternen.
 
Es ist schon komisch das NV noch keine karten gezeigt hat, daran das sie keine haben liegts denk ich nicht, kann 2 gründe geben

1. Sie haben wirklich eine karte dei nicht gross schneller ist und nun ein problem..


2.Die karte ist ein hammer, und sie wollen ATI nicht aufschrecken die 5890 usw zu beschleunigen ,BEVOR sie geung chips haben um auch karten zu verkaufen, was ja dank TSMC ne weile dauern kann...
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh