nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hey, der Mann ist "Hardwarekenner"! :shot: Wobei ich immernoch erwarte, dass nv den Fermi im Januar noch hinbringt. April war doch nur eine Quelle oder hat nv das inzwischen offiziell bestätigt?

Naja, ist wie jedesmal, wenn nv ne neue Gen am Start hat. Alle zerfetzen sich die Mäuler, Gerüchte und Falschmeldungen flattern täglich durch die IT-Medien und die Spekulationsthreads nehmen saftige Ausmasse an. Was solllen die ganzen hippeligen Graka-Fetischisten auch machen, wenn nv schweigt.:d
 
nana nich wieder so anfangen, das der doppelt so schnell wie eine 5870 wird ist wunschdenken wenn die Daten von jetzt stimmen kann er froh sein wenn er 20% schneller wird ;)

Man sieht deutlich das sie bei den GT21x Chips die in 40nm sind probleme haben den shadertakt zu erhöhen weil da geht nicht 1 Mhz höher deswegen wohl auch die A3 Version.
 
...es soll um zwei Modelle gehen 249€ & 299€ mit 1024 & 2048 MB GDDR5...
entweder war hier jemand nicht richtig informiert oder es sind keine Karten mit Fermi-Chip.
Letzterer hat ein Speicherinterface mit 384 bit, was auf 1,5 oder 3 Gbypte raus laufen wird (wie zocker28 auch schon geschrieben hat).
Und diese Preise sind bei der Größe des Chips und den Problemen mit dem 40nm-Prozess imho auch eher unwahrscheinlich für eine Fermi-Karte.

ciao Tom
 
ok dann könnte es hin kommen das sie die GTX 285 in GTX310 oder sowas umbasteln.

wenn die die nur umbenennen mit kleineren umbasteleien, wäre trotzdem ein SLI mit ner 285 denn noch möglich/sinnig?
 
Zuletzt bearbeitet:
Ich würde es mir zu mindest wünschen das die Karte 30% schneller alls die 5870 ist.
Am besten sogar 50% schneller was aber mehr wunsch denken sein dürfte.
Allein wegen den Herstellungskosten die NV dann mit dem Monsterchip hat.
Sonst könnte das böse ins Auge gehen für NV und uns Endverbraucher.
Den hinter ATI steht AMD und die können mit den Preisen Dumpen.
Und da kann NV nur mit weit aus mehr Power kontern um zu überleben.
Sehe ich zumindest so.
Will mich nicht mit nur einem Grafikkartenhersteller in naher Zukunft zufrieden geben.
Ich wünsche NV einen grosen Wurf mit der neuen Serie.
MFG
 
wäre sie verfügbar gewesen hätte sie auch soviel gekostet...
 
Aber es wird kein Fermi mit 1GB oder 2GB geben (der die 5870 locker schlägt), oder sie beschneiden das Speicherinterface auf 256Bit , womit die bandbreite nicht höher als bei ATI wär , oder sie verbauen vll 1,3GHz GDDR5 oder was es gerade gibt, und damit wär es nicht viel mehr.

Und da soll NV (mit seinem Fermie) dann seine brachiale 100% mehrleistung (im vergleich zum 5870) wie Hardwarekenner meint durchquetschen :d


Also wird es wohl eher ~0,8GB , 1,5GB und 3GB, weil 384bit wie beim Tesla Fermi!
 
Zuletzt bearbeitet:
Wer Weiß, vllt kommen die Desktop Varianten wirklich mit einem 256bit SI.. kommt nur drauf an wie lange sowas dauern würde.

Alle gehen zur Zeit von April aus.. sind ~5 Monate obs hin kommt ick wes ja nit.. :d
 
Wer Weiß, vllt kommen die Desktop Varianten wirklich mit einem 256bit SI.. kommt nur drauf an wie lange sowas dauern würde.

Alle gehen zur Zeit von April aus.. sind ~5 Monate obs hin kommt ick wes ja nit.. :d

Neue Chips würden sie dafür sicher nicht designen , eher nur ein speicher controler deaktivieren , weiss nicht wie groß die bei NV jeweils sind.

Dann könnten die geld beim PCB sparen , da er simpler aufgebaut werden kann , bei 256bit als bei 384bit.

Nur würden sie dann erst recht keine 100% mehr leistung schaffen :lol::shot:
 
Davon mal ab welcher Hersteller euch am besten gefällt oder nicht.
Fakt ist wenn NV zu wenig Leistung mit dem neuen Design abliefert ist es für niemanden gut .

Wenn ich das richtig verfolgt habe arbeitet ATi schon an einem Nachfolger für seine Karten .
Ihr glaubt wohl nicht das die Nächste ATI Karte dann billig wird.

Ich bin sehr froh das ATI ihren Fertigungsprozzess noch nicht im Griff hat (siehe verfügbarkeit )das läst NV noch etwas Luft.

Zur Zeit kann mich aber die HD Serie auch nicht voll überzeugen .
Thema DX11 Bildverbesserung durch Tesselation .
Sobald mann Tessealation unter DX11 bei einer Auflösung von 1920*1080 mit AA nutzt ist bei dieser Karte unter Stalker auch der Arsch ab.
Und das ist ja was DX11 ausmacht.
Perfomance unter DX11 ist zwar höher ,aber nur ohne Bildverbesserung.
Das schaft dan wohl nur die HD5970 aber CF oder Sli halt ich nicht viel von.

Hier würden die 30-bis 50% mehrleistung vom FERMI ind die richtige Kerbe Schlagen.
Wenn es den so viel mehrleistung wird.
Mein System upgrade lässt auf jeden fall noch auf sich warten.
MFG
 
Zuletzt bearbeitet:
ich denke da kommen erstmal "kleine" GT300 karten, wie damals die 8600GTS, und schon diese werden die leistung einer 5870 haben, und die haben dann "nur" 1024/2048MB GDDR5.
Das wird das NV Jahr !

:lol::lol::lol:

Sag mal, woher nimmste deine "Info's"? Wenn die "GTX380" (nach Gerüchten Stand heute) mit Glück 30% schneller als meine 5870 sein soll? Dann ist doch wohl mehr als unlogisch das eine Midrange Karte die 5870 überflügeln soll...

AUßerdem werden die Karten wohl sehr teuer werden, denn die Produktionsausbeute wird wohl erstmal schlecht sein ;)
 
Aufgeräumt! Wann werdet ihr eigentlich endlich erwachsen?
Weiteres Geflame, Gebashe und persönliche Angriffe werden kommentarlos von mir entsorgt ;)
 
@Goldi775
Vielen dank dafür das war ja echt furchtbar.
MFG
 
lustig deine quelle :d

1. A3 ist noch nicht fertig
2. steht fest das nichts vor April kommen wird
3. es wird garkeine 1GB oder 2 Gb Version geben :fresse: (1.5 / 3 Gb Versionen)

Also jeder hat das Recht auf seine eigene Meinung. Ich finde es nur äußerst daneben, wenn Du so tust als wenn das bestätigte Fakten wären.

1. Keiner von uns weiß, wie weit NV mit A3 ist.
2. Fest steht noch nicht mal, dass keine Karten im Dezember kommen.
3. Die Karte wird nach der breite des Speicherinterface wahrscheinlich 1.5 / 3 GB Speicher haben (aber sicher nicht Gb (Gigabit) :fresse: )
 
Wo ist das schwachsinn?

Das mehr DX11 titel kommen werden ist fakt!
Das zb Dirt 2 nur DX9 oder 11 kann ist Fakt!

Aber man kauft sich dann ne High End karte und verzichtet auf effekte , DX10 reicht ja , sind ja nur paar games :d


Kurze erklärung, ein Spiel kann ab sofort vom Developer (wenn gewünscht) mit dem DX11 Renderpart erstellt werden!
Das Tolle daran, es ist sprichwörtlich Scheißegal welche HW verbaut ist (DX9/DX10/DX10.1/DX11)
Es werden dann eben die Effekte angezeigt die unterstütz werden und fertig!
Da nVidia momentan keine DX11 HW hat, ist PhysX ein ganz netter Effektzusatz!
Ausserdem ist DirectCompute (ComputeShader) mit DX11 eingeführt worden!
Und ob ihr es glaubt oder nicht, mit DX10 ist das auch möglich!
Genauso wie sie openCL via CUDA ermöglicht haben...

:p
 
Zuletzt bearbeitet:
Zur Zeit kann mich aber die HD Serie auch nicht voll überzeugen .
Thema DX11 Bildverbesserung durch Tesselation .
Sobald mann Tessealation unter DX11 bei einer Auflösung von 1920*1080 mit AA nutzt ist bei dieser Karte unter Stalker auch der Arsch ab.
Und das ist ja was DX11 ausmacht.
Perfomance unter DX11 ist zwar höher ,aber nur ohne Bildverbesserung.
Das schaft dan wohl nur die HD5970 aber CF oder Sli halt ich nicht viel von.

Das DX11 in DIRT2 wurde auch "nurmal so schnell" eingearbeitet, es ist und bleibt ein Consolen Spiel, wäre es only DX11 dann würde es anders aussehen ;)

Ich weiss das viele auf dem Film sind 1920x1200, für MICH ist und bleibt die Auflösung nichts für eine Singelkarte das war früher so und ist es heute auch noch.
Wenn eine karte das schafft in der Auflösung dann ist das schon sehr gut, egal ob ATI oder Nvidia. (standard Auflösungen sind immernoch 1280x1024 oder wenn es hoch kommt 1680x1050).
Alles was drüber ist, ist nix für ne Singel GPU find ich, ich könnte jetzt so kommen das deine GTX275 in Stalker nichtmal 20 FPS bringt in 1280x1024 4xAA 16xAF ;) (was auch stimmt)

PS: eine 5870 hällt Stalker CoP in 1680x1050 4xAA 16xAf @DX11 dauerhaft über 50 FPS also sehr wohl flüssig :d
 
Zuletzt bearbeitet:
Ich weiss das viele auf dem Film sind 1920x1200, für MICH ist und bleibt die Auflösung nichts für eine Singelkarte das war früher so und ist es heute auch noch.
Wenn eine karte das schafft in der Auflösung dann ist das schon sehr gut, egal ob ATI oder Nvidia. (standard Auflösungen sind immernoch 1280x1024 oder wenn es hoch kommt 1680x1050).
Alles was drüber ist, ist nix für ne Singel GPU find ich, ich könnte jetzt so kommen das deine GTX275 in Stalker nichtmal 20 FPS bringt in 1280x1024 4xAA 16xAF ;) (was auch stimmt)

:bigok:

Das kann ich so Unterschreiben!

Hat das eingentlich jemand mitbekommen mit der Auktion:
Ultimate 3D Vision Gamerstation

MfG
 
Es ist gar nicht so unwarscheinlich, dass Midrange Ableger des Fermi mit 256 Bit SI kommen (wie auch bei ATi im Einsatz) - vielleicht als GTS 3xx Serie . Dann hätte man 1 oder 2 GB (sicher dann über die Hersteller wie EVGA möglich). 1 GB wird sicher erstmal Standard sein, während die High End Variante zum Start sicher mit 1,5 GB kommt.

Aber höchstwahrscheinlich werden diese kleineren Ableger mindestens 1 Quartal nach den High End Modellen erscheinen - so war es auch schon beim G80 und dessen kleineren Ablegern.

Zumindest stand das Mal in ner Speku-News, dass die kleineren Desktop Modelle später kommen sollen.
 
Diese mit viel Glück 30% schneller Gerüchte finde ich übrigens aus ganz nett. Ich meine man könnte natürlich auch glauben die Erde ist eine Scheibe. Allerdings wäre es doch auch einfach mal eine Idee die Geschwindigkeit auszurechnen. So kann man mal über Fakten diskutieren.

Fakt ist, dass die NV-Karten in der Vergangenheit alle Shaderlimitiert waren. Die Annahme, dass dies beim Fermi auch der Fall sein wird, liegt also nahe. fdsonne hat weiter vorne in diesem Thema angemerkt, dass die MTex/s pro GFlop Rate bei NV von Generation zu Generation stetig sinkt. Dies sollte allerdings kein Problem sein, da komplexere Grafik auch mehr GFlop pro MTex/s benötigt. Somit kann man davon ausgehen, dass gerade bei aufwendigen Spielen weiterhin die Shader der limitierende Faktor sein werden.

Ausgehend von dieser Annahme können wir die Leistung des GF100 exakt aus Architektur und Shadertakt berechnen. Die Daten des Fermi haben wir im Whitepaper und die der GTX285 sind allgemein bekannt. Aus ihnen ergibt sich, dass die Shader der GF100 2,133 mal so viel Leistung wie die der GTX285 bei gleichem Takt liefern. Nimmt man nun noch die Ergebnisse der Tests zwischen GTX285 und HD5870 in DX9 /DX10, hier veranschlage ich mal 30% Vorteil für die HD5870 (Die DX11 Vorteile der HD5870 sind hier natürlich nicht heranzuziehen, da der GF100 diese Vorteile ebenfalls haben wird. Somit würde dieser Faktor sich bei unserer Rechnung eh herauskürzen.).

Dies liefert uns nun das Ergebniss, dass der GF100 bei einem Shadertakt von 1476 MHz auf die 2,133/1,3=1,6408 fache Leistung der HD5870 kommt. Bei diesem Takt wären es also 64% mehr Leistung.

Nun kann hier wieder fröhlich über die einzelnen Faktoren gestritten werden. Es wäre allerdings schön wenn auch wenigstens ab und zu mal ein Argument dabei ist und nicht nur das übliche, der Fermi wird total langsam nen Argument habe ich aber nicht.
 
Ausgehend von dieser Annahme können wir die Leistung des GF100 exakt aus Architektur und Shadertakt berechnen. Die Daten des Fermi haben wir im Whitepaper und die der GTX285 sind allgemein bekannt. Aus ihnen ergibt sich, dass die Shader der GF100 2,133 mal so viel Leistung wie die der GTX285 bei gleichem Takt liefern. Nimmt man nun noch die Ergebnisse der Tests zwischen GTX285 und HD5870 in DX9 /DX10, hier veranschlage ich mal 30% Vorteil für die HD5870 (Die DX11 Vorteile der HD5870 sind hier natürlich nicht heranzuziehen, da der GF100 diese Vorteile ebenfalls haben wird. Somit würde dieser Faktor sich bei unserer Rechnung eh herauskürzen.).

Dies liefert uns nun das Ergebniss, dass der GF100 bei einem Shadertakt von 1476 MHz auf die 2,133/1,3=1,6408 fache Leistung der HD5870 kommt. Bei diesem Takt wären es also 64% mehr Leistung.

2,133 stimmt so nicht.
1. Sind die Shader anders, GT200 konnte MADD + MUL, Fermi dagegen FMA.
2. Wird NV evtl auch die Shaderauslastung verändert haben, bzw die Effizienz gesteigert.

Also einfach 512/240 zu rechnen geht hier nicht auf.
 
2,133 stimmt so nicht.
1. Sind die Shader anders, GT200 konnte MADD + MUL, Fermi dagegen FMA.
2. Wird NV evtl auch die Shaderauslastung verändert haben, bzw die Effizienz gesteigert.

Also einfach 512/240 zu rechnen geht hier nicht auf.

1. MUL spielt bei der Grafik im Grunde keine Rolle und FMA ist besser als MADD. Somit kann sich hier eigentlich kein Nachteil für die GF100 gegenüber der GTX285 ergeben.
2. Ich nehme auch an, dass die Effizienz gesteigert wurde. NV hat dies sogar erwähnt. Auch hier kann sich höchstens ein weiterer Vorteil ergeben.
Meine Rechnung sollte worst case für die GF100 sein.
 
Wenn der Highend-GT300 wirklich mehr als 50% schneller als eine 5870 ist, dann bin auch bereit über 500€ auszugeben. Ansonsten nicht. Ich habe nur Angst um die Verfügbarkeit...
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh