nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 3

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es liest sich, wie eine Zusammenfassung, der bekannten Daten/Spekus mit einer Menge "blabla" dazwischen, irgendwie sehe ich da nichts Neues. :/
 
Ja das mit den 280TDP ist auch schon alt.. hat mir nen kumpel schon gesteckt gehabt!
 
Artikel auf CB schrieb:
Textureinheiten
Beim GT200 sind die Textureinheiten in einem speziellen Bereich namens „Texture Processing Clusters“ zusammen gefasst. Dieser entfällt bei dem GF100, da die TMUs direkt an einem Streaming Multiprocessor angeschlossen sind. Pro SM gibt es vier Textureinheiten, insgesamt sind auf dem GF100 also deren 64 vorhanden. Obwohl der GT200 über 80 Textureinheiten verfügt, soll die entsprechende Leistung auf dem GF100 um einiges höher ausfallen, da die Effizienz massiv erhöht worden sein soll (unter anderem besserer L1 Texture Cache). Darüber hinaus haben die TMUs, ähnlich wie die Shadereinheiten, eine eigene „High-Clock-Domain“, die mit einer höheren Frequenz als der restliche Chip angesteuert wird...
Nvidia gibt einige Benchmarkwerte für die Texturleistung des GF100 an. Demnach soll diese trotz der geringeren Anzahl an TMUs 40 bis zu 70 Prozent über den Werten des GT200 liegen
in Bild 22 sieht man einen Vergleich der Texturperformance in ein paar Spielen mit dem GT200 (laut PCGH beziehen sich diese Werte auf texturlimitierte Szenenausschnitte)
Die Textureinheiten arbeiten anscheinend mit halbem Shader-Takt.

Artikel auf CB schrieb:
ROPs und Speicherinterface
...Mit die wichtigste Modifizierung betrifft das acht-fache Anti-Aliasing, das auf dem GF100 deutlich schneller als auf dem GT200 laufen soll, der unter dieser Einstellung noch einen recht hohen Performanceverlust erleidet...Der GF100 ist in der Testsequenz (Hinweis meinerseits: Benchmark in Hawx) mit aktivierter vierfachen Kantenglättung 60 Prozent schneller als ein GT200. Wird die Kantenglättung auf 8xMSAA erhöht, beträgt die Geschwindigkeitssteigerung dagegen gleich 130 Prozent. Der Geschwindigkeitsverlust des GF100 soll bei geringen neun Prozent liegen, wenn 8xMSAA anstatt 4xMSAA zum Einsatz kommt.
Artikel auf CB schrieb:
3D Vision Surround
Doch hat 3D Vision Surround auch einen Nachteil gegenüber Eyefinity: Während bei der ATi-Umsetzung eine Grafikkarte ausreicht, müssen es bei Nvidia mindestens zwei 3D-Beschleuniger sein. Das gilt auch, wenn 3D abgeschaltet wird. Wir vermuten, dass dies mit einer zu geringen Anzahl an TMDS-Transmittern im GF100 begründet ist, da eine einzelne Karte nur zwei Monitore ansteuern kann. Mehr als drei Monitore scheinen zudem nicht gleichzeitig in Spielen zu funktionieren...Bei 3D Vision Surround inklusive 3D liegt die maximale Auflösung aller Displays bei 1920x1200. Wird 3D abgeschaltet, erhöht sich diese auf 2560x1600. 3D Vision Surround unterstützt eine Bezel-Korrektur. Diese sorgt dafür, dass die Ränder der Monitore in das Spielgeschehen mit ein gerechnet werden, um so ein realistischeres Spielgefühl zu geben. Ohne Bezel würden die Ränder ignoriert und damit würde das Bild am zweiten Monitor direkt dort wieder anfangen, wo es am ersten aufgehört hat.
Ich vermute mal, nVidia hat 3d Vision Surround erst nach Veröffentlichung von ATIs Eyefinity erdacht und somit zu einem Zeitpunkt, zu dem keine weiteren TMDS-Transmitter mehr im Chip unterzubringen waren.

(Quelle)

Ansonsten gabs eigentliche keine Fps-Vergleiche. Einzig bei der Tesselation Performance zieht nVidia einen Vergleich zur HD5870.
Bild 18 bei CB zeigt einen Vergleich im Unigine-Benchmark (60-Sekunden-Ausschnitt), der sehr positiv für den GF100 aussieht. Laut der Seite www.hardwarecanucks.com gehören diese 60 Sekunden zu dem Abschnitt mit dem Gehweg und dieser beinhaltet am meisten Tesselation.


hier hat jemand die Links zu einigen englischsprachigen Artikeln aufgeführt:Klick

der PCGH-Artikel ist nun auch online:Klick
Artikel auf PCGH schrieb:
Die gezeigten Fermi-Grafikkarten (s. Bild oben) sind ebenfalls noch nicht final und werden zur endgültigen Produktreife wahrscheinlich noch einmal neu designed. Auch liefen die Lüfter mit einer festgelegten Drehzahl, eine Lüftersteuerung war nicht aktiviert. Aussagen zur Geräusch- und Wärmeentwicklung der Karten entbehren somit jeder Grundlage.
Artikel auf PCGH schrieb:
Nvidia-Angaben zufolge, die wir auf der Vorstellung im Anschluss an die CES erhalten haben, änderte man der Qualität der Texturfilterung im Vergleich zu GT200 und G80 nichts, nur die Geschwindigkeit sei verbessert worden.
Artikel auf PCGH schrieb:
Der einzige Game-Benchmark, welchen wir live mitverfolgen konnten, war ein Duell im integrierten Far-Cry-2-Benchmarktool gegen die Geforce GTX 285 (rechter Monitor). Die Einstellungen in Full-HD-Auflösung standen auf dem jeweiligen Maximum der einzelnen Settings, zusätzlich aktivierte man 4x FSAA und 16:1 AF - letzteres im Treiber.
 
Zuletzt bearbeitet:
Die Ergebnisse sehen wirklich vielversprechend aus.
Ich lass mich mal überraschen was letztendlich dabei raus kommt.

Zum Glück tuts die GTX285 noch ne Weile und nem Fermi werd ich wennn dann eh nen neuen Unterbau verpassen, sprich ne neue Zockkiste zu etwa dem Zeitpunkt wenn ein Refresh von Fermi kommt wär für mich realistisch.

Dann spiel ich auch mal mit dem Gedanken mir ein SLI zuzulegen, vorausgesetzt ich zock bis dahin wieder etwas mehr als aktuell.
 
GF100 / Fermi:
Min-Fps: 52,32
Avg-Fps: 77,64

Geforce GTX 285:
Min-Fps: 30,38
Avg-Fps: 38,33
http://www.pcgameshardware.de/aid,7...itaet-und-Benchmarks/Grafikkarte/Test/?page=3
Sieht doch sehr gut aus.

Sieht eigentlich nicht schlecht aus, ... aber warum man FC2 nimmt versteh ich noch nicht so recht. Das ist eigentlich ein Spiel bei dem ehr dann mal die CPU limitiert.


http://forum.beyond3d.com/showpost.php?p=1381766&postcount=600

It would be

650 - 1 GHz - 1450
 
Zuletzt bearbeitet:
Infos zum Far Cry 2 Testsystem:
As you look at the charts below, you will notice that we added in “simulated” HD 5870 1GB results and there is a story behind this. NVIDIA was very forward with us and revealed the specifications of the test system they were running: a stock Intel i7 960, 6GB of 1600Mhz memory and an ASUS Rampage II Extreme motherboard running Windows 7. While we weren’t able to copy the exact same system, we did our best to replicate it by using the exact same CPU and OS while estimating the memory latencies and using a Gigabyte X58-UD5 motherboard. The result? Our stock GTX 285 performed within 2% of the results NVIDIA showed us so we are confident in the accuracy of our results.
Quelle
Die Werte der "simulierten" HD 5870 stammen also von dieser Hardware-Seite

aus dem selben Artikel:
While it was good to finally see some concrete results from the GF100 / Fermi architecture, there are a number of questions that are still rolling their way through our brains. First and foremost of these has to do with exactly what type of card was within the test systems since when asked, NVIDIA merely stated that it was the card that would be shipping on launch day. If some people are to be believed, due to yield issues the only card we would see on launch day would be a slightly cut-down 448SP version. Our contacts further cemented this by saying that the product which is first available will be largely dictated by the yields coming out of the TSMC foundries.

Naturally the cards we benchmarked weren’t equipped with anything above 512SPs since that is the maximum layout this architecture will allow. If we assume the performance we saw was coming out of the beta, underclocked version of a 512SP GF100 running alpha-stage drivers, this is going to be one hell of a graphics card. On the other hand, if NVIDIA was using 448SP equipped cards for these tests, the true potential of the GF100 is simply mind-boggling. Coupled with the compute power and architecture specifically designed for the rigors of a DX11 environment, it could be a gamer’s wet dream come true.
Von daher ist immer noch nicht klar, welche Karte genau im Testsystem steckte.
 
Zuletzt bearbeitet:
Die werden auch nicht kommen , hab ich euch doch gesagt es gibt noch keine Karten :)
 
Auf den ersten Blick klingt das was NV da gemacht hat nicht schlecht. Man merkt das die Architektur voll auf DX11 ausgelegt ist. Positiv finde ich auch die gesteigerte Leistung unter AA. In Zukunft dürfte die "Architektur" (Ich denke in anbetracht der Änderungen kann man doch gut von Neu sprechen) wohl noch wesentlich stärker werden und der Abstand zur GT200 wohl noch größer.

Mal abwarten was die ersten Benches sagen und wieviel die Karten kosten werden.
 
Was man jetzt so liest dürfte es ja doch ne BOMBEN KARTE werden, ATI wird dann eine 5890er mit erhöhten Taktraten bringen und noch immer einen Hauch langsamer sein. Dafür werden die Preise der 58er in den Keller fallen, und alle Ati Jünger haben wieder das altbekannte Argument der Preis/Leistung ;)
 
Ich würde sagen , es ist immernoch warten angesagt.

Es gibt ja noch kein richtigen test, diese 60sec ausm heaven ist ja auch nicht der ganze benchmark und ja nur ein test.

Ich kann auch ein spiel raus suchen wo eine 5770 eine GTX285 plättet, also abwarten und tee trinken.

Sie wird schneller sein das ja , aber in welchem maßen ist immernoch unbekannt.
 
sollten sie es überhaupt mit der neuen Technik an Amd/Ati sprich Hemlock Heranschaffen??:fresse:
 
ATI wird dann eine 5890er mit erhöhten Taktraten bringen und noch immer einen Hauch langsamer sein. Dafür werden die Preise der 58er in den Keller fallen, und alle Ati Jünger haben wieder das altbekannte Argument der Preis/Leistung
Cypress ist nicht die Konkurrenz, sondern Hemlock. ;)
 
dank der neuen Technik die diesmal mit reinwandert,so das die gpu wie ein Cpu aufgebaut sein soll?? Bin ich echt mal gespannt:fresse:
 
Zuletzt bearbeitet:
GF100 / Fermi:
Min-Fps: 52,32
Avg-Fps: 77,64

Geforce GTX 285:
Min-Fps: 30,38
Avg-Fps: 38,33
wobei diese Werte anscheinend zum Bild 35 in der PCGH-Bildergallerie gehören und ich dieses Bild aus der Ranch-Small-Szene des Far Cry2-Benchmarktools nicht kenne.
Davon abgesehen kommt mir die Darstellung der Werte überhaupt nicht bekannt vor (Far Cry 2 liefert sie doch erst zum Schluss).
Kennt jemand das Bild:Klick?

Update
die Werte gehören zu Dark-Void.
 
Zuletzt bearbeitet:
Ich find das was man bisher so vom Fermi hört und die anscheinende Leistungssteigerung zur GTX285 sehr ordentlich, alles andere als der heraufbeschworene Flop.
Gespannt bin ich auf die Preise.

Cypress ist nicht die Konkurrenz, sondern Hemlock. ;)
Ach komm, lass mal die Kirche im Dorf.
Hemlock is die Dual-GPU-Variante und die war sicher nie das Ziel der Single-GPU-Fermi-Karten.
Auch NVidia wird irgendwann mit einer Dual-GPU-Variante nachlegen, beim GT200 hieß es auch immer dass es nicht möglich wird und dann kam die GTX295 doch.

Irgendwie traurig hier, erste Infos sickern durch, es zeichnet sich ab dass der Fermi kein Flop wird und schon gehts wieder los dass man versucht alles künstlich schlecht zu reden. Plötzlich muss die Single-GPU-Karte eine Dual-GPU-Lösung schlagen. :fresse:
 
Was man jetzt so liest dürfte es ja doch ne BOMBEN KARTE werden, ATI wird dann eine 5890er mit erhöhten Taktraten bringen und noch immer einen Hauch langsamer sein. Dafür werden die Preise der 58er in den Keller fallen, und alle Ati Jünger haben wieder das altbekannte Argument der Preis/Leistung ;)


Wenn NV noch ein wenig rummährt bis zur endgültigen Markteinführung, wird wohl eher eine 6xxx, denn einer übertakteten 5890 der Mitbewerber sein^^
 
Ich bin eher dafür das der Fermi gut schneller wird, denn dann ist ATI genötigt was besseres nachzulegen (erst refresh und dann 6xxx) und dann NV wieder!

Das doch der vorteil wenn man min 2 firmen hat und kein Monopolist , der allein bestimmt was aufm markt kommt!
 
Ach komm, lass mal die Kirche im Dorf.
Hemlock is die Dual-GPU-Variante und die war sicher nie das Ziel der Single-GPU-Fermi-Karten.
Auch NVidia wird irgendwann mit einer Dual-GPU-Variante nachlegen, beim GT200 hieß es auch immer dass es nicht möglich wird und dann kam die GTX295 doch.

Irgendwie traurig hier, erste Infos sickern durch, es zeichnet sich ab dass der Fermi kein Flop wird und schon gehts wieder los dass man versucht alles künstlich schlecht zu reden. Plötzlich muss die Single-GPU-Karte eine Dual-GPU-Lösung schlagen. :fresse:

Nun, ich seh das etwas anders. Betrachtet man Stromverbrauch und Kosten, dann ist durchaus Hemlock der Konkurrent. Es hat auch niemand gesagt, dass der Fermi eine Dual-GOU Lösung schlagen "muss" - lediglich, dass dessen Werte besser zu vergleichen sind.

Und da bisher lediglich von Hand ausgesuchte Werte vorhanden sind, lässt sich noch keine Meinung über dessen Performance bilden. Dies wird erst möglich, wenn unabhängige und komplette Benchmarks vorhanden sind.
 
Zuletzt bearbeitet:
Damit kauft sich NVidia momentan nur Zeit.
Hier und da ein paar Bröckchen, welche den Fermi vor der 58XX Reihe zeigen (was ja bekannt war) und gut ist für die nächsten 30Tage.

Kein richtiger Benchmark (voller Durchlauf)
Keine Preise
Keine Bekanntgabe, welche Karten als erstes kommen
Kein Datum des Verkaufsstarts
 
Hemlock is die Dual-GPU-Variante und die war sicher nie das Ziel der Single-GPU-Fermi-Karten
Mag ja sein. Das Problem ist aber, jetzt ist es die Konkurrenz.


2x 334 mm² (668 mm²)
294 W TDP
60-80% Yields

vs

>550 mm² (?)
280 W TDP (?)
<20% Yields momentan (?)


Wenn Fermi bezüglich Performance, Stromverbrauch und Chip-Kosten sich nicht mit Hemlock messen kann, wird es ein wirtschaftlicher Desaster. Besonders letzter Punkt kann ein echtes Problem werden. Nicht nur, was die Verfügbarkeit betrifft, sondern auch die ASPs. Cypress ist nach aktuellem Stand eine ganz andere Grössenordnung.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh