nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
Eben da wirds noch ne überaschung geben bei den ersten Gamebenches. Wenn die da nicht noch ein Wunder Vollbringen mit dem A2 stepping. Wär dann aber das erste mal das man mit nem Stepping Wunder vollbringen kann.:stupid:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Taktraten von Fermi A1: 495MHz Chiptakt, 1100MHz Shadertakt. Mit Wasserkühlung.

Erkennt jemand die Diskrepanz zwischen der schon veröffentlichten A1 Tesla Karte u diesen Werten;)

Noch dazu soll dort eine Wasserkühlung verbaut sein,mit der man sicherlich höhere Werte ereichen würde,als mit einer luftgekühlten Tesla Karte

---------- Beitrag hinzugefügt um 00:14 ---------- Vorheriger Beitrag war um 00:10 ----------

Und jetzt nochmal für Leute die nicht so gut English können ( verstehen):fresse:

Keine Arme keine Kekse:fresse:
 
Zuletzt bearbeitet:
Und jetzt nochmal für Leute die nicht so gut English können ( verstehen):fresse:
früher wurde berichtet , GT300 ändert den Weg wie die GPU funktioniert. Wenn wir es mit der alten GT200-Architektur vergleichen, sind Vergleiche atemberaubend. Fermi-Architektur operiert bei 512, Multiply-Add [FMA] pro takt in einzelner präzision oder 256 FMA pro takt, bei doppelter präzision

Atemberaubend sind auch die erreichten Takte beim A1 stepping mit Wasserkühlung als 300 Chips getestet wurden . Zu dieser Zeit waren 495/1100/1000. möglich.
Aber das A2 stepping wird das Wunder schon Vollbringen.;)
Falls die Tessla karten mit 1200 Mhz Shader takt aber schon A2 waren brauchts ein neues Wunder.;)
 
Zuletzt bearbeitet:
Danke!
Aber wird mit DP nicht mit 256 Cuda Core´s gearbeitet?



Quelle

:xmas:

Worst Case:
520GFLOPS / 256 CC = 1,962GHz ???

Es gibt eben Quellen , denen man nicht einfach so vertrauen sollte. BSN ist eine von denen, es gibt auch andere, nach denen Fermi am 24. November hätte gelauncht werden müssen. Nvidia selber spricht ja inzwischen eher vom 26. April. Halbleiterchips sind kompliziert, und wenn nicht ein halbes Jahr zuvor ein Prototyp vorgestellt wurde, existiert das Design nicht.
 
@ Chemiker494

War ja nur so eine Theorie... :fresse:

Das es dauern wird ist absehbar!
Wobei der Link von motkachler ja auch zu BSN verlinken und zwar das erste Wort!
;)
 
Also März frühestens, wenn alles klappt mit dem A3 Stepping...
;)
 
Ich frag mich wo die ganzen Großklappen jetzt hin sind ala " Fermi wird alles platt machen und jeder hat eine im Dezember".
Der Dezember geht bloss nicht mehr lange:lol:
 
@ Zocker28



Das Bild ist praktisch! :bigok:
(die träumen wohl gerade von einer GF100)
 
Wenn man nicht ganz verblendet war hat man schon mitbekommen das der Fermi keine Game Granate werden wird. Sollte er wohl auch garnicht. NV hat das ja soviel ich weis auch nie behauptet. War ja zu merken an dem was NV so rausgelassen hat wo sie die Priorität des Fermi sehen. Das da nix überragendes im Gamebereich rauskommt dürfte danach klar sein. Wenn er nicht ganz abkackt beim Zocken wird er schon seine käufer auch unter Gamern finden.
 
Zuletzt bearbeitet:
Wenn man nicht ganz verblendet war hat man schon mitbekommen das der Fermi keine Game Granate werden wird. Sollte er wohl auch garnicht. NV hat das ja soviel ich weis auch nie behauptet. War ja zu merken an dem was NV so rausgelassen hat wo sie die Priorität des Fermi sehen. Das da nix überragendes im Gamebereich rauskommt dürfte danach klar sein. Wenn er nicht ganz abkackt beim Zocken wird er schon seine käufer auch unter Gamern finden.


Da hast du was falsch verstanden. Das Ziel war es für NV in einen Markt einzusteigen in dem es um pure Rechenleistung geht die über die Shadereinheiten und ihrer freien Programmierbarkeit gewährleistet wird. Eben jene wird in Games genauso verlangt, wenn auch nicht in die Richtung der Programmierbarkeit durch C/++. Was für Games zusätzlich benötigt wird ist eine gute Texel und Pixel Leistung, wenn NV hier nichts falsch macht oder Kompromisse eingehen muss, bezweifel ich das es Probleme bei der Leistung geben wird.

Chemiker494 schrieb:
Es gibt eben Quellen , denen man nicht einfach so vertrauen sollte. BSN ist eine von denen, es gibt auch andere, nach denen Fermi am 24. November hätte gelauncht werden müssen. Nvidia selber spricht ja inzwischen eher vom 26. April. Halbleiterchips sind kompliziert, und wenn nicht ein halbes Jahr zuvor ein Prototyp vorgestellt wurde, existiert das Design nicht.

Bisher hieß es aber immer das zur DP Berechnung 2 Cores zusammengefasst werden. Deshalb auch DP/SP = 1/2. Die Frage ist halt nur ob SP wirklich nur das doppelte der DP Leistung wird, allerdings hat NV ja selbst Angaben in die Richtung gemacht, zwar für Tesla aber eine änderung des Designs für GF100 erscheint durch die höheren Kosten doch recht unwahrscheinlich.


Im 3DC war damals übrigens davon die Rede das berreits die ersten Testmuster den RV870 geschlagen haben. Welche Taktfrequenzen jene hatten wird verschwiegen, aber wohl kaum die angezielten.
 
Für 3D Games ist aber die Single-Precision-Leistung relevant.
Und nach dieser aussage ist die nicht so toll.

Mit Wissen über den Architekturaufbau, den Nvidia schon vor einigen Wochen umrissen hatte, weiß man damit aber auch, dass die für 3D-Spiele relevante Single-Precision-Leistung lediglich bei 1040 und 1260 Gigaflops liegt und damit nur unmerklich höher ausfällt als auf den aktuellen Nvidia-Karten.
Die These, dass die Tesla-Karten stets etwas niedriger getaktet sind als die Geforce-Karten, gilt zumindest nicht für den Shadertakt. Dieser ist gerade für die Profikarten von hoher Relevanz und insofern üblicherweise auf Desktop-Niveau.
http://www.hardware-infos.com/news.php?news=3304
 
Für 3D Games ist aber die Single-Precision-Leistung relevant.
Und nach dieser aussage ist die nicht so toll.

Mit Wissen über den Architekturaufbau, den Nvidia schon vor einigen Wochen umrissen hatte, weiß man damit aber auch, dass die für 3D-Spiele relevante Single-Precision-Leistung lediglich bei 1040 und 1260 Gigaflops liegt und damit nur unmerklich höher ausfällt als auf den aktuellen Nvidia-Karten.
Die These, dass die Tesla-Karten stets etwas niedriger getaktet sind als die Geforce-Karten, gilt zumindest nicht für den Shadertakt. Dieser ist gerade für die Profikarten von hoher Relevanz und insofern üblicherweise auf Desktop-Niveau.
http://www.hardware-infos.com/news.php?news=3304

Eben die letzte Aussage von hwi bezieht sich nur auf die blanken Zahlen. Die Spitzenleistung der GF100 wird nicht deutlich über der GT200b liegen (sofern man die Taktraten des Fermi auf den GF100 überträgt, was aber wegen einer möglichen Fehlerminimierung etc eben nicht zutreffen muss), die durchschnittliche Leistung aber schon. Die Einheiten des Fermis werden sich wohl besser auslasten lassen wärend die MUL des GT200 zumeist brach lag, bei der Berrechnung der Spitzenleisung aber mit einfloss. Allerdings hatten wir das hier vor einigen Seiten schonmal, einfach mal nachlesen ;)
 
Deshalb wurden Quadro u Tesla immer etwas gedrosselt(Speichertakt meistens) in den Specs im Gegensatz zur Highendgamerkarte.

Der gedrosselte Speichertakt hat aber auch einen anderen Grund. Nämlich das die Karten deutlich mehr Speicher verbaut haben. Und dazu aber nicht mehr Speicherchips verbaut werden.
Zumindest war das immer so bei den GDDR3 Versionen... Teils auch im Desktop Bereich, wo die Karten mit unnötig viel Speicher teils weniger Speichertakt hatten...

daß die professionellen GF100-basierten Beschleuniger der Tesla-Serie mit maximal 1230 MHz Shadertakt antreten sollen.
http://www.3dcheats.com/news/2009-12-09
Danach dürftens maximal 1400 Mhz werden aber wer weis.

Sag ich doch die ganze Zeit... glauben tuts aber keiner ;)

Danke!
Aber wird mit DP nicht mit 256 Cuda Core´s gearbeitet?

...

Worst Case:
520GFLOPS / 256 CC = 1,962GHz ???

Der Fermi kann aber durch MADD zwei Flops pro Takt ;)
Sprich 512 Shader * 2 (wegen MADD) * 1,xxx GHz (Shadertakt) = xxx GFlop/s für SP.
Da bei DP zwei Einheiten pro Berechnung zusammen arbeiten rechnet man hier 256 * 2 * Shadertakt. Oder halt auch 512 * Shadertakt ;)

Bisher hieß es aber immer das zur DP Berechnung 2 Cores zusammengefasst werden. Deshalb auch DP/SP = 1/2. Die Frage ist halt nur ob SP wirklich nur das doppelte der DP Leistung wird, allerdings hat NV ja selbst Angaben in die Richtung gemacht, zwar für Tesla aber eine änderung des Designs für GF100 erscheint durch die höheren Kosten doch recht unwahrscheinlich.
Klar wird das 2:1 für SP/DP. Wie soll es auch anders werden... Ich sehe da keine andere Möglichkeit.
Wenn man nur mal die 630 GFlop/s für DP nimmt und die 512 Shader als Fakt ansieht, ergeben sich 1260 GFlop/s für SP, was eine Steigerung zum G200b (285GTX) von 77,8% ergeben würde...

Nimmt man sich die mittlere Skalierung zwischen der Erhöhung der reinen Shaderpower zur nutzbaren Gamingleistung im Schnitt über die letzten Karten ergeben sich hier in etwa 0,81-0,84.
Also 77,8% * 0,81-0,84=63-65,4% größer 285GTX...

Was wiederum nach abzug der ca. 20% HD5870 über 285GTX im Schnitt rund 43-45,4% über der HD5870 ergeben würde...

Das alles bei nem möglichen Shadertakt von 1230MHz... (wegen den 630 GFlop/s für DP)


Im 3DC war damals übrigens davon die Rede das berreits die ersten Testmuster den RV870 geschlagen haben. Welche Taktfrequenzen jene hatten wird verschwiegen, aber wohl kaum die angezielten.

In der Berechnung von oben sieht man das das durchaus hinkommen kann ;)
Zumindest wenn wie du schon sagtest die Karte nicht unbeding Probleme mit der TMU/ROP Leistung hat.

Eben die letzte Aussage von hwi bezieht sich nur auf die blanken Zahlen. Die Spitzenleistung der GF100 wird nicht deutlich über der GT200b liegen (sofern man die Taktraten des Fermi auf den GF100 überträgt, was aber wegen einer möglichen Fehlerminimierung etc eben nicht zutreffen muss), die durchschnittliche Leistung aber schon. Die Einheiten des Fermis werden sich wohl besser auslasten lassen wärend die MUL des GT200 zumeist brach lag, bei der Berrechnung der Spitzenleisung aber mit einfloss. Allerdings hatten wir das hier vor einigen Seiten schonmal, einfach mal nachlesen ;)

Lässt man MUL aus der Berechnung weg, ergeben sich für die 285er aber auch nur 708,48 GFlop/s... Da wäre der Fermi dann schon nicht zu verachtent schneller ;)

Problematisch könnte aber noch sein, das eben MUL gerade beim G200 zu 93-94% für general Shading genutzt wurde bzw. auch als Spezial Function Unit fungierte. Ergo würde das beim Fermi den anderen Einheiten aufgedrückt werden. Kommt aber sicher auch auf die Anwendung an, wie stark diese davon abhängt.
Eine Anwendung die gänzlich auf eine SFU verzichten kann, bringt sicher mehr Punkte auf dem Fermi als eine Anwendung die extrem stark davon abhängt...
 
Lässt man MUL aus der Berechnung weg, ergeben sich für die 285er aber auch nur 708,48 GFlop/s... Da wäre der Fermi dann schon nicht zu verachtent schneller ;)

Stimme dir bei allem was du geschrieben hast zu...nur bei dem Satz frage ich mich grade ob du wirklich gelesen hast was ich geschrieben habe :d
 
Wenn es erst im April bzw. Mai Fermi Geforce-Karten geben sollte, dann können wir uns auf eine 2. Radeon HD 2000 Generation freuen...:mad::heul::hwluxx:
 
Stimme dir bei allem was du geschrieben hast zu...nur bei dem Satz frage ich mich grade ob du wirklich gelesen hast was ich geschrieben habe :d

Klar habe ich...
Ich wollts nur nochmal bestätigen... Bzw. das Argument bringen, das das MUL beim G200 nicht gänzlich brach gelegen hat, sofern die Anwendung daraus nutzen ziehen konnte ;)
 
Nimmt man sich die mittlere Skalierung zwischen der Erhöhung der reinen Shaderpower zur nutzbaren Gamingleistung im Schnitt über die letzten Karten ergeben sich hier in etwa 0,81-0,84.
Also 77,8% * 0,81-0,84=63-65,4% größer 285GTX...

Was wiederum nach abzug der ca. 20% HD5870 über 285GTX im Schnitt rund 43-45,4% über der HD5870 ergeben würde...

Naja, erstmal ist die 5870 25% schneller. Außerdem soll mit dem 9.12 treiber die erformance der neuen serie noch einmal gesteigert werden. 5% sollen drin sein. ATI spricht von mehr als 10% aber das ist wohl eher wunschdenken.

was bedeutet die 380gtx ist nur noch 33-35% schneller. Bis zum release im märz oder april 2010 wird sich das ganze noch weiter zu gunsten von ati verschieben. denn mit jedem treiber, gerade am anfang, kann hier und da noch 1 oder 2% herausgekitzelt werden.

ich würde daher eher einen vorsprung von 25-30% für fermi vorhersagen.

naja, time will tell :xmas:
 
10'000 Punkte 3DMark Xtreme als Taktziel: wirklich
15% mehr als Hemlock? (13'000 Xtreme Marks)

wieso soll / muss ein Single Fermi im Xtreme mehr machen als Hemlock (Dual GPU) verstehe ich nicht....
 
Und bei nvidia tut sich währenddessen nix in sachen treiber :bigok: :stupid:

Nein, denn noch haben sie ja nichtmal den finalen chip. das a3 stepping is ja noch in arbeit. und ich behaupte mal das nvidia momentan seine ressourcen in andere dinge steckt als in das feintunung der treiber. denn die neuen karten sind noch nicht auf dem markt und die alten nicht mehr. man braucht ja erstmal ein produkt wofür man treiber entwickeln kann.

ATI hingegen is jetzt gerade beim feinschliff seiner treiber. und wenn nvidia den fermi bringt hat ati den 10.3 vllt. sogar 10.4 treiber rausgebracht.

und die 5890 sollte auch nicht vergessen werden. in jedem fall steht ati zum markteinztritt des fermi garnicht mal so schlecht dar, waage ich zu prognostizieren.
 
Naja, erstmal ist die 5870 25% schneller. Außerdem soll mit dem 9.12 treiber die erformance der neuen serie noch einmal gesteigert werden. 5% sollen drin sein. ATI spricht von mehr als 10% aber das ist wohl eher wunschdenken.

was bedeutet die 380gtx ist nur noch 33-35% schneller. Bis zum release im märz oder april 2010 wird sich das ganze noch weiter zu gunsten von ati verschieben. denn mit jedem treiber, gerade am anfang, kann hier und da noch 1 oder 2% herausgekitzelt werden.

ich würde daher eher einen vorsprung von 25-30% für fermi vorhersagen.

naja, time will tell :xmas:

Das war auf die Messungen von CB bezogen... Man nehme den HD5970 Test (aktuellsten Gamingtest bei CB) und vergleiche im PR die Abstände... dort stehen 20%.
Wobei das wie gesagt auch stark von den Settings und der Anwendung abhängt.

Da wir aber noch nichtmal wissen, wie der Fermi in extrem Settings skalieren wird zum Vorgänger, macht eigentlich nur ein recht konservativer Vergleich sinn... Sprich alltags Gamingsettings ala 1680x1050 4xAA/16xAF...

wieso soll / muss ein Single Fermi im Xtreme mehr machen als Hemlock (Dual GPU) verstehe ich nicht....

Weil ihn genau dort die ganzen NV Fanatiker sehen wollen...
Schau dir doch die letzten Seiten an, und staune, was der Karte alles zugetraut wird :fresse:
 
Vor allen Dingen wird ATI bald nach dem Fermi die nächste Generation präsentieren. Also viel Länger wie dei 5xxx Serie die schnellsten karten waren wirds der Fermi nicht sein.:lol:
 
Nein, denn noch haben sie ja nichtmal den finalen chip. das a3 stepping is ja noch in arbeit. und ich behaupte mal das nvidia momentan seine ressourcen in andere dinge steckt als in das feintunung der treiber. denn die neuen karten sind noch nicht auf dem markt und die alten nicht mehr. man braucht ja erstmal ein produkt wofür man treiber entwickeln kann.

ATI hingegen is jetzt gerade beim feinschliff seiner treiber. und wenn nvidia den fermi bringt hat ati den 10.3 vllt. sogar 10.4 treiber rausgebracht.

und die 5890 sollte auch nicht vergessen werden. in jedem fall steht ati zum markteinztritt des fermi garnicht mal so schlecht dar, waage ich zu prognostizieren.

Selbstverständlich können die schon am Treiber arbeiten. Dafür nimmt man die produzierten A2 Prototypen. Schließlich ändert sich an der Architektur nichts mehr, d.h. ob man den Treiber auf A1 A2 oder A3 Karten testet ist egal.

@Motkachler: Erstmal sollten sie vieleicht die 5850 und 5870 verkaufen. Die sind immer noch nicht lieferbar und wenn die Entwicklung für den Nachfolger so lange dauert wie die der 5xxx sehen wir da nichts vor Q3 2011.
 
Zuletzt bearbeitet:
Nein, denn noch haben sie ja nichtmal den finalen chip. das a3 stepping is ja noch in arbeit. und ich behaupte mal das nvidia momentan seine ressourcen in andere dinge steckt als in das feintunung der treiber. denn die neuen karten sind noch nicht auf dem markt und die alten nicht mehr. man braucht ja erstmal ein produkt wofür man treiber entwickeln kann.

ATI hingegen is jetzt gerade beim feinschliff seiner treiber. und wenn nvidia den fermi bringt hat ati den 10.3 vllt. sogar 10.4 treiber rausgebracht.

und die 5890 sollte auch nicht vergessen werden. in jedem fall steht ati zum markteinztritt des fermi garnicht mal so schlecht dar, waage ich zu prognostizieren.

Treiberoptimierungen gerade im Bezug auf Geschwindigkeit können auch intern von NV schon getätigt werden, wenn die Karte noch nicht auf dem Markt ist.
Ich denke mal es sollte jedem bekannt sein, das die Treiberentwickler nix mit der Entwicklung/optimierung der Kartenhardware zu tun haben...
Zumahl es ja wohl scheinbar schon lauffähige Karten gibt wo sich die Treiberteams austoben können...

Vor allen Dingen wird ATI bald nach dem Fermi die nächste Generation präsentieren. Also viel Länger wie dei 5xxx Serie die schnellsten karten waren wirds der Fermi nicht sein.:lol:

Was wann kommt steht noch in den Sternen... Ebenso was dann mit der Produktion wird.
Wenn TSMC extreme Fertigungsprobleme bei derart großen/komplexen Chips hat, heist das lange nicht das GF das bei noch kleineren Strukturen der nächsten Gen. und noch komplexeren Schaltungen nicht auch im mindestens gleichen Maße hat...

Zumahl GF absolut überhaupt keine Erfahrungen mit derartigen Produktionen hat, weder als die Fabriken noch bei AMD waren, noch danach.
Genau so wie AMD keine Erfahrungen bei derartigen Schaltungen mit GF/AMD eigenen Produktionsanlagen hat.
 
Das war auf die Messungen von CB bezogen... Man nehme den HD5970 Test (aktuellsten Gamingtest bei CB) und vergleiche im PR die Abstände... dort stehen 20%.
Wobei das wie gesagt auch stark von den Settings und der Anwendung abhängt.

Da wir aber noch nichtmal wissen, wie der Fermi in extrem Settings skalieren wird zum Vorgänger, macht eigentlich nur ein recht konservativer Vergleich sinn... Sprich alltags Gamingsettings ala 1680x1050 4xAA/16xAF...



Weil ihn genau dort die ganzen NV Fanatiker sehen wollen...
Schau dir doch die letzten Seiten an, und staune, was der Karte alles zugetraut wird :fresse:

Ja, der wunderchip.

Also wir 2 sind uns wohl einig das irgendwas mit ca. 30% mehrleistung am ende rauskommen MUSS. Wo das jetzt genau is kann keiner sagen da wir weder den GENAUEN aufbau des chips kenn noch die finalen taktraten.

OK dann kann nvidia eben auch noch treiber optimieren. Naja schauen wir mal was nvidia so alles aud dem hut zaubert.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh