nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 3

Status
Für weitere Antworten geschlossen.
Oh man , ein Typ mit 9 Posts :hmm:

Extremsystems Forum kommt ja schon viel wahres, aber auch dort kommt viel dummes gelaber und es gibt Fanboys ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Auf Benchmarks kann ich verzichten(Da gibt es immer Tricks um was zu optimieren) ich möchte wissen, wie es in der Spielperformance aussieht! Wenn die nVidia Karten soooooooo toll sind, würde das von nVidia selbst kommen und zwar schon längst!
 
Zuletzt bearbeitet:
die GTX385 interessiert mich eigentlich mehr als die GTX380...

woe lange hat es denn von der GTX280 bis zur GTX285 gedauert?

Wenn ich mich richtig entsinne, etwas über 1/2 Jahr. GTX280 - Mitte Juni2008 (Für anfänglich 650$, nach Erscheinen der HD4870 eine Woche später dann rasch weniger), GTX285 - Paperlaunch im Dezember 2008 mit den berüchtigten 5-Spiele-Benchmarks, Erscheinung am Markt im Januar 09.

Ich persönlich rechne mir dem 28-nm Fermi-Refresch erst Anfang 2011 zusammen mit Northern Island.
 
Wenn ich mich richtig entsinne, etwas über 1/2 Jahr. GTX280 - Mitte Juni2008 (Für anfänglich 650$, nach Erscheinen der HD4870 eine Woche später dann rasch weniger), GTX285 - Paperlaunch im Dezember 2008 mit den berüchtigten 5-Spiele-Benchmarks, Erscheinung am Markt im Januar 09.

Ich persönlich rechne mir dem 28-nm Fermi-Refresch erst Anfang 2011 zusammen mit Northern Island.

wann will denn TSMC mit 28nm anfangen? denk bei den dauert es noch was bis 28, die sind noch bei 40nm und haben da probs.

Und NV wird zu 100%iger sicherheit nicht bei GloFo fertigen , meinte NV auch mal so von wegen , "GloFo ist doch von AMD oder " als antwort darauf ob sie sich das vorstellen könnten da fertigen zu lassen ^^
 
wann will denn TSMC mit 28nm anfangen? denk bei den dauert es noch was bis 28, die sind noch bei 40nm und haben da probs.
afaik war die Rede von Februar das die Produktion starten soll.
 
ja, aber da war noch die Rede von nem Launch im Dez. :fresse: ... also schon einige Zeit her die Info....ich denke auch das sich das ordentlich verschiebt.
 
Wer findet den Fehler? :coolblue:



Taktraten? Nvidia verwendet doch Kristalle mit irgendelchen komischen Frequenzen, 27MHz glaub ich. Die 1512 MHz shader clock würden so noch hinhauen (=27x56), aber nicht die 650MHz Chiptakt (=27x24.074074074...), müsste also wenn schon 648MHz sein (27x24).

COLOR=white SIZE=1][Ja, das ist ein Fake. Aber da dies ein Speku-Thread ist, habe ich eben mal spekuliert][/SIZE][/COLOR]
"

Edit: Gut gefälscht, schlecht spekuliert (Wenigstens nicht noch 1700MHz Shader clock und Hard launch am 24. November! 2009! Bei 55°C unter Vollast (oder 55 Kelvin?) Aber immer noch auf der optimistischen Seite...
 
Zuletzt bearbeitet:
Schlecht spekuliert? Geh mal ins Detail - du weißt mehr? :coolblue:
 
Schlecht spekuliert? Geh mal ins Detail - du weißt mehr? :coolblue:

Müssten das bei der Texelfüllrate nicht 84,9 GT/s sein? Für den Rest hab ich jetzt keine Lust nachzurechnen. Ausgehend von deinem Bildchen hoffe ich mal auf mehr Speicher und Shadertakt, aber ich glaube so weit weg wirst du wohl nicht liegen.

Edith sagt:

Uh, verrechnet. Dann wird dein Wert wohl stimmen.
 
Zuletzt bearbeitet:
Also gehen wir ins Detail:
Name: GTX380 - unsicher! GeForce 300-Serie war bisher für umgelabelte G92/G200 zuständig! Wer sagt, dass Fermi nicht 400er Serie wird?
GPU: GF100, Rev. A3 40 nm, Transistors 3100M (lass ich mal so stehen)
Die Size: 621mm² Hammerhart! Doppelt so gross wie Cypress?
Release Date: 04.03.2010, Na wohl eher 01.04.2010
48 ROP 128 TMU, 384-bit SI: Könnte hinkommen.
Pixelfillrate, Texelfillarte, Speicherbandbreite: Intern konsistent (DARUM SAGE ICH: GUT GEFÄLSCHT)
Taktraten:
; Chip 650MHz (geht nicht, siehe oben), Shader 1512 (=Taktziel von Nvidia), Speicher 1000MHz GDDR5 (könnte hinkommen)

Ich weiss auch nicht mehr, als was offiziell bekannt ist. (Und wenn, dürfte ich es ganz sicher nicht hier posten)
 
Also gehen wir ins Detail:
Name: GTX380 - unsicher! GeForce 300-Serie war bisher für umgelabelte G92/G200 zuständig! Wer sagt, dass Fermi nicht 400er Serie wird?
GPU: GF100, Rev. A3 40 nm, Transistors 3100M (lass ich mal so stehen)
Die Size: 621mm² Hammerhart! Doppelt so gross wie Cypress?
Release Date: 04.03.2010, Na wohl eher 01.04.2010
48 ROP 128 TMU, 384-bit SI: Könnte hinkommen.
Pixelfillrate, Texelfillarte, Speicherbandbreite: Intern konsistent (DARUM SAGE ICH: GUT GEFÄLSCHT)
Taktraten:
; Chip 650MHz (geht nicht, siehe oben), Shader 1512 (=Taktziel von Nvidia), Speicher 1000MHz GDDR5 (könnte hinkommen)

Ich weiss auch nicht mehr, als was offiziell bekannt ist. (Und wenn, dürfte ich es ganz sicher nicht hier posten)

War NVs Taktziel bei den Shadern nicht mal 1700 MHz? Oder war das die pure Ausgeburt der Gerüchteküche?! Beim Ram würde ich ohne irgendwelche Hintergrundinfos zu haben aber von einem höheren Takt ausgehen. Welchen Grund außer mehr Raum für einen evtlen Refresh oder den wohl nur wenig günstigeren Speicher hätte NV um nicht zumindest auf das Niveau der RV870 zu kommen?
 
Oh man , ein Typ mit 9 Posts :hmm:
wenn das was er schreibt, nicht wahr ist, dann dürften wir das bald wissen, weil diese Vorhersage dann wohl auch nicht eintrifft:
Zed X schrieb:
NDA will lifts few days after 14th,...
(Link zum Posting)
wobei er da schlauerweise keinen Monat erwähnt hat.

ok, hier ist die Rede von nächster Woche:
Zed X schrieb:
GeForce 380 has huge power consumption, but performance is only few percent under HD 5970 and far away from HD 5870 perf. Trust me, will see next week on many servers, when NDA for info lifts!
(Link zum Posting)
was dann diese Woche wäre

Zed X schrieb:
Every invited journalists has complete Fermi Geforce slides now, NDA will lift in few days, but i hope someone broke it and publish something on B3D or somewhere in Asia like always. If you want to know +/- perf. look at my previous post here in this thread. Dont worry about TDP, on CES are only first silicon unfinished products, remember first black press samples 4870X2 with TDP 400W?(Link zum Posting)

Zed X schrieb:
No one reviewer will get GeForce 300 this week, NVIDIA will send samples later in february. But they will have many infos about GeForce architecture, features, performance - but no CLOCKS! In few days NDA lifts (someone will leak it, for sure) and every server will bring article about it, be patient.(Link zum Posting)

Somit wie gehabt: Abwarten und Tee trinken (wenn auch vielleicht nicht mehr so lange;))

hier behauptet jetzt jemand, das Datum für den Fall der NDA wäre schon länger bekannt:http://www.xtremesystems.org/Forums/showpost.php?p=4194666&postcount=776
 
Zuletzt bearbeitet:
@ Neurosphere

Es gibt iirc kein "Taktziel", nur GFLOPS - siehe Tesla.

Da man bei NV schon erahnen konnte das ATI die Rohleistung ungefähr verdoppelt wären dann aber die knapp zwischen 1200 - 1800 GFlop in SP recht wenig wenn NV von denen ausgegangen ist. Natürlich kann der Takt erst bestimmt werden wenn man in der Fertigung weit genug ist und mit Samples schon weiß was möglich ist. Ein Taktziel wird es aber auch bei erhofften GFlops- Werten gegeben haben.

Gibt es eigentlich ein offizieles Schriftstück in dem ganz klar von einem Verhältniss von 2:1 von SP zu DP gesprochen wird? Evtl taktet ja auch die Shaderdomäne je nach Einsatz unterschiedlich.
 
Ich würde sagen (was ich nicht darf) Fermi kommt ende april anfang mai.

Nichts desto trotz (wer hat dieses scheiss wort erfunden wie schreibt man das)
glaube ich dass TSMC den 32/28 nm prozess besser hinkriegen düfte.
Warum?
Jeder Prozess braucht seine eigenen verfahren zur belichtung und ätzung.
gut möglich dass sie probleme mit den verfahren an sich habe, es jedoch zu kostspielig wäre neue zu entwickeln, da ja sowieso bald kleinere komen.

Und mit neuen verfahren können alte probleme ausgemärzt werden(und neue dazukommen)

Ist wie mit ner neuen architektur ist von Tod bis Unsterblickeit alles drin.
Feri wird aber it gaaaaaaaaanz anderen problemen zu kämpfen haben als TSMC`s miserable fertigung.
Wobei ich TSMC nicht in den dreck ziehen will, man soll ja nicht meckern wenn man es selber nicht besser hinkriegt oder?

NV wird aus fermi aber gehörig lernen.
Ist denen aber egal, da sie mit Tesla ja andere wege gehen werden

@Le_Frogg99
Tolles neues foto, gefällt mir. siehst hübsch aus von vorne.
 
@ Neurosphere

512 ALUs @ 1,512 GHz sind bei Fermi bedingt durch FMA (MUL gefolgt von ADD, das "verlorene" MUL von GT200 fällt weg) sind 1548,3 GLOPS und damit theoretisch (GTX285 = 1062,7 GFLOPS) "nur" +46%, wobei das nur die theoretischen Maxima sind. Eine HD 5870 schafft ja btw 2720 GFLOPS. Angesichts dessen, dass eine HD5870 idR 15-50% vor einer GTX285 liegt, sollte Fermi bei den von mir veranschlagten Füllraten und der Bandbreite ohne Effizienzsteigerungen die HD5870 meist knacken. Bleibt nur die Frage, ob die A3 die 1,512 GHz schafft - und da ist noch nichts durchgesickert.
 
Zuletzt bearbeitet:
Wer hat denn dann bisher die ATI Designs entworfen und auf die Fertigung abgestimmt? Intel? :haha: Nee, mach dir da mal keine Sorgen. Bei GloFo wird man mit dem Start der 28 nm Bulk Massenfertigung genug Erfahrung haben. Hinzu kommt ja auch noch das Know-How von Chartered. Etwas anderes anzunehmen, ist auch reichlich naiv.
Es geht ja nicht ums Design, sondern darum das die Fabriken von AMD bzw. jetzt GloFo keine Erfahrung mit derartigen Transistorschleudern haben...
Zudem besteht ne CPU ansich auch zu nem riesigen Teil einfach aus simplen Schaltenkreisen für Cache, ne GPU ansich aber sogut wie komplett aus komplexer Logik, wenn man so will.

Dann nenne mir doch mal einen Chip der letzten Jahre, der die AMD Fertigung bezüglich Yields vor derartige Probleme gestellt hat wie das bei TSMC mit 40 nm der Fall ist. Einige scheinen immer noch nicht mitbekommen zu haben, dass AMD Dresden einer der modernsten Halbleiterkomplexe der Welt ist. Das sind andere Voraussetzungen als bei einem Auftragsfertiger wie TSMC.

Einerseits bleibt für einen derartigen Vergleich wie du ihn hier Forderst die Tatsache bestehen, das AMD nie derart komplexe Chips gefertigt hat und andererseits ist auch bei AMD nicht alles Gold was glänzt.
Man erinnere sich beispielsweise noch an die ersten 65nm CPUs. Damit meine ich nicht den Phenom I sondern die ersten K8 65nm Modelle, so richtig warm wurde AMD mit dem 65nm Prozess anfangs irgendwie nicht. ;)
Und das waren nur CPUs, also weit weniger Komplex. In der Zeit hat TSMC schon scharf an den 55nm gearbeitet ;)
Auch war AMDs schnellster K8 auch ein 90nm Prozessor und kein 65nm Prozessor.

Auch wenn sich das in Summe alles schwer vergleichen lässt, bei AMD gibts auch Probleme, auch wenn man ungelogen sagen kann, AMDs 45nm Prozess läuft sehr gut. Keiner weis aber ob sich derartiges bei 65nm nicht auch bei 28/32nm wiederholen könnte ;)

kann man wohl irgendwie an ausschussware von TSMC oder Intel kommen?

So nen waffer sieht irgendwie schon ziemlich cool aus...

Nicht wirklich, was wird idR nicht rausgegeben...
Ich hab übrigens nen Wafer zuhause, glaub 200mm, leider unbelichtet sondern noch nakt ;)
 
@y33H@
weil ich mir gerade nochmal Deine GPU-Z Screenshots angeschaut hab.
Bei der Treiber-Version ist Dir bei der zweiten Version des Screenshots ein Fehler unterlaufen:

Die Versionsnummer vor der Klammer passt nicht zu der in der Klammer.
 
Richtig, die letzten vier Ziffern müssten "9715" lauten.
 
Nicht wirklich, was wird idR nicht rausgegeben...
Ich hab übrigens nen Wafer zuhause, glaub 200mm, leider unbelichtet sondern noch nakt ;)

Hab beim Praktikum sowohl bei Quimonda als auch bei AMD jeweils einen abgegriffen - mit Strukturen drauf. Wem also ein Praktikum nicht zuviel Arbeit ist, um an einen Wafer zu kommen, bitteschön. :fresse:
 
@y33H@
mir ist noch etwas aufgefallen:
Der Wert (05E6) bei der Device-ID scheint mir auch zu niedrig, da der Chip somit noch zur G100-Familie (<--- so stehts in der Rivatuner.cfg drin) gehören würde.
Gemeint ist damit dann wohl die GT200-Familie (Meine GTX 280 hat z.B. 05E1)
 
@ Neurosphere

512 ALUs @ 1,512 GHz sind bei Fermi bedingt durch FMA (MUL gefolgt von ADD, das "verlorene" MUL von GT200 fällt weg) sind 1548,3 GLOPS und damit theoretisch (GTX285 = 1062,7 GFLOPS) "nur" +46%, wobei das nur die theoretischen Maxima sind. Eine HD 5870 schafft ja btw 2720 GFLOPS. Angesichts dessen, dass eine HD5870 idR 15-50% vor einer GTX285 liegt, sollte Fermi bei den von mir veranschlagten Füllraten und der Bandbreite ohne Effizienzsteigerungen die HD5870 meist knacken. Bleibt nur die Frage, ob die A3 die 1,512 GHz schafft - und da ist noch nichts durchgesickert.

Nimm doch einfach aus ein paar Benches älterer Karten die durchschnittliche Skallierung zum theoretischen Leistungsgewinn ;)
Also beispielsweise von 260GTX zur 285GTX. Oder von 8800GTS G80 zu 8800Ultra usw.
Diese durchschnittliche Skalierung liegt immer auf recht konstanntem Niveau. Mal etwas mehr, mal etwas weniger. Damit lässt sich aber denke ich brauchbar was anfangen zu rechnen. Denn viel schlechter wie damals wirds beim Fermi wohl net werden ;)

Dann nimmst ne angepeilte Taktrate von sagen wir 1400MHz Shaderclock und 512ALUs und rechnest diesen theoretischen Wert gegen die Durchschnittsskalierung.
So erhält man wohl ein recht brauchbares Ergebniss ;)

Die große Unbekannte ist nur das fehlende MUL. Auch wenn es beim G80 und G200 eher selten in Gebrauch war, übernimmt es doch die Aufgabe einer SFU bzw. kann beim G200 auch fast vollständig für General Shading genutzt werden... Die Frage wäre, wie stark fällt das schlussendlich ins Gewicht und wie löst der Fermi das Problem?

Gibt es eigentlich ein offizieles Schriftstück in dem ganz klar von einem Verhältniss von 2:1 von SP zu DP gesprochen wird? Evtl taktet ja auch die Shaderdomäne je nach Einsatz unterschiedlich.

Es gibt offiziell noch gar nix :fresse:
Aber es ist nur logisch von 2:1 auszugehen, auch wenn das den Optimalfall darstellen dürfte...
Auch unterschiedliche Takte machen wenig Sinn. Da ja immernoch die selben ALUs den Wert berechnen nur bei DP es eben zwei sind ;)
Laut NVs Präsentation soll wohl die Technik die benötigt wird um die EInheiten zusammen zuschalten für DP modular sein, sprich man kann da Kosten/Platz sparen mit dem Nachteil eben nicht mehr alle Einheiten für DP nutzbar zu machen.
So könnte man beispielsweise auf der Gamerkarte nur 1/4 der ALUs für DP ready machen. Und hätte dann auf der Gamerkarte nur 1/8 DP Performance ausgehend auf dem SP Wert.
Oder gar noch weniger ;)
Für die Quadros und Teslas hingegen könnte man wiederum alle Einheiten aktivieren/einbauen und wieder den 2/1 Optimalfall bekommen.

Hab beim Praktikum sowohl bei Quimonda als auch bei AMD jeweils einen abgegriffen - mit Strukturen drauf. Wem also ein Praktikum nicht zuviel Arbeit ist, um an einen Wafer zu kommen, bitteschön. :fresse:

Meiner ist von Infineon ;)
 
Zuletzt bearbeitet:
Es gibt offiziell noch gar nix :fresse:

White paper etc, im Prinzip gibt es da genug wo was drinstehen könnte ;)

Aber es ist nur logisch von 2:1 auszugehen, auch wenn das den Optimalfall darstellen dürfte...
Auch unterschiedliche Takte machen wenig Sinn. Da ja immernoch die selben ALUs den Wert berechnen nur bei DP es eben zwei sind ;)

Richtig. An sich haben wir das Thema ja auch schon oft genug durchgekaut, aber trotzdem erscheitn es mir merkwürdig das NV ein Design vorstellt das wesentlichen Wert auf die pure Rechenleistung legt und genau dort nicht wirklich von den reinen Zahlenwerten her mit der Konkurenz gleichziehen kann.

Laut NVs Präsentation soll wohl die Technik die benötigt wird um die EInheiten zusammen zuschalten für DP modular sein, sprich man kann da Kosten/Platz sparen mit dem Nachteil eben nicht mehr alle Einheiten für DP nutzbar zu machen.

Wenn ich mich recht entsinne sollte bei Fermi laut der Aussage damals so gut wie alles Modular sein. Worauf sich das ganze genau bezog blieb ohne Angaben.

So könnte man beispielsweise auf der Gamerkarte nur 1/4 der ALUs für DP ready machen. Und hätte dann auf der Gamerkarte nur 1/8 DP Performance ausgehend auf dem SP Wert.
Oder gar noch weniger ;)
Für die Quadros und Teslas hingegen könnte man wiederum alle Einheiten aktivieren/einbauen und wieder den 2/1 Optimalfall bekommen.

Die Frage ist ob es sich lohnt Tesla und Fermi getrennt zu fertigen, was ich ja dann aufgrund der Unterschiede müsste.
 
Vo dem Standpunkt aus hätte TSMC das auch ohne Probleme hinbekommen müssen.
Wieso? TSMC hat einfach den 40 nm nicht ausreichend im Griff. Etwas derartiges ist der AMD Fertigung in den letzten Jahren nicht passiert. Jetzt damit anzufangen, "es könnte ja in Zukunft irgendwas passieren" sind ziemlich an den Haaren herbeigezogene "Argumente" und polemische Ausflüchte. So führt man jedenfalls keine objektive Diskussion.

Trotzdem steigen mit größeren und komplexeren Chips die Probleme.
Und genau das spricht gegen nVidia.

Wie lange ist man denn der modernste fertiger der Welt?
Von wem sprichst du? Ich wüsste nicht, dass jemand von DEM modernsten Fertiger der Welt gesprochen hat. ;)

Intel hat 32nm mittlerweile auf Massenproduktion, von dem her ist es nicht total aus der Luft gegriffen, dass 28nm irgendwann dieses Jahre kommen wird. Allerdings darf man nicht vergessen, dass AMD/Glofo mindestens eine Generation hinter Intel ist
Nein, es ist nicht mal eine halbe Generation. Die 32 nm Bulk Fertigung soll bei GloFo Mitte diesen Jahres anlaufen. Das wäre dann 2-3 Quartale nach Intel. Eine Strukturgeneration ist gut 2 Jahre aktuell.

was die CPU Fertigungstechnik angeht und auch die 65nm SOI damals zu Phenom1 Zeiten haben AMD extreme Probleme bereitet.
Auch das ist nicht zutreffend. Das Barcelona Design war einfach zu komplex für AMDs 65 nm Prozess, der auf hohe X2 Yields getrimmt war. Der Fertigungsprozess selbst war iO.

Es geht ja nicht ums Design, sondern darum das die Fabriken von AMD bzw. jetzt GloFo keine Erfahrung mit derartigen Transistorschleudern haben...
Doch, haben sie. Was glaubst du, wie viele Transistoren Istanbul hat? Das sind auch fast eine Milliarde. Also vergleichbar mit RV770. Und CPUs sind in der Beziehung noch kritischer.

Einerseits bleibt für einen derartigen Vergleich wie du ihn hier Forderst die Tatsache bestehen, das AMD nie derart komplexe Chips gefertigt hat und andererseits ist auch bei AMD nicht alles Gold was glänzt.
Man erinnere sich beispielsweise noch an die ersten 65nm CPUs. Damit meine ich nicht den Phenom I sondern die ersten K8 65nm Modelle, so richtig warm wurde AMD mit dem 65nm Prozess anfangs irgendwie nicht.
"So richtig warm" hört sich ja richtig kompetent an. :rolleyes: Der 65 nm Prozess war von Beginn "healthy" und hatte gute Yields. Worüber du hier reden willst, ist was ganz anderes, nämlich Prozess Parameter wie High-Performance oder Low-Power.

Oh man , ein Typ mit 9 Posts :hmm:

Extremsystems Forum kommt ja schon viel wahres, aber auch dort kommt viel dummes gelaber und es gibt Fanboys ;)
Vor allem schrieb er folgendes am 05.01.2010:
All of you will see what is Fermi in TWO days, and someone will be hardly surprised Performance is BRUTAL!
Der 07.01.2010 ist aber mittlerweile Geschichte. Und wie viel man sieht, sehen wir ja. Der Typ reimt sich einfach nur Sachen zusammen, was jeder von uns genauso könnte. Starker nVidia F***** Alarm würde ich mal sagen.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh