Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
die GTX385 interessiert mich eigentlich mehr als die GTX380...
woe lange hat es denn von der GTX280 bis zur GTX285 gedauert?
Oh man , ein Typ mit 9 Posts
Extremsystems Forum kommt ja schon viel wahres, aber auch dort kommt viel dummes gelaber und es gibt Fanboys
Wenn ich mich richtig entsinne, etwas über 1/2 Jahr. GTX280 - Mitte Juni2008 (Für anfänglich 650$, nach Erscheinen der HD4870 eine Woche später dann rasch weniger), GTX285 - Paperlaunch im Dezember 2008 mit den berüchtigten 5-Spiele-Benchmarks, Erscheinung am Markt im Januar 09.
Ich persönlich rechne mir dem 28-nm Fermi-Refresch erst Anfang 2011 zusammen mit Northern Island.
afaik war die Rede von Februar das die Produktion starten soll.wann will denn TSMC mit 28nm anfangen? denk bei den dauert es noch was bis 28, die sind noch bei 40nm und haben da probs.
afaik war die rede von februar das die produktion starten soll.
2010? bei TSMC?
"Wer findet den Fehler?
Taktraten? Nvidia verwendet doch Kristalle mit irgendelchen komischen Frequenzen, 27MHz glaub ich. Die 1512 MHz shader clock würden so noch hinhauen (=27x56), aber nicht die 650MHz Chiptakt (=27x24.074074074...), müsste also wenn schon 648MHz sein (27x24).
COLOR=white SIZE=1][Ja, das ist ein Fake. Aber da dies ein Speku-Thread ist, habe ich eben mal spekuliert][/SIZE][/COLOR]
Schlecht spekuliert? Geh mal ins Detail - du weißt mehr?
Also gehen wir ins Detail:
Name: GTX380 - unsicher! GeForce 300-Serie war bisher für umgelabelte G92/G200 zuständig! Wer sagt, dass Fermi nicht 400er Serie wird?
GPU: GF100, Rev. A3 40 nm, Transistors 3100M (lass ich mal so stehen)
Die Size: 621mm² Hammerhart! Doppelt so gross wie Cypress?
Release Date: 04.03.2010, Na wohl eher 01.04.2010
48 ROP 128 TMU, 384-bit SI: Könnte hinkommen.
Pixelfillrate, Texelfillarte, Speicherbandbreite: Intern konsistent (DARUM SAGE ICH: GUT GEFÄLSCHT)
Taktraten:; Chip 650MHz (geht nicht, siehe oben), Shader 1512 (=Taktziel von Nvidia), Speicher 1000MHz GDDR5 (könnte hinkommen)
Ich weiss auch nicht mehr, als was offiziell bekannt ist. (Und wenn, dürfte ich es ganz sicher nicht hier posten)
GF 300M, nicht Desktop.GeForce 300-Serie war bisher für umgelabelte G92/G200 zuständig!
128 TMUs @ 650 MHz = 82,2 GTex/s ...Chip 650MHz (geht nicht, siehe oben)
Was macht dich da so sicher?Na wohl eher 01.04.2010
wenn das was er schreibt, nicht wahr ist, dann dürften wir das bald wissen, weil diese Vorhersage dann wohl auch nicht eintrifft:Oh man , ein Typ mit 9 Posts
wobei er da schlauerweise keinen Monat erwähnt hat.Zed X schrieb:NDA will lifts few days after 14th,...
(Link zum Posting)
was dann diese Woche wäreZed X schrieb:GeForce 380 has huge power consumption, but performance is only few percent under HD 5970 and far away from HD 5870 perf. Trust me, will see next week on many servers, when NDA for info lifts!
(Link zum Posting)
Zed X schrieb:Every invited journalists has complete Fermi Geforce slides now, NDA will lift in few days, but i hope someone broke it and publish something on B3D or somewhere in Asia like always. If you want to know +/- perf. look at my previous post here in this thread. Dont worry about TDP, on CES are only first silicon unfinished products, remember first black press samples 4870X2 with TDP 400W?(Link zum Posting)
Zed X schrieb:No one reviewer will get GeForce 300 this week, NVIDIA will send samples later in february. But they will have many infos about GeForce architecture, features, performance - but no CLOCKS! In few days NDA lifts (someone will leak it, for sure) and every server will bring article about it, be patient.(Link zum Posting)
@ Neurosphere
Es gibt iirc kein "Taktziel", nur GFLOPS - siehe Tesla.
nach all den horrormeldungen tippe ich auf R600entweder es wird ein R600, oder schnell und stromfressend
eher 2.
Es geht ja nicht ums Design, sondern darum das die Fabriken von AMD bzw. jetzt GloFo keine Erfahrung mit derartigen Transistorschleudern haben...Wer hat denn dann bisher die ATI Designs entworfen und auf die Fertigung abgestimmt? Intel? Nee, mach dir da mal keine Sorgen. Bei GloFo wird man mit dem Start der 28 nm Bulk Massenfertigung genug Erfahrung haben. Hinzu kommt ja auch noch das Know-How von Chartered. Etwas anderes anzunehmen, ist auch reichlich naiv.
Dann nenne mir doch mal einen Chip der letzten Jahre, der die AMD Fertigung bezüglich Yields vor derartige Probleme gestellt hat wie das bei TSMC mit 40 nm der Fall ist. Einige scheinen immer noch nicht mitbekommen zu haben, dass AMD Dresden einer der modernsten Halbleiterkomplexe der Welt ist. Das sind andere Voraussetzungen als bei einem Auftragsfertiger wie TSMC.
kann man wohl irgendwie an ausschussware von TSMC oder Intel kommen?
So nen waffer sieht irgendwie schon ziemlich cool aus...
Nicht wirklich, was wird idR nicht rausgegeben...
Ich hab übrigens nen Wafer zuhause, glaub 200mm, leider unbelichtet sondern noch nakt
@ Neurosphere
512 ALUs @ 1,512 GHz sind bei Fermi bedingt durch FMA (MUL gefolgt von ADD, das "verlorene" MUL von GT200 fällt weg) sind 1548,3 GLOPS und damit theoretisch (GTX285 = 1062,7 GFLOPS) "nur" +46%, wobei das nur die theoretischen Maxima sind. Eine HD 5870 schafft ja btw 2720 GFLOPS. Angesichts dessen, dass eine HD5870 idR 15-50% vor einer GTX285 liegt, sollte Fermi bei den von mir veranschlagten Füllraten und der Bandbreite ohne Effizienzsteigerungen die HD5870 meist knacken. Bleibt nur die Frage, ob die A3 die 1,512 GHz schafft - und da ist noch nichts durchgesickert.
Gibt es eigentlich ein offizieles Schriftstück in dem ganz klar von einem Verhältniss von 2:1 von SP zu DP gesprochen wird? Evtl taktet ja auch die Shaderdomäne je nach Einsatz unterschiedlich.
Hab beim Praktikum sowohl bei Quimonda als auch bei AMD jeweils einen abgegriffen - mit Strukturen drauf. Wem also ein Praktikum nicht zuviel Arbeit ist, um an einen Wafer zu kommen, bitteschön.
Es gibt offiziell noch gar nix
Aber es ist nur logisch von 2:1 auszugehen, auch wenn das den Optimalfall darstellen dürfte...
Auch unterschiedliche Takte machen wenig Sinn. Da ja immernoch die selben ALUs den Wert berechnen nur bei DP es eben zwei sind
Laut NVs Präsentation soll wohl die Technik die benötigt wird um die EInheiten zusammen zuschalten für DP modular sein, sprich man kann da Kosten/Platz sparen mit dem Nachteil eben nicht mehr alle Einheiten für DP nutzbar zu machen.
So könnte man beispielsweise auf der Gamerkarte nur 1/4 der ALUs für DP ready machen. Und hätte dann auf der Gamerkarte nur 1/8 DP Performance ausgehend auf dem SP Wert.
Oder gar noch weniger
Für die Quadros und Teslas hingegen könnte man wiederum alle Einheiten aktivieren/einbauen und wieder den 2/1 Optimalfall bekommen.
Wieso? TSMC hat einfach den 40 nm nicht ausreichend im Griff. Etwas derartiges ist der AMD Fertigung in den letzten Jahren nicht passiert. Jetzt damit anzufangen, "es könnte ja in Zukunft irgendwas passieren" sind ziemlich an den Haaren herbeigezogene "Argumente" und polemische Ausflüchte. So führt man jedenfalls keine objektive Diskussion.Vo dem Standpunkt aus hätte TSMC das auch ohne Probleme hinbekommen müssen.
Und genau das spricht gegen nVidia.Trotzdem steigen mit größeren und komplexeren Chips die Probleme.
Von wem sprichst du? Ich wüsste nicht, dass jemand von DEM modernsten Fertiger der Welt gesprochen hat.Wie lange ist man denn der modernste fertiger der Welt?
Nein, es ist nicht mal eine halbe Generation. Die 32 nm Bulk Fertigung soll bei GloFo Mitte diesen Jahres anlaufen. Das wäre dann 2-3 Quartale nach Intel. Eine Strukturgeneration ist gut 2 Jahre aktuell.Intel hat 32nm mittlerweile auf Massenproduktion, von dem her ist es nicht total aus der Luft gegriffen, dass 28nm irgendwann dieses Jahre kommen wird. Allerdings darf man nicht vergessen, dass AMD/Glofo mindestens eine Generation hinter Intel ist
Auch das ist nicht zutreffend. Das Barcelona Design war einfach zu komplex für AMDs 65 nm Prozess, der auf hohe X2 Yields getrimmt war. Der Fertigungsprozess selbst war iO.was die CPU Fertigungstechnik angeht und auch die 65nm SOI damals zu Phenom1 Zeiten haben AMD extreme Probleme bereitet.
Doch, haben sie. Was glaubst du, wie viele Transistoren Istanbul hat? Das sind auch fast eine Milliarde. Also vergleichbar mit RV770. Und CPUs sind in der Beziehung noch kritischer.Es geht ja nicht ums Design, sondern darum das die Fabriken von AMD bzw. jetzt GloFo keine Erfahrung mit derartigen Transistorschleudern haben...
"So richtig warm" hört sich ja richtig kompetent an. Der 65 nm Prozess war von Beginn "healthy" und hatte gute Yields. Worüber du hier reden willst, ist was ganz anderes, nämlich Prozess Parameter wie High-Performance oder Low-Power.Einerseits bleibt für einen derartigen Vergleich wie du ihn hier Forderst die Tatsache bestehen, das AMD nie derart komplexe Chips gefertigt hat und andererseits ist auch bei AMD nicht alles Gold was glänzt.
Man erinnere sich beispielsweise noch an die ersten 65nm CPUs. Damit meine ich nicht den Phenom I sondern die ersten K8 65nm Modelle, so richtig warm wurde AMD mit dem 65nm Prozess anfangs irgendwie nicht.
Vor allem schrieb er folgendes am 05.01.2010:Oh man , ein Typ mit 9 Posts
Extremsystems Forum kommt ja schon viel wahres, aber auch dort kommt viel dummes gelaber und es gibt Fanboys
Der 07.01.2010 ist aber mittlerweile Geschichte. Und wie viel man sieht, sehen wir ja. Der Typ reimt sich einfach nur Sachen zusammen, was jeder von uns genauso könnte. Starker nVidia F***** Alarm würde ich mal sagen.All of you will see what is Fermi in TWO days, and someone will be hardly surprised Performance is BRUTAL!