nVidia GF100/Geforce 4xx [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
Warum sollte TSMC Nvidia 2/3 der 40nm Kapazitäten sichern?

Weil NV diese Kapazitäten vorbestellt hat? Ob es jetzt 2/3 der gesammten Kapaziäten sind, wage ich auch zu bezweifeln. Allerdings können wir es wohl als gesichert betrachten, dass NV deutlich über 50% der Wafer erhält auf denen Highend-GPUs produziert werden. Ati freudliche Quellen beschweren sich haufenweise darüber, dass NV größere Kapazitäten von TSMC bekommt.

@spielberg: Wir gehen hier von den 80k 40nm Wafern aus, um damit Rückschlüsse auf die Anzahl der 40nm GF100 Wafer zu ziehen. Die Frage ist jetzt, wieviele der 80k Wafer werden für NV/Ati-GUPs genutzt (außer Tegra).
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Im Übrigen haben Pressemeldungen von nvidia oft nicht viel Wahrheitsgehalt, die werden sicher auch behaupten, dass der Fermi ein gutes Produkt ist :)#

Sie haben in jedenfall mehr Wahrheitsgehalt als manche Zahlen die hier herangezogen bzw spekuliert werden obwohl die realen Werte top Secret sind für die Öffentlichkeit u den Mitbewerber
 
warum hab ich das Gefühl das sich die meisten die neue erste Seite noch nicht durchgelesen haben?

Update auf PCGH:

Update vom 16.03.2010
Die Kollegen von Mydrivers wollen die finalen Taktraten der Geforce GTX 470 und GTX 480 erfahren haben. Der Firma Yu-Wei zufolge rechnet die GTX 470 mit 600 MHz Chip- und 2,0 GHz Speichertakt, die GTX 480 mit 600 oder 625 MHz Kerntakt. Der Speichertakt beläuft sich ebenfalls auf 2,0 GHz, die GDDR5-Chips sollen im Gegensatz zur GTX 470 mit 0,4 Nanosekunden (statt 0,5 Nanosekunden) betrieben werden - damit wären auch 2,5 GHz möglich. Der Hot-Clock respektive die Frequenz der ALUs und auch die der TMUs (angeblich halber Hot-Clock) fehlt indes - womöglich feilt Nvidia hier gar noch an den passenden Werten. Vor allem die Höhe des Shader-Taktes dürfte sich maßgeblich auf die GPU-Spannung, die Rohpower und die Leistungsaufnahme auswirken und ist damit einer der spannendsten Daten.

Diese Taktraten hat doch Charlie schon vor 2 Monaten genannt oder? :fresse:
 
Hier ist noch ein alter Artikel, wieviele Fermis passen auf ein wafer.

nVidia GF100 Fermi silicon cost analysis - Bright Side Of News*

Es sollten so an die 94 sein.

Da wird gesagt auch das der Tegra schon sehr gute Yield's hat, aber nicht auf Fermi übertragbar.

Zu Tegra 2 in 40nm und 136mm^2 die size; ich weiß ist mikrig im vergleich zu Fermi aber nicht klein.

http://www.brightsideofnews.com/new...gra-will-be-40025-faster-than-tegra-650!.aspx

Aktuell kann NVidia mit dem Tegra mehr Geld verdienen als mit Fermi. Glaube nicht das die die Ressourcen für Fermi umswitchen.
 
Zuletzt bearbeitet:
Ich würde ja sagen "ein blindes Huhn findet auch mal ein Korn",aber nein der war weitaus pessimistischer was den Takt angeht

So, war er pessimistischer? 625 MHz Shadertakt und 1250 MHz Hotclock hat Charlie gepostet, bisher stimmt auch alles andere.
 
600 MHz Core sind seit Monaten Target, spannend ist der Hot-Clock.
 
600 MHz Core sind seit Monaten Target, spannend ist der Hot-Clock.

Genau;)

---------- Beitrag hinzugefügt um 18:38 ---------- Vorheriger Beitrag war um 18:38 ----------

So, war er pessimistischer? 625 MHz Shadertakt und 1250 MHz Hotclock hat Charlie gepostet, bisher stimmt auch alles andere.

Wie bitte???




Hot,Slow late and unmanufacturable

WITH ANOTHER LAUNCH of the Nvidia GT300 Fermi GF100 GTX480 upon us

We first got word that production A3 GF100s were back in Santa Clara near the end of January. When enough of them rolled off the line to characterize the silicon, we hear there were no parties in Santa Clara. For those not interested in the 'why' side of things, the short answer is that the top bin as it stands now is about 600MHz for the half hot clock, and 1200MHz for the hot clock, and the initial top part will have 448 shaders

Also ich sehe hier alleine in einem Post von ihm etliche Diskrepanzen zu dem was nun schon sicher ist u das ist nur einer seiner vielen "wertvollen" Artikel
 
Zuletzt bearbeitet:
ja, 1250 klingt echt heiß :fresse:
 
Naja ist doch jetzt klar was geschieht! Am liebsten hätten sie das Teil groß angekündigt und stolz verkündet, was das Teil alles kann!

Im Oktober letzten Jahres kam jedoch die scheinbar sehr starke 5870, damit hat Nvidia nicht gerechnet! Zusätzlich gibts jetzt Lieferprobleme, da der Fertigungsprozess zu Banane gewählt wurde, oder wat auch immer ^^

Nun gibt es halt kein zurück mehr! Klar, solche Aussagen wie: "Die 480 GTX wird die schnellste, jemals entwickelte Single-GPU Grafikkarte" sind ja überhaupt nix spektakuläres ^^ Auch wenn sie nur 1% schneller als ne 5870 wäre, wäre sie die schnellste Karte! Super....:rolleyes:

Somit kann man jetzt eigentlich schon sicher sagen, dass dieser Hammer, den man erwartet hat, nicht eintreffen wird! Schneller als ne 5870 wird sie wohl, teurer aber auch! Joah gut.....toll ^^

Ging also quasi schief, was ich schade finde! Jetzt stellt sich die Frage, ob man sich das Teil kaufen sollte, oder ob man tatsächlich auf ne 5890 wartet, die ja locker die 480GTX wieder schlagen könnte, da die 480GTX wohl nicht allzu weit von der 5870 weg sein wird....theoretisch!

In einer Woche sehen wir es dann ja endlich!
 
ich hät ma gsacht es wird ne schlechte graka reihe von nvidia, obwohl ich nvidia fan bin.
 
Man kann nicht immer erster sein, beim nächsten mal sieht es vielleicht wieder anders aus.
 
Die Karte ist nicht mal da und wird schon als Flop abgestempelt, die HD2900 XT wurde damals selbst nach dem Launch noch gehypt. Verrückte Welt.
 
Es wird keine 5890 seitens AMD geben. Aber die Boardpartner dürfen jetzt Taktseirig die 5870 vergewaltigen. Es gibt keine Stallorded seitens AMD.

http://www.hardware-infos.com/news.php?news=3475
 
Die Karte ist nicht mal da und wird schon als Flop abgestempelt, die HD2900 XT wurde damals selbst nach dem Launch noch gehypt. Verrückte Welt.

Komm sag schon... wird/ist die Karte gegenüber der 5870 en Quantensprung? :fresse: Man so scharf war ich noch nie auf Infos bezüglich ner Grafikkarte :wall:
 
bildqualitaets und min fps(*) maessig auf alle faelle ;)

*: frameverlauf muss her anstatt nur ein min fps. nachladeruckler oder 2D takt bei den ersten paar fps verfaelschen eine absolute zahl.
und wenn sie mit der HD5970 verglichen wird will ich auch die frametimes sehen ;)
 
Zuletzt bearbeitet:
Nach meinen 4870er im Crossfire Betrieb hab ich jetzt überhaupt kein Bock auf ne Dual-GPU Karte! Also ne 5970 interessiert mich überhaupt nicht!

Die 480 GTX soll flott sein und bloß nicht zu heiß werden! Weil meine 4870er produzieren momentan schon ne recht heftige Abwärme und immer mal dieses Losgebrülle des Lüfters nur um etwas mehr Luft zu schaufeln....davon möchte ich jetzt erstmal wegkommen :)

Also kommt keine 5890, interessant....

Joah dann wirds wohl doch die 480GTX ^^
 
Genau;)

---------- Beitrag hinzugefügt um 18:38 ---------- Vorheriger Beitrag war um 18:38 ----------



Wie bitte???






Also ich sehe hier alleine in einem Post von ihm etliche Diskrepanzen zu dem was nun schon sicher ist u das ist nur einer seiner vielen "wertvollen" Artikel

Wenn man jetzt sarkastisch sein wollte, könnte man sagen Charlie hatte immerhin öfter recht als Huang :shot:
 
Hmm, also Charlie hat die GTX480 eher noch überschätzt als unterschätzt:
"There are two cards, the GTX480 having the full complement of 512 shaders, and the GTX470 with only 448, which is 64 less for the math impaired. The clocks for the 480 are either 600MHz or 625MHz for the low or half clock, and double that, 1200MHz or 1250MHz for the high or hot clock"
Und was den Satz angeht:
Hot, slow, late and unmanufacturable
- was stimmt daran nicht?!
Gehen wir´s doch einfach mal durch
hot: TDP jenseits von gut und böse -> OK
slow: Trotz 58% mehr Die-Fläche nur unwesentlich schneller als die 5870. Bei nem Auto, dass 3,2L Hubraum hat erwartet man auch mehr PS als bei einem mit 2,0 L. Normalerweise zumindest :). -> OK
late: Da gab´s mal Leute, die behauptet haben, der GT300 würde noch vor dem RV870 kommen. Mittlerweile könnte es schon fast sein, dass der RV970 vor dem GT300 aka GF100 kommt :) -> OK
unmanufacturable: Kommt nun ein GF100 mit 512 Shadern wie angekündigt oder nicht? Sieht momentan arg nicht danach aus ->OK

Wer Charlie diskriminieren will, kann das tun (Yeah, Kindergarden Ghetto Style)- ändert aber nix daran, dass er meistens recht hat :heuldoch:
 
Mit dem Lauch wird Charlie entweder zur Legende oder zum Gespött, noch mehr als jetzt schon.
 
Zuletzt bearbeitet:
ers schon seit ein paar launches das gespoett
oder funktioniert sli mit 8er geforces nicht wie "vorhergesagt"?
oder hat die 8800 800 dollar gekostet wie "vorhergesagt"?
 
Ist schon bitter, wenn das mit den 480 Cores stimmt, damit würden sich die Befürchtungen bewahrheiten. :(

Ich denke das der Charlie die Informationen die er bekommt einfach wiedergibt ohne Überprüfung und sich dadurch Diskrepanzen ergeben, ob das natürlich so der Hit ist nach dem Motto ab und an wird schon ein Treffer dabei sein. Wobei man sich auch als Nvidia Fan schon fragen sollte, ob an den Gerüchten zu Stepping A0-A2 nicht doch mehr dran ist, welche von ihm verbreitet wurden, wenn das jetzige Stepping nicht mal über die volle mögliche Shaderausbeute verfolgt, dann könnte es bei den früheren Steppings sicher noch herber zugegangen sein.
Das kann man glaube ich mittlerweile auch nicht mehr als Irreführen der Konkurrenz sehen, sondern Nvidia scheint definitiv in Problemen zu sein.

Ohne das mich jetzt einer prügelt, aber irgendwie drängt sich für mich einfach der Vergleich Athlon 64 zu P4 Netburst auf. Kleinere Chips könnten sich wohl gegen Silizium-Monster durchsetzen.
Bin aber auch tierisch auf SLI-Benchmarks gespannt.

@Ulukay nix für Ungut, das wurde zu Hauf jetzt erwähnt. Das du eher ein Freund von Nvidia bist, ist auch klar geworden. Ich weiss auch nicht, ob es seriöser ist, wenn du einfach Excel-Sheets postest oder von Insider-Wissen sprichst, in dem Moment wo es nicht belegbar ist, kann man von beidem halten was man will.
Abgesehen davon woher weisst du ob es während der Entwicklung nicht Probleme mit SLI gab beim G80 und die Preise bei der 8800 Ultra gingen ja teils sogar bis 700€. Es hat sich gezeigt das viele Gerüchte auch Gründe für ihr entstehen hatten.
 
Zuletzt bearbeitet:
Angeblich soll Nvidia den ursprünglichen Fermi komplett überarbeitet haben, weil man mit der Leistung nicht zufrieden war, der ganze scheiss hat mit GPGPU zu tun, der Chip ist über 550mm² groß und Leistet nur 30-40% mehr Leistung als ein GT200.
 
ich finds immer wieder toll
in einem thread/forum bin ich der schlimme schlimme nvidiot, im anderen der grausige fanatiker
ich sehe das als kompliment, anscheinend bin ich als einer der wenigen objektiv
 
nVidia hatte aber nicht mehr genügend Zeit um den GF100 komplett zu überarbeiten. Das geht nicht mal eben so in einem Monat!

€dit: erinnert euch an die Regeln von Neurosphere!
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh