nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
448 sind immer noch mehr als genug Power imho
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die 512 @ 1,7 GHz waren ein Forenpost bei BSN von einem Niemand mit grüner Brille. Niemals bestätigt oder wo anders geleakt. Sicher sind nur 512 ALUs als Vollausbau, die man schon mal mit 1,23 GHz laufen lassen konnte - in der A2 (!) wohlgemerkt. Nun ist man auf FLOPS-gleiche 448 @ 1,4 GHz geswitcht um die Ausbeute zu erhöhen. Die A3 ist grade am werkeln, da sollten dann die vollen 512 @ 1,5 GHz machbar sein. 6+8-Pin sind 300W, da ist genug Luft für mehr als 1,05V. Und btw: Bei GT200-Architektur reichen 448 @ 1,4 GHz schon um die HD5870 zu schlagen.

Und wenn die A3 so rockt die beim G80 ... dann taugt Fermi auch :d

In welchem bereich zu schlagen , GPGPU sicher , aber in spielen zählt immernoch mehr als nur die shader!

Und mal sehen was die da abliefern , das die tolle SP und noch tollere DP leistung haben wird ist sicher, aber in spielen muss die sich dann erst beweisen.

Monsterchip nicht immer gleich monster spieleleostung, hat vergangenheit oft genug gezeigt!
 
6+8-Pin sind 300W, da ist genug Luft für mehr als 1,05V.

Wenn schon bei 448 @ 1,4GHz eine TDP von 225W gilt, würde allein eine Takterhöhung auf die anfangs angegebenen 1,7GHz den Stromverbrauch in Richtung der 300W treiben. Dabei ist die Freischaltung zusätzlicher Einheiten und eine Spannungerhöhung noch garnicht eingerechnet.

Und btw: Bei GT200-Architektur reichen 448 @ 1,4 GHz schon um die HD5870 zu schlagen.

Das ist aber ne ganz schräge Rechnung. Du gehst also einzig und allein von der Shaderleistung aus. Dann schau dir mal folgende Rechnung an.

HD4890 -> ~1,2 TFLOPS, HD5870 -> ~2,7 TFLOPS (+125%)
GTX285 -> ~1 TFLOPS, GT300 -> ~1,4 TFLOPS (+40%)

So, nach der Rechnung hat die GT300 gerade mal 40% mehr Leistung als die GTX285 und wäre damit langsamer als die HD5870, selbst bei perfekter Skalierung. Ich denke, daran sieht man, das solche Rechnungen ziemlicher Unsinn sind.
 
Zuletzt bearbeitet:
Tflop-Rechnung kann man wohl bei Games total vergessen. ;)

Eigentlich können wir gar nicht sagen wie Leistungsstark die "Fermi" wird.
Da sich die Architekur doch erheblich geändert hat zum GT200.
 
Das ist aber ne ganz schräge Rechnung. Du gehst also einzig und allein von der Shaderleistung aus. Dann schau dir mal folgende Rechnung an.

HD4890 -> ~1,2 TFLOPS, HD5870 -> ~2,7 TFLOPS (+125%)
GTX285 -> ~1 TFLOPS, GT300 -> ~1,4 TFLOPS (+40%)

So, nach der Rechnung hat die GT300 gerade mal 40% mehr Leistung als die GTX285 und wäre damit langsamer als die HD5870, selbst bei perfekter Skalierung. Ich denke, daran sieht man, das solche Rechnungen ziemlicher Unsinn sind.

Du vergisst bei der Tatsache, das die G200 Karten MADD+MUL können, also 3 Flops pro Takt und die Fermi Karten "nur" MADD.
Lässt du das MUL bei den G200er außen vor, bleiben nur noch ~708,5GFlop/s für die 285er GTX. Und schon hast du auch deine 100% theoretische Mehrleistung.

Die Frage wird nur sein, wie gut kann der Fermi das fehlende MUL verkraften bzw. in welcher Anwendung schlägt es sich extrem gut/schlecht auf die Performance aus.
 
Wenn schon bei 448 @ 1,4GHz eine TDP von 225W gilt, würde allein eine Takterhöhung auf die anfangs angegebenen 1,7GHz den Stromverbrauch in Richtung der 300W treiben. Dabei ist die Freischaltung zusätzlicher Einheiten und eine Spannungerhöhung noch garnicht eingerechnet.

Allein mit einer Takterhöhung verbrauchst du kaum mehr Saft. Die Verlustleistung steigt linear mit dem Takt und quadratisch mit der Spannung, NV wird also versuchen so viel Takt wie möglich aus so wenig Spannung wie möglich zu kitzeln ;)


Das ist aber ne ganz schräge Rechnung. Du gehst also einzig und allein von der Shaderleistung aus. Dann schau dir mal folgende Rechnung an.

HD4890 -> ~1,2 TFLOPS, HD5870 -> ~2,7 TFLOPS (+125%)
GTX285 -> ~1 TFLOPS, GT300 -> ~1,4 TFLOPS (+40%)

So, nach der Rechnung hat die GT300 gerade mal 40% mehr Leistung als die GTX285 und wäre damit langsamer als die HD5870, selbst bei perfekter Skalierung. Ich denke, daran sieht man, das solche Rechnungen ziemlicher Unsinn sind.

Wie wir nun wirklich schon zu hauf festgestellt haben haut das mit der Rechnung wie du sie anstellst nicht hin.
Edith sagt: fdsonne war schneller...
 
Nachricht gelöscht
 
Zuletzt bearbeitet von einem Moderator:
vom kauf sicher nit aber das du hier mit dieser ansage off topic produzieren musst wohl eher ^^
 
alt

und da hat sich ein azubi wohl einfach nen tollen PR Trick ausgedacht damit der Kühler in aller Munde ist
 
Geforce GT 330, GTS 340/350

Na die labbeln bestimmt um:shot:

GT330 = GTX260
GTS 340 = GTX 275
GTS 350 = GTX 285

:haha:

Ich bleibe da mit meinem Lachen mal lieber zurück, in Sachen umlabeln sind sie ja ganz gut dabei. Will nicht wissen nach einem halben Jahr nach einführung von Fermi welche der 300er Karten wirklich die Fermi Arch dann noch hat und wieviel Prozent davon "nur" umgelabet ist :d

MFG Jubeltrubel
 
Aber morgen ist weihnachten und immernoch kein Fermi da :d

Vor paar wochen waren da doch noch welche total laut und meinte "der kommt bis weihnachten , auch wenn nur in geringen stückzahlen"

vll schaffen sie es ja bis ostern, dann gibt es die wiederauferstehen von NV mit dem Fermi :d
 
Aber morgen ist weihnachten und immernoch kein Fermi da :d

Vor paar wochen waren da doch noch welche total laut und meinte "der kommt bis weihnachten , auch wenn nur in geringen stückzahlen"

vll schaffen sie es ja bis ostern, dann gibt es die wiederauferstehen von NV mit dem Fermi :d

Interessant find ich das mal solche bemerkungen von dir kommen...

und mal solche...

Warum immer auf sowas eingehen? sobalt so fanboy geblubber kommt einfach ignoren und dem somit den wind aus den segeln nehm ;)

dann eskaliert das ganze auch nicht wieder , denn so wird er sicher wieder mit was neuen kommen :stupid:


Und ich hab irgendwie im Urin das sich zu folgender Aussage auch irgendwann was wiedersprüchliches hier findet.


Haro schrieb:
In welchem bereich zu schlagen , GPGPU sicher , aber in spielen zählt immernoch mehr als nur die shader!

Und mal sehen was die da abliefern , das die tolle SP und noch tollere DP leistung haben wird ist sicher, aber in spielen muss die sich dann erst beweisen.

Monsterchip nicht immer gleich monster spieleleostung, hat vergangenheit oft genug gezeigt!


Selbst wenn es nur 448 CUDA Cores sein werden, dafür aber höhere Taktbereiche ermöglicht werden würden. Dann muss das nicht schlechter sein. Aber solang es ausser dem Tesla Whitepaper keine weiteren hinweise auf eine reduzierung gibt. Kann Semiaccurate noch so viel spekulieren... Tesla ist nicht Geforce
 
Interessant find ich das mal solche bemerkungen von dir kommen...

und mal solche...




Und ich hab irgendwie im Urin das sich zu folgender Aussage auch irgendwann was wiedersprüchliches hier findet.





Selbst wenn es nur 448 CUDA Cores sein werden, dafür aber höhere Taktbereiche ermöglicht werden würden. Dann muss das nicht schlechter sein. Aber solang es ausser dem Tesla Whitepaper keine weiteren hinweise auf eine reduzierung gibt. Kann Semiaccurate noch so viel spekulieren... Tesla ist nicht Geforce

Dann sagen die 448 CUDA Cores+ mehr takt immernoch nichts über die spieleleistung aus , aber egal!
Selbst 1024 CUDA Cores mit 2GHz würden nichts über die reine spieleleistung aussagen! Mehr hab ich damit nicht gesagt!

--offtopic zum herrn Eifelbräu--
Und zum rest muss ich zu dir nichts mehr sagen!:shot:

genau wie die letzte PM, hoffe hat nicht viel zeit gekostet sie zu schreiben , das ungelesene lösche hat net mal 1sec gekostet :lol:

Aber schön zu sehen das du dir für mich so viel mühe gibs und alte post zusammengramst :d

Sorry aber ein Kindergarten ist manchmal echt ein scheissdreck hiergegen, manche bekommen den hals net voll und meinen immer genau negativ auf einen eingehen zu müssen!
 
Zuletzt bearbeitet:
genau wie die letzte PM, hoffe hat nicht viel zeit gekostet sie zu schreiben , das ungelesene lösche hat net mal 1sec gekostet :lol:

Du hattest die Konversation ja angefangen, nicht ich. Wenn du dir im nachhinein also eingestehst das sie dich überfordert hat. Dann war es mir jede Sekunde wert die ich investiert habe.


Und das Shaderleistung nichts über die Spieleleistung aussagt ist denke ich jedem klar der einer Geforce in den letzten jahren eine radeon mal gegenüber gestellt hat. :shot:

Wir werden sehen, wer zuletzt lacht... :p
 
Ja wer zuletzt lacht sagt der NV-Fanboy.

Nur mir egal wer die schnellste karte hta, wenn ich mal wieder neue brauch und NV hat ein preisleistungswunder aller GF 4 TI4200 am start kauf ich sie mir, also egal wer da lacht.

Und wenn es doch so klar ist warum musst du denn 2 mal das unterstreichen wa sich schon gesagt hab das die shader nichts über die reine spieleleistung aussagt?

Und nochmal der Klügere gibt nach und wer es da bei deinen tollen PNs war ist ja anscheind jetzt klar ;)

Und dir ein schönes fets vll bekommst ja nen Fermi gutschein, den du dann in paar monaten einlösen kannst und willkommen auf meiner ignorlist!
 
Zuletzt bearbeitet:
Ich denke nicht, dass NV es sich leisten kann, dass Performance Karten (zumindest die GTS Serie), die wohl mit der HD 5850 (GTS 350) und HD 5830 oder 5770 (GTS 340) konkurrieren sollten und sagen wir mindestens 1 Quartal nach GTX 380 und GTX 360 kommen dürften, einfache Refreshes auf GT200b Basis (oder vielleicht sogar G92b Basis (GT330) sind.

Man hat ja schon davon gesprochen, dass die Fermi - Architektur recht modular sei, was wohl die Entwicklung von kleineren Ablegern mit reduzierten Einheiten / SI (ich denke mal, dass die GTS 300 Karten auch 256 Bit spendiert kriegen) begünstigen sollte.

Der Aufwand alte Architekturen für DX 11 / SM 5.0 usw. zu erweitern - was ja Anno 2010ein Muss in der Performance Klasse darstellen sollte, vor allem wenn man gegen ATi antreten möchte - wird sicherlich auch zu groß sein, vor allem wenn zusätzlich auch noch ein Shrink auf 40nm stattfinden sollte (zwecks Wirtschaftlichkeit).

Ich denke mal, dass wir davon ausgehen können, dass die Performance Karten der GTS - Serie sicher nicht nur einfach umgelabelt sind.

Wie es bei der GT330 aussehen wird....gute Frage. Da die Karte sicher im OEM Bereich verstärkt verbaut werden wird,
wäre es sicherlich nicht schlecht man hätte ein mächtiges, verkaufsförderndes Schlagwort (DX11) auf seiner Seite. ;)
 
Zuletzt bearbeitet:
Und btw: Bei GT200-Architektur reichen 448 @ 1,4 GHz schon um die HD5870 zu schlagen.
Mal abgesehen davon, ob das jetzt stimmt oder nicht, damit nVidia ähnlich wirtschaftlich arbeiten kann, müsste man aber die 5970 schlagen. Und das erscheint mir ziemlich unwahrscheinlich.

Kleine Rechnung:

RV870: ~330 mm²
G300: ~500 mm²

RV870 pro Wafer: ~171 (70686 mm² * 0,8 (Verschnitt) / 330 mm²)
G300 pro Wafer: ~113 (70686 mm² * 0,8 (Verschnitt) / 500 mm²)

Nehmen wir mal eine Ausbeute von etwa 70% beim RV870 an, basierend auf den letzten Meldungen, kommen wir auf mindestens 50 Defekte und ~120 funktionsfähige Chips. Die gleiche Defektrate würde für nVidia eine Ausbeute von ~54% und ~61 funktionsfähige Chips bedeuten. AMD kann also praktisch doppelt so viele voll funktionsfähige Chips aus einem Wafer schneiden. Oder anders formuliert, ausreichend, um gegen jede Single-GPU G300 Karte eine Dual-GPU RV870 Karte zu positionieren.

Und ich denke, selbst die 5870 wird man in bestimmten Bereichen nicht mal schlagen können, siehe SP Computing. 2,72 GFLOPS sind einfach eine verdammt hohe Messlatte. Das AMD OpenCL SDK scheint auch langsam Fahrt aufzunehmen.
 
Zuletzt bearbeitet:
Mal abgesehen davon, ob das jetzt stimmt oder nicht, damit nVidia ähnlich wirtschaftlich arbeiten kann, müsste man aber die 5970 schlagen. Und das erscheint mir ziemlich unwahrscheinlich.

Kleine Rechnung:

RV870: ~330 mm²
G300: ~500 mm²

RV870 pro Wafer: ~171 (70686 mm² * 0,8 (Verschnitt) / 330 mm²)
G300 pro Wafer: ~113 (70686 mm² * 0,8 (Verschnitt) / 500 mm²)

Nehmen wir mal eine Ausbeute von etwa 70% beim RV870 an, basierend auf den letzten Meldungen, kommen wir auf mindestens 50 Defekte und ~120 funktionsfähige Chips. Die gleiche Defektrate würde für nVidia eine Ausbeute von ~54% und ~61 funktionsfähige Chips bedeuten. AMD kann also praktisch doppelt so viele voll funktionsfähige Chips aus einem Wafer schneiden. Oder anders formuliert, ausreichend, um gegen jede Single-GPU G300 Karte eine Dual-GPU RV870 Karte zu positionieren.

Und ich denke, selbst die 5870 wird man in bestimmten Bereichen nicht mal schlagen können, siehe SP Computing. 2,72 GFLOPS sind einfach eine verdammt hohe Messlatte. Das AMD OpenCL SDK scheint auch langsam Fahrt aufzunehmen.

Wenn dann solltest du schon die gleiche Ausbeute von 70% bei beiden Ansetzen und nicht die absolute Anzahl der defekten gleichsetzen. Denn das wäre irgendwie sinnfrei.

Bei ebenso 70% Ausbeute würde NV von ~113 DIEs immernoch ~79 lauffähige haben. Klar immernoch ~1/3 weniger als bei AMD. Aber dennoch geht deine Rechnung mit zwei für AMD gleich ein für NV nicht auf.
 
Geforce GT 330, GTS 340/350

Na die labbeln bestimmt um:shot:

GT330 = GTX260
GTS 340 = GTX 275
GTS 350 = GTX 285

:haha:


AMD/ATI labelt auch rum :shot::haha:
primitiv antworten is cool, geht bei jedem Post von dir Zocker :hail:

Tante Edith sagt: Haro hab ich auf Liste, solltest auch tun Bit, ist reinste Pixelverschwendung seine Posts
 
Zuletzt bearbeitet:
AMD/ATI labelt auch rum :shot::haha:
primitiv antworten is cool, geht bei jedem Post von dir Zocker :hail:

Tante Edith sagt: Haro hab ich auf Liste, solltest auch tun Bit, ist reinste Pixelverschwendung seine Posts

Wo denn? Aktuelle Karten von AMD sind genau das, was hier von euch erwartet wird, nichts altes, sondern tau frisch und nagel neu entwickelt.
Weder in der HD2xxxer, HD3xxxer, HD4xxxer noch in der HD5xxxer wurden bei AMD "alte" Karten mit neuem Namen versehen...
Oder hab ich was verpasst...?
 
Mal abgesehen davon, ob das jetzt stimmt oder nicht, damit nVidia ähnlich wirtschaftlich arbeiten kann, müsste man aber die 5970 schlagen. Und das erscheint mir ziemlich unwahrscheinlich.

Kleine Rechnung:

RV870: ~330 mm²
G300: ~500 mm²

RV870 pro Wafer: ~171 (70686 mm² * 0,8 (Verschnitt) / 330 mm²)
G300 pro Wafer: ~113 (70686 mm² * 0,8 (Verschnitt) / 500 mm²)

Nehmen wir mal eine Ausbeute von etwa 70% beim RV870 an, basierend auf den letzten Meldungen, kommen wir auf mindestens 50 Defekte und ~120 funktionsfähige Chips. Die gleiche Defektrate würde für nVidia eine Ausbeute von ~54% und ~61 funktionsfähige Chips bedeuten. AMD kann also praktisch doppelt so viele voll funktionsfähige Chips aus einem Wafer schneiden. Oder anders formuliert, ausreichend, um gegen jede Single-GPU G300 Karte eine Dual-GPU RV870 Karte zu positionieren.

Und ich denke, selbst die 5870 wird man in bestimmten Bereichen nicht mal schlagen können, siehe SP Computing. 2,72 GFLOPS sind einfach eine verdammt hohe Messlatte. Das AMD OpenCL SDK scheint auch langsam Fahrt aufzunehmen.

grösserer chip hat mehr verschnitt denke 5% unterschied sollten das sein wenn wer lust hat darf er anchrechnen ^^

---------- Beitrag hinzugefügt um 21:01 ---------- Vorheriger Beitrag war um 20:59 ----------

Wenn dann solltest du schon die gleiche Ausbeute von 70% bei beiden Ansetzen und nicht die absolute Anzahl der defekten gleichsetzen. Denn das wäre irgendwie sinnfrei.

Bei ebenso 70% Ausbeute würde NV von ~113 DIEs immernoch ~79 lauffähige haben. Klar immernoch ~1/3 weniger als bei AMD. Aber dennoch geht deine Rechnung mit zwei für AMD gleich ein für NV nicht auf.

nein ^^

grösserer/komplexerer Chip also %tual mehr Defekte
 
grösserer chip hat mehr verschnitt denke 5% unterschied sollten das sein wenn wer lust hat darf er anchrechnen ^^

Kommt drauf an wie ich die Chips auf den Wafer packen kann.


nein ^^

grösserer/komplexerer Chip also %tual mehr Defekte

Right. Allerdings kann man die Yields der beiden Chips eh schlecht miteinander vergleichen. Man kann davon ausgehen das die Yields von NV bisher unter 50% gelegen haben. Wie es bei ATI aussieht weiß ich nicht.
 
AMD kann also praktisch doppelt so viele voll funktionsfähige Chips aus einem Wafer schneiden. Oder anders formuliert, ausreichend, um gegen jede Single-GPU G300 Karte eine Dual-GPU RV870 Karte zu positionieren.
.

Ironie an "Na dann wird Nvidia ja bald untergehen" Ironie aus

Einfach phantastisch was man sich hier so zusammenrechnet.Dann frag ich mich aber doch,warum ist Nvidia wieder so "blöd"und baut den Chip wenn hier schon einige "wissen" das Nvidia damit mindestens 50% Verlust pro Chip einfährt gegen ATI:shot:

Will nichtmal jemand dort anrufen u sie davon abhalten diesen Chip zu bauen:coolblue::d
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh