nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
Zunächst einmal sei erwähnt, dass AMD die Preise wohl nicht unnötig senken WIRD, haben sie doch selbst ausgesagt, dass sie mit den Margen nicht zufrieden
sind. Die Preise der HD4k Serie wurden nur so aggressiv angesetzt, um sich
bei den Spielern wieder einen Namen zu machen (nach den suboptimalen
HD2k und HD3k Karten), was sie denke ich auch geschafft haben ;)
Und da nV ganz sicher keinen Preiskampf mit dem teuren Fermi anfangen wird,
werden die Preise nur homöopathisch gesenkt werden.

MÖGLICH wäre allerdings schon einiges, wenn man mal ein bisschen Zahlenreiterei betreibt:

Die HD 4870 1GB wanderte schonmal kurzzeitig für gut 100€ über die Ladentheke. Der RV770 hat 256mm² @ 55nm, Yields schätze ich mal auf 90%.
Der RV870 hat 338mm² @ 40nm, Yields sind angeblich ja wieder total im Keller,
allerdings reden wir hier von einer Preissenkung, die WENN überhaupt Q2/2010
ansteht. Da die Yields wohl schonmal bei 60% waren, kann man wohl auch damit
rechnen, dass sie wieder min. dorthin kommen, der Einfachheit halber nehme
ich jetzt mal 74% Yieldrate an ;)

(12") 55nm Wafer kosten ~4000USD, 40nm Wafer kosten ~5000USD. Dieselbe
Fläche ist in 40nm also ca. 25% teurer. RV870 hat ~32% mehr DIE-Fläche als
RV770. Alle diese Faktoren zusammengerechnet (den leicht höheren Verschnitt
durch die größere Fläche lasse ich der Einfachheit halber unbeachtet) ergeben,
dass der reine DIE RV870 ca. doppelt soviel in der Produktion kostet, wie noch
der RV770. (RV770x1,25(Prozess)x1,32(Fläche)x1,21(Yield)=2xRV770)

Der Speicher der HD5870 hat 33% mehr Takt, ist ansonsten aber der gleiche,
nehmen wir also mal 40% Mehrkosten an.

PCB und Kühler sind bei der 5870 etwas hochwertiger, rechne ich also mal
mit 25% Mehrkosten gegenüber der 4870.

Da sich die Kosten so einer GraKa GROB zu je einem Drittel aus den o.g.
Posten zusammensetzen, kann man also je 33 (sagen wir 35)€ veranschlagen,
woraus sich ergibt:

35x2(Chip)=70€
35x1,4(RAM)=49€
35x1,25(Rest)=44€

GROB geschätzt [/I]KÖNNTE also AMD mit dem Preis einer HD5870 auf bis zu
170€ runtergehen (150 sobald die Yield bei 90% und der Speicher etwas
günstiger ist). Werden sie nur nicht ;)


Grüße,
Mr.Malik


Hehe, nettes Beispiel! Ka, ob es so richtig ist, ich kenn mich da nicht wirklich aus! ;-)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
? bei dem Rv770 und RV780 kam doch auch sogut wie nix raus bis 1-2 wochen vor den test ( da dann einfach zuviele karten in fremden händen waren )
 
was du zahlen würdest juckt aber auch kaum einen :hmm:


Es geht ja im Prinzip niemanden etwas an was ich bereit bin für Leistung zu zahlen, aber angenommen der Fermi Chip geht um 80% besser als der Ati Chip der dann erhältlich ist, wäre ich gerne bereit mehr als 100% für die Ati Karte aus zu geben.
Das da offensichtlich einige ein Problem damit haben ist mir aufgefallen, nur geh ich brav arbeiten, und aus dem Diskoalter bin ich auch draussen. Also bitte ned gleich unfreundlich werden ich bins auch nicht ;)
Sollte der Fermi ein Reinfall werden, was ich aber nicht glaube, dann wird eine gute Ati Karte gekauft, und fertig.
Wie gut der CHip geht weiß ja niemand, deswegen würde ich mich da nicht gleich so rein steigern.
 
Es geht ja im Prinzip niemanden etwas an was ich bereit bin für Leistung zu zahlen, aber angenommen der Fermi Chip geht um 80% besser als der Ati Chip der dann erhältlich ist, wäre ich gerne bereit mehr als 100% für die Ati Karte aus zu geben.
Das da offensichtlich einige ein Problem damit haben ist mir aufgefallen, nur geh ich brav arbeiten, und aus dem Diskoalter bin ich auch draussen. Also bitte ned gleich unfreundlich werden ich bins auch nicht ;)
Sollte der Fermi ein Reinfall werden, was ich aber nicht glaube, dann wird eine gute Ati Karte gekauft, und fertig.
Wie gut der CHip geht weiß ja niemand, deswegen würde ich mich da nicht gleich so rein steigern.

komm du meintest das die diskossion über preise kein interessiert , aber deine budget?

Und du weisst auch net was ich privat mache oder wie ich mein geld verdiene , nur warum soll hier ein mehr interessieren ob du jetzt 1000euro für eine grakka zahlen würdest wenn die leistung gut ist?:hmm:


aber du musst mal nachdenken was andere für grakka ausgeben, die meisten sagen bei mir schon "was 2 grakkas und dann für insgesamt 260euro , du bist ja ein freak" und dann sollen 700euro ok sein :d, für dich vll aber du bist nicht die mehrheit!:cool:
 
komm du meintest das die diskossion über preise kein interessiert , aber deine budget?

Und du weisst auch net was ich privat mache oder wie ich mein geld verdiene , nur warum soll hier ein mehr interessieren ob du jetzt 1000euro für eine grakka zahlen würdest wenn die leistung gut ist?:hmm:


aber du musst mal nachdenken was andere für grakka ausgeben, die meisten sagen bei mir schon "was 2 grakkas und dann für insgesamt 260euro , du bist ja ein freak" und dann sollen 700euro ok sein :d, für dich vll aber du bist nicht die mehrheit!:cool:

Wie Du sagst, ich bin halt kein Mehrheitsmensch :teufel:

So aber wieder zurück zum Thema :

Nach dem eigentlich ja niemand weiß, was auf uns Gamer zu kommt, gehe ich davon aus das Nvidia vielleicht doch mehr Leistung bieten wird, als wir denken.
Mittlerweile muß man ja schon davon ausgehen, das Ati bis dahin die 5870er erneuert hat, und die Karten noch schneller werden.
Nvidia kommt mir so gelassen vor, so quasi wir wissen ganz genau wie schnell das Teil ist und Ihr werdet es noch früh genug erfahren. Normal weiß man bei Nvidia schon immer ewigkeiten vorher wie die Chips aussehen werden, nur dieses mal ist es ganz anders.
Ich kanns kaum noch erwarten, und wenns dann Endgültig ist wird die schnellere Karte gekauft, und bis dahin bleibt meine 4890er drinnen, die reicht nämlich bis dahin auch noch.
 
Theorie? Benches mit Saves ( = Praxis) zeigen dies. Ok, ist eher selten bzw. in nur ner Handvoll Spielen, aber es gibt +100%-Szenarien auch in der Praxis.
Ja, du sprichst es an, in ausgewählten Szenarien. Nur die durchschnittliche Performance zeigt idR etwas anderes. Darum ging es ja. Deshalb glaube ich persönlich auch nicht, dass eine GTX 380 durchschnittlich doppelt so schnell wie eine GTX 280 sein wird. Ausser nVidia vollbringt noch irgendwelche Wunder und kann die Taktraten höher ansetzen als momentan vermutet oder hat noch jede Menge Optimierungspotenzial gefunden, was mir aber wenig realistisch erscheint.
Ich bin schon erstaunt, was sich manche hier für Vorstellungen hingeben, GTX 380 schneller als HD 5970 usw. Chipentwicklung ist doch mittlerweile relativ pragmatisch und weitgehend berechenbar. :) Wirklich grundlegende Innovationen kommen doch höchstens mal alle 10 Jahre, wie die DX10 Unified Shader Architecture (G80/R600) oder vermutlich auch CMT (Bulldozer).

Trotzdem sagt er Fermi wäre keine neue Architektur...
Ist es doch auch nicht. Zumindest wenn wir von einem ground-up Design sprechen. Lies dir mal die Whitepapers zu Fermi durch. Da heisst es ua 3rd Generation Shader Architecture und ähnliches. Basis ist immer noch G80, so wie beim RV870 immer noch der R600 die Basis ist.
Das Marketing ist immer sehr schnell dabei, irgendwas als "neu" zu bezeichnen, nicht nur bei nVidia. Das wirst du zB auch auf Intels Folien sehr häufig finden. In Wirklichkeit sind es dann aber meistens inkrementelle Weiterentwicklungen.

Man kann doch ganz leicht einen möglichen Preis des Fermi erraten.

Ati = 2,1 Mrd. Trans = ca. 300 Euro
NV = 3,0 Mrd. Trans = X
Wie Mr.Malik schon vorgerechnet hat, AMD und nVidia zahlen für Wafer, die Fläche ist also ausschlaggebend. Und die kann je nach Packdichte gegenüber dem Verhältnis der Transistoren variieren.
 
Zuletzt bearbeitet:
Da sich die Kosten so einer GraKa GROB zu je einem Drittel aus den o.g.
Posten zusammensetzen, kann man also je 33 (sagen wir 35)€ veranschlagen,
woraus sich ergibt:

35x2(Chip)=70€
35x1,4(RAM)=49€
35x1,25(Rest)=44€

GROB geschätzt [/I]KÖNNTE also AMD mit dem Preis einer HD5870 auf bis zu
170€ runtergehen (150 sobald die Yield bei 90% und der Speicher etwas
günstiger ist). Werden sie nur nicht ;)


Grüße,
Mr.Malik


Dazu kommen dann nochmal 100 Euro R&D pro Karte und dann siehts schon nicht mehr ganz so rosig aus. Mann kann die kosten nicht einfach über Dreisätze und simple Prozentrechnungen rausbekommen. Uns fehlen genauere Informationen die nur der Hersteller kennt. Ob ATI an den Karten wirklich viel verdient weiß man wenn die Quartalszahlen veröffentlicht werden in denen von den RV8xx wirklich viele verkauft wurden.

mr. dude schrieb:
Ist es doch auch nicht. Zumindest wenn wir von einem ground-up Design sprechen. Lies dir mal die Whitepapers zu Fermi durch. Da heisst es ua 3rd Generation Shader Architecture und ähnliches. Basis ist immer noch G80, so wie beim RV870 immer noch der R600 die Basis ist.
Das Marketing ist immer sehr schnell dabei, irgendwas als "neu" zu bezeichnen, nicht nur bei nVidia. Das wirst du zB auch auf Intels Folien sehr häufig finden. In Wirklichkeit sind es dann aber meistens inkrementelle Weiterentwicklungen.

Stimme ich dir zu. Die Frage wäre ja irgendwie auch ob es an den Shadereinheiten überhaupt noch zu einer Weiterentwicklung kommt oder man irgendwann nicht doch eine ähnliche Richtung wie Intel mit dem LRB zu noch freieren aber komplexeren Kernen geht.
 
@Haro, Ich glaube nicht das du auch nur annähernd beurteilen kannst was mir wichtig ist.
Ich amüsiere mich aber darüber wie schnell man jemanden dazu treiben kann persönlich zu werden. Wenn dir also anderes nicht mehr einfallen sollte wenn wir beide wieder aneinander vorbei reden darfst du ruhig wieder stacheln ich hab ein dickes Fell:coolblue:

@Lucif3rhawk, Falls ich dich nerve ignoriere mich einfach ich glaub dazu gibt es sogar eine extra Funktion. Nur dumm wenn mich dann wer Zitiert :fresse:
Sowas kann man dennoch per PM klären deshalb :btt:


@mr.dude, Hmm ich finde deine erklärung mit den Shadern unzureichend. Ich habe mir die Whitepapers schon angesehen. Und ich finde schon das sich die Architektur von der des G80 erheblich unterscheidet. Sicher vertraut man noch auf diverse Dinge die sich einfach etabliert haben, aber was hat das mit "Architektur" gemeinsam? Aber egal ich bin da zumindest dieser Meinung
 
@mr.dude, Hmm ich finde deine erklärung mit den Shadern unzureichend. Ich habe mir die Whitepapers schon angesehen. Und ich finde schon das sich die Architektur von der des G80 erheblich unterscheidet. Sicher vertraut man noch auf diverse Dinge die sich einfach etabliert haben, aber was hat das mit "Architektur" gemeinsam? Aber egal ich bin da zumindest dieser Meinung

Nope, dude hat Recht. Das Grundkonzept der Unified Shader wird nicht geändert sondern höchstens verbessert und erweitert. Es ist also keine komplett neue Architektur. Aber um dich zu beruhigen, auch der R900 wird wohl in diese Sparte schlagen und höchstens Evolutionäres und nichts Revolutionäres bieten.
 
Frag ich mal anders, auch wenns OT ist, welche Bedingungen sind denn für dich erfüllt, die die Bezeichnung "neue Architektur" rechtfertigen?
 
Och weißt du da meine definition eh falsch ist lohnt es sich nicht mit dir darüber zu diskutieren. Alles was sich vom G80 bis zum GF100 verändert hat kann man über google finden oder direkt auf nvidias seite beim stöbern in den archiven. Wenn du dir die beiden Diagramme miteinander vergleichst sollte dir eigentlich klar sein worin ich unterscheide. Dazu braucht es kein wortgefecht oder persönlichkeiten ;)
 
Dazu kommen dann nochmal 100 Euro R&D pro Karte und dann siehts schon nicht mehr ganz so rosig aus. Mann kann die kosten nicht einfach über Dreisätze und simple Prozentrechnungen rausbekommen. Uns fehlen genauere Informationen die nur der Hersteller kennt. Ob ATI an den Karten wirklich viel verdient weiß man wenn die Quartalszahlen veröffentlicht werden in denen von den RV8xx wirklich viele verkauft wurden.

und der käufer hat ja noch die MWST und den laden will ja auch noch gewinn. nach seiner rechnung würde die 5870 dann ja jetzt schon an der grenze bewegen.
die entwicklung etc kostet ja auch noch dick geld (mit am meisten - oder meinst du mit R&D die entwicklungskosten?)
 
Och weißt du da meine definition eh falsch ist lohnt es sich nicht mit dir darüber zu diskutieren. Alles was sich vom G80 bis zum GF100 verändert hat kann man über google finden oder direkt auf nvidias seite beim stöbern in den archiven. Wenn du dir die beiden Diagramme miteinander vergleichst sollte dir eigentlich klar sein worin ich unterscheide. Dazu braucht es kein wortgefecht oder persönlichkeiten ;)

So kann man sich seinen Standpunkt auch sichern...


und der käufer hat ja noch die MWST und den laden will ja auch noch gewinn. nach seiner rechnung würde die 5870 dann ja jetzt schon an der grenze bewegen.
die entwicklung etc kostet ja auch noch dick geld (mit am meisten - oder meinst du mit R&D die entwicklungskosten?)

Ja, Research and Development, also Forschung und Entwicklung. Ich denke nicht das ATI große Gewinne mit den RV8xxern macht, deswegen bezweifel ich auch einen naherückenden Preisverfall wenn Fermi da ist. Aber wie gesagt, da niemand genaue Zahlen kennt kann ich ebenso falsch liegen.
 
Ja, Research and Development, also Forschung und Entwicklung. Ich denke nicht das ATI große Gewinne mit den RV8xxern macht, deswegen bezweifel ich auch einen naherückenden Preisverfall wenn Fermi da ist. Aber wie gesagt, da niemand genaue Zahlen kennt kann ich ebenso falsch liegen.

ja gut, da biste mit 100€/ karte aber noch ziemlich billig denk ich mal.

beim iphone 3gs zb sieht man das ja schon, es kostet von der hardware unter 100$, die anderen 500$+ sind dann R&D
 
ja gut, da biste mit 100€/ karte aber noch ziemlich billig denk ich mal.

beim iphone 3gs zb sieht man das ja schon, es kostet von der hardware unter 100$, die anderen 500$+ sind dann R&D

Naja, meine 100 Euro waren ja auch nur fiktiv. Die Kosten für R&D sind ja Fix. Wenn ich sie also auf meine Produkte abwälze wird ihr Anteil kleiner umso mehr ich verkaufe.

Auch kann ich ja schauen wie ich die Kosten aufteile. Ich kann zB die kleineren Karten teurer machen und dafür die Großen günstiger, je nachdem mit welcher Strategie ich beim Kunden am meisten Erfolg habe und meinen gewinn maximieren kann.
 
Ist es doch auch nicht. Zumindest wenn wir von einem ground-up Design sprechen. Lies dir mal die Whitepapers zu Fermi durch. Da heisst es ua 3rd Generation Shader Architecture und ähnliches. Basis ist immer noch G80, so wie beim RV870 immer noch der R600 die Basis ist.
Das Marketing ist immer sehr schnell dabei, irgendwas als "neu" zu bezeichnen, nicht nur bei nVidia. Das wirst du zB auch auf Intels Folien sehr häufig finden. In Wirklichkeit sind es dann aber meistens inkrementelle Weiterentwicklungen.

Also im ersten Absatz schließt du von der Bezeichung "3rd Generation Shader Architecture" darauf, dass es eine alte Architektur ist und im zweiten Absatz warnst du davor aufs Marketing reinzufallen. Mit deinem Argument ist die Karte aber eine Neuentwicklung, sobald das Marketing das in "4th Generation Shader Architecture" umbennent. Anders gesagt Bezeichnungen sind keine Argumente. Da musst du schon direkt an der Architektur argumentieren.

1337BiTbUrGeR hat da schon recht, dass es eine Frage der Definition ist. Es gibt hier ja auch keine feste Grenze. Jeder Chip ist eine Weiterentwicklung. Nehmen wir z.B. die Unified Shader, da hat man ja auch nur Pixel- und Vertex-Shader zusammengeführt. Ist zwar was neues basiert aber trozdem noch auf den alten Shadern. Die Frage ist hier einfach, wo man die Grenze zieht. Beim Fermi gibt es so viele Änderungen, dass es schon schneller geht aufzuzählen, was sich nicht geändert hat. Daher ist der Fermi für mich klar eine neue Architektur. Außerdem kann man den Fermi als die erste richtige Vereinigung von GPU und GPGPU sehen und das ist ein größerer Schritt als die Vereinigung von Pixel- und Vertex-Shadern.
Wenn man hingegen nur kosmetische Korrekturen und die Anzahl der Einheiten oder den Takt erhöht, so ist es einfach nur ein Aufguss des alten Chips. Der G92 ist hierfür ein gutes Beispiel.
In der Regel erkennt man einen Aufguss auch meistens am Performanceunterschied zum Vorgänger. Da sind dann meistens 30% Geschwindigkeitszuwachs. Bei einem neuen Design sind es normalerweise mindestens 60%, oft auch deutlich mehr.
 
neues Design kann aber auch nach hinten losgehen , siehe R600.

Nur weil neu , muss nicht immer schneller sein. :)
 
So kann man sich seinen Standpunkt auch sichern...


Ich wüsste nicht weshalb ich mir jetzt die mühe machen sollte eine detailierte beschreibung dessen auszuarbeiten was mir die definition "neue" Architektur rechtfertigt. Erst recht nicht für jemanden der seine definition bislang auf die einfachheit eines einzigen Beispiels des Grundkonzepts der unified Shader stützt.

Deiner Meinung und Definition nach darf 2+2 auch =5 sein.... Richtig ist sie deswegen trotzdem nicht

Und wer sich anderen gegenüber so leicht versucht seinen Standpunkt zu schützen, braucht auch nicht mehr von anderen erwarten. Wird hier niemand für Unterrichtsstunden bezahlt die andere versäumt haben.

Ich hoffe das waren dir jetzt genug persönliche Anspielungen. Ich fühle mich dadurch nur bestätigt ;)

Nur weil neu , muss nicht immer schneller sein. :)

Was denn jetzt? Steht nur neu drauf oder ist nun doch neu drin? Jetzt spielt auf einmal die mögliche performance wieder eine Rolle hier. :o
Die neue ist mindestens, wenn nicht sogar, aber bestimmt um soooo --> X² viel besser als die alte. :xmas:
 
Zuletzt bearbeitet:
neues Design kann aber auch nach hinten losgehen , siehe R600.

Nur weil neu , muss nicht immer schneller sein. :)

Absolut richtig. Die % Zahlen sind auch nur Erfahrungswerte. Man könnte natürlich auch ohne ein neues Design eine doppelt so schnelle Karte bauen.
 
Ich wüsste nicht weshalb ich mir jetzt die mühe machen sollte eine detailierte beschreibung dessen auszuarbeiten was mir die definition "neue" Architektur rechtfertigt. Erst recht nicht für jemanden der seine definition bislang auf die einfachheit eines einzigen Beispiels des Grundkonzepts der unified Shader stützt.

Besser als kein Einziges zu nennen.

Und wer sich anderen gegenüber so leicht versucht seinen Standpunkt zu schützen, braucht auch nicht mehr von anderen erwarten. Wird hier niemand für Unterrichtsstunden bezahlt die andere versäumt haben.

Ich hoffe das waren dir jetzt genug persönliche Anspielungen. Ich fühle mich dadurch nur bestätigt ;)

Schön für dich. Ich wollte darauf hinaus das ein Standpunkt ohne Argumente so viel Wert ist wie Diarrhö.

Wenn du lesen möchtest was du hättest schreiben können...bitte:

Also im ersten Absatz schließt du von der Bezeichung "3rd Generation Shader Architecture" darauf, dass es eine alte Architektur ist und im zweiten Absatz warnst du davor aufs Marketing reinzufallen. Mit deinem Argument ist die Karte aber eine Neuentwicklung, sobald das Marketing das in "4th Generation Shader Architecture" umbennent. Anders gesagt Bezeichnungen sind keine Argumente. Da musst du schon direkt an der Architektur argumentieren.

1337BiTbUrGeR hat da schon recht, dass es eine Frage der Definition ist. Es gibt hier ja auch keine feste Grenze. Jeder Chip ist eine Weiterentwicklung. Nehmen wir z.B. die Unified Shader, da hat man ja auch nur Pixel- und Vertex-Shader zusammengeführt. Ist zwar was neues basiert aber trozdem noch auf den alten Shadern. Die Frage ist hier einfach, wo man die Grenze zieht. Beim Fermi gibt es so viele Änderungen, dass es schon schneller geht aufzuzählen, was sich nicht geändert hat. Daher ist der Fermi für mich klar eine neue Architektur. Außerdem kann man den Fermi als die erste richtige Vereinigung von GPU und GPGPU sehen und das ist ein größerer Schritt als die Vereinigung von Pixel- und Vertex-Shadern.
Wenn man hingegen nur kosmetische Korrekturen und die Anzahl der Einheiten oder den Takt erhöht, so ist es einfach nur ein Aufguss des alten Chips. Der G92 ist hierfür ein gutes Beispiel.
In der Regel erkennt man einen Aufguss auch meistens am Performanceunterschied zum Vorgänger. Da sind dann meistens 30% Geschwindigkeitszuwachs. Bei einem neuen Design sind es normalerweise mindestens 60%, oft auch deutlich mehr.

Fraglich ist halt wie man Architekturen voneinander unterscheidet. Wahrscheinlich wäre es sinniger das ganze in verschiedene Teilgebiete einer Architektur aufzuteilen. Denn eine Änderung des gesammten Systems wird man wohl nicht mehr finden in der heutigen zeit. LRB hätte man vielleicht als eigenständige Architektur bezeichnen können im Grafikkartenmarkt, aber das Schicksal ist ja bekannt.
 
Ich wollte darauf hinaus das ein Standpunkt ohne Argumente so viel Wert ist wie Diarrhö.

Wenn du lesen möchtest was du hättest schreiben können...bitte:

Schön das wir endlich den nenner gefunden haben ohne selbst näher drauf eingegangen zu sein. Thema zwischen uns ist abgeschlossen und beendet würde ich sagen :bigok:


:btt: Wenn ich sehe wie genüsslich Nvidia förmlich die einzelnen Revisionen dieses Chips optimiert scheint es auf mich nicht den Eindruck zu machen als würden sie sich derzeit bedroht fühlen. Ich persönlich finde es besser auf ein ausgereiftes Produkt etwas länger zu warten. Gut Ding braucht Weile :banana:
 
Kann aber auch bedeuten das der Fermi krank ist.
A1 erste OP A2 zweite OP A3 . Ob man nach zwei OPs besser laufen kann als wenn man gesund ist ist fraglich.
 
Kann aber auch bedeuten das der Fermi krank ist.
A1 erste OP A2 zweite OP A3 . Ob man nach zwei OPs besser laufen kann als wenn man gesund ist ist fraglich.

Problem sind die Yields. Die Revisionen sollen wohl in erster Linie dazu gemacht worden sein um den Ausschuss zu minimieren, die Taktraten sind erstmal zweitrangig, aber auch hier kommt es automatisch zu Verbesserungen.
 
Hmm ich finde deine erklärung mit den Shadern unzureichend. Ich habe mir die Whitepapers schon angesehen. Und ich finde schon das sich die Architektur von der des G80 erheblich unterscheidet.
Inwiefern? Dass ein Shader nun SP UND DP berechnen kann, wo bisher separate Shader für SP und DP vorhanden waren? Ist zwar richtig, aber lediglich ein Aspekt der Implementierung. Ua deswegen nennt es nVidia ja auch 3rd Generation und nicht mehr 2nd Generation. Dass ein Shader nun nur noch MADD statt MADD+MUL kann? Zwar ebenfalls richtig, deshalb müssen die Shader aber nicht komplett neu designed werden, sondern es entfallen einfach diverse Ports samt Transistor Logik. Was bleibt, ist, dass man die Anzahl der Shader verdoppelt (etwas mehr) und den Befehlssatz für GPGPU erweitert. Genau das, was ATI beim RV870 ebenfalls gemacht hat. Deshalb würde ich dort aber auch noch lange nicht von einer neuen Architektur sprechen.

Also im ersten Absatz schließt du von der Bezeichung "3rd Generation Shader Architecture" darauf, dass es eine alte Architektur ist und im zweiten Absatz warnst du davor aufs Marketing reinzufallen. Mit deinem Argument ist die Karte aber eine Neuentwicklung, sobald das Marketing das in "4th Generation Shader Architecture" umbennent. Anders gesagt Bezeichnungen sind keine Argumente. Da musst du schon direkt an der Architektur argumentieren.
Nein. Du hast den Sinn der Bezeichnungen nicht verstanden. Ich habe auch nirgendwo etwas von "alter Architektur" gesagt. G80 war die erste Generation von nVidias Unified Shader Architektur, G200 die zweite und Fermi ist die dritte. G80 war eine Neuentwicklung, hier kann man wirklich von einer neuen Architektur sprechen. G200 und Fermi sind inkrementelle Weiterentwicklungen, die auf der jeweils vorherigen Generation basieren. Ich wollte lediglich darauf hinweisen, wie "neue Architektur" zu verstehen ist, was man eben häufig auf irgendwelchen Folien findet. Denn fast genauso häufig wird das leider völlig falsch verstanden.
 
Zuletzt bearbeitet:
selbst WENN der Fermi (laut einiger Experten hier) krank sein und floppen sollte, so wird er wohl kaum UNTER GT200 Niveau liegen und eine 285 sieht gegen ne 5850 nicht schlecht aus, dafür das es 1 Jahr Unterschied zwischen beiden Chips gibt...

eigentlich eine total sinnlos Diskussion.. lässt sich ein Hersteller Zeit ist er Scheiße und alles im Eimer und Flop und Pleite und und und, werden zuviele Chips released ist er auch Scheiße, wer soll das alles kaufen, die haben nix Neues, Entwicklung verpennt etc...

in Fermi veritas sag ich da nur ;)
meine 5870 kommt seit 2 Monaten nicht, ATI möchte mich nicht als Kunden haben, ne 5850 ist nicht wirklich gut genug und bevor ich CF 5850 oder 5770 mache, kauf ich lieber ne Chrome ;)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh