nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Wenn du wüsstest wo prozentual gesehen das meiste Geld gemacht wird...
Ich weiss, mit IGPs und "Office Karten" wird auch viel verdient. Da geht es halt über Masse. Ich hoffe aber doch, dass klar geworden ist, dass wir hier von dedizierten Karten sprechen, die für Spieler interessant sind. Und die bewegen sich halt vor allem in diesem Bereich. Wobei man da mittlerweile durchaus noch etwas nach unten korrigieren kann. Die HD 4830 gibt es zB schon ab 70-75 Euro und ist eine recht gute Mainstream Gamer Karte.

Aber so wie ich nVidia einschätze, werden die sich den G300 in der High-End Ausführung wieder ordentlich bezahlen lassen
Kommt halt auf die Konkurrenz an. Mindestens die HD 5870 X2 dürfte da aber ordentlich mitmischen. Und zwei RV870 Chips sind vermutlich immer noch preiswerter herzustellen als ein GT300 Chip.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei Grafikkarten verhält es sich wie bei jedem anderen Produkt in der Marktwirtschaft...es gibt CashCows,Stars,Poor Dogs und vieles mehr.

CashCows sind meist Produkte welche für die Masse gedacht sind...also werden es wohl die Midrange und Low Budget Karten sein...Diese Sachen bringen dem namen schon nach das meiste Geld...melkt die Kuh:)

Stars bringen sicherlich auch geld rein,nur wird hier eher Marketing für alle Produkte einer Reihe betrieben...d.H. selbst wenn eine GTX 380 +-0€ Gewinn machen sollte,kann sie dennoch einen Pull-Antrieb auf die Konsumenten haben,bzw. einen Push-Antrieb auf die Händler (MM usw.)
Viele Leuten denken dann halt,wow nVidia wieder super Grakas....ob nun GTX 380 oder 320...bestimmt nicht viel schlechter.Das da Welten dazwischen liegen können,wissen wir,die sich mit Hardware beschäftigen...aber sind wir mal ehrlich,die Masse geht zu MM,Atelco...lesen Gaming Rechner und fragen nur...ist da ne nVidia drinn...der Händler sagt (weil selber keine richtige Ahnung)...ja nVidia Top Graka,obwohl es vlei nur ne 9800GT ist,die zum 5.mal umgelabelt ist...schon ist das Ding verkauft.

Wenn man zur Messe geht Bsp Ami sieht man auch nur Autos in Top Ausstattung...das manchmal ein Auto dann komplett anders aussieht ohen DVD,etc...wissen wir auch.
Aber so zieht man eben die Kundschaft an sich,das machen eben nVidia und Co mit ihren Benchmarks usw...

Poor Dogs sind halt Grakas...die liegen bleiben wie damals die 9800 GTX...deswegen sicherlich auch schon 3mal umgelabelt.

Warten wir ab und trinken Tee...in der Zeit einer Rezzension,denke ich nicht,das eine GTX380 mehr als 500€ kostet...denke mal so 450-500€
 
Zuletzt bearbeitet:
@ColeTrickle, mr.dude: ich wollte eher darauf hinaus, dass wenn man die Produktionskosten mit dem Verkaufspreis vergleicht, die High-End Karten total überteuert sind (Ausnahme mit der jetzigen GTX 295) und dort nochmal so richtig abgezockt wird
Aber der Kunde ist ja selber schuld...
 
Bestimmt nicht nur an enthusiasten denn der g 300 ist nur der überbegriff für eine chipfamilie.Von diesem wird es auch nächstes jahr ableger im low u midrangebereich geben.

Was du meinst mit (enthusiasten) ist der GTX380 u eventuell noch 360:p

Glaubst du das es am Anfang mehr als die 2 Modelle geben wird? Und bei den Preisen die hier spekulliert werden sind wir nunmal im Enthusiasten-Bereich, denn Otto-normal kauft sich keine 300-500€ Graka :p

Meinst du wirklich das von dem (hier spekulierten) Monsterchip low-end Ableger kommen? Kann mir nicht vorstellen das die nen teildefekten Chip auf ne 50€ Graka pappen :fresse:

Glaube dass die kommenden GT21X GPUs das low-, Mainstream- und Performance Segement übernehmen und der GT300 dem High-End (Enthusiasten) Bereich vorbehalten bleibt, zumindest vorerst und falls AMD nix gleichwertiges entgegen zu setzen hätte.
 
@scully1234:

ich weiß schon was du meinst, aber wenn nVidia nun statt den fiependen Spulen etwas bessere verwenden würde, den Preis könnte man mit so einer Maßnahme nicht wirklich in die Höhe treiben. Im großen und ganzen sieht es nämlich so aus: bei der Herstellung solch einer Karte rechnet z.B. nVidia mit zehntel Cents die noch eingespart werden können. Auch in der Entwicklung wird hier und dort eingespart; die Ingenieure können sich nicht unentwegt Zeit lassen und nur auf ein Gebiet konzentrieren damit die Karte hinterher auch so richtig perfekt wird. Die stehen unter Zeitdruck, weil Zeit Geld ist! Wenn die Karte nun am Ende im Regal steht und 500€ kostet, sind davon vllt. 150€ wirkliche Kosten, möglicherweise auch etwas mehr. Aber diese Grafikkarte wird niemals im Leben 500€ Wert sein. Und diese besagte Differenz ist der Gewinn (ich schließe mal die jetzige GTX 295 aus!). Genauso sieht bzw. sah es eine Zeit lang bei Intel aus: ein Prozessor namens QX9xxx wurde hergestellt und für knapp 1000€ verkauft. Da kann mir keiner erzählen, dass er auch das Geld wert ist!

Das meinte ich damit. Es ist mir durchaus bewusst, dass man High-End HW nicht zu einem Preis von Mainstream oder sogar Low-End Produkten bekommt, aber eben gerade bei der High-End Hardware setzt die Vernunft aus :d

@johnieboy:
so wie bawde schon schreibt, zuerst kommt die High-End HW auf den Markt, anschließend wird der G300 "verschnitten" und gekürzt als Mainstream verkauft. Bis dahin hat sich aber preislich auch was am Markt getan
 
nö, erst kommen die ganz teueren modelle.


Logisch...weil die ja zu erst alle Kunden einfangen wollen,die z.B. 500€ ausgeben wollen und können,später sind die dran die z.B. 350€ ausgeben wollen usw.

Bei euren ganzen Gewinnthesen,vergesst den Handel nicht,die bekommen auch noch ein kräftiges Stück vom Kuchen.

Hatten in der Uni mal ein Bsp mit Musik CD's...da bekommt z.B. bei ner 15€ CD der Handel ganze 10€,weil er ja Leistungen erbringt...(Transport,Lagerung,Verteilung in den Filialen,Plazierung im Laden usw.)

Bei Grakas wir das auch so sein...500€ bekommt nicht nVidia alleine,als erstes sind die Händler dran,dann die Anbieter (XFX,eVGA usw),zum Schluss nVidia...bei 500€,bekommen die zu 100% nicht mehr als 200-250€ raus.
Entwicklung,Forschung muß man auch mit einrechnen,das sind gewaltige Kosten...die Entwicklung von Autos,kostet auch Milliarden,weshalb sich immer mehrere Autos eine Plattform teilen,z.B. Tourareg und Q7!!!
Die Entwicklung eines Chips,wird sicherlich auch mehrere hunderte Millionen kosten!!!
 
Zuletzt bearbeitet:
Bei euren ganzen Gewinnthesen,vergesst den Handel nicht,die bekommen auch noch ein kräftiges Stück vom Kuchen.

Hatten in der Uni mal ein Bsp mit Musik CD's...da bekommt z.B. bei ner 15€ CD der Handel ganze 10€,weil er ja Leistungen bringt...(Transport,Lagerung,Verteilung in den Filialen,Plazierung im Laden usw.)

Bei Grakas wir das aiuch so sein...500€ bekommt nich nVidia alleine,als erstes sind die Händler dran,dann die Anbieter (XFX,eVGA usw),zum Schluss nVidia...bei 500€,bekommen die zu 100% nicht mehr als 200-250€ raus.
Entwicklung,Forschung muß man auch mit einrechnen,das sind gewaltige Kosten...die Entwicklung Autos,kostet auch Milliarden,weshalb sich immer mehre Autos eine Plattform teilen,z.B. Tourareg und Q7!!!
Die Entwicklung eines Chips,wird sicherlich auch mehrere hunderte Millionen kosten!!!

Der Handel sahnt oben drauf auch noch etwas ab, so siehts aus. Nur werden die paar 100€ die am Ende für nVidia übrig bleiben, die Kosten mehr als decken. Auch wenn die Entwicklungskosten in Millionenhöhe liegen, sollte man mal bedenken, wie viele von den Karten verkauft werden. Von daher wäre es auch durchaus möglich, den Preis etwas nach unten zu korregieren.

Höchstwarhscheinlich würden die Hersteller dadurch dann ihre Kunden im High-End Segment verlieren, weil die Kunden denken: eine Karte für 350€ soll High-End sein? Die kann nichts taugen...:rolleyes:
 
Der Handel sahnt oben drauf auch noch etwas ab, so siehts aus. Nur werden die paar 100€ die am Ende für nVidia übrig bleiben, die Kosten mehr als decken. Auch wenn die Entwicklungskosten in Millionenhöhe liegen, sollte man mal bedenken, wie viele von den Karten verkauft werden. Von daher wäre es auch durchaus möglich, den Preis etwas nach unten zu korregieren.

Höchstwarhscheinlich würden die Hersteller dadurch dann ihre Kunden im High-End Segment verlieren, weil die Kunden denken: eine Karte für 350€ soll High-End sein? Die kann nichts taugen...:rolleyes:

Regel nummer 1!!!

Die Nachfrage regelt den Preis.
Man sieht doch wie stark (trotz Duopol,was eigentlich eher zu Preisabsprachen tendiert,wie z.B. Öl,Energie usw.) die Preise der Grakas gesunken sind...ne 280GTX ist nicht mal ein jahr alt,hat ca. 40-50% vom Einführungspreis verloren...weil eben selbst HighEnd Nutzer nicht mehr einsehen,sich jedes 3.Quartal ne neue Graka zu kaufen für vielleicht 20% mehr Leistung,was absolut und in extrem lastigen Games wie Crysis und Co in ca. 3FPS oder so wiederspiegelt zu kaufen!!!
 
Da müssen die Käufer in diesem Segment nur noch so hohe Anfangspreise boykutieren. Wenn der Kunde eine Grafikkarte mit mindestens 50% mehr an Leistung verlangen und nichts anderes kaufen würde, dann hätten die Hersteller keine andere Wahl...
Hoffentlich wird der G300 annähernd so wie damals der G80
 
Da müssen die Käufer in diesem Segment nur noch so hohe Anfangspreise boykutieren. Wenn der Kunde eine Grafikkarte mit mindestens 50% mehr an Leistung verlangen und nichts anderes kaufen würde, dann hätten die Hersteller keine andere Wahl...
Hoffentlich wird der G300 annähernd so wie damals der G80

Ich hoffe es ja auch...würde auch 400€ und mehr ausgeben...aber da muß leistung stimmen....nicht wie jetzt...30% mehr leistung bei crysis in 1900x1200 oder so mit 8aa.....wo man vorher 12fps hatte und jetzt 16fps...wow...diashow bleibt eben slowmotion show....ne....da müssen eben bei standard settings bsp crysis 1280x1024 oder 1680x1050 mit veryhigh und aa anstatt 40fps oder so mal 75 oder mehr rausspringen...denn da gebe ich dir recht,seit g80 hat sich nix wirklich getan...leistung nur aus verbesserungen + zunehmender chipgröße geholt...aber innovativ,war wirklich nix!!!
 
denn da gebe ich dir recht,seit g80 hat sich nix wirklich getan...leistung nur aus verbesserungen + zunehmender chipgröße geholt...aber innovativ,war wirklich nix!!!

Wo ist das Problem?
NV hat seit dem G80 ca. 100% Mehrleistung bei ca. 20W mehr Volllast Verbrauch rausgeholt.
Wie und was die da gemacht haben, ist für den Kunden am Ende doch vollkommen egal, solange es sich ausgeht.
 
Das mag alles stimmen, blos wie lange hat das gedauert und wie viele refreshes gab es in der Zwischenzeit. Man kann es auch als kulturellen Fortschritt bezeichnen, wenn die Toilette von draußen nach Innen verlegt wird :rolleyes:
 
Man kann es auch als kulturellen Fortschritt bezeichnen, wenn die Toilette von draußen nach Innen verlegt wird :rolleyes:

Der ist gut:fresse:

Aber genau so sehe ichs auch diese ganzen refresh chips seit dem g80 nerven mittlerweile nur noch.Jedesmal hat man auf ordentliche steigerungen gewartet u jedesmal kamen am ende nur max 30% herraus

Für mich ist ein neuer chip erstrebenswert wenn er mindestens 80 - 100% auf die leistung des vorgängers draufpackt.

Und so wie es aussieht hat nvidia ja nun mit dem g300 endlich ein einsehen,zumindestens schonmal auf dem papier siehts ganz gut aus:p

Aber vielleicht war man durch den g80 auch zu verwöhnt in sachen leistung u sollte sich lieber wieder auf so kleckerein einstellen:d
 
Zuletzt bearbeitet:
@ ColeTrickle: :wink:
Du verwechselst den Produktlebenszyklus mit Marktsegmentierung bzw. Marktstrategien allgemein.
Jeder Grafikkarte (sofern nicht totaler Mist) durchlebt "Hoffnungen", "Stars", "Cash Cows" und "Poor Dogs".
Mainstream Gamer und Enthusiasten die immer das neuste haben wollen sind zwei verschiedene Märkte wenn du so willst...
Und als Beispiel im oberen Gamersegment: 4870 und 260
Gruß
 
@ ColeTrickle: :wink:
Du verwechselst den Produktlebenszyklus mit Marktsegmentierung bzw. Marktstrategien allgemein.
Jeder Grafikkarte (sofern nicht totaler Mist) durchlebt "Hoffnungen", "Stars", "Cash Cows" und "Poor Dogs".
Mainstream Gamer und Enthusiasten die immer das neuste haben wollen sind zwei verschiedene Märkte wenn du so willst...
Und als Beispiel im oberen Gamersegment: 4870 und 260
Gruß

Klar durchlebt jedes Produkt diese Zyklen,auf was ich hinaus wollte,war eben das gewisse Produkte von Anfang an...nach erscheinen sich schon auf Grund der extremen Schnelllebigkeit (3xmal l) des Marktes in diesen Lebenszyklen einstufen lassen.

9800GTX,war von Anfang an ein Poor Dog....Am Anfang war noch 8800GTX und 8800GTS 512Mb da.....somit ging 9800GTX nicht übern Tisch...später gab es den versuch mit Hilfe vom Refresh die zu verkaufen...da hatte sie aber Konkurrenz von der 260GTX...ebenfalls jetzt als 250GTS....legen viele eben mal 10€ drauf und kaufen wiederum ne 260GTX!!!
Ergo...9800GTX war immer schon ein Poor Dog.

Die 280GTX oder 295GTX hat wenn überhaupt nen Anteil von 10% vom nVidia Graka Markt...ist aber Single bzw. DualGraka Champ....ergo Star...die meisten Hoffnungen werden verbunden...selbst wenn sie nicht die Hoffnungen der Star erfüllt,walso zur CashCow wird...wird sie dennoch die Kundschaft dazu bewegen nVidia Grakas zu kaufen...deswegen wird vlei ne 9800GT oder 260 GTX oder was auch immer zur CashCow!!!
Lange Rede,kurzer Sinn...auf was ich hinaus wollte...Lidl verkauft Milch billig evtl unter Einkauspreis warum um Kunden zu holen....erge 1Produkt Verlust...aber dadurch 20 andere verkauft.
nVidia denkt nicht im Produktmaßstab...sondern im Palettenmaßstab...lieber ein Produkt für +-0 verkaufen,dadurch aber 20 andere abgesetzt!!!
 
Zuletzt bearbeitet:
Der ist gut:fresse:
Und so wie es aussieht hat nvidia ja nun mit dem g300 endlich ein einsehen,zumindestens schonmal auf dem papier siehts ganz gut aus:p

Aber vielleicht war man durch den g80 auch zu verwöhnt in sachen leistung u sollte sich lieber wieder auf so kleckerein einstellen:d

Eben, die jetzigen specs klingen doch schonmal nicht schlecht...
Kann man nur hoffen, dass das was auf dem Papier steht sich dann auch tatsächlich in alltags Situationen bemerkbar macht (ich erinnere mich da an die HD2900XT :rolleyes:)
Mit Sicherheit wird nVidia noch etwas als Überraschung haben; beim G80 damals war man auch kruz vor der Veröffentlichung unsicher ob die GPU nun doch US hat oder nicht
 
Gerade eben entdeckt: GT300 mit rund 2,4 Millarden Transistoren

Im Wesentlichen die bekannten Daten, neu ist nur die Info zur Transistorenzahl und die Spekulation zur Chipgröße.

Hört sich für mich halbwegs plausibel an, ich hätte die Transistorenzahl allerdings eher noch höher geschätzt, schließlich soll sich die Anzahl der Shadereinheiten mehr als verdoppeln und die zusätzliche Logik für den Tesselator braucht ja auch Platz.

Wenn sich die Chipgröße tatsächlich, wie hier vermutet, auf dem Niveau eines GT200b bewegt, könnte die Karte sogar bezahlbar werden. Bei diesen Daten würde aber davon ausgehen, dass es wie beim G80 und GT200(b) wieder einen separaten NVIO Chip auf den Karten gibt.
 
Die ganzen News die Hardware-Infos im Moment rausgibt würde ich nicht unbedingt für voll nehmen!
 
Das mit den 2,4Mrd Transistoren könnte sogar passen, irgendwo hab ich mal aufgeschnappt, das bei aktuellen GPUs ca. 50% der Transistoren für die Shadereinheiten drauf gehen, nimmt man das als Basis würden ca. 700Mio beim G200 für die Shader stehen, im Verhältniss zur 512 1D Shadern bei gleichem Rest kommt man dann auf ca. 2,2Mrd Transistoren. Bleiben 200Mio für weitere Optimierungen und anderweitig mehr Ausführungseinheiten...

Halte ich für realistisch die Zahl...

Aber wenn man sich ansieht, wie viel DIE Size eine G200b GPU hat (ca. 470mm²) und die hier spekulierten <490mm² ansieht, stellt sich mir wieder die Frage, ob NV nicht aus den Fehlern von großen GPUs gelernt hat, das geht doch wieder gegen den Baum, die Ausbeute der DIEs auf einem Wafer (lässt man mal die Fehlerfälle außen vor) sollte dementsprechend minimal schlechter sein als aktuell beim G200b...
Und da macht NV ja auch nicht viel Gewinn pro Karte...
 
ob NV nicht aus den Fehlern von großen GPUs gelernt hat

Es ist die grosse frage ob man sich grössere gewinne im GPGPU bereich verspricht u nur deshalb den chip wieder so extrem aufbläht.Denn so entschuldigung"dämlich" wird nvidia denke ich nicht sein,als das man den selben fehler(zu teures design) 2 mal begeht oder doch:hmm::d

Denn wirklich sinn machen die vielen MIMD shader(wenn sie denn kommen) im spielebereich ja mal gar nicht,es sei denn man will crysis mit doppelter genauigkeit spielen:fresse:
 
Zuletzt bearbeitet:
Das mit den 2,4Mrd Transistoren könnte sogar passen, irgendwo hab ich mal aufgeschnappt, das bei aktuellen GPUs ca. 50% der Transistoren für die Shadereinheiten drauf gehen, nimmt man das als Basis würden ca. 700Mio beim G200 für die Shader stehen, im Verhältniss zur 512 1D Shadern bei gleichem Rest kommt man dann auf ca. 2,2Mrd Transistoren. Bleiben 200Mio für weitere Optimierungen und anderweitig mehr Ausführungseinheiten...

Die 512 Shadereinheiten sind ebefalls Spekus von Hardware-Infos, die auf BSN verwiesen haben, die auf Hardware-Infos verwiesen haben... demnach stammt die Info aus dem großen Nichts und ist, bis wir nicht mehr wissen, nicht unbedingt für voll zu nehmen.

Aber wenn man sich ansieht, wie viel DIE Size eine G200b GPU hat (ca. 470mm²) und die hier spekulierten <490mm² ansieht, stellt sich mir wieder die Frage, ob NV nicht aus den Fehlern von großen GPUs gelernt hat, das geht doch wieder gegen den Baum, die Ausbeute der DIEs auf einem Wafer (lässt man mal die Fehlerfälle außen vor) sollte dementsprechend minimal schlechter sein als aktuell beim G200b...
Und da macht NV ja auch nicht viel Gewinn pro Karte...

Das kommt natürlich auch drauf an wie gut der Chip ist. Sagen wir mal NV kann ihn für 400 Euro positionieren und es stellt sich herraus das er wirklich ne ganze Ecke schneller ist als der RV870. Dieser wird von ATI mit 300 Euro positioniert (alles mal pure Spekulation einer Möglichkeit!), aber der FPS/Euro Wert ist beim GT300 höher. Von dort aus gesehen würden sich die NV-Karten trotz höheren Preises wohl ne große Ecke vom Kuchen abschneiden. Aufgrund des Prestige des Chips (oder eines undursichtigen Namensschemas;)) würden sich evtl auch die Low und Mid-End Karten etwas besser verkaufen. Somit könnte sogar ATI, trotz günstigerer Karten, unter zugzwang geraten.

Das ist mal wirklich Pure Spekulation und sollte nur als mögliches Beispiel durchgehen wie man auch mit einem teuren Chip gut auf dem Markt bestehen kann.
 
Die 512 Shadereinheiten sind ebefalls Spekus von Hardware-Infos, die auf BSN verwiesen haben, die auf Hardware-Infos verwiesen haben... demnach stammt die Info aus dem großen Nichts und ist, bis wir nicht mehr wissen, nicht unbedingt für voll zu nehmen.

Das schon klar, mir gings nur darum, wenn man schon anhand der Spekulationen extreme Widersprüche findet, weis man definitiv, da kann was nicht stimmen, aber wenn die Spekulation in sich erstmal schlüssig ist von allen Seiten, bleibt immernoch die Hoffnung, das es so kommt wie Spekuliert ;)


Das kommt natürlich auch drauf an wie gut der Chip ist. Sagen wir mal NV kann ihn für 400 Euro positionieren und es stellt sich herraus das er wirklich ne ganze Ecke schneller ist als der RV870. Dieser wird von ATI mit 300 Euro positioniert (alles mal pure Spekulation einer Möglichkeit!), aber der FPS/Euro Wert ist beim GT300 höher. Von dort aus gesehen würden sich die NV-Karten trotz höheren Preises wohl ne große Ecke vom Kuchen abschneiden. Aufgrund des Prestige des Chips (oder eines undursichtigen Namensschemas;)) würden sich evtl auch die Low und Mid-End Karten etwas besser verkaufen. Somit könnte sogar ATI, trotz günstigerer Karten, unter zugzwang geraten.

Das ist mal wirklich Pure Spekulation und sollte nur als mögliches Beispiel durchgehen wie man auch mit einem teuren Chip gut auf dem Markt bestehen kann.

Da hast du natürlich recht, aber ich gehe stark davon aus, das AMD mit ihrer Top SingleGPU Karte wieder auf Augenhöhe zum Abspeck Modell der neuen NV Reihe liegt.
Das war beim R600/RV670 so und auch beim RV770...
Warum sollte es hier nicht auch so sein?

Ich bin da ganz zuversichtlich...
 
Warum sollte es hier nicht auch so sein?

Ganz einfach, weil es nicht so sein muss.

Die 2900er Serie hatte damals auch Probleme wirklich gegen die 8800 Serie bestehen zu können, obwohl sie ein halbes Jahr später erschienen ist. Andererseits hätte Matrox mit dem Pharhelia 512 auf dem Papier auch alles abgezogen was es damals gab, in der Realität sah die Sache dann aber anders aus. Das Problem was sich als Hersteller gibt, ist ja das eine Entwicklung Zeit kostet. Selbst wenn ich einen Chip später release, hab ich ein Problem falls die Konkurenz einen Chip erschaffen hat der meinem Haushoch überlegen ist, weil die Zeit ihn wirklich groß zu überarbeiten meist schon wieder so lange dauert das ich dann schon wieder gegen einen noch schnelleren Refresh antreten darf. Ist halt alles nicht so einfach.
 
Du hast schon recht, und das bestreitet ja auch keiner, das es nicht so sein muss...
Aber Fakt ist, das AMD seit dem R600 nur noch im Performance Bereich mit ihren SingleGPU Karten wirkt, und den HighEnd Bereich mit ner DualGPU geschichte abdeckt...

Sprich daran wird sich erstmal nix ändern. Das Top Modell von AMD wird wohl bei der nächsten Generation ebenso nicht an das Top Modell von NV ran kommen. Muss aber auch nicht, solange das Verhältniss so bleibt wie es jetzt ist...

Vorteil für NV könnte aber erstmals seit langem werden, das sie scheinbar (wenn man den Gerüchten traut) diesmal reagieren können und nicht wie sonst, zuerst die Karte releasen werden... Somit könnte man sich mit erhöhten Taktraten vor der Konkurenz positionieren.

Mal abwarten was kommt...
 
Sprich daran wird sich erstmal nix ändern. Das Top Modell von AMD wird wohl bei der nächsten Generation ebenso nicht an das Top Modell von NV ran kommen. Muss aber auch nicht, solange das Verhältniss so bleibt wie es jetzt ist...

Wenn man nach den Spekulationen die bisher für RV870 und GT300 gemacht wurden geht, kommt der RV870 auf 35% Mehrperformance und der GT300 auf >70% zur alten Generation. Damit würden sich die Verhältnisse klar verschieben und ATI mit ner Dualkarte gegen ne Singlechiplösung antreten, das war bisher nicht der Fall.
 
Lass erstmal abwarten, was dabei am Ende noch übrig bleibt...
Es sieht stark danach aus, das bei den AMD Karten derzeit die Shaderpower nicht wirklich das Problem ist, sondern der Flaschenhals an anderen Stellen liegt.
Man schaue auf die Erhöhung der Shaderanzahl im Vergleich zur R600/RV670, weit mehr als 100% mehr Shader resultieren in gerade mal ca. 100% mehr Endleistung auf dem Monitor im Schnitt bei gleichem Takt...

Heist soviel wie, wenn AMD es schaffen sollte, diesen Flaschenhals auszumertzen, dann sieht es doch auch ganz gut aus ;)
Ich denke mal, 35% mehr Leistung wie jetzt wird die Karte nicht nur haben...


Vllt sollte man sich von den Vorabgerüchten aber auch nicht täuschen lassen und es kommt doch ganz anders als geplant, sowohl bei NV als auch bei AMD!?
 
Naja, die 160 5D Shadereinheiten des ATI sind zwar besser als die 1D des GT200, aber nominel kann man sie trotzdem nicht als volle 800 Einheiten bezeichnen. Das sieht man daran das NV trotz 240 Einheiten dort eigentlich immernoch die Nase vorn hatte.

Beide halten sich mit offiziellen Aussagen die zumindest mit festen Zahlen von Einheiten ja sehr bedekt, Taktraten können sich ja eh immer mal wieder ändern. Naja, uns bleibt wohl wirklich nur das warten.
 
240 Einheiten bei fast doppeltem Takt ;) (nicht vergessen)
Aber wie schon gesagt, die Shaderleistung ist nicht so das Problem bei AMD, da bremsen andere Sachen, welche es vorher gilt zu verbessern...

Wie und was genau, lässt sich ein wenig schwerer sagen, da ja alles vom GPU Takt abhängt bei AMD.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh