nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] [Part 1.1]

Status
Für weitere Antworten geschlossen.
ach ... ich find das toll, was bei nvidia gerade abgeht ^^
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Och leute, hier ist der GT300 Thread, in dem es um den Chip geht, nicht direkt um das Unternehmen das ihn herstellt.

Das schlimme ist ja das sich hier so viele noch darüber freuen das es eine Behauptung von einem NV Hasser gibt die besagt das sich ein Unternehmen von einem Tag auf den anderen aus ihrem Hauptgeschäft zurückziehen will nur weil ATI es nicht hinbekommen hat nen vernünftige neue Architektur auf die Beine zu stellen statt einfach alle Einheiten zu verdoppeln.
 
Och leute, hier ist der GT300 Thread, in dem es um den Chip geht, nicht direkt um das Unternehmen das ihn herstellt.

Das schlimme ist ja das sich hier so viele noch darüber freuen das es eine Behauptung von einem NV Hasser gibt die besagt das sich ein Unternehmen von einem Tag auf den anderen aus ihrem Hauptgeschäft zurückziehen will nur weil ATI es nicht hinbekommen hat nen vernünftige neue Architektur auf die Beine zu stellen statt einfach alle Einheiten zu verdoppeln.

toller seitenhieb, der hat hier auch absolut nichts verloren ;)
nvidia muss erstmal beweisen, dass sie es besser können!
 
Och leute, hier ist der GT300 Thread, in dem es um den Chip geht, nicht direkt um das Unternehmen das ihn herstellt.

Das schlimme ist ja das sich hier so viele noch darüber freuen das es eine Behauptung von einem NV Hasser gibt die besagt das sich ein Unternehmen von einem Tag auf den anderen aus ihrem Hauptgeschäft zurückziehen will nur weil ATI es nicht hinbekommen hat nen vernünftige neue Architektur auf die Beine zu stellen statt einfach alle Einheiten zu verdoppeln.

Was daran nicht vernümftig , für mich sind die Vec5 shader besser als die Vec1 (mit hohem takt) , nur fehlt die optimale software leider!


Und das beste, alle loben den GT300 so obwohl es nur tabellen und blockschema gibt!
 
Zuletzt bearbeitet:
toller seitenhieb, der hat hier auch absolut nichts verloren ;)
nvidia muss erstmal beweisen, dass sie es besser können!

Stimmt, ich wollte aber mal zeigen das man alles in Grund und Boden reden kann wenn man will.

Was daran nicht vernümftig , für mich sind die Vec5 shader besser als die Vec1 (mit hohem takt) , nur fehlt die optimale software leider!


Und das beste, alle loben den GT300 so obwohl es nur tabellen und blockschema gibt!

Ist ja auch schön wenn was für dich besser ist, schade nur wenns mit der Realität nicht viel zu tun hat. Loben tut ihn hier wohl keiner, die Vermutungen liegen aber nunmal nahe das er einiges schneller als das ATI Pedant werden könnte und mehr als ein Speku Thread ist das hier nunmal nicht.
 
Stimmt, ich wollte aber mal zeigen das man alles in Grund und Boden reden kann wenn man will.



Ist ja auch schön wenn was für dich besser ist, schade nur wenns mit der Realität nicht viel zu tun hat. Loben tut ihn hier wohl keiner, die Vermutungen liegen aber nunmal nahe das er einiges schneller als das ATI Pedant werden könnte und mehr als ein Speku Thread ist das hier nunmal nicht.

1/4 jahr später sollt so ein chip aiuch schneller sein ;)

Aber das Chip design von NV ist so gut und nach standart das sie einige sachen von DX11 in software ausführen muss.

das mal ein Design ^^

Da muss sich erstmal zeigen wie DX11 und PhysX gleichzeitig über die Shader eines G300 mit beschnittenen Shader läuft. (beschnitten im vergleich zum GT300 oder schweine teuer und unbeschnitten ^^ )

Und ATI hat den RV790 nur verdoppelt und nichts an der Hardware gemacht ;:d
 
Zuletzt bearbeitet:
1/4 jahr später sollt so ein chip aiuch schneller sein ;)

Aber das Chip design von NV ist so gut und nach standart das sie einige sachen von DX11 in software ausführen muss.

das mal ein Design ^^

Da muss sich erstmal zeigen wie DX11 und PhysX gleichzeitig über die Shader eines G300 mit beschnittenen Shader läuft. (beschnitten im vergleich zum GT300 oder schweine teuer und unbeschnitten ^^ )

Und ATI hat den RV790 nur verdoppelt und nichts an der Hardware gemacht ;:d

Ich bezweifel das bei ATI oder bei NV nur dumme Leute sitzen, von daher wird es schon nen Grund haben warum sie sich (was ja noch nichtmal sicher ist) für eine solche Lösung entschieden haben.

Vielleicht hast du ja glück und einer von NV ließt das hier und sie stellen dich als nächsten CEO ein weil du so schlau bist;)
 
Ich bezweifel das bei ATI oder bei NV nur dumme Leute sitzen, von daher wird es schon nen Grund haben warum sie sich (was ja noch nichtmal sicher ist) für eine solche Lösung entschieden haben.

Vielleicht hast du ja glück und einer von NV ließt das hier und sie stellen dich als nächsten CEO ein weil du so schlau bist;)

Weiss zwar nicht was diese aussage von dir jetzt soll , aber das NV auch mal was falsch amcht sollt seit dem FX5800 bekannt sein .

Ich hab nie gesagt das die GT300 langsammer ist als ne RV870 aber naja , vll liest der neue bildungsmister für dich ja mit und du kannst seine stelle haben in sachen lesen Oo (mal auf deinem niveau)

Nur sagen ATI verdoppelt alles und NV hat die neue tolle architektur ist ja auch ne naja tolle aussage die bewiesen ist? Hat NV denn die Robs überarbeitet oder die TMUs oder andere dinge die nichts mit GPGPU zu tun haben? weiss keiner, auch du nicht!

Gut das NV immer neues bringt!
 
Zuletzt bearbeitet:
ich freu mich schon wenn der fermi kommt und die pa,,er hier ma gleich ihre hd 58xx in den marktplatz setzen...
 
Weiss zwar nicht was diese aussage von dir jetzt soll , aber das NV auch mal was falsch amcht sollt seit dem FX5800 bekannt sein .

Hab ich nie bezweifelt.

Ich hab nie gesagt das die GT300 langsammer ist als ne RV870 aber naja

Und ich hab nie geschrieben das du das geschrieben hast;)

vll liest der neue bildungsmister für dich ja mit und du kannst seine stelle haben in sachen lesen Oo (mal auf deinem niveau)

Wär doch mal was, ich weiß auch schon wo man als erstes ansetzen sollte...

Nur sagen ATI verdoppelt alles und NV hat die neue tolle architektur ist ja auch ne naja tolle aussage die bewiesen ist? Hat NV denn die Robs überarbeitet oder die TMUs oder andere dinge die nichts mit GPGPU zu tun haben? weiss keiner, auch du nicht!

=>
Neurosphere schrieb:
Das schlimme ist ja das sich hier so viele noch darüber freuen das es eine Behauptung von einem NV Hasser gibt die besagt das sich ein Unternehmen von einem Tag auf den anderen aus ihrem Hauptgeschäft zurückziehen will nur weil ATI es nicht hinbekommen hat nen vernünftige neue Architektur auf die Beine zu stellen statt einfach alle Einheiten zu verdoppeln.

thom_cat schrieb:
toller seitenhieb, der hat hier auch absolut nichts verloren
nvidia muss erstmal beweisen, dass sie es besser können!

Neurosphere schrieb:
Stimmt, ich wollte aber mal zeigen das man alles in Grund und Boden reden kann wenn man will.
 
Ich fänd es auch nicht gut das NV verschwindet

Nur gönn ich ATI diesen erfolg seit der 9700/9800 serie!

Aber ein Monopol ist das letzte was ich will!


Aber NV sollt echt mal was zeigen und zwar keine Demos auf nem GT200b :d
 
Zuletzt bearbeitet:
verschwinden wird nv ja auch nciht. davon spricht ja keiner. die richten sich nur neu aus (wenn es so kommt wie angegeben). und der fermi wird wenns denn so kommt ne reine rechen-gpu die man dann schön an pasende rechenzentren verkaufen kann. tesla rulez ;)
 
Da hätte der Privatanwender aber nichts davon.
 
wenn se aber scheinbar im privaten high end keinen gewinn mehr erzielen können warum dann nicht die stärken nutzen und wie matrox auf die geschäftlichen kunden setzen? und in sachen GPU-berechnung ist AMD noch ganz ganz weit zurück. da hilft dann auch kein von ATI gefoderter offener standard. den kann man dann vielleicht für den privatanwender ansetzten - in der geschäftswelt siehts anders aus.

und jopp: das hätte für uns negative folgen -> dann gibbet deutlich teurere karten.
 
Wow, das ist ja krass! Bin zwar immer schon lieber im ATI-Lager, aber ein Aufgeben von NVidia wäre ja was die Preise anbelangt eine absolute Katastrophe.

Nicht nur das, auch würde der Fortschritt in bessere Grakas darunter leiden.....
 
Noch steht gar nichts fest, außer, dass nVidia in den Schlagzeilen steht :d
Nur weil scheinbar paar Karten EOL erreichen, muss das noch lange nicht heießen, dass danach nichts mehr kommt.
 
Übrigens hat NV die Preise recht schnell angepasst, da ATI ja schon wenig später mit der RV770 Reihe den Markt betrat und der Preiskampf anfing.
Eben das meinte ich ja. nVidia war dazu gezwungen. Wäre es nicht so gewesen, hätten Käufer der GTX 280 längere Zeit 500 Euro oder mehr bezahlen dürfen.

NV wird bei der Herstellung für eine 285er kaum mehr bezahlt haben als für eine 260er (55nm).
Nun ja, die Fläche ist halt immer die gleiche. Das Problem ist nur, für eine 285 braucht nVidia 100% funktionierende Transistoren, für eine 260 nicht. Die 260 senkt somit die Kosten für die 285.

Auch ATI wird mit den Karten nicht unbedingt ein Glanzgeschäft gemacht haben
Das sicherlich nicht. Allerdings hat man eben mehr Spielraum für die Schmerzgrenze gehabt.

nur weil ATI es nicht hinbekommen hat nen vernünftige neue Architektur auf die Beine zu stellen statt einfach alle Einheiten zu verdoppeln.
Dass das falsch ist, weisst du hoffentlich? Egal ob das jetzt als Seitenhieb gedacht war oder nicht. ATI hat an der Architektur jede Menge überarbeitet und nicht einfach nur verdoppelt. Auch wenn sie in ihrer Grundstruktur immer noch auf dem R600 basiert. Das ist allerdings kein Thema für diesen Thread. Fermi wird in seiner Grundstruktur ja auch immer noch auf dem G80 basieren und keine komplett neue Architektur sein.
 
Fermi is by far the best chip NVIDIA ever created. Pity I cannot tell more. I can't wait to show some real perf numbers. Poor AMD guys

Twitter von Igor Stanek. Egal ob glaubhaft oder nicht, wenigstens mal etwas aufmunterndes;)

mr.dude schrieb:
Dass das falsch ist, weisst du hoffentlich? Egal ob das jetzt als Seitenhieb gedacht war oder nicht. ATI hat an der Architektur jede Menge überarbeitet und nicht einfach nur verdoppelt. Auch wenn sie in ihrer Grundstruktur immer noch auf dem R600 basiert. Das ist allerdings kein Thema für diesen Thread. Fermi wird in seiner Grundstruktur ja auch immer noch auf dem G80 basieren und keine komplett neue Architektur sein.

Ja ich weiß. Allerdings finde ich es schade das ATI es noch immer nicht wirklich geschaft hat eine brauchbare Cuda Alternative zu bieten, nicht nur im Sinne von Performance sondern auch was Medienwirksames. Ein zweiter Kritikpunkt ist das Microruckeln im Crossfire Betrieb nicht minimiert wurde (zumindest nach derzeitigem Treiberstatus) und das ATI im allgemeinen nicht wirklich viel neues außer DX11 mit dem RV870 anbieten konnte. Klar, man hat AF verbessert und ist nun auf nem Niveau von NV oder leicht darüber, wobei die Frage besteht ob man diese Verbesserung überhaupt noch optisch wahrnimmt und zum anderen bieten sie nun bessere AA Modi, was wohl auch nur eine Frage der Zeit ist bis Spiele erscheinen die deren Einsatz unmöglich machen.

Ich werde mir ohne Zweifel eine ATI anschaffen sollte mich der GT300 nicht überzeugen sollte(ich brauch nunmal bald neue Hardware wie man an meiner Sig erkennt...), was aber nicht heißt das ich von diesem Umstand begeistert wäre. Nicht weil ich ATI nicht mögen würde, sondern weil ich vom RV870 eigentlich etwas mehr erwartet habe als das was er bietet.


Edith sagt:
Und achja, um mal was zur Charlies Glaubhaftigkeit zu sagen:
http://www.driverheaven.net/news/190637-nvidia-does-not-abandon-mid-high-end-market.html#post1301104

"There is no truth to this. Charlie has become a sponsored site of his sole advertiser. Look at his website it looks like an AMD ad."
 
Zuletzt bearbeitet:
Ob der Fermi so gut ist wie NV sagt wird sich noch rausstellen.
Ich werden das gefühl aber nicht los, das der "nur" ein aufgebohrter G200 sein wird, egal was NV sagt.

Ein bisschen Copy&Paste haben die wohl gemacht. Wieso auch nicht?

Uiuiui der Vogel hat gezwitschert... ^^
Das heisst noch garnix. Ist einfach marketing.

Wieso? Na dann warten ev. mehr Leute mit dem Kauf einer HD58X0.

Und was bringts Nvidia wenn der G300 nicht wirtschaftlich ist?
Irgendwas macht Nvidia seit der G200er Reihe falsch.
Riesige DIE-Fläche, teuer Produktion.

Der RV770 war wirtschaftlich und schnell.
So muss eine GPU aus Sicht des Herstellers sein. Und nicht anders.

Für den Anwender muss sie schnell sein und wenns geht ein annehmbares P/L Verhältniss haben.

Und in Sachen von ATI nichts neues:

Nvidia hat den G80 doch auch rezikliert (haha ist doch mal schön gedeutscht).

Kuckt mal, aus G80 mache FAST copy&past und es gebe den G92:

8800 GTS / GTX (G80) -> 8800 GT / GTS 512MB (G92) -> GF 9800er (G92) -> GTS 250 (G92b)

Also so viel hat glaub ich nicht mal ATI recyglet.
 
Alles sehr spekulativ hier;), aber eins stimmt! Eine Monopolstellung von wem auch immer ist nicht gerade förderlich für Qualität und Preis!!!

Insofern wäe es schon Schade wenn an den befürchtungen etwas dran wäre!
 
Ob der Fermi so gut ist wie NV sagt wird sich noch rausstellen.
Ich werden das gefühl aber nicht los, das der "nur" ein aufgebohrter G200 sein wird, egal was NV sagt.

Ein bisschen Copy&Paste haben die wohl gemacht. Wieso auch nicht?

Er wird sich beweisen müssen, wie all die anderen vor Ihm. Trotzdem hast du recht, aber Evolution ist halt eben einfacher als Revolution...siehe x86;)

Uiuiui der Vogel hat gezwitschert... ^^
Das heisst noch garnix. Ist einfach marketing.

Richtig, eben genau das gleiche was Charlie tut.

Wieso? Na dann warten ev. mehr Leute mit dem Kauf einer HD58X0.

Jeder der nicht unbedingt auf eine neue Karte angewiesen ist (und wer ist das schon) sollte eh warten, zum einen um zu gucken was kommt und zum anderen wegen den dann evtl fallenden Preisen.

Und was bringts Nvidia wenn der G300 nicht wirtschaftlich ist?
Irgendwas macht Nvidia seit der G200er Reihe falsch.
Riesige DIE-Fläche, teuer Produktion.

Sofern die Leistung stimmt scheint der neue von NV dank skalierung ziemlich wirtschaftlich zu sein, sonst würde man auch nicht den GT200 vom Markt nehmen.

Der RV770 war wirtschaftlich und schnell.
So muss eine GPU aus Sicht des Herstellers sein. Und nicht anders.

Ob er wirklich so wirtschaftlich war bezweifel ich mal ganz schnell. Nur weil ATI gleich nen Preiskampf begonnen hat heißt das nicht das sie wirklich große Gewinne mit dem Chip einfahren konnten.

Für den Anwender muss sie schnell sein und wenns geht ein annehmbares P/L Verhältniss haben.

Stimmt, aber aus ökonomischer Sicht bleibt das verhalten von ATI, gerade wenn man mal die AMD/ATI als gesammtes betrachtet dumm. Klingt zwar hart und für den Käufer merkwürdig, aber so ist es nunmal. SIeht man auch daran das beide wollen das die Preise wieder steigen.

Und in Sachen von ATI nichts neues:

Nvidia hat den G80 doch auch rezikliert (haha ist doch mal schön gedeutscht).

Kuckt mal, aus G80 mache FAST copy&past und es gebe den G92:

8800 GTS / GTX (G80) -> 8800 GT / GTS 512MB (G92) -> GF 9800er (G92) -> GTS 250 (G92b)

Also so viel hat glaub ich nicht mal ATI recyglet.

Der G92 war ein Prunktstück für NV. Günstig, schnell, also genau das was du für den RV770 als Vorteile eingebracht hast. NV hat das Design lange am leben erhalten, allerdings auch mit steigenden Taktraten und anpassung des Namens an die anderen Modelle. Ich finde es nicht direkt verwerflich, da es ja auch dank bleibenden DX Spezifikationen nicht wirklich was zu verändern gab. Und wie gesagt, der GT200 war zwar kein wirklich schlechter Chip, aber auch nicht wirklich das was NV wollte.

Achja, es heißt recycled, bzw auf deutsch Rezykliert :fresse:, muss ich ja drauf achten, bin ja nu fürs Lesen verantwortlich;)
 
Zuletzt bearbeitet:
Allerdings finde ich es schade das ATI es noch immer nicht wirklich geschaft hat eine brauchbare Cuda Alternative zu bieten, nicht nur im Sinne von Performance sondern auch was Medienwirksames.
Wieso sollten sie? Dafür gibt es OpenCL und DirectCompute. Ich denke, CUDA wird mit der Zeit belanglos.

Ein zweiter Kritikpunkt ist das Microruckeln im Crossfire Betrieb nicht minimiert wurde
Nun ja, noch gibt es keine finalen Treiber, soweit ich weiss. Zudem sollte man erstmal die X2 abwarten.

und das ATI im allgemeinen nicht wirklich viel neues außer DX11 mit dem RV870 anbieten konnte. Klar, man hat AF verbessert und ist nun auf nem Niveau von NV oder leicht darüber, wobei die Frage besteht ob man diese Verbesserung überhaupt noch optisch wahrnimmt und zum anderen bieten sie nun bessere AA Modi, was wohl auch nur eine Frage der Zeit ist bis Spiele erscheinen die deren Einsatz unmöglich machen.
DX11/DirectCompute, Eyefinity, komplett winkelunabhängiges AF, das schon erwähnte verbesserte AA, verbesserte HD Audio Fähigkeiten, deutlich besseres Powerplay, usw. Gerade diese Generation hat sehr viel neues zu bieten. Hier muss sich der GT300 erstmal beweisen. ;)

Und achja, um mal was zur Charlies Glaubhaftigkeit zu sagen
Wie überraschend, die Aussagen von nVidia. Ist wohl genauso glaubwürdig bzw unglaubwürdig wie Charlie. ;)
 
Nun ja, noch gibt es keine finalen Treiber, soweit ich weiss. Zudem sollte man erstmal die X2 abwarten.

auch mit finalen Treiber wird sich daran nichts ändern.

---------- Beitrag hinzugefügt um 09:32 ---------- Vorheriger Beitrag war um 09:13 ----------

DX11/DirectCompute, Eyefinity, komplett winkelunabhängiges AF, das schon erwähnte verbesserte AA, verbesserte HD Audio Fähigkeiten, deutlich besseres Powerplay, usw. Gerade diese Generation hat sehr viel neues zu bieten. Hier muss sich der GT300 erstmal beweisen. ;)

wer zum Henker nutzt bitteschön eyefinity? Die 5870 ist doch eigendlich eine Midrangekarte und eyefinity gehört da eigendlich garnicht rein. Auf High-End Karten ok. Auch wenn sie schon die Power hat, aber wer leistet sich mindestens 3 Monitore, der sich ne Midrangekarte kauft???

Die restlichen Sachen finde ich alle gut und schön was ATI da von sich gegeben hat und bin gespannt wie der GT300 gegen die x2 wittern kann. Dieses weitaus ruhigere Spieleverhalten wie es alle hier berichten macht einem auch keine Lust auf ein CF mehr. Dementsprechend wartet alles auf den GT300 weil EINE 5870 irgendwie noch etwas zu wenig ist und man höchstwahrscheinlich mit der neuen x2 wieder vom Regen in die Traufe kommt was MR und dementsprechend das unruhige Spieleverhalten angeht.

Wenn wir dann alle mit bester Hardware gespeist sind, sollte erstmal wieder der Spielemarkt wieder in die Füße kommen. Da scheint ja auch irgendwie tote Hose zu sein. Zumindest sind solche Spiele nicht in Sicht, die die GTX380 in die Knie zwingt. Was aktuell auf dem Markt ist kann man alles @ max in HD zocken. Lediglich für shift fehlt noch der Treiber. Dirt2 und CoD:MW2 werden auch mehr als flüssig laufen...und die sind noch nicht draußen^^Die Cryengine3 lasse ich bewusst erstmal aussen vor.
 
Ich hoffe nur nicht das tatsächlich der Fermi nur im professionellen Bereich taugen wird. Alles wa NV bisher rausgelassen hat sieht aber danach aus. Denn bei dem geringen Anteil der Kunden die sowas kaufen würden könnte das Licht sehr schnell ausgehen bei NV.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh