nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Da hast du aber scheinbar völlig falsche Vorstellungen von "etwas neuem". G80 und R600 waren deshalb so neu, weil man zum ersten mal auf eine Shader Architektur setzte. Sowas wird es so schnell nicht wieder geben. Glaube es mir oder auch nicht, aber dass der G300 ein "Megachip" wird, halte ich für unrealistisch. Gerade auch deswegen, weil man schon beim G200 sieht, wie sehr man der Konkurrenz hinterherhinkt. nVidia braucht zwar dringend eine neue Architektur. Die wird aber noch etwas auf sich warten lassen. Entsprechende Veränderungen in der Führungsetage wurden ja erst im vergangenen Jahr vorgenommen. Vermutlich bis mindestens 2011 muss man noch auf erste Ergebnisse warten.

NV hängt ati keineswegs hinterher, NV hat die schnellste singele und multi gpu karte, macht nur wegen des grösseren chips damit weniger gewinn, aber sie haben noch anderen abteilungen dei gewinn machen ;)
Desweiteren ht die führungsetage wenig bis garnix mit der entwicklungsabteilung zu tun. Es muss ja kenie weltsensation sein, anderer interner aufbau ,evtl ringsbus, hier und da was anders, kann schon viel bewirken.

Mein ich das nur oder sind hier wieder die ati fans unterwegs ?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gerade auch deswegen, weil man schon beim G200 sieht, wie sehr man der Konkurrenz hinterherhinkt. .

Der konkurenz hinterherhinkt???? Hab ich was verpasst,in den letzten paar tagen,oder hat ati imo was besseres im port folio als den 4870 u die doppelkarte davon:fresse:
Gibts da irgendwelche benchmarks von der neuen wunderkarte die ich noch nicht kenne:haha:
 
Zuletzt bearbeitet:
Ich glaube, ihr solltet aufhören, nur die absolute Leistung einer GPU zu nutzen, um deren Güte zu beurteilen, dann versteht ihr auch, was mr.dude sagen will.
 
Ich glaube, ihr solltet aufhören, nur die absolute Leistung einer GPU zu nutzen, um deren Güte zu beurteilen, dann versteht ihr auch, was mr.dude sagen will.
Welche güte bitteschön ist bei ati karten besser als bei nvidia die nehmen sich beide nix in den verbauten elektronischen bauteilen.

Meistens wird sogar noch beim selben chiphersteller(TSMC) die produktion ausgelagert.

Möchte gerne mal sonstige vorzüge der 4870 karten kennenlernen,wenn es denn welche gibt:)
 
Zuletzt bearbeitet:
Das "Problem" des GT200 ist die Größe und Komplexität, nicht die Leistung. Insofern hinkt der GT200 hinterher, weil ATI mit einem viel kleineren und einfacherem Chip enorm viel Leistung rausholt.
Ich glaube das hat mr. dude gemeint.
 
Das "Problem" des GT200 ist die Größe und Komplexität, nicht die Leistung. Insofern hinkt der GT200 hinterher, weil ATI mit einem viel kleineren und einfacherem Chip enorm viel Leistung rausholt.
Ich glaube das hat mr. dude gemeint.

Und noch viel günstiger als der GT200 Chip in der Produktion.
 
Ds interessiert doch nur nv, fakt ist der GT200(B) hatn gutes P/L verhältnis und NV hat die schnelslte single und multi GPU karte, und fakt ist auch, für seine grösse wird die HD 4870 enorm heiss und brauch gut strom ;) ...
 
Du verteidigst den G200b was P/L angeht ?

Für den Endverbraucher, ja das mag sein.

Aber für Nvidia selber ist der G200 allgemein ein Quark.

Hier war doch letzt irgendwo mal so ein Link, wo eine "eventuelle" Kostenrechnung für eine Nvidia Grafikkarte war.
Dabei kam raus, dass Nvidia wohl überhaupt kein Gewinn mit dieser macht. Schon gar nicht mehr nach den Preissenkungen jetzt.

Könnte die 260 GTX gewesen sein.
 
Das stimmt auch, Stromverbrauch und Hitzeentwicklung sind besser, aber da der GT200 schon so komplex ist, wie wird dann ein GT300 erst ausschauen? Noch größer, bzw. mehr auf gleicher Die-Fläche ist klar, aber es wird halt nur ne weiterentwicklung des GT200 sein, nicht was ganz neues, wie damals beim G80.
Aber gut, lassen wir uns überraschen, hoffentlich noch dieses Jahr spät. zu Weihnachten
 
Du verteidigst den G200b was P/L angeht ?

Für den Endverbraucher, ja das mag sein.

Aber für Nvidia selber ist der G200 allgemein ein Quark.

Hier war doch letzt irgendwo mal so ein Link, wo eine "eventuelle" Kostenrechnung für eine Nvidia Grafikkarte war.
Dabei kam raus, dass Nvidia wohl überhaupt kein Gewinn mit dieser macht. Schon gar nicht mehr nach den Preissenkungen jetzt.

Könnte die 260 GTX gewesen sein.

Es geht doch auch nicht darum wieviel gewinn eventuell nvidia mit dem GT200 macht,oder meinst du das interessiert irgend einen endverbraucher u er macht daran seine kaufentscheidung fest:)

Entscheidend ist die leistung u in der heutigen zeit leider oder sagen wir zum glück auch der stromverbrauch.Und in beiden liegt der gt200er chip vorne u da ist es doch wurscht wie gross die DIE ist oder wie teuer das pcb design.

Oder kauft ihr etwa bei dem hersteller der den grössten profit macht mit seinen grakas:fresse:

Was der 300 chip bringen wird werden wir sehen,aber er wird nicht nur n simpler core modifizierter GT200 werden.

Das kann man in vielen news schon nachlesen,auch hier auf der ersten seite:)
 
Zuletzt bearbeitet:
Und wenn es ATI nicht gäbe, würde NVidia seine Karten doppelt so teuer verkaufen.
Obs dann für uns Endverbraucher immer noch ein gutes P/L-Verhältnis wäre ?

Ich glaube dass ist auch der Grund warum NV sich soviel zeit mit Neuentwicklungen lässt, und lieber den G92 jetzt als GTS250 verkauft. Die sind entwicklungstechnisch in der Zwickmühle. Wie bekommt man mehr Leistung ohne dass das Ding noch komplexer und teurer in der Herstellung wird? Ein aufgeblasener GT200 wäre ein Monster, ohne sehr gute Ausbeute in der Produktion nicht zu bezahlen.
Darüber zerbrechen die sich die Köpfe, und dass dauert!!
 
Und wenn es ATI nicht gäbe, würde NVidia seine Karten doppelt so teuer verkaufen.
Obs dann für uns Endverbraucher immer noch ein gutes P/L-Verhältnis wäre ?

Ich glaube dass ist auch der Grund warum NV sich soviel zeit mit Neuentwicklungen lässt, und lieber den G92 jetzt als GTS250 verkauft. Die sind entwicklungstechnisch in der Zwickmühle. Wie bekommt man mehr Leistung ohne dass das Ding noch komplexer und teurer in der Herstellung wird? Ein aufgeblasener GT200 wäre ein Monster, ohne sehr gute Ausbeute in der Produktion nicht zu bezahlen.
Darüber zerbrechen die sich die Köpfe, und dass dauert!!
Ich denke mal es besteht einfach noch keine grosse notwendigkeit einen neuen chip auf den markt zu werfen wozu auch,denn die leistung liegt nicht hinter der ,der ati karten zurück.

Auch ati macht es doch mit ihrem demnächst erscheinenden "neuen" nicht anderst taktrate rauf u neuer name "thats is it"

Und nvidia hat was die taktraten beim gt200 anbelangt garantiert noch mehr luft nach oben,denn ein taktmonster ist der 4870 schonmal gar nicht.

Warum sollte also nvidia unter zugzwang sein u nen neuen chip raushauen der gar nicht von nöten ist.

So kann man in ruhe sich auf den gt300 konzentrieren u ein ausgereiftes konzept ende des jahres vorstellen.
 
Zuletzt bearbeitet:
Aus dem GT200 kann man noch viel Leistung rausholen, die GTX285 könnte man z.b. 20 % mit MOD übertakten. Laut einigen User geht der Shadertakt über 1700 und die GPU über 780 :d

Nvidia könnte auch zwischenzeitlich eine GTX285 als GTX290 umlabbeln und 10-20% übertakten, aber nur nötig wenn ATI ein gegenprodukt hätte ;)
 
Zuletzt bearbeitet:
Aus dem GT200 kann man noch viel Leistung rausholen, die GTX285 könnte man z.b. 20 % mit MOD übertakten. Laut einigen User geht der Shadertakt über 1700 und die GPU über 780 :d

Nvidia könnte auch zwischenzeitlich eine GTX285 als GTX290 umlabbeln und 10-20% übertakten, aber nur nötig wenn ATI ein gegenprodukt hätte ;)

Genau so sieht es aus:)

Hier ist ne "alte" 280er gtx mit über 800mhz core u 1730 shadertakt

 
Zuletzt bearbeitet:
Du musst aber nicht ein Ausnahmemodell zeigen (oder wo sehr aufwändige Kühlung zum Einsatz kommt) ;)
Und ein Vmod ist auch nicht das wahre, die 285GTX zieht ja nicht wenig Strom aus der Dose.
 
Zuletzt bearbeitet:
Du musst aber nicht ein Ausnahmemodell zeigen (oder wo sehr aufwändige Kühlung zum Einsatz kommt) ;)
Und ein Vmod ist auch nicht das wahre, die 285GTX zieht ja nicht wenig Strom aus der Dose.

Es zeigt dir nur auf das der chip noch lange nicht am ende ist von den taktraten u das ist auch kein ausnahmemodell ich habe 3 280er karten hier u die laufen zusammen alle mit 775 core ohne jegliche vcore modifikation:)
Und auch der stromverbrauch ist bei der 280er karte niedriger als bei der 4870 aber das hatten wir ja schon:)

Und das sind "nur" 65nm karten keine 55er wie die neue 285 gtx

 
Zuletzt bearbeitet:
NV hängt ati keineswegs hinterher
Oh doch. Und nicht gerade wenig.

NV hat die schnellste singele und multi gpu karte, macht nur wegen des grösseren chips damit weniger gewinn
Du beantwortest dir die Frage doch selbst. Es geht nicht um Performance. Die 10-20%, die nVidia noch schneller ist, wobei die Frage ist, ob das mit dem RV790 so bleibt, sind unbedeutend. nVidias G200 ist deutlich teurer in der Produktion. Und wir reden hier mindestens von Faktor 2 bis 3. Und während ATI ganz locker und leicht kleinere Derivate ala RV710 oder RV730, und demnächst RV740 (40 nm), auf den Markt werfen kann, ist beim G200 noch immer nichts in Sicht.

Ds interessiert doch nur nv
Momentan ja. Aber wenn nVidia nicht wirtschaftlicher wird und wieder anfängt, Geld damit zu verdienen, interessiert es dich irgendwann auch. Nämlich dann, wenn der Entwicklungsetat den Bach runtergeht und neue Produkte ausbleiben oder sich zumindest stark verzögern. Man sollte nicht so kurzsichtig denken.

Und auch der stromverbrauch ist bei der 280er karte niedriger als bei der 4870
Toller Witz. :rolleyes: klick
 
Oh doch. Und nicht gerade wenig.


Du beantwortest dir die Frage doch selbst. Es geht nicht um Performance. Die 10-20%, die nVidia noch schneller ist, wobei die Frage ist, ob das mit dem RV790 so bleibt, sind unbedeutend. nVidias G200 ist deutlich teurer in der Produktion. Und wir reden hier mindestens von Faktor 2 bis 3. Und während ATI ganz locker und leicht kleinere Derivate ala RV710 oder RV730, und demnächst RV740 (40 nm), auf den Markt werfen kann, ist beim G200 noch immer nichts in Sicht.


Momentan ja. Aber wenn nVidia nicht wirtschaftlicher wird und wieder anfängt, Geld damit zu verdienen, interessiert es dich irgendwann auch. Nämlich dann, wenn der Entwicklungsetat den Bach runtergeht und neue Produkte ausbleiben oder sich zumindest stark verzögern. Man sollte nicht so kurzsichtig denken.


Toller Witz. :rolleyes: klick

DU redest, nich wir !
Mich interessiert welche karte ist die schnellste, wo sind die Treiber am besten, und wo hab ich die beste game unterstützung (the way it meaned to be played), das sind 3 punkte für nv, meinte ich kuf mit ne ati weil die da 3 ma mehr gewinn machen ? das interessiert mcih nicht. ich kauf mir uach liebern mustang V8 4,6 liter mit 300 ps als nen 4 zylinder turbo mit 300ps
 
DU redest, nich wir !
Mich interessiert welche karte ist die schnellste, wo sind die Treiber am besten, und wo hab ich die beste game unterstützung (the way it meaned to be played), das sind 3 punkte für nv, meinte ich kuf mit ne ati weil die da 3 ma mehr gewinn machen ? das interessiert mcih nicht. ich kauf mir uach liebern mustang V8 4,6 liter mit 300 ps als nen 4 zylinder turbo mit 300ps


Es heißt:
The way it's meant to played....

Weiters, fällst du auf so einen Schwachsinn rein oder wie? Scheint ja doch, als dass diese dümmliche Vermarktung Sinn macht....denn mehr als ein toller Spruch ist das nicht.

Und bezüglich der Treiber, da nehmen sich wohl Nvidia und ATI nichts, beide sind fehlerhaft und haben ihre Macken, etwas schön reden kann man immer, die Fakten aber objektiv betrachten können nicht viele....dann wären wir bei noch einem Punkt für die schnellste Karte.


@mr.dude

Vergiss es, viele sehen sowas einfach nicht, es gibt Leute die sehen so etwas selbst und wiederum andere die interessiert das einfach nicht....so wie überall auf dieser Welt :), egal welches Thema.
 
Zuletzt bearbeitet:
Ja, scheint mir auch so, dass vielen einfach die Zugänglichkeit oder gar das Verständnis für solche Themen fehlt.

@scully
Du solltest lieber nochmal nachrechnen. Nehmen wir mal grosszügig 20% mehr Performance für die GTX 280 gegenüber der HD 4870. Wobei das in höheren Auflösungen mit Qualitätseinstellungen nicht selten auf 10% oder weniger schrumpf. Die GTX braucht in dem Test aber 37% mehr Leistung unter Vollast. Wie bitteschön kommst du da auf so abwegige Gedanken, die GTX sei effizienter?
Aber mal abgesehen davon, das ist nun wirklich nicht das Thema dieses Threads.
 
Es heißt:
The way it's meant to played....

Weiters, fällst du auf so einen Schwachsinn rein oder wie? Scheint ja doch, als dass diese dümmliche Vermarktung Sinn macht....denn mehr als ein toller Spruch ist das nicht.

Und bezüglich der Treiber, da nehmen sich wohl Nvidia und ATI nichts, beide sind fehlerhaft und haben ihre Macken, etwas schön reden kann man immer, die Fakten aber objektiv betrachten können nicht viele....dann wären wir bei noch einem Punkt für die schnellste Karte.


@mr.dude

Vergiss es, viele sehen sowas einfach nicht, es gibt Leute die sehen so etwas selbst und wiederum andere die interessiert das einfach nicht....so wie überall auf dieser Welt :), egal welches Thema.

Fakt ist viele games laufen perfekt zu anfang mit nvidia, bei ati erst nen monat später mim neuen treiber, solange möchte ich nicht warten, meist sinds eben die games mit dem logo, jüngstes beispiel gta, bei bf2 gehen die schatten mit atis immer noch nicht...
es ist im übrigen kindergarten leute auf rechtschreibfehler hinzuweisen, kommt meist nur wenn die kein argument mehr haben..

@mr.dude: erm einte wohl den stormverbrauch im verhältnis zur chipfläche, da is ati ganz mies...
 
Zuletzt bearbeitet:
erm einte wohl den stormverbrauch im verhältnis zur chipfläche
Was allerdings keine Relevanz hat. Dies resultiert ja nicht aus der Güte des Chips, sondern ist eine rein konzeptionelle Frage, Vorgaben für die Packdichten, usw.
Es wäre für ATI wohl kein Problem gewesen, den Chip doppelt so gross und 30-50% leistungsfähiger bei vergleichbarer Thermik zu machen. Dann wäre die Leistungsaufnahme pro Fläche natürlich auch geringer. Nur wozu? Es bringt dir nichts. Nur miese Yields und hohe Fertigungskosten.
 
Was allerdings keine Relevanz hat. Dies resultiert ja nicht aus der Güte des Chips, sondern ist eine rein konzeptionelle Frage, Vorgaben für die Packdichten, usw.
Es wäre für ATI wohl kein Problem gewesen, den Chip doppelt so gross und 30-50% leistungsfähiger bei vergleichbarer Thermik zu machen. Dann wäre die Leistungsaufnahme pro Fläche natürlich auch geringer. Nur wozu? Es bringt dir nichts. Nur miese Yields und hohe Fertigungskosten.

Es bringt schonwas, wie du siehst kufen genug ne GTX 280 eben weilse dei schnelslte single gpu ist ;)
 
@scully
Die GTX braucht in dem Test aber 37% mehr Leistung unter Vollast. Wie bitteschön kommst du da auf so abwegige Gedanken, die GTX sei effizienter?

Gegenfrage:
Wie kommst du bitte auf den abwegigen gedanken das die GTX 37% mehr leistung zieht als die 4870:)
Da bin ich aber mal auf deine berechnungsgrundlage gespannt bzw auf diagramme von renomierten!!! testseiten die dieses belegen?:fresse:

Man muss sich nur die zwei doppelkarten zu gemüthe führen,dort sieht man es am eindruckvollsten wer den effizienzvorteil auf seiner seite hat

Und was soll dann diese aussage bedeuten
Es wäre für ATI wohl kein Problem gewesen, den Chip doppelt so gross und 30-50% leistungsfähiger bei vergleichbarer Thermik zu machen. Dann wäre die Leistungsaufnahme pro Fläche natürlich auch geringer. Nur wozu? Es bringt dir nichts. Nur miese Yields und hohe Fertigungskosten.
Ein widerspruch in sich wenn die chips der 4870 doch so effizient sind oder:)
 
Zuletzt bearbeitet:
@GA-Thrawn: Und was glaubst du, wieviel mehr Leute eine HD4800er-Grafikkarte kaufen als eine GTX280? Das Argument ist haltlos.

@scully: Willst du hier wirklich anfangen, die Prozentrechnung durchzunehmen und die ganze Diskussion ad absurdum zu führen, indem du über Renommiertheit von Seiten argumentierst? Es gibt genügend renommierte Seiten, die dir so ohne weiteres schon die fertigungstechnische Ineffizienz des GT200 näherbringen können, da musst du den Umweg über die Thermik gar nicht gehen. Der GT200 ist eine wahnsinnig raffinierte und effiziente Architektur als solches, nur ist sie, was die Fertigung und damit die Skalierbarkeit auf spätere Generationen angeht, eben nicht besonders geschickt. Ich empfehl dir zum Beispiel als Einstieg den indepth-Bericht auf beyond3d, das ist ein guter Start - solltest du wirklich diskutieren wollen und nicht nur eigentlich inhaltslose Beiträge verfassen. ;)
 
@GA-Thrawn: Und was glaubst du, wieviel mehr Leute eine HD4800er-Grafikkarte kaufen als eine GTX280? Das Argument ist haltlos.

@scully: Willst du hier wirklich anfangen, die Prozentrechnung durchzunehmen und die ganze Diskussion ad absurdum zu führen, indem du über Renommiertheit von Seiten argumentierst? Es gibt genügend renommierte Seiten, die dir so ohne weiteres schon die fertigungstechnische Ineffizienz des GT200 näherbringen können, da musst du den Umweg über die Thermik gar nicht gehen. Der GT200 ist eine wahnsinnig raffinierte und effiziente Architektur als solches, nur ist sie, was die Fertigung und damit die Skalierbarkeit auf spätere Generationen angeht, eben nicht besonders geschickt. Ich empfehl dir zum Beispiel als Einstieg den indepth-Bericht auf beyond3d, das ist ein guter Start - solltest du wirklich diskutieren wollen und nicht nur eigentlich inhaltslose Beiträge verfassen. ;)
Inhaltlos sind nur die prozentrechnungen die hier ins felde geführt werden,die schlicht und ergreifend falsch sind.
Und ich habe auch nicht bestritten das der 200er gt fertigungstechnisch problematisch u finannziell ungünstig entwickelt wurde,das muss nvidia mit sich selbst ausmachen:)
Aber den endkunden interessiert das soviel wie wenn in china ein sack reis umfällt:)

Aber ich werde garantiert nicht so nen schmarn von 37% hier unkommentiert lassen
 
Zuletzt bearbeitet:
@all

Ist hier bald mal Schluß mit dem Fanboy Gelaber? Warum schaut hier nicht ab und an mal ein Mod rein?

Ist doch völlig egal wie aktuelle Architekturen arbeiten oder nicht arbeiten, der G300 baut zumindest nicht auf dem GT200 soweit ich informiert bin, die Entwicklung an ihm hat schon begonnen bevor der GT200 überhaupt released war.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh