nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] [Part 1.1]

Status
Für weitere Antworten geschlossen.
Ums mal zusammenzufassen, fdsonne, auch wenn du dich streubst, der R600 war ATIs letztes High-End. Er war so im Vorfeld geplant, nur nacher ganz einfach zu lahm um mit den Top Produkten von NV mitzuhalten, das wusste ATI und musste ihn auch dementsprechen vermarkten.

BTT please!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was er damit sagen will: Nicht mal Gott weiß wann die GT300er rauskomm...

nVidia rückt ja nicht mit der Sprache raus, dazu noch ne Spur aus Fakes und Ausreden - da blickt keiner mehr durch :(
 
Ob das gute oder schlchte Zeichen für den GT300 sind, dass darf jeder für sich selbst entscheiden :fresse:
 
Offizieller Preis von AMD damals zum Releasetag war 399€, siehe dazu auch cb...
Im Geizhals waren aber durchaus auch günstigere Karte drin und wie gesagt, ich hab am ersten Tag ne HiS (409€) und ne Woche später ne Sapphire(~360€) gekauft... Also was willst du mit den Dollar Preisen?

Und keine Ahnung, aber es gibt einzig und allein 1GB Karten die sich HD2900XT nennen, ne XTX gibts da nicht und gabs auch offiziell nie!

Und ja, in der Tat, die 1GB Karten waren recht selten, aber dennoch vorhanden und verfügbar, auch wenn schweine teuer...

achso - hatte vergessen das die offiziellen preise in euro angegeben werden, mist! mal ernsthaft, die uvb von ati für die hd2900 lag zu beginn bei 450usd. du sagst es ja eigentlich selbst.

wegen der xtx:
...Verstreut scheinen aber Karten mit dem großen 1 GiB GDDR4-Speicher produziert worden zu sein. Doch anstatt die Karte als Limited-Edition in den Handel zu bringen, zieht es ATi anscheinend lieber vor, ausschließlich seinen Partnern die Karte auszuhändigen. Diese sollen die Karte als Workstation-Karte benutzen, also zum Beispiel zur Spieleentwicklung. Dadurch dass allerdings vereinzelt Karten des Typs HD 2900 XTX im Umlauf sind, darf man sich an zehn Fingern abzählen, wie lange es dauern wird, bis erste Karten beim Auktionshaus eBay zu horrenden Preisen angeboten werden.

gibt noch mehr solcher infos. gab auch paar seiten die hatten noch screenshots von gelisteten xtx karten.

aber nun b2t: weiter diskussionen gerne per pn.
 
Zuletzt bearbeitet:
noize schrieb:
gibt noch mehr solcher infos. gab auch paar seiten die hatten noch screenshots von gelisteten xtx karten.

Starting August, 2007 some system builders including Falcon Northwest received the 1 GB GDDR4 (with Samsung 0.9 ns (K4U52324QE-BC09) GDDR4) version of the Radeon HD 2900 XT. Falcon Northwest incorrectly referred the product as the "Radeon HD 2900 XTX".

Jetzt aber langsam wirklich BTT sonst können wir den thread gleich umbenennen;)
 
Möglicherweise kommen dann paar hundert Updates und Treiber von nVidia damit irgendwelche "Anwendungen" beschleunigt werden, wer weiß :d
Schließlich dauert das Aktualisieren der WMP Bibliothek selbst mit einer SSD und einem i7 immer noch zu lange in der heutigen Zeit :fresse:

Mal Spaß beiseite: ich denke, dass eine Unterstützung der GPU für die CPU möglich ist; trotzdem müsste man seitens M$ und nVidia stark optimierte Treiber herausbringen damit auch ein sprübarer Leistungsschub festzustellen ist. Nur mit schnellerem Video-Encoding wird das nichts.
 
naja, wenn MS und nvidia stark zusammen arbeiten kann man davon ausgehen, dass es im Treiber mit implementiert wird oder als ein Update seitens MS zum download erscheinen wird.
 
Nur ist das dann zum glück nicht NV only, da es ja ein standart ist der auch von ATI unterstütz wird, DC v10.1 von den alten karten und DC v11 von der 5k serie.:coolblue:
 
Fanboy hin Fanboy her.
Solche Aussagen wie' NV kriegt die Kurve nicht sind sowas von sinnfrei :stupid:
weil ATI hats doch vorgeführt durch Harte Arbeit das mehr rauszuholen geht aus einer Architektur von einer total versenkten HD2k bis zu einer HD5k.
Und so überragend ist die HD5k auch ned grad mal wenns optimal läuft im Schnitt grad mal 40% schneller als GTX 285 in1920+ 4AA/16AF und das obwohl die anzahl der Shader verdoppelt wurde.Was grad für die HD5870 spricht ist das bessere SGSSAA im vergleich zu NV OGSSAA. Letztendlich läuft es auf das gleiche hinnaus wie bei HD4890 vs GTX 285. Die eine ist billiger und ca 10%max 15%langsamer je nach Spiel aber auch mal schneller.Deshalb abwarten und Tee
trinken und sich freuen das die Preise dann wieder abrutschen und viel Leistung für wenig Geld gibt:love:

SGSSAA bricht nicht so schnell ein wie OGSSAA. Das wurde aber auch nur jetzt mit der 5K Serie verglichen. Ich denke bei den älteren 4k Modellen bricht SGSSAA ähnlich ein wie nvidias Modell. Zumindest bei 4x SGSSAA vs 4x OGSSAA spielt es ohnehin keine Rolle mehr, da die fps sich in unspielbaren Bereichen befindet. Da bin ich mal gespannt was der GT300 da bringt.

Wenn der GT300 gerade mal 10-15% schneller werden sollte wie die 5870, dann siehts aber nimmer so besonders aus. 25-30% müssen die bringen, alleine schon wegen der anstehenden 5890. Zudem kommen noch die 2GB Karten, die dadurch sicherlich auch noch ein bissi was rausholen.
 
sorry, aber das ist schlichtweg falsch. sie wurde erst 1-2 monate später gegen die gts aufgestellt, als klar war das nicht viel mehr ging.
Nein. fdsonne hat völlig recht. Die XT sollte schon immer gegen die GTS antreten. Für die GTX war die XTX geplant, welche aber, vermutlich wegen thermischen Gründen, nie gelauncht wurde. Das Thema ist alt und hat mittlerweile so einen Bart. Ich frage mich, warum das immer wieder aufgewärmt werden muss. Wollt ihr nicht lieber wieder zum GT300 zurückkommen? ;)
 
Nein. fdsonne hat völlig recht. Die XT sollte schon immer gegen die GTS antreten. Für die GTX war die XTX geplant, welche aber, vermutlich wegen thermischen Gründen, nie gelauncht wurde. Das Thema ist alt und hat mittlerweile so einen Bart. Ich frage mich, warum das immer wieder aufgewärmt werden muss. Wollt ihr nicht lieber wieder zum GT300 zurückkommen? ;)

Das kommt immer dann hoch, wenn wieder jemand die "Überkarte" G80 lobt und wie toll die auch damals war...
Da kommt halt im gleichen Atemzug das ATI bzw. damals auch schon AMD unfähig war einen Konkurenten zu bringen :fresse:

Neja aber mal gucken wie es mit dem GT300 wird, ich hoffe doch mal stark für NV, das die Karte mindestens so gut wie, wie eine RV870 und das ich mich als Endkunde wieder auf nen ordentlichen Preiskampf freuen kann...

Auch wenn ich glaube, das NV diemal sogar keine Infos über die Gamingperformance verstreut, das wir Endkunden da sicher noch eine Überraschung erleben werden...
 
Ich hoffe der November bringt mal ein paar handfeste Infos/Originalbilder etc.

Die X2 karten der Konkurrenz scheinen ja Ende November schon zu kommen.

--

Eine etwaige 380 GTX müsste schon extremen Dampf haben um sich auch direkt gegen die Dualkarten durchsetzen zu können.

Davon gehe ich allerdings nicht aus.
 
Also Optimal für gute Preise etc dürfte der GT300 nicht mehr als 30% vor der 5870 liegen! Ich bin aufjedenfall gespannt, was NV da zusammenbastelt! *g*
 
Da muss mal was kommen , sonst ist ja doof karten die 9.09 erschienen sind mit einer karte zu vergleichen die erst so 2.10 erscheind , 5 monate sind ja schon fast ne generation :d
 
Das kommt immer dann hoch, wenn wieder jemand die "Überkarte" G80 lobt und wie toll die auch damals war...
Da kommt halt im gleichen Atemzug das ATI bzw. damals auch schon AMD unfähig war einen Konkurenten zu bringen :fresse:

Neja aber mal gucken wie es mit dem GT300 wird, ich hoffe doch mal stark für NV, das die Karte mindestens so gut wie, wie eine RV870 und das ich mich als Endkunde wieder auf nen ordentlichen Preiskampf freuen kann...

Auch wenn ich glaube, das NV diemal sogar keine Infos über die Gamingperformance verstreut, das wir Endkunden da sicher noch eine Überraschung erleben werden...

Bleibt nur die Frage welche Art von Überraschung ;)
 
Ich habe jetzt ein bisschen aufgeräumt. Nochmal zur Erinnerung:
es geht hier um den G300 und nicht darum, ob jemand nun eine ATI/AMD Karte hat /davon begeistert ist oder nicht!
 
Also Optimal für gute Preise etc dürfte der GT300 nicht mehr als 30% vor der 5870 liegen! Ich bin aufjedenfall gespannt, was NV da zusammenbastelt! *g*

Also ich denke mehr als diese 30% wirst du wahrscheinlich auch nicht sehen. Was ich in diversen Foren schon an utopischen Performancevermutungen gelesen habe ist einfach nur lächerlich und absolut unrealischtisch. Da findet geradezu ein Überbietungswettbewerb statt...100% schneller als HD5870...nein 200%...usw.

Wenn man sich der ganzen Sache mal objektiv nähert und mal die Entwicklung der Grakas allg. zusammen mit der Entwicklung der Games betrachtet in den letzten Jahren, so könnte man zu der Erkenntnis gelangen, dass die Zeiten von Leistung um jeden Preis vorbei sind.

Der Endverbraucher erwartet heute ein Produkt bei dem das Gesamtpaket stimmt, d.h. Performance,Leistungsaufnahme,Hitzeentwicklung,Lautstärke
Featureset und der Preis müssen in einem ausgewogenen Verhältnis zueinander stehen und das weiß natürlich auch NV.

Eine Graka zu entwickeln die zwar extrem leistungsstark ist aber Strom verbraucht wie ne Microwelle, heiß wird wie ein Backoffen und laut ist wie ein startener Jet würde vollkommen am Markt vorbei gehen und nur Freaks glücklich machen. Sowas ist einfach nicht mehr zeitgemäß. Ati hat mit der HD5870 vorgelegt und daran wird sich der GT300 messen müssen und zwar an dem Gesamtpaket und nicht nur an der Performance.

Außerdem sehen wir doch seit einiger Zeit ein Stagnation bei den PC-Games. Pc only Titel werden sogut wie nicht mehr entwickelt. Es ist einfach nicht mehr nötig ständig die Leistungsfähigkeit von Grakas extrem zu verbessern. Crysis ist aus dem Jahre 2007 das sagt doch alles. Also zusammenfassend denke ich, dass ein Vorsprung von 20-40% zur Hd5870 wohl realistisch ist.
 
Zuletzt bearbeitet:
Also ich denke mehr als diese 30% wirst du wahrscheinlich auch nicht sehen. Was ich in diversen Foren schon an utopischen Performancevermutungen gelesen habe ist einfach nur lächerlich und absolut unrealischtisch. Da findet geradezu ein Überbietungswettbewerb statt...100% schneller als HD5870...nein 200%...usw.

Wenn man sich der ganzen Sache mal objektiv nähert und mal die Entwicklung der Grakas allg. zusammen mit der Entwicklung der Games betrachtet in den letzten Jahren, so könnte man zu der Erkenntnis gelangen, dass die Zeiten von Leistung um jeden Preis vorbei sind.

Der Endverbraucher erwartet heute ein Produkt bei dem das Gesamtpaket stimmt, d.h. Performance,Leistungsaufnahme,Hitzeentwicklung,Lautstärke
Featureset und der Preis müssen in einem ausgewogenen Verhältnis zueinander stehen und das weiß natürlich auch NV.

Eine Graka zu entwickeln die zwar extrem leistungsstark ist aber Strom verbraucht wie ne Microwelle, heiß wird wie ein Backoffen und laut ist wie ein startener Jet würde vollkommen am Markt vorbei gehen und nur Freaks glücklich machen. Sowas ist einfach nicht mehr zeitgemäß. Ati hat mit der HD5870 vorgelegt und daran wird sich der GT300 messen müssen und zwar an dem Gesamtpaket und nicht nur an der Performance.

Außerdem sehen wir doch seit einiger Zeit ein Stagnation bei den PC-Games. Pc only Titel werden sogut wie nicht mehr entwickelt. Es ist einfach nicht mehr nötig ständig die Leistungsfähigkeit von Grakas extrem zu verbessern. Crysis ist aus dem Jahre 2007 das sagt doch alles. Also zusammenfassend denke ich, dass ein Vorsprung von 20-40% zur Hd5870 wohl realistisch ist.

Danke für diesen Beitrag ! :hail:
 
ihr beiden habt eines vergessen, der Fermi ist nicht nur eine grafikkarte für spieler, sondern wird besonders stark in z.b. wissenschaftlichen berechnung.

das wird ein meilenstein der grafikkarten-geschichte.
 
ihr beiden habt eines vergessen, der Fermi ist nicht nur eine grafikkarte für spieler, sondern wird besonders stark in z.b. wissenschaftlichen berechnung.

das wird ein meilenstein der grafikkarten-geschichte.

Vielleicht hast du recht und es wird ein Meilenstein in diesem Bereich aber die Frage ist doch was bringt es mir als User. Mich persönlich interessieren wissenschaftliche Berechnungen auf einer Graka nähmlich überhaupt nicht und es sollte auch klar sein, dass man diese Fähigkeiten beim Kauf jeder Gamer Variante dieser Architektur mitbezahlt ohne eine unmittelbaren Nutzen daraus zu ziehen.

Das Nvidia natürlich sagt, dass sie glauben das GPGPU in Zukunft auch großen Einfluss auf die Grafik in Games haben wird ist verständlich. Sie können ja schlecht sagen "also wir haben da was ganz tolles für Unis,Laboratorien usw. entwickelt was euch als Gamer aber erst in 2-5 Jahren was bringen wird aber ihr müsst es jetzt leider schonmal mitbezahlen".

Dennoch glaube ich, dass der Weg den sie gehen langfristig schon richtig ist und ich bin mir auch ziemlich sicher, dass AMD/ATI bei ihrer wirklichen NextGen Graka in eine ähnliche Richtung entwickeln werden. Ich habe die Evergreen Grakas nie als Nextgen angesehen, sondern vielmehr als letzte Ausbaustufe der R600 Architektur und wenn die neue ATI Architektur tatsächlich schon im Q3 oder Q4 2010 erscheinen sollte erst dann wird man sehen wie gut NV bei Fermi gearbeitet hat.

Auf diese beiden Architekturen werden nähmlich die nächsten 3-4 Graka Generationen der beiden Hersteller aufbauen.
 
ihr beiden habt eines vergessen, der Fermi ist nicht nur eine grafikkarte für spieler, sondern wird besonders stark in z.b. wissenschaftlichen berechnung.

das wird ein meilenstein der grafikkarten-geschichte.


Aha. Und wie viele Kernfusions-/Klimamodelle laufen denn aktuell auf Deinem Rechner?
 
Hier gilt wohl wieder das Stichwort Multimedia Applikationen...
 
Wenn mein C4D für eine GI-Berechnung statt 24h nur noch 1h braucht, wäre es mir eine Überlegung wert.
Wenn aber ein Videorecode statt 30min dann 15min braucht, wäre es mir keinen Aufpreis wert.
 
Wenn mein C4D für eine GI-Berechnung statt 24h nur noch 1h braucht, wäre es mir eine Überlegung wert.
Wenn aber ein Videorecode statt 30min dann 15min braucht, wäre es mir keinen Aufpreis wert.

Es ist natürlich immer entscheidend was man mit seinem Rechner macht. Ich bin da wohl eher traditionell gestrickt und kaufe eine Graka in erster Linie, weil ich die neusten 3D Games mit allen Effekten und in hohen Auflösungen flüssig darstellen will ohne aber unangemessene Stromverbräuche usw. in Kauf nehmen zu wollen.

NV muss sich einfach breiter aufstellen, weil der Markt für reine Gamer Grakas wohl nicht mehr größer wird. Man darf nicht vergessen, dass Deutschland immer noch eine Hochburg des PC-Gamings ist was aber in vielen anderen Teilen der Welt schon ganz anders aussieht.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh