nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Taktraten sind ja ziemlich niedrig und dafür sind 10000 punkte doch OK.
 
Hallo,

ich habs zwar oben bereits ergänzt, aber eine HD5970 mit quasi Standardtakt hat 11624 GPU-Punkte.
Ok, da wird mit dem Treiber schon noch etwas gehen. Schlechte Treiber wünsche ich niemandem.
Die Quelle hats imho etwas unsauber formuliert. Es ist von den GPU-Punkten die Rede und trotzdem steht ein X davor. Das zeigt zwar auf, dass es der Extreme-Preset ist, das X vor der Punktzahl kommt aber so nur bei den Gesamtpunkten vor.
Beim Extreme-Preset ist aber die Gewichtung der Punkte anders und hohe CPU-Punkte schlagen beim Gesamtergebnis nicht so stark zu Buche wie beim Performance-Preset.
Im Extreme hab ich z.B. fast keinen Unterschied zwischen CPU- und GPU-PhysX gesehen.
Wenn die Quelle stimmt (das ist ja noch gar nicht sicher), dann geht ein Fermi im Vantage Extreme-Preset fast so gut wie 2x GTX 280, die aber bereits etwas übertaktet sind (siehe Taktraten oben).

ciao Tom

P.S. im Extreme-Preset konnte ich mit meinem alten System eine Sli-Skalierung von über 90 % rausmessen.
 
Zuletzt bearbeitet:
Weiss irgendjemand mehr über die Anzahl ROP/TMU?
Meine Angaben (48ROP, 128TMU) hatte ich von hier:
http://www.hardware-infos.com/news.php?news=3228

Die Seite meldet allerdings völlig falsche Angaben zum Speicherbus (512 statt 384 bit), optimistische Taktfrequenzen, und ein MADD und ein MUL pro Takt und somit 2457 GFLOP/s

---------- Beitrag hinzugefügt um 20:58 ---------- Vorheriger Beitrag war um 20:39 ----------

Hallo,

ich habs zwar oben bereits ergänzt, aber eine HD5970 mit quasi Standardtakt hat 11624 GPU-Punkte.
Ok, da wird mit dem Treiber schon noch etwas gehen. Schlechte Treiber wünsche ich niemandem.
Die Quelle hats etwas imho etwas unsauber formuliert. Es ist von den GPU-Punkten die Rede und trotzdem steht ein X davor. Das zeigt zwar auf, dass es der Extreme-Preset ist, es kommt aber so nur bei den Gesamtpunkten vor.
Beim Extreme-Preset ist aber die Gewichtung der Punkte anders und hohe CPU-Punkte schlagen beim Gesamtergebnis nicht so stark zu Buche wie beim Performance-Preset.
Im Extreme hab ich z.B. fast keinen Unterschied zwischen CPU- und GPU-PhysX gesehen.
Wenn die Quelle stimmt (das ist ja noch gar nicht sicher), dann geht ein Fermi im Vantage Extreme-Preset fast so gut wie 2x GTX 280, die aber bereits etwas übertaktet sind (siehe Taktraten oben).

ciao Tom

P.S. im Extreme-Preset konnte ich mit meinem alten System eine Sli-Skalierung von über 90 % rausmessen.

Danke vielmals für deine Bemühungen. Ich selber kann derartiges momentan nicht testen (Intel 945...).
Von wegen unsauber formuliert: Ich habe ja gewarnt, Babelfish- Übersetzung aus dem Chinesischen, na ja wenigstens die Zahlen sind dieselben.

Welchen Unterschied zwische CPU und GPU Phys-X meinst du? dass sich weniger CPU-Kerne langweilen und dafür die Grafikkarte mehr FPS berechnen kann, oder ...?
 
AUA!!!

Da scheint mächtig Geld in das TWIMTBP Programm zu fliessen (müssen)

Übersetzt heisst das für mich: kauft euch ja keine der schnellen ATi- Grafikkarten, wartet auf Fermi, und bis dahin werden wir Spieleprogrammierer dazu bringen, Konkurrenzkarten einzubremsen

AUA!!
 
Zuletzt bearbeitet:
AUA!!!

Da scheint mächtig Geld in das TWIMTBP Programm zu fliessen (müssen)

Übersetzt heisst das für mich: kauft euch ja keine der schnellen ATi- Grafikkarten, wartet auf Fermi, und bis dahin werden wir Spieleprogrammierer dazu bringen, Konkurrenzkarten einzubremsen

AUA!!

Das wird sich erst zeigen müssen, erstmal keine Panik schieben ;)
 
Leute, ihr seid doch die Spezialisten hier.

Ich habe zur zeit eine gtx280, einen q9550 und ein GA EP45 UD3R.
wird es möglich sein die neue technologie von GT300 auf meinem jetzigen Board zu verwenden oder braucht man schon ein neues?

wird es sich lohnen von gtx280 auf die neue gt300 umzusteigen?

lg
masta-p
 
Ich sag mal so, sollen se doch, wenn die gtx380 oder wie immer se dann heißen wird raus kommt ist ATI mit der Produktion so weit, dass die Preise wieder Purzeln und Nvidia direkt zum Launch auch die Preise drücken muss um Konkurenzfähig zu bleiben und das obwohl die Produktion da zu dem Zeitpunkt wohlmöglich noch nicht richtig hochgefahren ist!?
Das wird bitter für Nvidia!
Hinzukommend sind da die Schwierigkeiten der Ausbeute im 40nm Verfahren.
Und das alles abgesehen von der Leistung, wobei ich die Hoffnung bezüglich einer annehmbaren Leistung unter akzeptablen Stromverbrauchswerten noch nicht aufgegeben hab!
 
Zuletzt bearbeitet:
AUA!!!

Da scheint mächtig Geld in das TWIMTBP Programm zu fliessen (müssen)

Übersetzt heisst das für mich: kauft euch ja keine der schnellen ATi- Grafikkarten, wartet auf Fermi, und bis dahin werden wir Spieleprogrammierer dazu bringen, Konkurrenzkarten einzubremsen

AUA!!
Hast du Halluzinationen? Da steht nun gar nichts von TWIMTBP. Im übrigen, wenn NV hier mit TWIMTBP nicht die Manpower einsetzen würde, hätten wir bald wieder Daumenkinografik. AMD macht da verschwindend wenig, außer in letzter Zeit verstärkt schmutzige Wäsche zu waschen.
Wer hier die Arbeit erledigt, sollte auch davon profitieren.
Hier gibt`s noch eine leckere Charity Auktion von Nvidia.
 
So ruhig wie Nvidia an die Sache ran geht, und so schnell Ati die 5970er released hat, denke ich das die Fermi ein burner wird.
 
Das wird er im wahrsten Sinne der Wortes:haha:

hungrig, warm und laut das kann man schonmal auf jedenfall sagen :fresse:


Ob das sonst so ein Burner wird werden wir sehen.
 
Hast du Halluzinationen? Da steht nun gar nichts von TWIMTBP. Im übrigen, wenn NV hier mit TWIMTBP nicht die Manpower einsetzen würde, hätten wir bald wieder Daumenkinografik. AMD macht da verschwindend wenig, außer in letzter Zeit verstärkt schmutzige Wäsche zu waschen.
Wer hier die Arbeit erledigt, sollte auch davon profitieren.
Hier gibt`s noch eine leckere Charity Auktion von Nvidia.

Basiert das auf einer objektiven oder subjektiven Meinung?! :stupid:

Schön anzusehen, wie sich manch Leute freiwillig zu Affen machen.

BTT
Die GT300 wird sicherlich die Performancekrone erobern, aber die Farge bleibt, wann, wieviel Einheiten und wie groß ist die Gewinnspanne für nVidia.
 
Wenn die Leistung der Geforce Fermis so überragend wäre, kann ich mir eigentlich keinen logischen Grund vorstellen, warum NV dann nicht endlich mal konkrete Daten bzw. das eine oder andere Benchmark Ergebnis blicken lässt.

Ich finde es ja immer wieder erstaunlich wie schon eine lapidare Aussage wie "das Warten lohnt sich ihr werdet nicht enttäuscht sein" oder das kleine Bild einer offensichtlich lauffähigen Karte, die theoretisch alles mögliche sein kann, riesige Wellen im Netz schlägt. Was würde dann erst los sein wenn sie wirklich mal, natürlich ausversehen, ein Benchmark Screen durchsickern lassen. Wenn ich sehe wieviele Leute jetzt schon warten und glauben das die Karten absolut top werden, obwohl eigentlich nichts bekannt ist zur Spieleperformance, dann wäre das doch der beste Schachzug den NV machen könnte.

Ich finde das momentane Verhalten von NV ein bisschen merkwürdig sich so kleinlaut zu geben, ist ja sonst auch nicht ihre Art. Vielleicht doch keine Revolution sondern eher Evolution?
 
hier sind anscheinend keine noobs erwünscht.
das hättet ihr vielleicht auch im threadtitel schreiben können.
jetzt habe ich einige wertvolle Minuten meines Lebens, mit schreiben einer ignorieten frage, die ich inzwischen selbst beantworteten habe, verplempert.

na, satz verstanden ihr Vollfreaks :o
 
hier sind anscheinend keine noobs erwünscht.
das hättet ihr vielleicht auch im threadtitel schreiben können.
jetzt habe ich einige wertvolle Minuten meines Lebens, mit schreiben einer ignorieten frage, die ich inzwischen selbst beantworteten habe, verplempert.

na, satz verstanden ihr Vollfreaks :o

In Kürze:
Aktuelle GraKa's = PCIe = hat dein Board
gtx280 vs. zukunft = verrät mir meine glaskugel nich :p

Warum es wahrscheinlich ignoriert wurde:
Wenn du hier mal bisschen gelesen hast, wüsstest du das es keine Daten von der neuen Reihe gibt. Ein Vergleich ist also derzeit Schwachsinn. Man kann höchstens vermuten, dass sie besser sind. Außerdem dürfte dir deine 280er erstmal ein Weilchen reichen.
 
Leute, ihr seid doch die Spezialisten hier.

Ich habe zur zeit eine gtx280, einen q9550 und ein GA EP45 UD3R.
wird es möglich sein die neue technologie von GT300 auf meinem jetzigen Board zu verwenden oder braucht man schon ein neues?

wird es sich lohnen von gtx280 auf die neue gt300 umzusteigen?

lg
masta-p

Gehört eigentlich nicht hierher, aber:
Grafikkarte aufrüsten wird gehen, Alte GraKa raus, neue reinstecken, solange es dieselbe PCIe Schnittstelle ist, kein Problem. Vermutlich wirst du den Grafikkartentreiber neu installieren müssen. Sogar Wechsel zwischen ATi und Nvidia geht, allerdings ist dann der Treiberupdate etwas diffiziler.

Anders sieht es mit CPU aus. Da hast du schon fast das Maximum, was in deinen Sockel passt. Für einen Core i7 oder Phenom II bräuchtest du ein neues Board mit einem anderen Sockel, und eventuell noch neuen RAM (DDR3) dazu.

Ob sich die neue GeForce lohnen wird, kann dir niemand sagen, da es sie noch nicht gibt. Wir sind ja hier gerade am spekulieren, od z.B. die Shader nun mit 1100 oder 1700 MHz takten. Auch als interessierter Neuling wirst du wohl verstehen, dass dies einen Riesenunterschied in der Performance bedeutet.

Stelle also deine Frage erneut, wenn es sie zu kaufen gibt, also etwa im Frühjahr 2010. Dann werden wir die Leistung und den Preis wissen.
 
Zuletzt bearbeitet:
hier sind anscheinend keine noobs erwünscht.
das hättet ihr vielleicht auch im threadtitel schreiben können.
jetzt habe ich einige wertvolle Minuten meines Lebens, mit schreiben einer ignorieten frage, die ich inzwischen selbst beantworteten habe, verplempert.

na, satz verstanden ihr Vollfreaks :o

kanns sein das du n kleines bisschen ungeduldig bist? :)
 
Hatte Nvidia schon mal so eine Situation, wo Ati zuerst released hat und Nvidia sich lange Zeit lässt um ihre dann zu releasen? Ihr meintet doch A2?-Wurden nicht schon viele in A2 gelaunched?

@XdevilX
a detto
 
Hatte Nvidia schon mal so eine Situation, wo Ati zuerst released hat und Nvidia sich lange Zeit lässt um ihre dann zu releasen? Ihr meintet doch A2?-Wurden nicht schon viele in A2 gelaunched?

@XdevilX
a detto

In der letzten Zeit nicht...
 
Solange eine Fermi nicht draußen ist, darf so viel lamitiert werden, wie alle wollen. Ich sage so lange G80 GTX will never die bis Ati 58xx und Fermi zu guten Preisen zu haben sind.
 
Hm, die 5970 soll nun der Gegenspieler werden? :)
Das wären 3200 SP:5= 640 US vs. 512 US
nVidia: 512US takten mit ~1350MHz
ATI: 640US takten mit ?MHz (= core Takt?)

Von der leistungsstarken CPU, mal ganz davon abgesehen! :d
 
@ Phantomias88

5 1d Shadereinheiten von ATI sind theoretisch stärker als eine 5d shadereinheit von nvidia, das darf man net vergessen.

Dadurch das die architekturen sehr anders sind, lassen sie sich sehr schwer vergleichen.
 
Anders sieht es mit CPU aus. Da hast du schon fast das Maximum, was in deinen Sockel passt. Für einen Core i7 oder Phenom II bräuchtest du ein neues Board mit einem anderen Sockel, und eventuell noch neuen RAM (DDR3) dazu.

passt zwar nicht ganz hier her, aber müsste ich unbedingt DDR3 rams für das neue Board kaufen oder könnte ich meine DDR2 da einbauen? sollte doch gehen, wären einfach etwas langsam.

lg
masta-p
 
Es passt ganz und gar nicht hier rein. ;)

Wenn du ein Board mit Sockel 1366, 1156 oder AM3 kaufst, musst du automatisch auch DDR3 holen.

Siehe hier

http://preisvergleich.hardwareluxx.de/deutschland/?o=9

Genug OT - :btt:

(P.S.: Auch die Diskussionen um die Verfügbarkeit der HD 5000 Gen bei diversen Händlern und co. gehören hier nicht rein und können in den anderen Threads besprochen werden.)

MfG
Edge
 
Zuletzt bearbeitet:
Was ich mich auch frage, wie wollen sie mit diesem riesigen und teuren Chip eigentlich eine leistungsstarke und günstige Mainstream Graka erstellen. Dieser Absatzmarkt ist ja definitiv der wesentlich interessantere und umsatzstärkere als der der High End Modelle.

Laut diverser Umfragen sind ja selbst die meisten PC-Gamer nicht bereit mehr als 200€ für eine neue Karte auszugeben. Fermi und Dual-GPU ist ja dann noch mal ein Thema für sich.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh