nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 4

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@MT_RAZORLIGHT: Naja wenn man das Beste vom Besten will, so muss man das auch bezahlen. Gute Grafikkarten sind allerdings noch extrem billig, wenn man das mal mit CPUs vergleicht. Da kostet die Beste CPU die 30% schneller ist 200% mehr, bei den Grafikkarten kostet die beste Karte die 30% schneller ist vieleicht 35 bis 40% mehr. Dies liegt natürlich daran, dass Grafikleistung gut paralellisierbar ist.
 
ich muss jetzt auch mal meinen senf dazugeben. da mich das schon seit jahren stört das es immerwieder posts gibt die ich nicht verstehen kann. "ich kauf mir dies, ich kauf mir doch jenes!?". "wie ist die leistung!?", "ratet ihr mir doch zu was anderem!?"...

wenn pearl.de irgendwann eine günstige glaskugel im sortiment hat kauf ich mir eine um solche fragen beantworten zu können. was ich damit sagen möchte ist das wir hier noch rein garnix über leistung, preis, etc... sagen können. somit kann eine kaufberatung auch gänzlich anderes ausschauen wenn es benches von unabhängigen seiten gibt. also wartet doch lieber auf den marktstart und stellt dann die fragen
 
Zuletzt bearbeitet:
also bis dahin warte ich auf jedenfall aber wenn ich jetzt schon weiß dass sie um die 500€ kostet kann ich es sowieso schon fast vergessen -.-
 
Was mir persönlich wirklich stinkt, is das ich eig. im Februar einen neuen PC zusammen stellen wollte, jetzt kommt die neue Nvidia Generation erst im März, jetzt muss man nich nur warten sondern weiß am ende garnet, was sie eig. drauf haben usw.

Naja warten werde ich auf jeden fall, und die GTX 380 wird auf jeden meine neue Karte werden, trotzdem würde ich gerne mehr vor dem Release darüber erfahren :)

Wer jetzt sagt kauf dir halt ATI, ne sowas wird mir nie in PC kommen :d
 
Also wenn die Nvidia Karten so super Teile sein sollten, kann ich nicht verstehen warum Nvidia die Kunden ( auch mich ) nicht mit ECHTEN Benchmarks und Informationen bei der Stange hält!? Das was ich bisher an Informationen Gefunden habe ist nichts, woran ich mich festhalten kann.
Ich habe das Gefühl es wird ein Trauma, ähnlich wie bei der FX Serie!!
Aber die Hoffnung .............
 
Naja warten werde ich auf jeden fall, und die GTX 380 wird auf jeden meine neue Karte werden, trotzdem würde ich gerne mehr vor dem Release darüber erfahren :)

Ne also Leute gibts...
Wenn du sowieso warten willst auf die Karte, was machst du da so ne Panik wegen Infos vor dem Release, vor dem Release kannst die Karte sowieso nicht kaufen, und wenn nix anderes außer der Fermi in Frage kommt, bringen dir die Infos über die Karte ebenso rein gar nix... :confused:

Also wenn die Nvidia Karten so super Teile sein sollten, kann ich nicht verstehen warum Nvidia die Kunden ( auch mich ) nicht mit ECHTEN Benchmarks und Informationen bei der Stange hält!? Das was ich bisher an Informationen Gefunden habe ist nichts, woran ich mich festhalten kann.
Ich habe das Gefühl es wird ein Trauma, ähnlich wie bei der FX Serie!!
Aber die Hoffnung .............

Das ist nunmal der Sinn und Zweck eines NDA... ;)

Und NV wäre schön blöd Infos schon lange vor Release rauszurücken, so tappt AMD im Dunkeln wenn es um eine mögliche HD5890 geht, welche durch höheren Takt den Abstand zwischen NVs Top Modell und der HD5870 verkleinern soll.
Würde AMD schon durch NVs Benches viele Daten zur Karte wissen, wäre man seitens AMD in der Lage schnell am Preis was zu drehen bzw. ein höher getaktetes Modell nachzuschieben.
 
Zuletzt bearbeitet:
Was habt ihr eigentlich immer mit dem G80?
Der Vorsprung des G80 im Gegensatz zur ATI Konkurenz bzw. zu den NV G7x Karten war anfangs total schlecht... Weit weniger als 100%.

G80 GTS vs. X1950XTX ~23% | vs. 7950GX2 +-0% | vs. 7900GTX ~41%
G80 GTX vs. X1950XTX ~62% | vs. 7950GX2 ~29% | vs. 7900GTX ~86%

Nachzulesen bei diversen Reviewseiten... Die Beispiele waren jeweils für 1600x1200, 4xAA/16xAF von CB.
Selbst der Unterschied von der 280GTX zur 8800GTX beträgt schon 64% zu Release dieser. Also sogar mehr als der ach so hochgelobte G80 damals zur XTX geschafft hat... Kein Plan warum man G80 immer so hochloben muss...

Wieso kommt in deinem Vergleich die 7950GX2 vor? Die G80 war selbst in der High-End Ausfürhung eine Single-GPU Grafikkarte. Single-GPU mit eienr Dual-GPU Lösung zu vergleichen finde ich persönlich etwas sinnfrei.
 
Also ich finde es gelinde gesagt naiv zu glauben, dass man bei AMD jetzt ratlos rumsitzt und auf den GF100 Launch wartet um dann zu entscheiden was zu tun ist. Wir reden hier von Konzernen bei denen die besten GPU-Engineers der Welt beschäftigt sind und die können natürlich aus allen vorliegenden Daten ganz andere Rückschlüsse ziehen und Prognosen erstellen, als wir das können.

AMD wird mit Sicherheit schon jetzt ein sehr viel genaueres Bild über die Performance von GF100 haben als wir und dementsprechend auch schon eine Reaktion vorbereitet haben. Sie werden mit Sicherheit sogar mehrere Pläne haben, falls die GF100-Karten doch nochmals schneller als ihre Prognose werden. Außerdem wissen wir doch alle mit welch schmutzigen Tricks auch in dieser Branche gearbeitet wird, d.h. wenn AMD die Chance hat mehr Informationen über GF100 zu kriegen, werden sie diese auch nutzen.

Meine Vermutung bezüglich Preis/Performance GF100

GTX380 - 30-40% durchschnittlich vor HD5870 - 500+€
GTX360 - max. 10% vor HD5870 - 350-380€
 
So lange wie 5970 schneller ist wird sich AMD nicht groß den Kopf zerbrechen , warum auch schnellste Karte hat weiterhin dann AMD/ATI.

Millionen von Menschen ist es schnurz piep egal ob das nun wegen einer oder zwei GPUs so ist. Begreift von denen eh kein Schwein. Es wird geguckt wer ist der schnellste am Markt ? -> Ah ATI gut kauf ich :d
 
Wieso kommt in deinem Vergleich die 7950GX2 vor? Die G80 war selbst in der High-End Ausfürhung eine Single-GPU Grafikkarte. Single-GPU mit eienr Dual-GPU Lösung zu vergleichen finde ich persönlich etwas sinnfrei.

Wieso?
Es kommt halt drauf an, von welcher Basis man Produkte vergleicht. Vergleicht man Single GPUs only, dann geb ich dir recht. Vergleicht man beispielsweise nach Kaufpreis, dann kann ich dir nicht zustimmen. Denn dann fällt die GX2 dort auch mit rein.
Schlussendlich ist es auch total hupe, wie sich die Karte zusammensetzt. Was am Ende zählt ist der Preis. (In meinen Augen)

Genau so wird es beim Fermi laufen. Im Grunde haben NVs Top Single GPU Karten keine direkte Konkurenz. Der kleine Bruder konkuriert seit R600 Zeiten mit dem Top AMD Modell. Die Dual GPU Lösungen von AMD waren idR schneller wie die NV Top Single GPU Karten. Und dementsprechend auch Preislich deutlich intensiver...
 
Vom preislichen Aspekt gebe ich dir recht, genau das zählt am Ende. Nur wenn man jetzt ankommt und die GTX 380 mit der 5970 vergleichen würde, wäre das ungefähr so als würde man einen V6 mit einem V12 vergleichen. Letzterer verbraucht deutlich mehr Sprit, leistet aber auch wesentlich mehr. Da kann ich schlecht sagen, dass der V6 aus preislicher Sicht besser da steht als der V12, denn der wird auch in ganz anderen Autos verbaut. Ich weiß, das der Vergleich etwas hinkt, aber verstehst du was ich meine? :)
 
So lange wie 5970 schneller ist wird sich AMD nicht groß den Kopf zerbrechen , warum auch schnellste Karte hat weiterhin dann AMD/ATI.

Millionen von Menschen ist es schnurz piep egal ob das nun wegen einer oder zwei GPUs so ist. Begreift von denen eh kein Schwein. Es wird geguckt wer ist der schnellste am Markt ? -> Ah ATI gut kauf ich :d

100% zustimmung (Das X2 gibts auch nicht mehr bei der Marke ATI) 5970, 6970

vielleicht kommt noch eine GTX400 als Dual Karte?
 
Zuletzt bearbeitet:
HAHA, erinnert mich an ein Gespräch vor einer WOche, er fragte mich wie der enorme Preispsrung von 275er auf 295er zustande käme. Sind es doch nur 2 Versionen "drüber".
Ich musste ihm dann erstmal erläutern das dort 2 Grafikkarten "drin" sind...
Naja :) Ich glaube auch das ATI sehr genau weiß was NV da rausbringen wird und schon die ein oder andere Lösung in Peto haben :) Sei es nur ne aufgebohrte Version von der 5870er

MFG Jubeltrubel
 
So lange wie 5970 schneller ist wird sich AMD nicht groß den Kopf zerbrechen , warum auch schnellste Karte hat weiterhin dann AMD/ATI.

Millionen von Menschen ist es schnurz piep egal ob das nun wegen einer oder zwei GPUs so ist. Begreift von denen eh kein Schwein. Es wird geguckt wer ist der schnellste am Markt ? -> Ah ATI gut kauf ich :d

ja und dann kommt ne Karte ala GTX390/395 wie angekündigt wurde von NIVEA :lol:
Die wird sicherlich genauso beschnitten sein wie die Dual seitens ATI aufgrund von Hitzeproblemen...
Die müsste dann 800,-€ kosten...
immer das Selbe Spielchen
 
Vom preislichen Aspekt gebe ich dir recht, genau das zählt am Ende. Nur wenn man jetzt ankommt und die GTX 380 mit der 5970 vergleichen würde, wäre das ungefähr so als würde man einen V6 mit einem V12 vergleichen. Letzterer verbraucht deutlich mehr Sprit, leistet aber auch wesentlich mehr. Da kann ich schlecht sagen, dass der V6 aus preislicher Sicht besser da steht als der V12, denn der wird auch in ganz anderen Autos verbaut. Ich weiß, das der Vergleich etwas hinkt, aber verstehst du was ich meine? :)

Ach Alex nee , ich denkt euch das alle wie ihr das braucht :d

Graka ist Graka ob nun eine oder 2 GPUs ist für den Massenmarkt völlig egal. Also hat sich die neuste Graka auch mit allen anderen zu messen egal ob Single oder Dual GPU, wer den längsten Framebalken hat gewinnt den Kampf so einfach.

Kannst noch so sagen das sei Unfair oder Unfug aber das ist nun mal die Realität ;)
 
@ Froggi: ich weiß was du meinst, in der Realität passiert auch genau das was du beschreibst, aber wenn man das rein logisch betrachtet, funktioniert der Vergleich nicht wirklich. Darauf wollte ich hinaus ;)
 
Aber ein Vergleich zwischen HD5870, die dann zum GF100 Release für vielleicht ca. 300€ zu kriegen ist und GTX380 die vielleicht 200€ mehr kostet und evt. auch noch deutlich mehr Strom verbrät, würde ich genauso sinnvoll/sinnlos finden. Sollte die GTX380 in etwa so werden wie ich spekuliere, so spielt sie für mich was Performance/Preis/Stromverbrauch angeht klar eher in der Klasse der HD5970 als der HD5870 und sollte deshalb auch mit dieser verglichen werden.

Abgesehen davon wird die GTX380 dann wohl sowieso in fast allen Tests mit beiden ATIs verglichen.
 
@ Froggi: ich weiß was du meinst, in der Realität passiert auch genau das was du beschreibst, aber wenn man das rein logisch betrachtet, funktioniert der Vergleich nicht wirklich. Darauf wollte ich hinaus ;)

Wenn man vom rein logischen ran geht, hat seit dem G80 die Top NV Karte keinen direkten Konkurenten.
Die Dual Karten beider Hersteller konkurieren idR miteinander, genau so wie AMDs Top Single Produkt mit dem kleinen Bruder von NVs Top Single GPU.

Alle anderen Vergleiche sind rein logisch aus dem HighEnd bzw. gehobenen Performance Bereich sinnfrei...

Andererseits hat NV beispielsweise keinen direkten Konkurenten für AMDs kleinen Bruder der Top Single GPU. Dort musste man bis jetzt immer irgendwas zusammen schustern, siehe aufgebohrter G92 mit haufenweise Takt...

Das kann man ewig so fortführen. Übrigens, rein logisch betrachtet wären NV und AMD dieses mal überhaupt nicht miteinander vergleichbar, weil NV einfach mal ein halbes Jahr später dran ist ;)
 
Übrigens, rein logisch betrachtet wären NV und AMD dieses mal überhaupt nicht miteinander vergleichbar, weil NV einfach mal ein halbes Jahr später dran ist ;)
Rein logisch könnte man die Karten auch nicht mal eben so vergleichen, da der Aufbau da auch eine entscheidende Rolle spielt. Im Prinzip ist das aber beim Kauf egal, denn da zählt letztendlich der Preis (nicht bei allen :p)
 
Aber ein Vergleich zwischen HD5870, die dann zum GF100 Release für vielleicht ca. 300€ zu kriegen ist und GTX380 die vielleicht 200€ mehr kostet und evt. auch noch deutlich mehr Strom verbrät, würde ich genauso sinnvoll/sinnlos finden.
Wenn deine Vermutungen stimmen, dann wird die GTX360 um 50-80 € teurer als die HD5870, aber auch um 10% mehr Leistung haben.
Hmm, da würde ich dann aber sehr genau überlegen was ich kauf und würde eher zur NV-Karte tendieren.

Meine Meinung zum ATI-Refresh:
ATI wird mit seiner überarbeiteten HD5870 (HD5890?) eher danach trachten die GTX360 zu überflügeln, denn die GTX380 wird ja vermutlich sowieso von HD5970 geschlagen.
Wenns war ist und die GTX380 wirklich um 30% schneller ist als ein HD5870, wirds ATI nicht schaffen mit einem normalen Refresh drüber zu kommen und sich, wie bei der GTX260 und HD4870 eher daran machen die zweitschnellste NVidia-SingleGPU-Karte zu schlagen. ;)

Dass schon Mitte des Jahres eine komplette neue ATI-Karte (also die HD6xxx-Serie) kommt glaub ich wirklich nicht, die werden wir Ende des Jahres erst sehen. ATI will jetzt erstmal richtig Kohle mit seiner echt guten 5er-Serie machen.
 
Abgesehen davon wird die GTX380 dann wohl sowieso in fast allen Tests mit beiden ATIs verglichen.

richtig, und dann werden die Meisten hingehen und nach €/fps kaufen, egal ob Multi GPU oder nicht.
Zudem wird man dann wieder Artikel lesen....wann kaufe ich ne nVidia und wann ATI....Flimmerfreies AF etc die Pros und cons und muß sich quasi nur noch überlegen was man sich leisten kann und möchte^^

Dann lässt man sich nochmal auf der Zunge zergehen wie brutal ein SLI zweier GTX285 skaliert gegenüber allem was sich derzeit auf dem Markt befindet... wenn sich das so auf Fermi übertragen lässt...
 
Meine Meinung zum ATI-Refresh:
ATI wird mit seiner überarbeiteten HD5870 (HD5890?) eher danach trachten die GTX360 zu überflügeln, denn die GTX380 wird ja vermutlich sowieso von HD5970 geschlagen.
Wenns war ist und die GTX380 wirklich um 30% schneller ist als ein HD5870, wirds ATI nicht schaffen mit einem normalen Refresh drüber zu kommen und sich, wie bei der GTX260 und HD4870 eher daran machen die zweitschnellste NVidia-SingleGPU-Karte zu schlagen. ;)

Eine 5870 @1000/1300 ist 20% schneller, also GTX380 nur noch 10% vorsprung ;)

Dass schon Mitte des Jahres eine komplette neue ATI-Karte (also die HD6xxx-Serie) kommt glaub ich wirklich nicht, die werden wir Ende des Jahres erst sehen. ATI will jetzt erstmal richtig Kohle mit seiner echt guten 5er-Serie machen.

laut spekus will AMD die komplette ATI Serie in 32nm umstellen.
 
Eine 5870 @1000/1300 ist 20% schneller, also GTX380 nur noch 10% vorsprung ;)
Also eine HD5870 OC ist spekulativ 10% langsamer als eine GTX380@Stock von der wir noch nicht wissen was geht ;)
Hab mich ja auch auf die Spekus von Mod23 bezogen um mal preislich das ganze ins Licht zu rücken und ich schließ mich da ja sogar seinen Spekus an, die GTX360 wird in meinen Augen eher der direkte HD5870-Konkurent.
Kein Mensch weiss wie schnell eine GTX360 jetzt wird, es wird immer nur von der GTX380 gesprochen, für mich persönlich is die GTX360 aber weit interessanter ;)

laut spekus will AMD die komplette ATI Serie in 32nm umstellen.
Ja, die kenn ich und wenns nichts anderes ist als ein 32nm Launch mit leicht erhöhten Takraten is es für mich ein Refresh ala GT200b und wenn sie nicht aufpassen fallen sie damit auch die :fresse:, wenn dann die Yields im 32nm Prozess nicht passen.
 
Zuletzt bearbeitet:
Ja, die kenn ich und wenns nichts anderes ist als ein 32nm Launch mit leicht erhöhten Takraten is es für mich ein Refresh ala GT200b

quatsch, wenn ATI ein Chip in 32nm herstelllt, bekommt der natürlich mehr Streamprozessoren um mehr Leistung rauszuholen

Edit: eine 5890 @1000/1300 ist bei 1.2v kein Problem

Das PCB der 5870 hat eine Möglichkeit 8+6 pin PCIe zu verbauen.
in 40nm ist noch einiges drinne, für hohe Taktraten braucht man keine 32nm.

Die neue Serie in 32nm mit mehr Einheiten wird dann wieder den GT300 schlagen!
 
Zuletzt bearbeitet:
Hehe, dumm nur, dass es kein 32nm geben wird für GPUs. TSMC und GF setzen beide auf 28nm.
 
Aber ein Vergleich zwischen HD5870, die dann zum GF100 Release für vielleicht ca. 300€ zu kriegen ist und GTX380 die vielleicht 200€ mehr kostet und evt. auch noch deutlich mehr Strom verbrät, würde ich genauso sinnvoll/sinnlos finden. Sollte die GTX380 in etwa so werden wie ich spekuliere, so spielt sie für mich was Performance/Preis/Stromverbrauch angeht klar eher in der Klasse der HD5970 als der HD5870 und sollte deshalb auch mit dieser verglichen werden.

Abgesehen davon wird die GTX380 dann wohl sowieso in fast allen Tests mit beiden ATIs verglichen.

Naja falls die GTX380 die 30%+ zur HD5870 schafft, so wird sie preislich sicher näher an der HD5970 liegen. Dafür braucht man keine Glaskugel. Was den Stromverbrauch angeht, so wird die GTX380 aber näher an der HD5870 liegen, auch hierfür braucht man keine Glaskugel. Die GTX380 ist mit OC bis 300Watt ausgelegt und wird somit ohne OC sicher nicht über 250W ziehen. Die HD5870 zieht in einigen Tests auch schon über 200W ohne OC.

Ich würde die GTX380 auch eher mit der HD5870 vergleichen, denn die HD5970 muss schließlich noch für die Dual-GTX380, welche im April/Mai kommt, herhalten.
 
Derzeitige Gerüchte besagen, das AMD wohl keine neuen Karten bringen wird dieses Jahr. Auch ist von 32nm keine Rede. Man spricht von 28nm... Bei GloFo gefertigt für anfang 2011. 32nm sollen für CPUs sein.

Im übrigen,was AMD irgendwann mal bringen wird Ende des Jahres gehört hier nicht rein... :btt:

@Duplex
Nur weil einige Karten 1000MHz GPU Takt bei 1,2V schaffen ist das lange nicht Massentauglich. es gibt genügend Karten, die die 1000MHz nicht bei der Spannung schaffen. Ebenso baut man als Hersteller nie direkt am Limit. Was die User mit OC erreichen ist weit weit entfernt von dem, was potentiell in Massenproduktion Massentauglich auf den Markt erreicht werden kann...

Die GTX380 ist mit OC bis 300Watt ausgelegt und wird somit ohne OC sicher nicht über 250W ziehen. Die HD5870 zieht in einigen Tests auch schon über 200W ohne OC.

Eine HD5870 braucht im Schnitt über normale Gaminganwendungen ~155-160W bei Last. Eine HD5970 genehmigt sich ~215-220W.
Das was über 200W bei ner Single HD5870 gemessen wird, sind extrem Situationen ala Furmark... Und in den Situationen muss NV genau so Federn lassen. ;)

Ich denke mal der Fermi wird sich im Bereich 200W bei Gaminglast einordnen, und ~250W bei Furmark...
 
Zuletzt bearbeitet:
Ich denke mal der Fermi wird sich im Bereich 200W bei Gaminglast einordnen, und ~250W bei Furmark...
Nur das mit dem Furmark zu reproduzieren dürfte schwierig werden, nvidia hat jedenfalls irgendwo zwischen 178er und 185er Treiber eine Erkennung für Programme eingeführt, die so eine Last erzeugen. Ergo selbst Umbennen und/oder alte Furmark-Version nehmen bringts nicht mehr.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh