nVidia GeForce 8600 *Sammelthread* [Part 1]

Status
Für weitere Antworten geschlossen.
nVidia GeForce 8600 *Sammelthread*​



Die 8600er-Serie wird die aktuelle 7600er-Serie ersetzten und DX10 in den Mainstreambereich bringen. Alle 8600er basieren auf dem neuen G84 Core in 80nm und mit 128Bit SI (*habichdochgesagt*). Bestätigt sind bis jetzt 8600GTS und eine 8600GT. Release: 17. April.


nVidia GeForce 8600GTS
G84-400@675MHz / 256-512MB GDDR3@128Bit@1000MHz / ~200$-250$ / ersetzt 7900GS
8600gtshm7.jpg



nVidia GeForce 8600GT
G84-300@540MHz / 128-256MB GDDR3@128Bit@700MHz / ~150$-180$ / ersetzt 7600GT
8600gttk4.jpg



MORE TO COME
 
Zuletzt bearbeitet:
Also sollte ich mal auf die idee kommen meine geile 7900GS GS @ 600/800 zu Tauschen, würde ich nicht 200€ in eine 8600GTS investieren, dann doch lieber noch schnell ne OMA im Park überfallen und ihr 49€ abzwacken, und ne 8800/320 kaufen !

( Das mit der OMA nicht machen, soll n scherz sein ! ):lol: :lol:

Alwo was das mit der 8600 soll, die Karte taugt ja mal so ziemlich garnichts!

Also Heute noch ein karte mit SI128 zu bringen, und die allenernstes an Spieler Verkaufen zu wollen, ist meiner meinung nach ein Frechheit !:mad: :mad: :wall:

da bleibt mir wirklich nur das warten auf die 8900GS/512 !

aber da NV mom die Kunden Verarscht, und den Treuen altkunden die sich ne NV karte der 7 serie gekauft haben, werden mom Treibertechnisch hängen gelassen, und dann kommt so eine Müll Karte auf den Markt!
Also meine erste DX10 karte könnte wohl doch wieder eine ATI werden !
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die wollen doch nur mit DX10 locken....alles andere ist nicht zu erklären.
 
die gpu ist einfach zu krass beschnitten. 192bit si, 8vec4 shader cluster, 12rops und ab dafür...

das wäre die perfekte gts und nv hätte sich damit sicherlich nicht das bein gebrochen wenn eben 80-100 millionen transis mehr im die wären. dann hätte sie halt nur 650 oder 600mhz auf der gpu gehabt, wäre aber mal um einiges schneller als diese kröte hier. wobei ich wirklich noch glaube das cod2 ein treiberproblem ist.
 
Zuletzt bearbeitet:
mal ne frage..wie würde eine dx9 karte (z-b- 1950 pro) unter einem dx10 spiel laufen? funktioniert das überhaupt?

MfG
 
aber ich denke mal mit einer 1950 pro sollte ich noch einige zeit gut fahren können, da erste dx10 spiele wohl im herbst zu erwarten sind und sind die ja abwärtskompatibel..
 
die tests sind wirklich etwas enttäuschend, habe schon darüber nachgedacht meine gto zu verkaufen und ne 8600gts zu holen aber nach diesen benchmarks werd ich von der karte die finger lassen, das einzige game wo die gts schneller ist als meine gto ist gothic3 und das spiele ich nichteinmal ;)
 
bin auch der meinung das die 8600er nicht wirklich zugebrauchen sind...klar die können dx10 aber die leistung lässt denk ich zu wünschen übrig mit 128bit speicherinterface und soo...
wobei wenn ich mir jetzt ne neue kaufen würde... würd ich mir das vlt nochmal durch kopf gehn lassen würd aber denk ich mal bissel was für ne 8800drauflegen:fresse:
 
die gpu ist einfach zu krass beschnitten. 192bit si, 8vec4 shader cluster, 12rops und ab dafür...

das wäre die perfekte gts und nv hätte sich damit sicherlich nicht das bein gebrochen wenn eben 80-100 millionen transis mehr im die wären. dann hätte sie halt nur 650 oder 600mhz auf der gpu gehabt, wäre aber mal um einiges schneller als diese kröte hier. wobei ich wirklich noch glaube das cod2 ein treiberproblem ist.

Also du weißt, das NV sehr konservativ handelt, dieser Schritt war notwendig, leider ist das Endresultat zu schwach.^^
Leider hat sich NV selber ins Bein geschoßen, die G80-Architektur ist gut, aber im Low und Midrangebereich nicht so gut skalierbar.
Man siehts an den TMUs und den ROP und am SI. Will man einen kostengünstigen Chip produzieren muss man Kompromisse eingehen...

Mein Vorschlag:
4 TCPs mit 2 Vec8 Shaderblocks.
32 TMUs
16 ROPs -> 256Bit SI (Pro ROP sind 64 BIT angebunden)
Coreclock 425Mhz
Shadertakt 1Ghz
Speichertakt 800Mhz (1600Mhz)

Das hätte man sehr gut skalieren können, mit dem Takt und den aktivierten Shaderblocks.

mfg Nakai
 
Scheint so ein Schrott wie die 5600 Karten-und ihr weisst damals was ATI hätte da-Die 9500 Pro Karten war doppelt so schnell und die renner-

wetten dass die 8800GTS 320Mb Karten dann 200 Euro kosten?

Weil keine für 200 Euro diese 8600GTS Schrott kaufen wird!(8800GTS 320MB laut Geizhals ca 250 Euro ZZ)

Da kann ich meine X1800XT behalten-da hat man mehr von!
 
Also du weißt, das NV sehr konservativ handelt, dieser Schritt war notwendig, leider ist das Endresultat zu schwach.^^
Leider hat sich NV selber ins Bein geschoßen, die G80-Architektur ist gut, aber im Low und Midrangebereich nicht so gut skalierbar.
Man siehts an den TMUs und den ROP und am SI. Will man einen kostengünstigen Chip produzieren muss man Kompromisse eingehen...

Mein Vorschlag:
4 TCPs mit 2 Vec8 Shaderblocks.
32 TMUs
16 ROPs -> 256Bit SI (Pro ROP sind 64 BIT angebunden)
Coreclock 425Mhz
Shadertakt 1Ghz
Speichertakt 800Mhz (1600Mhz)

Das hätte man sehr gut skalieren können, mit dem Takt und den aktivierten Shaderblocks.

mfg Nakai

da es ja am anfang (laut der komischen liste Oo) hieß das die gts 64Sps hat, ging ich auch fest von einem 256bit si und 16rops aus. aber es hätte theoretisch nichts gegen einen spagat zwischen 192bit si und 12 rops gestanden
 
Zuletzt bearbeitet:
Imho hätt ich maximal nur mit 3 Cluster also 48 SPs gerechnet. Nun sind es doch nur verbesserte 32 SPs also 2 Clustern.

mfg Nakai
 
Bin auch enttäuscht. Hoffentlich fallen die Preise wenigstens zügig.

Aber mal sehn was ATI in der Preisklasse bald zu bieten hat. Die X1950Pro fällt ja bald raus, dann gibts die nur noch bei ebay...
 
unter dx10 wird die karte schneller sein, wenn man sie dann mit ner dx9 karte vergleicht! da der renderpfad ja ganz anders aufgebaut ist! aber bis ein dx10 spiel das ist, braucht man sich das teil auch nich kaufen :d
 
die Karte ist Rotz, und eigentlichnichtmal nen Thread wert !:wall:


@ Hardwarekenner: Vielleicht etwas drastisch ausgedrückt, aber ich bin auch mehr als enttäuscht!
NV hat es meiner Meinung verpasst, im Midrange -Bereich neue Maßstäbe zu setzen! :shake:

Nach 2x 128Bit SI bei der Midrange -Generation 6600 und 7600,
wäre es gerade unter dem Aspekt der Erhöhung im HighEnd Segment von bisher 256Bit auf 320Bit bzw. 384Bit beim G80 an der Zeit gewesen,
die 8600er mit min. 192Bit Speicheranbindung auszustatten!

So kommt die mir jedenfalls net in den Rechner!!!

Werde wohl mit meiner GTO bis zum Herbst 07 warten und dann vielleicht zu richtig moderaten Preisen, ner 8800 GTS 640 ne Chance geben,
oder vl. sogar auf den G90 warten?! :confused:





.
 
Zuletzt bearbeitet:
Tja, jetzt weiß ich warum ich meine X800XT noch behalten hab.

Die Geforce 8600GTS ist imo eines der schwächsten Karten Midrange die ich bis jetzt gesehen habe. Nur die X1600XT kam da noch hin.

Naja man muss Kompromisse setzten, es war aber schon vorher klar, da die nicht mehr als 3 Cluster haben wird. Jetzt sinds nur 2.

Mal schauen was ATI bringt, wie es aussieht rettet ATI diesmal den Mainstreammarkt, zwar nicht mit stromsparen aber mit Leistung.
Im Notebookmarkt wirds dann aber schwer.

mfg Nakai
 
Also lohnen würde sich...

2 mal die GT 512 @OC @SLI @unter 100 Euro pro Karte

EDIT: wobei ich 120 Euro für eine Karte für realistisch halte
 
Zuletzt bearbeitet:
Was soll man dazu noch sagen?
Danke Nvidia! Danke für die Midrangekarte Geforce 8600GTS die um bis zu 15% langsamer als das ATI Pendant (X1950Pro) der vorherigen Generation ist.:hail:
Die auch noch mit doppeltem Speicher (512MB) min. 50€ günstiger zu haben ist.
Jetzt kann man nur noch auf ATI hoffen.:angel:
 
Was soll man dazu noch sagen?
Danke Nvidia! Danke für die Midrangekarte Geforce 8600GTS die um bis zu 15% langsamer als das ATI Pendant (X1950Pro) der vorherigen Generation ist.:hail:
Die auch noch mit doppeltem Speicher (512MB) min. 50€ günstiger zu haben ist.
Jetzt kann man nur noch auf ATI hoffen.:angel:

Genauso sehe ich das auch! Das ist echt ein Witz ... Ich hoffe auch, dass AMD/ATI jetzt was richtig geiles zu nem kleinen Preis aus der Tüte holt .. ! :hail:
 
Was ich nich verstehe ist, die hatten relativ viel Zeit zum Entwickeln der Midrange Karten gehabt und vergeigen das jetzt so... :( Oder wissen die vielleicht bereits, das die ATI Gegenstücke auch nicht mehr leisten werden?
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh