nVidia G90, G92 (new 8800 GTS), G9x, G100 [Speku-, News- & Sammelthread] (2)

Status
Für weitere Antworten geschlossen.
Das war´s mit dem:
nVidia G90, G92 (new 8800 GTS), G9x, G100
[Speku-, News- & Sammelthread]

so wie Ihr ihn kanntet und größtenteils auch mochtet!

-S-O-R-R-Y- :(



Da sich mein Blutrausch aufgrund der traurigen
Vorkommnisse auf Forumdeluxx so langsam legt, wird es hier demnächst wieder OnTopic Infos zum Thema geben.
Ich lasse mir meine Arbeit net von den paar "Geisterfahrern"
einfach kaputt machen.
Ab jetzt wird hier die harte Linie gefahren! :hwluxx:


UPDATE IN PROGRESS...


------------------------------------

Vorläufig editiert [Inhalte gesichert]
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
findet euch doch einfach damit ab das die neue gts nur 16rops haben wird. wenn es die karte sein wird die bisher gezeigt worden ist lässt es eine andere aussage nicht zu, denn wenn ihr euch die rückseite mal angesehen habt ist es die selbe platine wie sie auch bei der gt verwendet wird. 8 lötstellen auf vorder- und rückseite beißen sich mit einem 320er oder gar 384er speicherinterace und die aussage der chinesen ist ja mal mehr als lächerlich :rolleyes:
 
Es soll wohl im Tripple/quad sli dafür sorgen das die lüfter besser Atmen können

komisch nur, das die gts nur einen MIO anschluss hat; da wäre ja noch die kommunikation via pci-e bus möglich, nur scheitert das irgenwie an der tatsache, das der 780i nur zwei peg ports im pci-e 2.0 modus laufen lässt, der dritte bleibt pci-e 1.0 und ob die bandbreite der version 1.0 da reicht, bleibt fraglich.

MIO: The video cards communicate through something Nvidia calls the MIO, multipurpose I/O. The physical MIO is a gold finger device. A bridging device with mini female connectors, like tiny PCI slots, connect to the two cards.
 
Zuletzt bearbeitet:
also langsam schwankt meine freude um in angefressenheit. Die 8800GT ist für ich absolut uninteressant geworden. Die G92 GTS glaub ich, würd meine Ansprüche nicht erfüllen. Von daher glaub ich, dass das alels hier nur die Vorboten von etwas "großem" sein werden. Die 8800GT wird die kleinste Karte werden und denn immer weiter nach oben.

Für mich erscheint momentan eine GTS G92X2 am realistischten. Denn sind wir mal ehrlich. Einen wirklichen Grund hat nVidia nicht die komplett neue Serie zu launchen. Aber anderer seits, sind die Amis wirklich so dumm und lassen sich das Weinachtsgeschäft durch die Lappe gehen? Ich glaub kaum. :fresse:

Und ich kann euch aus sicheren Quellen sagen, dass Anfang Dezember hier bei HW-Luxx ein Artikel stehen wird, mit dem eigentlich keiner gerechnet hat. :drool:
 
Die Bilder mit der Unterschrift "8800GTS 512MB" zeigen in der Tat die gleiche Platine wie bei der 8800GT. Wer aber sagt, dass es sich dann auch tatsächlich um das gleiche PCB handeln wird? Es könnte ja eine Machbarkeitsstudie für den Kühler sein...

Was mich stutzig macht, ist die ebenfalls beschnittene SpaWa-Einheit. Es wurden auf den einschlägigen chinesischen/taiwanesischen Seiten bereits OC-Ausführungen der GT gezeigt, die da "vollständig" bestückt waren. Sollte eine GTS mit einer höheren TDP von 140 W nicht ebenso sein?
 
Wie mich dieser ganze Mist hier aufregt, kann denn mal bitte mindestens einer der beiden Grafikriesen seinen Launch mal vernünftig planen, was soll das denn alles:
ICH WILL NE NEUE KARTE, warte schon seit 2 Wochen auf ne EVGA 8800 GT, ich pack mir ehrlich bald ne Ati 3870 rein die kommt wenigstens morgen bei Hardwareversand rein.....
 
Die Bilder mit der Unterschrift "8800GTS 512MB" zeigen in der Tat die gleiche Platine wie bei der 8800GT. Wer aber sagt, dass es sich dann auch tatsächlich um das gleiche PCB handeln wird? Es könnte ja eine Machbarkeitsstudie für den Kühler sein...

hm... stimmt, als die ersten bilder der 8800gtx auftauchten zeigten sie doch die 7900gx2 platine, richtig? :bigok:

weiter würde ich die freie lötstelle nur als vorsichtsmaßnahme der ingenieure bezeichnen. selbst bei pcb's wird auf die zukunft geachtet und vllt hat die retail gts dann auch die 3 phase.

mfg
 
so da ich auch keinen bock mehr hatte und ich den Kühler der GT scheiße finde hab ich mir erstmal ne HD3870 geholt

second coming soon ^^
 
eventuell sehen wir um die verwirung perfekt zu machen die ganze zeit ne gt mit nem neuen kühler der eventuell eingesetzt wird ;) 11.12 wird mehr bringen
Hinzugefügter Post:
die gts wird bestimmt die gtx und wahrscheinlich auch die Ultra einstecken, aber da braucht sich auch keiner wundern es ist halt so das man '"alte frauen" gegen n junge tauscht.

bleibt nur abzuwarten was für ne Power sie hat und es bleibt ganz klar zu warten was nvidia nächstes jahr dann neues aufm HighEnd Martk schmeisst.
 
Zuletzt bearbeitet:
Ich hab ne Frage zu dem Blockdiagramm ^^
Also da die G92-270 ja 'nur112' SPs hat sind nur 7 S/Tex-Cluster aktiviert/vorhanden deswegen ist der 8te Cluster ausgegraut (und der 5te Speichercontroller).

Wenn ich jetzt den schluss ziehen darf: bei der GTS sind 8 S/Tex aktiv und daher ist das ausgegraute bei der GTS aktiv, also auch der 5te ROP-Block = 20 ROPs = 320 Bit..
Da der G80 aber bei 320 Bit 320MB bzw ein vielfaches davon an Speicher hat, beisst sich dies aber mit den 512MB / 1024MB..

Doch bin ich auch der meinung, dass das SI unabhängig von der RAM-Größe ist, es sollte lediglich sinn machen (also nich 512Bit bei 64MB speicher ;))..
Und da der G92 ja leichte Verbesserungen aufweisst kann es sein dass der 8te S/Tex-Block doch eben einen solchen Unterschied ausmacht, dass das 256Bit SI dann schon einen (beachtlichen) Flaschenhals bildet und daher eben 320Bit genutzt werden (sollten?)..
Beim G92-270 jedoch die auslastung des SIs in einem guten verhältnis zu der auslastung der 7 S/Tex Cluster steht.

Zumindest wird so gute Hardware gebaut, Marktstrategie steht hier natürlich aussen vor.

Ich bin aber ebenfalls der Meinung, dass es sich für nVidia lohnt neue (überarbeitete) GraKas zu launchen.
die können aufgrund der höheren waferausbeute einen Gewinn abwerfen der nicht unbeachtlich ist und neue grakas beleben das geschäft also werden sicher mehr GraKas abgesetzt und mehr Gewinn eingespielt als es vielleicht der mittlerweile etwas zurückgegangene 8800GTX/Ultra-Absatz tun würde. Ausserdem macht das druck auf AMD!
Und High End Kunden kaufen sich wahrscheinlich dann sowieso die neue 9er serie sobald diese released wird.. also doppelte einnahmen von manch armen irren ;)
 
Zuletzt bearbeitet:
http://www.digit-life.com/articles2/video/g92-part1-page3.html
diagg92gd4.png


jetzt packste da noch nen cluster mit rein und fertsch isser g92 ^^

Hinzugefügter Post:
die gts wird bestimmt die gtx und wahrscheinlich auch die Ultra einstecken...

liest du hier überhaupt mit oder laberst du dir nur den kopf wuschelig..?
 
Zuletzt bearbeitet:
Wenn ich jetzt den schluss ziehen darf: bei der GTS sind 8 S/Tex aktiv und daher ist das ausgegraute bei der GTS aktiv, also auch der 5te ROP-Block = 20 ROPs = 320 Bit..
Da der G80 aber bei 320 Bit 320MB bzw ein vielfaches davon an Speicher hat, beisst sich dies aber mit den 512MB / 1024MB..

Doch bin ich auch der meinung, dass das SI unabhängig von der RAM-Größe ist, es sollte lediglich sinn machen (also nich 512Bit bei 64MB speicher ;))..
Und da der G92 ja leichte Verbesserungen aufweisst kann es sein dass der 8te S/Tex-Block doch eben einen solchen Unterschied ausmacht, dass das 256Bit SI dann schon einen (beachtlichen) Flaschenhals bildet und daher eben 320Bit genutzt werden (sollten?)..
Beim G92-270 jedoch die auslastung des SIs in einem guten verhältnis zu der auslastung der 7 S/Tex Cluster steht.

Nein, das geht absolut nicht. Jeder [ROP/L2]-Block stellt 64bit Speicheranbindung bereit, wo direkt die Speicherbausteine dranhängen.

Für ein 320bit-SI sind 10 Speicherbausteine notwendig [siehe G80], für 256Bit nur 8 [siehe 8800GT].

Darum bitte ich dich, mal Speichergrößen zu errechnen, die ganzzahlig positv im Binärsystem liegen. Ich komme immer auf 51,2MByte pro Zelle...
 
Nein, das geht absolut nicht. Jeder [ROP/L2]-Block stellt 64bit Speicheranbindung bereit, wo direkt die Speicherbausteine dranhängen.

Für ein 320bit-SI sind 10 Speicherbausteine notwendig [siehe G80], für 256Bit nur 8 [siehe 8800GT].

Darum bitte ich dich, mal Speichergrößen zu errechnen, die ganzzahlig positv im Binärsystem liegen. Ich komme immer auf 51,2MByte pro Zelle...


ah, darum hat die gtx dann 12 bausteine, da: 768 / 12 = ... 64!

gf8800cardfrontncbgnd3.jpg


also hängen dann 2 speichebausteine an einen rop block.

diagg80ly1.png


hab die zwar jetzt schon seit einem jahr, aber man lernt ja nie aus :d
 
glaub aber trotzdem dass die neue GTS nicht so der burner wird
1. wegen dem preis
2. kaum verbesserungen gegenüber der GT !
 
glaub aber trotzdem dass die neue GTS nicht so der burner wird
1. wegen dem preis
2. kaum verbesserungen gegenüber der GT !

was für ein Schwachsinn.
zu 1. billiger & schneller als GTX bzw. Ultra ---> und das ist dir zu teuer?
zu 2. "kaum Verbesserungen" wenn ich das schon höre, sie hat immerhin 16pp mehr als die GT ich erinnere nur an die GF 6 Serie, willst du damit sagen dass die 68Ultra nicht gut war, weil sie nur mehr pipes hatte als die "normale" 68'er bzw die LE?

PS. du gehst mir langsam auf den Geist
 
och nööö du schon wieder
1. vergleiche ich mit den atì karten auch nicht nur Nvidia intern
2. sind das kaum verbesserungen für diesen aufpreis für mich
3. der preis wäre ok wenn man es korrekt umrechnen würde !
 
:rolleyes:Leude bitte, habt euch doch einfach wieder lieb!?!;)

Weiß eigentlich einer ob die G92 GTS auch Triple SLI unterstützen soll, wie die G80 GTX/Ultra?!? :confused:
 
Ich könnt mir gut vorstellen, dass die neue GTS in höheren auflösungen nicht schneller als GTX bzw. Ultra. Voallem mit oc.

Einige leute im OC-thread meinen auch, dass die Karte nich so gut mit dem oc skaliert und vermuten den grund beim 256bit-SI.
 
Zuletzt bearbeitet:
hab ich gerade gesagt dass ich die GTS mit der HD vergleiche
ich glaube nicht bitte gründlich lesen
außerdem rede ich vom P/L verhältnis das die HD auf jedenfall gewinnt vor allem wenn man CF nutzt ist man auf jedenfall schneller als ne GTS !
 
hab ich gerade gesagt dass ich die GTS mit der HD vergleiche
ich glaube nicht bitte gründlich lesen
außerdem rede ich vom P/L verhältnis das die HD auf jedenfall gewinnt vor allem wenn man CF nutzt ist man auf jedenfall schneller als ne GTS !

die GTS wird das CF gespann deutlich schlagen denke ich :bigok:
 
och nööö du schon wieder
1. vergleiche ich mit den atì karten auch nicht nur Nvidia intern
2. sind das kaum verbesserungen für diesen aufpreis für mich
3. der preis wäre ok wenn man es korrekt umrechnen würde !

1. hier geht es überhaupt nicht um ATI, wenn du deine 3870 so liebst dann geh in den ATI Thread und Spam hier nicht immer alles zu.
Wieso sollte ich die neue GTS mit einer ATI vergleichen die langsamer ist?
In DIESEM Thread geht es NUR um NVidia.

2. der eine hats der andre nicht

3. es wurde noch nie korrekt umgerechnet, damit brauchst du erst garnicht kommen...


Edit: Zu deinem Crossfire Gespann: das juckt die User die auf Maximale Leistung aus sind recht wenig... die die sich eine Ultra holen, können sich auch 2 GTS holen.
 
Zuletzt bearbeitet:
Einige leute im OC-thread meinen auch, dass die Karte nich so gut mit dem oc skaliert und vermuten den grund beim 256bit-SI.

bei der GTS wird 0.83ns speicher verbaut, der sich theoretisch bis 1200mhz takten lassen sollte. unter dieser voraussetzungen hätte man gerade mal 11% weniger speicherbandbreite als bei einer GTX@stock.

die GTS wird auf jeden fall ihre käufer finden, da CF/SLI gerade mal für einen winzigen teil der käufer überhaupt in frage kommt und die hd3870 einer GTS doch massiv unterlegen sein wird.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh