nVidia G92 (9800 GX2/GTX), GT200 (9900 GTX/GT), G100 [Speku-, News- & Sammelthread]P3

Status
Für weitere Antworten geschlossen.
nVidia G92 (9800 GX2/GTX), GT200 (9900 GTX/GT), G100 [Speku-, News- & Sammelthread]P3

nVidia G92 (9800 GX2 / GTX), GT200 (9900 GTX / GT), G100
[Speku-, News- & Sammelthread]


In diesem Thread, geht es um Informationen, Meinungen, Fragen und Spekulationen rund um das Thema:

nvlogodeluxxul8.jpg

bringt nVidia einen G90 als Refresh des G80,
oder kommt der G90 oder G9x bzw. G100 schon mit einer völlig neuen oder aufgebohrten Architektur,
wird es wieder eine nV ULTRA oder (9800)GX2 Variante geben
und kommt eine 8800 GS oder 9800 GS jetzt wirklich ?!?


Spekulationen zur Folge wird NV auch im Mainstream Bereich eine neue Graka auf beschnittener G92 Basis releasen und zwar die GF 9600 GT.

Außerdem, steht der G92 kurz vorm Release und aller Voraussicht, resultiert die GF 8800GT als erste Graka daraus, dicht gefolgt von einer neuen GF 8800 GTS.


Aber werden nun auch die beiden jetzigen HighEnd 8800 Modelle(GTX/ULTRA), als 65nm Refresh auf dem G92 beruhen, oder bringt nv nun doch noch einen G90 sprich eine echte 9800 GTX?!?

So wie es derzeit aussieht, wird wohl der G92 für die kommenden 9800er verwendet werden, was wohl eine Speicher-Interface Limitierung auf 256 Bit bedeutet. :(


Wie man sieht, Fragen über Fragen! ;)

----------------------------------------------------------------------------------------------------------



nv GT 200



nvgtx280ba5.jpg


Nvidia GT200: 240 SPs und 512-Bit Interface?


[...] der kommende Next-Generation-Chip würde auf den Namen GT200 hören und rund 1 Millarde Transistoren besitzen,

[...] Feststeht nur, dass der Chip, sofern er 240 Shadereinheiten besitzen wird, die in ihrer Komplexität bzw. Funktionalität zum derzeitigen G80/G92 identisch sind, sicherlich mehr Transistoren beherbergen würde. An dieser Stelle wären, insbesondere unter Berücksichtigung des 512-Bit Speicherinterface, das als so gut wie sicher gilt, locker 1,2- bis 1,4 Millarden Transistoren fällig.


gt200vk7.jpg


[...] wären 240 Shadereinheiten weiterhin am Realistischten, da so eine fast vollständige Verdopplung der Shaderleistung möglich wird. Angesichts einer Rekord-Entwicklungszeit von mehr als 18 Monaten wären 50 Prozent mehr Shadereinheiten (200 oder 192 statt 128) schlichtweg zu wenig, zumal die Konkurrenz mit dem RV770 ein heißes Pferd im Stall zu haben scheint.

[...] dass die Shadercluster von derzeit acht auf zehn erhöht worden wären und gleichzeitig die Streamprozessoren von 16 auf 24 pro Cluster erweitert. [...]

Das Speicherinterface wird sehr wahrscheinlich auf 512-Bit anwachsen, da weiterhin GDDR3-Speicher verwendet werden soll und 256-Bit zu einem klaren Flaschenhals führen würden - teilweise ist dieser schon beim G92 augenscheinlich. Theoretisch bestände zwar noch die Option eines 384-Bit Speicherinterfaces, wie beim G80 gesehen, hierbei handelte es sich aber vermutlich eher um eine Notlösung als um eine langwierig durchdachte Konstruktion.
Da die ROP-Einheiten der Nvidia-Chips an das Speicherinterface gekoppelt sind, würden diese im Zuge der Verdopplung des Speicherinterfaces ebenfalls automatisch von 16 auf 32 erhöht. Eventuell sind aber auch 24- oder sogar 16 ROPs bereits ausreichend bzw. würden keinen Flaschenhals darstellen. Ausschließen kann man daher nicht, dass Nvidia das Verhältnis von Speicherinterface zu ROP verändert und so Transistoren einspart.

[...] dass insgesamt 120 TMUs zum Einsatz kämen, was einer beinahe glatten Verdopplung zum G80/G92 gleichkommen würde.

Aktuell sind die TMU-Cluster direkt an die Shadercluster angebunden. G80 und G92 verfügen somit über acht Textur- und Shadercluster, so dass sich jene 64 TMUs ergeben (8x8). Belässt Nvidia die Texturclustergröße bei 8 TMUs pro Shadercluster und erhöht lediglich, wie angenommen, die Shaderclustergröße von 16 auf 24 SPs, so ergäben sich insgesamt 80 TMUs (8x10), die als vollkommen ausreichend betrachtet werden können. [...]

Weiter wird berichtet, dass die Taktfrequenzen an Chip und Shader ähnlich hoch wie bei derzeitigen Modellen lägen, also beispielsweise 600 MHz Chiptakt und 1500 MHz Shadertakt. Auch der Speicher soll, da er weiterhin vom Typ GDDR3 sein soll, in etwa 1000 MHz schnell takten. Im Großen und Ganzen könnten die Spezifikationen so oder so ähnlich ausfallen. [...]


Quelle: www.hardware-infos.com



Nvidia: GT-200 hat 1 Millarde Transistoren


[...] hat Nvidia beiläufig brandheiße Informationen zum G92-Nachfolger GT-200 preisgegeben, der im Juni zur Computex erwartet wird und seit dem G80 im November 2006 erstmals wieder für einen spürbaren Performanceschub sorgen soll.

[...] dass die neue Grafikkartenarchitektur tatsächlich unter der Bezeichnung GT-200 laufe
- Gerüchte rund um D10U oder G100 dürfen also vorerst beiseite gelegt werden, sofern es sich nicht um Alternativnamen handelt - und über rund eine Millarde Transistoren verfüge. Davon ausgehend, dass Nvidias G92 rund 754 Millionen Schaltungen besitzt, dürfte der
GT-200 um ca. ein Drittel an Shader- und Textureinheiten zugelegt haben, wobei auch ein 512-Bit breites Speicherinterface die Mehrtransistoren unter anderem verursachen könnte. Jedenfalls sind damit Fantastereien, dass der Chip über 256- oder sogar 384 Shadereinheiten verfüge, endgültig vom Tisch.

[...] dass der Chip über 200 Shadereinheiten sowie ein 512-Bit breites Speicherinterface verfüge.
[...] realistisch - nicht mehr und nicht weniger. Nvidia hat mit der Ankündigung die Gerüchte lediglich eingedämmt, genauere Informationen liegen weiterhin nicht vor. Dies soll nach Nvidias Meinung auch vorerst so bleiben: Erst im Mai, wie Brown ergänzte, wird man nähere Infos zum Chip folgen lassen [...]

Quelle: www.hardware-infos.com



Gerüchteküche: nVidia GT200


Neuer Grafikchip mit 200 Shader Einheiten & 512bit Speicherschnittstelle?

[...] vermutlich in der zweiten Jahreshälfte kommenden High-End Grafikchip mit dem Codenamen GT200
[...] soll der GT200 über 200 Shader Einheiten (Stream Prozessoren) und eine 512bit breite Speicherschnittstelle verfügen.
Zum Vergleich: der G92 von GeForce 8800 GT und GTS-512 besitzt bis zu 128 Shader Einheiten und ein 256bit RAM-Interface.

Quelle: www.hartware.de



[...] sind auch erste, angebliche Infos zum GT200 aufgetaucht, Nvidias neuer Geheimwaffe, die ein stark aufgewerteter GeForce 8- bzw. 9-Chip sein soll, ohne jedoch zu protzen.
So dürften auch beim GT200 Leistungssteigerungen von um die 40 Prozent zu erwarten sein, was zwar deutlich mehr ist als bei einem Refresh-Chip, dennoch das Kaliber eines Next-Generation-Chips verfehlt, den Nvidia voraussichtlich im dritten oder vierten Quartal dieses Jahres in persona des G100 vorstellen wird.

Doch zurück zum GT200: Dieser soll [...] in den letzten Tagen fertiggestellt worden sein und theoretisch auslieferbar. Mangels Konkurrenz heißt es, Nvidia würde den Chip bis zum RV770-Launch aufschieben, entsprechend ebenfalls im Juni launchen. Inwiefern all' diese Gerüchte zutreffend sind, muss abgewartet werden. [...]

Quelle: www.hardware-infos.com




----------------------------------------------------------------------------------------------------------



nv 9800 GX2



gf9800gx2vv5.jpg


GF 9800 GX2 gelistet:






GeForce 9800 GX2: Weitere Bilder

Neue Doppel-Grafikkarte auf Basis von zwei GeForce 8800 GTS 512MB

"[...] soll die GeForce 9800 GX2 wie vermutet auf zwei GeForce 8800 GTS mit 512 MByte basieren und damit über insgesamt 1 GByte Speicher verfügen. Angeblich wird die neue High-End Grafikkarte [...] 449 US-Dollar kosten.
Release der 9800 GX2 ist nun der 18. März.
Die [...] GeForce 9800 GX2 besitzt zwei DVI-Anschlüsse, einen HDMI-Port und einen digitalen Audioausgang (S/PDIF). [...] SLI-Anschluss, d.h. man kann zwei Modelle parallel betreiben (Quad-SLI). Triple- bzw. 6-fach-SLI ist dagegen nicht möglich.
Angeblich reicht zum Betrieb ein Netzteil mit 580 Watt Gesamtleistung und mindestens 40 Ampere auf der 12-Volt-Schiene aus."

Quelle: hartware.de





----------------------------------------------------------------------------------------------------------


nv 9800 GTX



y1p6irVfTHljTORj97o6FZTosq-Bo61HFKAFID-sfNqrZt93iHnz6snveztqw6LDdzmvmCQdO5aPaxi40n0jZDCuw


Nvidia GeForce 9800 GTX: Die Platine im Detail


"[...]
Das PCB der GeForce 9800 GTX trägt wie die GeForce 8800 GT(S) einen Grafikchip vom Typ G92. Während auf der 8800 GT ein G92-270 und auf der 8800 GTS ein G92-400 zum Einsatz kommt, wird auf der 9800 GTX jedoch ein G92-420 verbaut. Auf der kommenden Dual-Grafikkarte GeForce 9800 GX2 werden es zwei G92-450 sein."


9800gtxux9.jpg

"Alle G92-4x0 verfügen über die volle Anzahl von 128 Shader-Prozessoren und unterscheiden sich lediglich in ihrer Taktung und anderen peripheren Merkmalen der jeweiligen Grafikkarte. So soll der G92-420 einer GeForce 9800 GTX mit 675 MHz Chip- und 1688 MHz Shader-Takt arbeiten.

[...] acht GDDR3-Speicherchips mit insgesamt 512 MB, die in gewohnter Art rings um die GPU angeordnet sind. Die Speicherchips sind von Samsung gefertigt und sind gemäß ihrer Codierung K4J52324QE BJ08 mit einer Zugriffszeit von 0,83 ns (1200 MHz) bei 1,8 Volt spezifiziert. Da die GeForce 9800 GTX voraussichtlich nur mit 1100 MHz realem Speichertakt operieren wird, bieten die Chips also sicher noch etwas Spielraum für Übertaktungsversuche.

[...] die GeForce 9800 GTX wird über zwei sechspolige PCIe-Stromstecker mit Energie versorgt. Zur Spannungswandlung dient ein System aus 4 + 2 Phasen, vier für die GPU und zwei für den VRAM.

Die Stromversorgung der 9800 GTX fällt somit recht üppig im Vergleich zu bisherigen G92-Derivaten aus. Die Grafikkarte ist dadurch ein Stück länger als eine GeForce 8800 GT(S) oder 9600 GT und entspricht in ihrer Länge ziemlich genau einer GeForce 8800 GTX oder Ultra.
Erste Benchmark-Tests im 3DMark06 haben der GeForce 9800 GTX bislang das bescheinigt, was man erwarten würde, ist sie doch nichts anderes als eine übertaktete GeForce 8800 GTS (G92). Ob das aufwändige System zur Spannungswandlung weiteres Potential bereit hält, werden ausführliche Tests zeigen, die mit einer Markteinführung der Grafikkarte am 25. März zu erwarten sind."

Quelle: www.computerbase.de


nVidia Präsentation:​

443043bzz4.jpg


GPU Screen:
GPUZ_Exp.jpg




----------------------------------------------------------------------------------------------------------


nv 9800 GT(S)



9800gtsasusrb9.jpg

GeForce 9800 GTS: Bilder und Infos


"[...] wird in knapp zwei Wochen der Launch der » 9800 GX2, dem künftigen Flaggschiff, folgen.
[...] dass Nvidia kurz darauf eine » 9800 GTX, die auf der CeBIT allerdings noch nicht ausgestellt wurde, vorstellen wird, welche jedoch gegenüber der aktuellen 8800 GTS 512 lediglich rund 5 Prozent mehr Leistung inklusive Triple-SLI-Support bieten soll.

[...] Informationen einer so genannten 9800 GTS aufgetaucht. Demnach soll die Karte weiterhin auf dem G92 basieren und folglich über 128 Streamprozessoren verfügen, [...] sich der Takt des Chips auf 600 MHz belaufen, währenddessen die Shadereinheiten mit 1500 MHz angesprochen werden sollen. Der Speicher soll vom Typ GDDR3 stammen und mit einer realen Taktfrequenz von 900 MHz zu Werke gehen.

Sind die Spezifikationen korrekt, so sollte sich die 9800 GTS leistungsmäßig zwischen 8800 GT und 8800 GTS 512 anordnen. Dass man hierbei ganz offensichtlich altes unter neuem Namen verkauft, wird spätestens dann klar, wenn man über den fehlenden Triple-SLI-Support bescheid weiß - dies wäre die einzige, zu erwartende Neuerung gegenüber den GeForce-8-Produkten gewesen.

[...] Wann die 9800 GTS offiziell vorgestellt wird, kann gegenwärtig nur spekuliert werden. Sicher dürfte sein, dass mit ihrer Vorstellung 8800 GT und 8800 GTS 512 von der Bildfläche verschwinden werden [...]"

Quelle: hardware-infos.com/




----------------------------------------------------------------------------------------------------------


nv 9600 GT


9600gt1gq1.jpg

GeForce 9600 GT: Bilder und konkrete Specs

"Abseits der immer noch anlaufenden Consumer Electronics Show (CES) sorgen momentan erste Bilder zur kommenden GeForce 9600 GT, [...] die Bilder sind der nun sichtbare Beweis für dessen Existenz.

[...] insgesamt 64 Shadereinheiten der 9600 GT. Ferner gilt ein 256-Bit Speicherinterface als sehr wahrscheinlich. Durch einen Speichertakt von 900 MHz würde man so eine reale Speicherbandbreite von 57,6 GiB/s erzielen, die so im Mid-End-Sektor noch nicht zu sehen war. Der Chip soll entgegen bisheriger Meldungen mit 650- statt 500 MHz angesteuert werden; die Shadereinheiten mit 1625 MHz. In der Summe soll der in 65nm-gefertigte Chip rund 90 Prozent schneller als eine 8600 GTS rendern.

[...] ein Netzteil mit mindestens 400 Watt Gesamtleistung pflicht. Des Weiteren muss es 26 Ampere auf der +12-Volt-Schiene liefern.
Überdies gilt mittlerweile als relativ gesichert, dass der Chip eins-zu-eins auf der GeForce-8-Architektur aufsetzt, damit also quasi nur ein abgespeckter G92 ist, der bei der 8800 GT und 8800 GTS 512 eingesetzt wird. Sollte nichts Unerwartetes passieren, so wird Nvidia den Chip zusammen mit der 9800 GX2 am 14. Februar veröffentlichen."

Quelle: www.hardware-infos.com

9600gt2oa2.jpg

GeForce 9600 GT: Erste Resultate


Neue Mainstream-Grafikkarte ist Nachfolger der GeForce 8600 GTS

"[...]

Der Grafikchip taktet mit 650 MHz, der Speicher wird mit 900 MHz angesprochen. Der Shader-Takt liegt bei 1625 MHz. Nach aktuellem Kenntnisstand verfügt der Grafikchip (Codename angeblich G94-300) über 64 Stream Prozessoren (Shader Einheiten).
Der schwarze Kühler ähnelt äußerlich dem der GeForce 8800 GT und kommt wie bei der GT wohl auch wieder von Cooler Master.
Im 3DMark06-Vergleich zeigt sich die GeForce 9600 GT etwa so schnell wie die Übergangslösung GeForce 8800 GS (-6 bis +2 Prozent). Die GeForce 8800 GT (mit 512 MByte) ist allerdings ein gutes Stück schneller, zwischen 21 und 28 Prozent."

Quelle: hardware.de


----------------------------------------------------------------------------------------------------------



nv 8800 GTS


9ii3rf78.jpg

g92tabyi3.jpg

g92newgtshf3.jpg

----------------------------------------------------------------------------------------------------------


Weitere Bilder und neuer Termin der „G92 GTS“


" [...] neue GeForce 8800 GTS auf Basis des in 65 nm gefertigten „G92“-Grafikchip [...]

nv8800gtssideaa4.jpg
nv8800gtstopgg1.jpg

[...] am 11. Dezember 2007. Die maximale Leistungsaufnahme wurde ebenfalls mit nun 140 Watt – vormals 110 Watt – ein klein wenig (nach oben) korrigiert, [...], um eventuellen Temperaturproblemen bei gestiegener Leistungsaufnahme vorzubeugen, ein Dual-Slot-Kühler mit ausreichend dimensioniertem Lüfter verwendet. Der Chiptakt wird nach wie vor bei 650 MHz liegen, während der Speicher effektiv mit 1.940 MHz arbeitet. Der Shadertakt liegt bei hohen 1.625 MHz."



Quelle: computerbase.de


Taktraten der neuen 8800 GTS "G92"


"[...] die "alte" GTS aufzubohren, indem man kurzerhand die Taktraten von 500/1200/800 MHz auf 575/1350/900 MHz erhöhte und obendrein noch die Shadereinheiten von 96 auf 112 erhöhte.

Damit nicht genug, kündigte man auch eine weitere 8800 GTS für den 3. Dezember an. Diese Karte sollte auf dem in 65nm gefertigten G92 basieren und damit auf demselben Chip wie die 8800 GT. [...]

Demnach soll der 512 MiByte große Texturspeicher der neuen 8800 GTS mit einer Taktfrequenz von realen 970 MHz angesprochen werden und an das übliche 256-Bit-Speicherinterface des G92 gekoppelt sein. Der Kerntakt soll bei rekordverdächtigen 650 MHz liegen, während die insgesamt 128 Shadereinheiten mit ebenfalls rekordverdächtigen 1625 MHz angesprochen werden sollen. Die 9-Zoll-Karte soll unter Last 140 Watt aus einem 6-Pin-PCI Express-Stecker ziehen und damit deutlich verbrauchsarmer als die bisherigen 8800-GTS-Chips. [...]

Die nVidia GeForce 8800 GTS 512 wird voraussichtlich am 3. Dezember für ca. 299-349$ das Licht der Welt erblicken. Interessant wird die Positionierung, da diese Karte der jetzigen 8800 GTX angesichts brachialer Shaderpower überlegen sein dürfte und sich der Ultra bedingt durch die Speicherbandbreite wahrscheinlich unterordnen wird müssen. [...]"



Quelle: hardware-infos.com



Zwei neue GeForce 8800 GTS bis Dezember

"Verwirrung gibt es derzeit um die Zukunft, beziehungsweise um die neuen Ableger der GeForce 8800 GTS. Nachdem sie aus dem eigenen Hause starke Konkurrenz in Form der GeForce 8800 GT bekommen hat und Nvidia gestern bereits verriet, dass es eine neue Version der GTS geben wird, [...]

Richtig neu wird es dann ab dem 3. Dezember 2007. Dann wird es die richtige Neuauflage der GeForce 8800 GTS geben – die 65-nm-Fertigung des G92 inbegriffen. Diese neue GeForce 8800 GTS setzt dann auf die Grundelemente der GeForce 8800 GT, verfügt jedoch über 128 SP anstatt 112 der GT. Das Speicherinterface wird ebenfalls wie bei der GT-Version bei 256 Bit liegen, insgesamt stehen 512 MB GDDR3-Speicher zur Verfügung. [...]"

Übersicht / Specs.:
g92gtsgf7.jpg

[...]
Des Weiteren werfen die beiden neuen GeForce 8800 GTS die Frage nach dem Verbleib der GTX auf.
[...] kaum eine Überlebenschance für die GTX geben. Die geringere Leistungsaufnahme und die höheren Taktraten dürften die neue GTS in fast allen Bereichen das Duell für sich entscheiden lassen. Darüber hinaus wird die neue GTS um den von der GeForce 8600 und der GeForce 8400 bekannten „Video Processor 2“ (VP2) erweitert, [...]

Doch wie geht es dann weiter?
Ob nochmals eine neue Version der GTX auf Basis des G92 in den Startlöchern steht, vielleicht mit etwas mehr Speicher, muss abgewartet werden. Es erscheint jedoch nicht völlig unrealistisch, da das Synonym „GTX“ (abgesehen von wenigen Ultra-Derivaten) bisher immer für die schnellsten Nvidia-Grafikkarten stand. [...]."



Quelle: computerbase



8800 GTS am 19. November?

Weitere G92-Grafikkarte bereits am 19. November?

"Erst vor einigen Tagen waren Gerüchte und erste Details zur kommenden GeForce 8800 GTS aufgetaucht. Diese soll über 112 Stream-Prozessoren verfügen und mit 512 MByte Grafikspeicher ausgeliefert werden - der allerdings nur per 256 Bit Interface angebunden wird, was den Abstand zur GeForce 8800 GT mit 512 MByte, die für den 29. dieses Monats erwartet wird, deutlich verringern dürfte. Laut aktuellen Gerüchten wird nVidia die 8800 GTS bereits knapp drei Wochen nach der 8800 GT vorstellen: Am 19. November.

Kosten soll eine derartige Karte rund 305 US-Dollar, womit sie preislich durchaus ein gutes Stück über den 8800 GT Varianten (200 bzw. 250 US-Dollar) liegt. [...]"



Quelle: hardware.net



----------------------------------------------------------------------------------------------------------

nv 8800 GT

Launchtermin ist der 29. Oktober 2007 und hier nun die von vielen heiß ersehnten Specs. der GF 8800 GT:
(klick mich)
* G92-270-A2 revision (65nm, Week 37 2007)

* 37.5mm x 37.5mm 1148-pin FCBGA package
* Core clock : 600MHz / Shader clock : 1500MHz
* VGPU = 1.05±10.5mV
* 112 shader processors
* 10-layers PCB revision G92P393
* 8 chips of 16M x 32 Qimonda HYB18H512321 BF-10 @ 2V
* 256-bit 512MB GDDR3 @ 900MHz (Effective 1GHz)
* Coolermaster TM69 single slot cooler
* 3 heat-pipes, 1000-3200RPM, 34dB
* 110W TDP (Requires 6-pin PCIe connector)
* NVIO/HDCP
- allerdings nur 16 ROPs (im Vergleich zu 24 ROPs beim G80)
(klick mich)



________________________


News von Oktober 2007:


GeForce 8800 GT vorgestellt


Neues Modell löst GeForce 8800 GTS 320MB ab - Erhältlich ab 229 Euro

"Nach Wochen voller Gerüchte stellt nVidia nun endlich offiziell die GeForce 8800 GT Grafikkarte vor. Das neue Modell löst die 320-MByte-Version der GeForce 8800 GTS ab und soll laut nVidia von diversen Anbietern ab 229 Euro erhältlich sein. [...]
Im Vergleich zur GeForce 8800 GTS besitzt der Grafikchip der 8800 GT mehr Shader Einheiten bzw. Stream Prozessoren: 112 statt 96. Außerdem wurde der Chiptakt von 500 auf 600 MHz und der Speichertakt von 800 auf 900 MHz angehoben. Die Speicherschnittstelle ist dagegen nur noch 256 statt 320bit breit. Die GeForce 8800 GT wird mit 512 MByte GDDR3 SDRAM ausgestattet. Eine 256-MByte-Version folgt wohl später.
Außerdem wurde der Grafikchip der GeForce 8800 GT laut nVidia mit einer PureVideo HD Einheit der zweiten Generation ausgestattet, der High Definition Filme in H.264 und VC-1 beschleunigt. Die Karte entspricht dem PCI Express 2.0 Standard.
..."



Quelle: hardware.net




----------------------------------------------------------------------------------------------------------


Nvidia: GeForce 9800 GTX und GTS im November 07?


"Laut TweakPC sollen aus diversen Quellen bereits Informationen über die neue GeForce Generation ans Licht gekommen sein.
Ging man zuvor aus, dass der G92 eine Midrange Karte wird, so soll man jetzt zum Entschluss gekommen sein,
dass es ein High-End Modell sein wird, die GeForce 9800.
Nach unbestätigten Angaben soll der G92 bereits im November vorgestellt werden
und über eine Milliarde Transistoren verfügen, im G80 sind es lediglich 681 Millionen.

Spezifikationen des neuen G92 auf einer GeForce 9800 GTX sollen folgende sein:

65 Nanometer Prozess
Über eine Milliarde Transistoren
Unified-Shader-Architecture der zweiten Generation
Floatingpoint 64 Support
Über ein Teraflop Shader-Rechengeschwindigkeit
MADD+ADD Konfiguration für die Shader (2 + 1 FLOPS = 3 FLOPS pro ALU)
512-Bit-Speicher Interface
1.024 Megabyte GDDR4-Speicher
Direct-X 10.1 Support
OpenGL-3.0 Support
eDRAM die für "FREE 4xAA”
Eingebauter Audio-Chip (HDMI)
Verbesserte AA- und AF-Qualität
Die mutmaßlichen Preise der Karten sollen auch schon bekannt sein, so soll die GeForce 9800 GTX zwischen 549 und 649 US-Dollar und die GeForce 9800 GTS zwischen 399 und 499 US-Dollar kosten."

Quelle: TweakPC


----------------------------------------------------------------------------------------------------------

... und hiermit fing alles an:

Angeblich soll der G80 Refresh also der G81 mit 25% mehr Shader Einheiten kommen.


"Im März wird bekanntlich die neue DirectX10 Grafikkartengeneration von ATI erwartet.

nVidia hat seine neuen Grafikkarten (GeForce 8) bereits seit einiger Zeit auf dem Markt,
will aber offenbar nochmal nachlegen, um ATI jeglichen Wind aus den Segeln zu nehmen.

Angeblich ist eine GeForce 8900 GTX mit 25% mehr Shader Einheiten geplant, das wären dann 160.
Ob dieses Modell weiterhin auf dem in 90nm Technik gefertigten G80 Grafikchip basiert
und ob es höher getaktet wird als eine GeForce 8800 GTX, ist noch Spekulation."



Quelle: hartware.de
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hol mir das Teil in jedem Fall, schätze die gerüchte sind von nem AMD Günstling. Man kann immer wartn, warum nun nen Core 2 nehmn ? im Winter kommt ja nehalem, achne dann kommt ja bald der nehalem in 32 nm ,dann lieber auf den warten usw.......................... Das dreht sich ewig


Hinzugefügter Post:
Laut dem Nvidia-Zitat wird die neue Geforce GTX-Reihe also im Vergleich zur aktuellen Geforce 8- bzw. 9-Reihe einen größeren Leistungssprung hinlegen wie seinerzeit von der Geforce 7- auf die 8-Reihe. Man erinnere sich zurück: Die Geforce 8800 GTX war ohne AA/AF bereits doppelt so schnell wie die Geforce 7800 GTX, mit AA/AF fiel die Performance bis zu dreimal so hoch aus. Und Nvidia breitet nun vor aller Öffentlichkeit aus, dass die Geforce GTX-Reihe gegenüber der aktuellen Serie einen noch größeren Sprung hinlegen wird !


http://www.hardware-infos.com/news.php?news=2091
 
Zuletzt bearbeitet:
Die sollen die Karte endlich releasen! Mir wurst ob in 55nm, 65nm oder 200nm, hauptsache die Karte ist schnell! Meine 88er ist schon zu lange (bald 2 Jahre) im Rechner und Crysis bzw. Age of Conan wollen flüssig gezockt werden!
Go nVidia go, haut die Karte aufen Markt!
 
Hinzugefügter Post:
Laut dem Nvidia-Zitat wird die neue Geforce GTX-Reihe also im Vergleich zur aktuellen Geforce 8- bzw. 9-Reihe einen größeren Leistungssprung hinlegen wie seinerzeit von der Geforce 7- auf die 8-Reihe. Man erinnere sich zurück: Die Geforce 8800 GTX war ohne AA/AF bereits doppelt so schnell wie die Geforce 7800 GTX, mit AA/AF fiel die Performance bis zu dreimal so hoch aus. Und Nvidia breitet nun vor aller Öffentlichkeit aus, dass die Geforce GTX-Reihe gegenüber der aktuellen Serie einen noch größeren Sprung hinlegen wird !


http://www.hardware-infos.com/news.php?news=2091


Du hast vergessen DAS HIER

Die gestern offengelegten Spezifikationen der Geforce GTX-Reihe waren für die meisten eher enttäuschend. Verglichen zur 8800 GTX soll die Shaderleistung der GTX 280 80 Prozent höher ausfallen, die Bandbreite 60 Prozent höher und die Texturfüllrate 30 Prozent höher. Gewiss ein Sprung nach vorne, doch unter den vorausgegangenen Erwartungen und auch deutlich hinter den jüngsten Aussagen Nvidias.

So bleiben zwei Ansätze übrig: Entweder die gestern aufgetauchten Nvidia-Spezifikationen sind falsch oder aber Nvidia hat die Einheiten selbst stark überarbeitet. Darauf deutet beispielsweise eine vor wenigen Tagen aufgetauchte (inoffizielle) Nvidia-Folie hin, die von 50 Prozent effizienteren Shadereinheiten spricht. Zudem ist die Integration eines PhysX-Chips weiterhin denkbar. Auch hier ließ sich Nvidia einer Aussage auf dem Editor's Day entlocken:


...einzufügen ;)

Somit trifft es genau meine Aussage von Seite vorher, das die "neue" nur 50-70% besser als die 8800er sein wird und noch locker von nem 8800er "gespann" vom feinsten versägt wird ;)
 
Die GTX280 knackt 2x8800 Ultra in der Geschwindigkeit. Merke dir meine Worte. ;)

50% effizientere Shadereinheiten sind wirklich witzig. Man fixt einfach das ohnehin schon existente MUL über eine Registerveränderung und schon gibts zum MADD noch ein MUL gratis dazu.
 
hmm also ich lese aus alle dem, dass Gerüchten nach die Shaderleistung um 80% erhöht wird und diese um 50% effizienter sind, ist in meiner Mathematik 120% höhere Shaderleistung.
Da nicht stets die Shader voll ausgelastet werden, sind imo 100% mehr Shaderpower durchaus realistisch. Die Bandbreite limitiert eher in höheren Auflösung, aber auch da wird ja gut angehoben und die Ultra war schon nicht mehr so stark Bandbreitenlimitiert.

Und da mittlerweile die Shader weit wichtiger sind als die Texturfüllrate (wenns anders wäre, wären die G71er ned so langsam), kann ich mir den Speed von 2x GF8800GTX gut vorstellen. Aber es soll ja nach dem NV Statement noch mehr werden :eek:
 
Zuletzt bearbeitet:
...in spätestens 18 Tagen wissen wirs wie genau eure und denen ihre Prozentrechnung zu rechnen ist :bigok:
 
Die GTX280 knackt 2x8800 Ultra in der Geschwindigkeit. Merke dir meine Worte. ;)

50% effizientere Shadereinheiten sind wirklich witzig. Man fixt einfach das ohnehin schon existente MUL über eine Registerveränderung und schon gibts zum MADD noch ein MUL gratis dazu.

The claimed theoretical processing power for the 8 Series cards given in FLOPS may not be correct at all times. For example the GeForce 8800 GTX has 518.43 GigaFLOPs theoretical performance given the fact that there are 128 stream processors at 1.35 GHz with each SP being able to run 1 Multiply-Add and 1 Multiply instruction per clock [(MADD (2 FLOPs) + MUL (1 FLOP))×1350MHz×128 SPs = 518.4 GigaFLOPs][4]. This figure may not be correct because the Multiply operation is not always available[5] giving a possibly more accurate performance figure of (2×1350×128) = 345.6 GigaFLOPs

http://en.wikipedia.org/wiki/GeForce_8
http://www.beyond3d.com/content/reviews/1/11

:)


Hinzugefügter Post:

hmm also ich lese aus alle dem, dass Gerüchten nach die Shaderleistung um 80% erhöht wird und diese um 50% effizienter sind, ist in meiner Mathematik 120% höhere Shaderleistung.
Da nicht stets die Shader voll ausgelastet werden, sind imo 100% mehr Shaderpower durchaus realistisch.

bei mir sind es 63% shadermehrleistung und effizienter auch nur zu 33% :confused:
100% "shaderpower" hammer aber beide irgenwie rausbekommen :)
 
Zuletzt bearbeitet:
Somit trifft es genau meine Aussage von Seite vorher, das die "neue" nur 50-70% besser als die 8800er sein wird und noch locker von nem 8800er "gespann" vom feinsten versägt wird ;)

Das passt aber überhaupt nicht zu dem spekulierten Preis, von 649,-.
Entweder ist der falsch und die G200 Karten werden deutlich preiswerter, oder die Karten sind schneller, als von dir angenommen.
Nvidia kann sich nicht einfach abkoppeln und für eine Karte mit +50% auf eine 8800GTX derartige Preise verlangen.
Wenn der Preis wirklich stimmt, dann wird die Karte definitiv schneller sein.
 
hmm 240 SPs vs. 128 SPs bei nahezu gleichem Takt sind bei mir 80,5% mehr. Nicht mit Ultra verwechseln, denn der GT280 GTX wird 88GTX ablösen, ne Ultra Variante wirds später sicher auch geben ;).

Und 50% effizienter dadurch, dass 3 statt 2 Ops (2 MADD + 1 MUL) gleichzeitig ausgeführt werden können und 3 sind nun mal 150% von 2, was 50% mehr Effizienz bedeutet. Deine 33% sind der Anteil der Verbesserung an der Gesamtleistung beim GT200, haben, aber keinen Bezug zum G80 :fresse:
 
Das passt aber überhaupt nicht zu dem spekulierten Preis, von 649,-.
Entweder ist der falsch und die G200 Karten werden deutlich preiswerter, oder die Karten sind schneller, als von dir angenommen.
Nvidia kann sich nicht einfach abkoppeln und für eine Karte mit +50% auf eine 8800GTX derartige Preise verlangen.
Wenn der Preis wirklich stimmt, dann wird die Karte definitiv schneller sein.

...die Zeiten ändern sich, ALLES wird stetig teurer aber mit 650,-Euro läge sie ja auf einst 8800er Ultraniveau, dafür dann halt etwas "Mehrleistung" und schon stimmt die Inflationsrate wieder :lol:
 
Das passt aber überhaupt nicht zu dem spekulierten Preis, von 649,-.
Entweder ist der falsch und die G200 Karten werden deutlich preiswerter, oder die Karten sind schneller, als von dir angenommen.
Nvidia kann sich nicht einfach abkoppeln und für eine Karte mit +50% auf eine 8800GTX derartige Preise verlangen.
Wenn der Preis wirklich stimmt, dann wird die Karte definitiv schneller sein.

der preis wird schon so bei 600 sein,aber ich find nicht mal das 100% mehr performance gerechtfertigt sind für den preis,ist einfach zu teuer.ehm ein sli user sag ich mal verkauft seine 2 8800gtx für hmm 360 wenn er glück hat und dann soll er ca.250euro drauflegen um die selbe performance zuhaben?ne singlechip schön und gut aber mir würde das nicht reichen,und unter 100% mehrperformance würde schon glatt ins lächerliche fallen.
 
Zuletzt bearbeitet:
hmm 240 SPs vs. 128 SPs bei nahezu gleichem Takt sind bei mir 80,5% mehr. Nicht mit Ultra verwechseln, denn der GT280 GTX wird 88GTX ablösen, ne Ultra Variante wirds später sicher auch geben ;).

Und 50% effizienter dadurch, dass 3 statt 2 Ops (2 MADD + 1 MUL) gleichzeitig ausgeführt werden können und 3 sind nun mal 150% von 2, was 50% mehr Effizienz bedeutet. Deine 33% sind der Anteil der Verbesserung an der Gesamtleistung beim GT200, haben, aber keinen Bezug zum G80 :fresse:

...glaube nicht das es eine Ultra geben wird, denn NVIDIA selbst sagte das dies auf LANGE SICHT das Topmodell sein wird ;)

FAZIT: ...wird die 280er die Ultra ablösen u die 260er die GTX ;)
 
Das kannste vergessen, mit deiner Philosophie wären jede Firma pleite.
Gehen wir mal davon aus, die 4870 hat 30% +Performance auf eine 9800GTX und geht für 270-290,- raus, da kann NV nicht eine Karte bringen, die vielleicht nochmal 30% schneller ist, als die 4870 und sie für mehr als das Doppelte verkaufen.
So funtioniert das nicht, auch wenn NV auf Grund der massiven Konstruktion, im P/L Verhältnis nicht wird mithalten können.


der preis wird schon so bei 600 sein,aber ich find nicht mal das 100% mehr performance gerechtfertigt sind für den preis,ist einfach zu teuer.ehm ein sli user sag ich mal verkauft seine 2 8800gtx für hmm 360 wenn er glück hat und dann soll er ca.250euro drauflegen um die selbe performance zuhaben?ne singlechip schön und gut aber mir würde das nicht reichen,und unter 100% mehrperformance würde schon glatt ins lächerliche fallen.

Preise von über 600,-, kann Nvidia nur nehmen, wenn die Performance des G200 deutlich über einer 4870 liegen würde, wenn die 4870 aber zu dicht dran ist, sind solche Preise nicht mehr haltbar und wirtschaftlich nicht durchsetzbar.
 
Zuletzt bearbeitet:
Das kannste vergessen, mit deiner Philosophie wären jede Firma pleite.
Gehen wir mal davon aus, die 4870 hat 30% +Performance auf eine 9800GTX und geht für 270-290,- raus, da kann NV nicht eine Karte bringen, die vielleicht nochmal 30% schneller ist, als die 4870 und sie für mehr als das Doppelte verkaufen.
So funtioniert das nicht, auch wenn NV auf Grund der massiven Konstruktion, im P/L Verhältnis nicht wird mithalten können.

du murks dir wieder was zuzusammen, ati wird in etwa die selbe preisspanne haben bei der 4870xt wie zur 3870x². was nv da macht interessiert ati erstmal eh nicht da die karten mehr im highendbereich sind,ich glaub ich kann mich noch entsinnen das gestern oder vorgestern jemand was von ca. 600 euro erzält hat oder zugestimmt hatte.:lol: und jede 2. pappnase spekuliert mit 600 euro also ich weiß garnicht was du hast;)

wovon träumst du?

entweder von 400 euro oder von mehr als 2fache leistung, und keines der beiden wird in erfüllung gehen.

Preise von über 600,-, kann Nvidia nur nehmen, wenn die Performance des G200 deutlich über einer 4870 liegen würde, wenn die 4870 aber zu dicht dran ist, sind solche Preise nicht mehr haltbar und wirtschaftlich nicht durchsetzbar.

und 400 euro können die karten gleich verschenken da wird dann wohl nicht mehr viel gewinn gemacht.die werden die karten als premium anpreisen und so dann die 600 euros verlangen,sagen wir so bis halt die ati mit der x² variante dann auf den markt kommt,dann gehts natürlich runter mit dem preis.

eine gx2 ist auch kaum schneller als eine x2 und kostet auch mehr als 30%,also erzähl nicht was von preisleistung das wort kennt nv gar nicht.
 
Zuletzt bearbeitet:
hmm 240 SPs vs. 128 SPs bei nahezu gleichem Takt sind bei mir 80,5% mehr. Nicht mit Ultra verwechseln, denn der GT280 GTX wird 88GTX ablösen, ne Ultra Variante wirds später sicher auch geben ;).

Und 50% effizienter dadurch, dass 3 statt 2 Ops (2 MADD + 1 MUL) gleichzeitig ausgeführt werden können und 3 sind nun mal 150% von 2, was 50% mehr Effizienz bedeutet. Deine 33% sind der Anteil der Verbesserung an der Gesamtleistung beim GT200, haben, aber keinen Bezug zum G80 :fresse:

och, bei der shaderleistung hab ich natürlich die flops (ver)berechnet und ja; es sind 50%, hatte nen falschen grundwert (prozentrechnung musste ich mir erst wieder ergoogeln :fresse: )
 
Zuletzt bearbeitet:
du murks dir wieder was zuzusammen, ati wird in etwa die selbe preisspanne haben bei der 4870xt wie zur 3870x². was nv da macht interessiert ati erstmal eh nicht da die karten mehr im highendbereich sind,ich glaub ich kann mich noch entsinnen das gestern oder vorgestern jemand was von ca. 600 euro erzält hat oder zugestimmt hatte.:lol: und jede 2. pappnase spekuliert mit 600 euro also ich weiß garnicht was du hast;)

wovon träumst du?

entweder von 400 euro oder von mehr als 2fache leistung, und keines der beiden wird in erfüllung gehen.


Du solltest meine Posts mal richtig lesen und nicht etwas hineininterpretieren, was ich nie geschrieben habe.
Ich habe nirgendwo geschrieben, das Ati sich an Nvidia Preisen orientieren muss.
Für dich nochmal zusammengefasst.
Wenn der G200 von der Leistung entäuscht, muss sich Nvidia nach den Ati Preisen richten.
Nur wenn, die Leistung stimmt und man damit ziemlich konkurrenzlos ist, wie damals beim G80, kann man derartig hohe Preise für seine Produkte verlangen.
Wenn die Leistung des G200, wie von Navigator1 prognostiziert, nicht überzeugt, wird Nvidia zu High End Preisen keinen Markt finden.
Das sind einfach Mechanismen des Wettbewerbs im Markt, niemand kann seine Preise frei nach Schnauze diktieren, es muss schon annähernd in Relation mit Konkurrenzprodukten stehen.
 
Ich sags zwar ungern, aber ich sags nochmal, die 280GTX wird NIE die 8800er Ultra um 100% schlagen, höchstens bis auf 70% ...maximal 80% mehr, nicht etwa weil die das nicht können, sondern weil die das so wollen!

Huang sagte: "dann werden alle 2 oder 3 dieser Karten in ihrem Rechner haben"

Das ist ganz logische Firmenpolitik, Profitpolitik ;)

...denn wenn eine 280er nicht mehr wie 100% zur 8800er bringt, kann sie von zwei 8800er geschlagen werden, da noch sehr viele zwei oder Mehr dieser 8800er besitzen ist die logische Schlussfolgerung das dann um "UP TO DATE" zu sein jeder der ein besseres System wie die Jungs mit ihren 88er SLI Gespannen haben will auch mindestens zwei der neuen 280er Karten "KAUFEN MUSS" ...und das meine Damen und Herren ist RENTABLE FIRMENPOLITIK :shot:
 
Du solltest meine Posts mal richtig lesen und nicht etwas hineininterpretieren, was ich nie geschrieben habe.
Ich habe nirgendwo geschrieben, das Ati sich an Nvidia Preisen orientieren muss.
Für dich nochmal zusammengefasst.
Wenn der G200 von der Leistung entäuscht, muss sich Nvidia nach den Ati Preisen richten.
Nur wenn, die Leistung stimmt und man damit ziemlich konkurrenzlos ist, wie damals beim G80, kann man derartig hohe Preise für seine Produkte verlangen.
Wenn die Leistung des G200, wie von Navigator1 prognostiziert, nicht überzeugt, wird Nvidia zu High End Preisen keinen Markt finden.
Das sind einfach Mechanismen des Wettbewerbs im Markt, niemand kann seine Preise frei nach Schnauze diktieren, es muss schon annähernd in Relation mit Konkurrenzprodukten stehen.

das geht nicht mehr wie zu 8800gtx zeiten,heutzutage kriegt man für 100 euro schon sehr viel fps und wenn es nicht reicht kommt sli oder cf.das sind ja keine nieschenprodukte mehr.das kann man nicht mehr mit damals vergleichen.deswegen wird es auch keine konkurenzlose karte werden.

und solang sie auf platz 1 mit den karten sind können sie und machen sie was sie schon immer gemacht haben,überteuert verkaufen.

Naja, abwarten, jedenfalls wird Nvidia sehr wohl wissen, das sie für +50% Leistung auf eine 8800GTX, niemals 650,- bekommen werden.

ich rede von 100% nicht 50% das wäre ja volksverarschung
 
Zuletzt bearbeitet:
Naja, abwarten, jedenfalls wird Nvidia sehr wohl wissen, das sie für +50% Leistung auf eine 8800GTX, niemals 650,- bekommen werden.
 
...und hierzu wegen den Preisspekulationen, wenn das Ziel ist mehrere dieser Karten an EINEN Kunden zu verkaufen, denk ich werden die mit den Preisen nicht unbedingt unter die 500,-Euro gehen (in Anbetracht der Konkurenz mit ihren Preisen), bei den 8800er Ultras hats schliesslich auch geklappt, viele haben zwei Stück gekauft trotz 650,-Euro was die Dinger mal gekostet haben ;)

Sorry meinte nicht über sondern UNTER, habs grad korrigiert
 
Zuletzt bearbeitet:
Naja GTX/Ultra waren sicher unverhältnismässig teuer, dafür hat man aber auch einzigartige Leistung bekommen und hat damit selbst jetzt noch die besten Multi-GPU Karten am Markt.
Ich glaube kaum das du viele finden wirst, die es bereuen, sich 2x8800GTX verbaut zu haben.
NV ist da sicher nicht anders, als auch Ati, bei Ati ist es doch noch viel mehr Pflicht sich 3 GPU's reinzustopfen, damit halbwegs die Post abgeht.
Für Karten wie die grossen g80 kann man auch stolze Preise verlangen, die Karten waren es wert.
Eine G200 mit mageren +50% wird man jedenfalls nicht für solche Preise verkaufen können.
 
Zuletzt bearbeitet:
...und hierzu wegen den Preisspekulationen, wenn das Ziel ist mehrere dieser Karten an EINEN Kunden zu verkaufen, denk ich werden die mit den Preisen nicht unbedingt unter die 500,-Euro gehen (in Anbetracht der Konkurenz mit ihren Preisen), bei den 8800er Ultras hats schliesslich auch geklappt, viele haben zwei Stück gekauft trotz 650,-Euro was die Dinger mal gekostet haben ;)

Sorry meinte nicht über sondern UNTER, habs grad korrigiert

und wenn man nach deiner spekulation ausgehen würde das sie nur 50% schneller als eine 8800gtx ist und knapp unter 500 euro kosten würde,das wäre ja noch schlimmer,die würde doch nicht mal der bekloppteste fanboy kaufen,da wären ja schon 400 euro zuviel.ok,tombman die wurst schon,aber das wars dann auch.

...lies mal weiter oben, ich legte mich NICHT unbedingt auf 50% fest, aber sagte maximal 80% vielleicht weil ich weniger wie 50% unverschämt finden würde ;)

ich sag nur wenn es so wäre,das wäre das ja die mega blamage und so großkotzig wie die bis jetzt waren kann ich mir nur 50% auch nicht vorstellen.

ehrlich 50% und 400 euro wäre schon fast unverschämt.
 
Zuletzt bearbeitet:
und wenn man nach deiner spekulation ausgehen würde das sie nur 50% schneller als eine 8800gtx ist und knapp unter 500 euro kosten würde,das wäre ja noch schlimmer,die würde doch nicht mal der bekloppteste fanboy kaufen,da wären ja schon 400 euro zuviel.ok,tombman die wurst schon aber das wars dann auch.

...lies mal weiter oben, ich legte mich NICHT unbedingt auf 50% fest, aber sagte maximal 80% vielleicht weil ich weniger wie 50% unverschämt finden würde ;)
Hinzugefügter Post:
...ZUR ULTRA nicht zur 88 GTX
 
Zuletzt bearbeitet:
quelle 3dcenter von einem gast,muss also nichts heißen.naja zeigt auch eigentlich nichts neues;)

gtx200-series-price663.jpg
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh