nVidia G92 (9800 GX2/GTX), GT200 (9900 GTX/GT), G100 [Speku-, News- & Sammelthread]P2

Status
Für weitere Antworten geschlossen.
nVidia G92 (9800 GX2/GTX), GT200 (9900 GTX/GT), G100 [Speku-, News- & Sammelthread]P2

nVidia G92 (9800 GX2 / GTX), GT200 (9900 GTX / GT), G100
[Speku-, News- & Sammelthread]


In diesem Thread, geht es um Informationen, Meinungen, Fragen und Spekulationen rund um das Thema:

nvlogodeluxxul8.jpg

bringt nVidia einen G90 als Refresh des G80,
oder kommt der G90 oder G9x bzw. G100 schon mit einer völlig neuen oder aufgebohrten Architektur,
wird es wieder eine nV ULTRA oder (9800)GX2 Variante geben
und kommt eine 8800 GS oder 9800 GS jetzt wirklich ?!?


Spekulationen zur Folge wird NV auch im Mainstream Bereich eine neue Graka auf beschnittener G92 Basis releasen und zwar die GF 9600 GT.

Außerdem, steht der G92 kurz vorm Release und aller Voraussicht, resultiert die GF 8800GT als erste Graka daraus, dicht gefolgt von einer neuen GF 8800 GTS.


Aber werden nun auch die beiden jetzigen HighEnd 8800 Modelle(GTX/ULTRA), als 65nm Refresh auf dem G92 beruhen, oder bringt nv nun doch noch einen G90 sprich eine echte 9800 GTX?!?

So wie es derzeit aussieht, wird wohl der G92 für die kommenden 9800er verwendet werden, was wohl eine Speicher-Interface Limitierung auf 256 Bit bedeutet. :(


Wie man sieht, Fragen über Fragen! ;)

----------------------------------------------------------------------------------------------------------



nv GT 200



Nvidia GT200: 240 SPs und 512-Bit Interface?


[...] der kommende Next-Generation-Chip würde auf den Namen GT200 hören und rund 1 Millarde Transistoren besitzen,

[...] Feststeht nur, dass der Chip, sofern er 240 Shadereinheiten besitzen wird, die in ihrer Komplexität bzw. Funktionalität zum derzeitigen G80/G92 identisch sind, sicherlich mehr Transistoren beherbergen würde. An dieser Stelle wären, insbesondere unter Berücksichtigung des 512-Bit Speicherinterface, das als so gut wie sicher gilt, locker 1,2- bis 1,4 Millarden Transistoren fällig.


gt200vk7.jpg


[...] wären 240 Shadereinheiten weiterhin am Realistischten, da so eine fast vollständige Verdopplung der Shaderleistung möglich wird. Angesichts einer Rekord-Entwicklungszeit von mehr als 18 Monaten wären 50 Prozent mehr Shadereinheiten (200 oder 192 statt 128) schlichtweg zu wenig, zumal die Konkurrenz mit dem RV770 ein heißes Pferd im Stall zu haben scheint.

[...] dass die Shadercluster von derzeit acht auf zehn erhöht worden wären und gleichzeitig die Streamprozessoren von 16 auf 24 pro Cluster erweitert. [...]

Das Speicherinterface wird sehr wahrscheinlich auf 512-Bit anwachsen, da weiterhin GDDR3-Speicher verwendet werden soll und 256-Bit zu einem klaren Flaschenhals führen würden - teilweise ist dieser schon beim G92 augenscheinlich. Theoretisch bestände zwar noch die Option eines 384-Bit Speicherinterfaces, wie beim G80 gesehen, hierbei handelte es sich aber vermutlich eher um eine Notlösung als um eine langwierig durchdachte Konstruktion.
Da die ROP-Einheiten der Nvidia-Chips an das Speicherinterface gekoppelt sind, würden diese im Zuge der Verdopplung des Speicherinterfaces ebenfalls automatisch von 16 auf 32 erhöht. Eventuell sind aber auch 24- oder sogar 16 ROPs bereits ausreichend bzw. würden keinen Flaschenhals darstellen. Ausschließen kann man daher nicht, dass Nvidia das Verhältnis von Speicherinterface zu ROP verändert und so Transistoren einspart.

[...] dass insgesamt 120 TMUs zum Einsatz kämen, was einer beinahe glatten Verdopplung zum G80/G92 gleichkommen würde.

Aktuell sind die TMU-Cluster direkt an die Shadercluster angebunden. G80 und G92 verfügen somit über acht Textur- und Shadercluster, so dass sich jene 64 TMUs ergeben (8x8). Belässt Nvidia die Texturclustergröße bei 8 TMUs pro Shadercluster und erhöht lediglich, wie angenommen, die Shaderclustergröße von 16 auf 24 SPs, so ergäben sich insgesamt 80 TMUs (8x10), die als vollkommen ausreichend betrachtet werden können. [...]

Weiter wird berichtet, dass die Taktfrequenzen an Chip und Shader ähnlich hoch wie bei derzeitigen Modellen lägen, also beispielsweise 600 MHz Chiptakt und 1500 MHz Shadertakt. Auch der Speicher soll, da er weiterhin vom Typ GDDR3 sein soll, in etwa 1000 MHz schnell takten. Im Großen und Ganzen könnten die Spezifikationen so oder so ähnlich ausfallen. [...]


Quelle: www.hardware-infos.com



Nvidia: GT-200 hat 1 Millarde Transistoren


[...] hat Nvidia beiläufig brandheiße Informationen zum G92-Nachfolger GT-200 preisgegeben, der im Juni zur Computex erwartet wird und seit dem G80 im November 2006 erstmals wieder für einen spürbaren Performanceschub sorgen soll.

[...] dass die neue Grafikkartenarchitektur tatsächlich unter der Bezeichnung GT-200 laufe
- Gerüchte rund um D10U oder G100 dürfen also vorerst beiseite gelegt werden, sofern es sich nicht um Alternativnamen handelt - und über rund eine Millarde Transistoren verfüge. Davon ausgehend, dass Nvidias G92 rund 754 Millionen Schaltungen besitzt, dürfte der
GT-200 um ca. ein Drittel an Shader- und Textureinheiten zugelegt haben, wobei auch ein 512-Bit breites Speicherinterface die Mehrtransistoren unter anderem verursachen könnte. Jedenfalls sind damit Fantastereien, dass der Chip über 256- oder sogar 384 Shadereinheiten verfüge, endgültig vom Tisch.

[...] dass der Chip über 200 Shadereinheiten sowie ein 512-Bit breites Speicherinterface verfüge.
[...] realistisch - nicht mehr und nicht weniger. Nvidia hat mit der Ankündigung die Gerüchte lediglich eingedämmt, genauere Informationen liegen weiterhin nicht vor. Dies soll nach Nvidias Meinung auch vorerst so bleiben: Erst im Mai, wie Brown ergänzte, wird man nähere Infos zum Chip folgen lassen [...]

Quelle: www.hardware-infos.com



Gerüchteküche: nVidia GT200


Neuer Grafikchip mit 200 Shader Einheiten & 512bit Speicherschnittstelle?

[...] vermutlich in der zweiten Jahreshälfte kommenden High-End Grafikchip mit dem Codenamen GT200
[...] soll der GT200 über 200 Shader Einheiten (Stream Prozessoren) und eine 512bit breite Speicherschnittstelle verfügen.
Zum Vergleich: der G92 von GeForce 8800 GT und GTS-512 besitzt bis zu 128 Shader Einheiten und ein 256bit RAM-Interface.

Quelle: www.hartware.de



[...] sind auch erste, angebliche Infos zum GT200 aufgetaucht, Nvidias neuer Geheimwaffe, die ein stark aufgewerteter GeForce 8- bzw. 9-Chip sein soll, ohne jedoch zu protzen.
So dürften auch beim GT200 Leistungssteigerungen von um die 40 Prozent zu erwarten sein, was zwar deutlich mehr ist als bei einem Refresh-Chip, dennoch das Kaliber eines Next-Generation-Chips verfehlt, den Nvidia voraussichtlich im dritten oder vierten Quartal dieses Jahres in persona des G100 vorstellen wird.

Doch zurück zum GT200: Dieser soll [...] in den letzten Tagen fertiggestellt worden sein und theoretisch auslieferbar. Mangels Konkurrenz heißt es, Nvidia würde den Chip bis zum RV770-Launch aufschieben, entsprechend ebenfalls im Juni launchen. Inwiefern all' diese Gerüchte zutreffend sind, muss abgewartet werden. [...]

Quelle: www.hardware-infos.com




----------------------------------------------------------------------------------------------------------



nv 9800 GX2



gf9800gx2vv5.jpg


GF 9800 GX2 gelistet:






GeForce 9800 GX2: Weitere Bilder

Neue Doppel-Grafikkarte auf Basis von zwei GeForce 8800 GTS 512MB

"[...] soll die GeForce 9800 GX2 wie vermutet auf zwei GeForce 8800 GTS mit 512 MByte basieren und damit über insgesamt 1 GByte Speicher verfügen. Angeblich wird die neue High-End Grafikkarte [...] 449 US-Dollar kosten.
Release der 9800 GX2 ist nun der 18. März.
Die [...] GeForce 9800 GX2 besitzt zwei DVI-Anschlüsse, einen HDMI-Port und einen digitalen Audioausgang (S/PDIF). [...] SLI-Anschluss, d.h. man kann zwei Modelle parallel betreiben (Quad-SLI). Triple- bzw. 6-fach-SLI ist dagegen nicht möglich.
Angeblich reicht zum Betrieb ein Netzteil mit 580 Watt Gesamtleistung und mindestens 40 Ampere auf der 12-Volt-Schiene aus."

Quelle: hartware.de





----------------------------------------------------------------------------------------------------------


nv 9800 GTX



y1p6irVfTHljTORj97o6FZTosq-Bo61HFKAFID-sfNqrZt93iHnz6snveztqw6LDdzmvmCQdO5aPaxi40n0jZDCuw


Nvidia GeForce 9800 GTX: Die Platine im Detail


"[...]
Das PCB der GeForce 9800 GTX trägt wie die GeForce 8800 GT(S) einen Grafikchip vom Typ G92. Während auf der 8800 GT ein G92-270 und auf der 8800 GTS ein G92-400 zum Einsatz kommt, wird auf der 9800 GTX jedoch ein G92-420 verbaut. Auf der kommenden Dual-Grafikkarte GeForce 9800 GX2 werden es zwei G92-450 sein."


9800gtxux9.jpg

"Alle G92-4x0 verfügen über die volle Anzahl von 128 Shader-Prozessoren und unterscheiden sich lediglich in ihrer Taktung und anderen peripheren Merkmalen der jeweiligen Grafikkarte. So soll der G92-420 einer GeForce 9800 GTX mit 675 MHz Chip- und 1688 MHz Shader-Takt arbeiten.

[...] acht GDDR3-Speicherchips mit insgesamt 512 MB, die in gewohnter Art rings um die GPU angeordnet sind. Die Speicherchips sind von Samsung gefertigt und sind gemäß ihrer Codierung K4J52324QE BJ08 mit einer Zugriffszeit von 0,83 ns (1200 MHz) bei 1,8 Volt spezifiziert. Da die GeForce 9800 GTX voraussichtlich nur mit 1100 MHz realem Speichertakt operieren wird, bieten die Chips also sicher noch etwas Spielraum für Übertaktungsversuche.

[...] die GeForce 9800 GTX wird über zwei sechspolige PCIe-Stromstecker mit Energie versorgt. Zur Spannungswandlung dient ein System aus 4 + 2 Phasen, vier für die GPU und zwei für den VRAM.

Die Stromversorgung der 9800 GTX fällt somit recht üppig im Vergleich zu bisherigen G92-Derivaten aus. Die Grafikkarte ist dadurch ein Stück länger als eine GeForce 8800 GT(S) oder 9600 GT und entspricht in ihrer Länge ziemlich genau einer GeForce 8800 GTX oder Ultra.
Erste Benchmark-Tests im 3DMark06 haben der GeForce 9800 GTX bislang das bescheinigt, was man erwarten würde, ist sie doch nichts anderes als eine übertaktete GeForce 8800 GTS (G92). Ob das aufwändige System zur Spannungswandlung weiteres Potential bereit hält, werden ausführliche Tests zeigen, die mit einer Markteinführung der Grafikkarte am 25. März zu erwarten sind."

Quelle: www.computerbase.de


nVidia Präsentation:​

443043bzz4.jpg


GPU Screen:
GPUZ_Exp.jpg




----------------------------------------------------------------------------------------------------------


nv 9800 GT(S)



9800gtsasusrb9.jpg

GeForce 9800 GTS: Bilder und Infos


"[...] wird in knapp zwei Wochen der Launch der » 9800 GX2, dem künftigen Flaggschiff, folgen.
[...] dass Nvidia kurz darauf eine » 9800 GTX, die auf der CeBIT allerdings noch nicht ausgestellt wurde, vorstellen wird, welche jedoch gegenüber der aktuellen 8800 GTS 512 lediglich rund 5 Prozent mehr Leistung inklusive Triple-SLI-Support bieten soll.

[...] Informationen einer so genannten 9800 GTS aufgetaucht. Demnach soll die Karte weiterhin auf dem G92 basieren und folglich über 128 Streamprozessoren verfügen, [...] sich der Takt des Chips auf 600 MHz belaufen, währenddessen die Shadereinheiten mit 1500 MHz angesprochen werden sollen. Der Speicher soll vom Typ GDDR3 stammen und mit einer realen Taktfrequenz von 900 MHz zu Werke gehen.

Sind die Spezifikationen korrekt, so sollte sich die 9800 GTS leistungsmäßig zwischen 8800 GT und 8800 GTS 512 anordnen. Dass man hierbei ganz offensichtlich altes unter neuem Namen verkauft, wird spätestens dann klar, wenn man über den fehlenden Triple-SLI-Support bescheid weiß - dies wäre die einzige, zu erwartende Neuerung gegenüber den GeForce-8-Produkten gewesen.

[...] Wann die 9800 GTS offiziell vorgestellt wird, kann gegenwärtig nur spekuliert werden. Sicher dürfte sein, dass mit ihrer Vorstellung 8800 GT und 8800 GTS 512 von der Bildfläche verschwinden werden [...]"

Quelle: hardware-infos.com/




----------------------------------------------------------------------------------------------------------


nv 9600 GT


9600gt1gq1.jpg

GeForce 9600 GT: Bilder und konkrete Specs

"Abseits der immer noch anlaufenden Consumer Electronics Show (CES) sorgen momentan erste Bilder zur kommenden GeForce 9600 GT, [...] die Bilder sind der nun sichtbare Beweis für dessen Existenz.

[...] insgesamt 64 Shadereinheiten der 9600 GT. Ferner gilt ein 256-Bit Speicherinterface als sehr wahrscheinlich. Durch einen Speichertakt von 900 MHz würde man so eine reale Speicherbandbreite von 57,6 GiB/s erzielen, die so im Mid-End-Sektor noch nicht zu sehen war. Der Chip soll entgegen bisheriger Meldungen mit 650- statt 500 MHz angesteuert werden; die Shadereinheiten mit 1625 MHz. In der Summe soll der in 65nm-gefertigte Chip rund 90 Prozent schneller als eine 8600 GTS rendern.

[...] ein Netzteil mit mindestens 400 Watt Gesamtleistung pflicht. Des Weiteren muss es 26 Ampere auf der +12-Volt-Schiene liefern.
Überdies gilt mittlerweile als relativ gesichert, dass der Chip eins-zu-eins auf der GeForce-8-Architektur aufsetzt, damit also quasi nur ein abgespeckter G92 ist, der bei der 8800 GT und 8800 GTS 512 eingesetzt wird. Sollte nichts Unerwartetes passieren, so wird Nvidia den Chip zusammen mit der 9800 GX2 am 14. Februar veröffentlichen."

Quelle: www.hardware-infos.com

9600gt2oa2.jpg

GeForce 9600 GT: Erste Resultate


Neue Mainstream-Grafikkarte ist Nachfolger der GeForce 8600 GTS

"[...]

Der Grafikchip taktet mit 650 MHz, der Speicher wird mit 900 MHz angesprochen. Der Shader-Takt liegt bei 1625 MHz. Nach aktuellem Kenntnisstand verfügt der Grafikchip (Codename angeblich G94-300) über 64 Stream Prozessoren (Shader Einheiten).
Der schwarze Kühler ähnelt äußerlich dem der GeForce 8800 GT und kommt wie bei der GT wohl auch wieder von Cooler Master.
Im 3DMark06-Vergleich zeigt sich die GeForce 9600 GT etwa so schnell wie die Übergangslösung GeForce 8800 GS (-6 bis +2 Prozent). Die GeForce 8800 GT (mit 512 MByte) ist allerdings ein gutes Stück schneller, zwischen 21 und 28 Prozent."

Quelle: hardware.de


----------------------------------------------------------------------------------------------------------



nv 8800 GTS


9ii3rf78.jpg

g92tabyi3.jpg

g92newgtshf3.jpg

----------------------------------------------------------------------------------------------------------


Weitere Bilder und neuer Termin der „G92 GTS“


" [...] neue GeForce 8800 GTS auf Basis des in 65 nm gefertigten „G92“-Grafikchip [...]

nv8800gtssideaa4.jpg
nv8800gtstopgg1.jpg

[...] am 11. Dezember 2007. Die maximale Leistungsaufnahme wurde ebenfalls mit nun 140 Watt – vormals 110 Watt – ein klein wenig (nach oben) korrigiert, [...], um eventuellen Temperaturproblemen bei gestiegener Leistungsaufnahme vorzubeugen, ein Dual-Slot-Kühler mit ausreichend dimensioniertem Lüfter verwendet. Der Chiptakt wird nach wie vor bei 650 MHz liegen, während der Speicher effektiv mit 1.940 MHz arbeitet. Der Shadertakt liegt bei hohen 1.625 MHz."



Quelle: computerbase.de


Taktraten der neuen 8800 GTS "G92"


"[...] die "alte" GTS aufzubohren, indem man kurzerhand die Taktraten von 500/1200/800 MHz auf 575/1350/900 MHz erhöhte und obendrein noch die Shadereinheiten von 96 auf 112 erhöhte.

Damit nicht genug, kündigte man auch eine weitere 8800 GTS für den 3. Dezember an. Diese Karte sollte auf dem in 65nm gefertigten G92 basieren und damit auf demselben Chip wie die 8800 GT. [...]

Demnach soll der 512 MiByte große Texturspeicher der neuen 8800 GTS mit einer Taktfrequenz von realen 970 MHz angesprochen werden und an das übliche 256-Bit-Speicherinterface des G92 gekoppelt sein. Der Kerntakt soll bei rekordverdächtigen 650 MHz liegen, während die insgesamt 128 Shadereinheiten mit ebenfalls rekordverdächtigen 1625 MHz angesprochen werden sollen. Die 9-Zoll-Karte soll unter Last 140 Watt aus einem 6-Pin-PCI Express-Stecker ziehen und damit deutlich verbrauchsarmer als die bisherigen 8800-GTS-Chips. [...]

Die nVidia GeForce 8800 GTS 512 wird voraussichtlich am 3. Dezember für ca. 299-349$ das Licht der Welt erblicken. Interessant wird die Positionierung, da diese Karte der jetzigen 8800 GTX angesichts brachialer Shaderpower überlegen sein dürfte und sich der Ultra bedingt durch die Speicherbandbreite wahrscheinlich unterordnen wird müssen. [...]"



Quelle: hardware-infos.com



Zwei neue GeForce 8800 GTS bis Dezember
"Verwirrung gibt es derzeit um die Zukunft, beziehungsweise um die neuen Ableger der GeForce 8800 GTS. Nachdem sie aus dem eigenen Hause starke Konkurrenz in Form der GeForce 8800 GT bekommen hat und Nvidia gestern bereits verriet, dass es eine neue Version der GTS geben wird, [...]

Richtig neu wird es dann ab dem 3. Dezember 2007. Dann wird es die richtige Neuauflage der GeForce 8800 GTS geben – die 65-nm-Fertigung des G92 inbegriffen. Diese neue GeForce 8800 GTS setzt dann auf die Grundelemente der GeForce 8800 GT, verfügt jedoch über 128 SP anstatt 112 der GT. Das Speicherinterface wird ebenfalls wie bei der GT-Version bei 256 Bit liegen, insgesamt stehen 512 MB GDDR3-Speicher zur Verfügung. [...]"

Übersicht / Specs.:
g92gtsgf7.jpg


"Wie der Tabelle zu entnehmen ist, wird laut den Kollegen von HKEPC das Portfolio durch einen weiteren Ableger, der GeForce 8800 GS, abgerundet. Da die GeForce 8800 GT mit 256 MB Speicher bereits ab 199 US-Dollar verfügbar sein soll, wird die GeForce 8800 GS einen noch günstigeren Einstieg in die 8800er-Generation ermöglichen. Allerdings sollen sowohl die 256-MB-Variante der GT als auch der GS erst einige Wochen später im Handel verfügbar sein [...]

Des Weiteren werfen die beiden neuen GeForce 8800 GTS die Frage nach dem Verbleib der GTX auf. Jene weiß sich im aktuellen Test der GeForce 8800 GT bei uns gerade noch zur Wehr zu setzen, jedoch dürfte es mit einer nochmals technisch verbesserten Neuauflage der Anfang Dezember erscheinenden Version der GTS kaum eine Überlebenschance für die GTX geben. Die geringere Leistungsaufnahme und die höheren Taktraten dürften die neue GTS in fast allen Bereichen das Duell für sich entscheiden lassen. Darüber hinaus wird die neue GTS um den von der GeForce 8600 und der GeForce 8400 bekannten „Video Processor 2“ (VP2) erweitert, weswegen man den G92 als „PureVideo HD“-fähig bezeichnet. Somit kann die GPU der CPU die Mehrarbeit bei MPEG2- sowie H.264-HD-Filmen abnehmen, weswegen es selbst auf schwächeren CPUs kein Problem darstellt, einen HD-Film anzuschauen – ein weiterer Vorteil gegenüber der bisherigen GTX.

Doch wie geht es dann weiter?
Ob nochmals eine neue Version der GTX auf Basis des G92 in den Startlöchern steht, vielleicht mit etwas mehr Speicher, muss abgewartet werden. Es erscheint jedoch nicht völlig unrealistisch, da das Synonym „GTX“ (abgesehen von wenigen Ultra-Derivaten) bisher immer für die schnellsten Nvidia-Grafikkarten stand. Dies dürfte ohne weitere Palettenänderung bei Nvidia jedoch kaum mehr der Fall sein, zumindest nicht mehr in den verbleibenden wenigen Wochen dieses Jahres."



Quelle: computerbase



8800 GTS am 19. November?
Weitere G92-Grafikkarte bereits am 19. November?

"Erst vor einigen Tagen waren Gerüchte und erste Details zur kommenden GeForce 8800 GTS aufgetaucht. Diese soll über 112 Stream-Prozessoren verfügen und mit 512 MByte Grafikspeicher ausgeliefert werden - der allerdings nur per 256 Bit Interface angebunden wird, was den Abstand zur GeForce 8800 GT mit 512 MByte, die für den 29. dieses Monats erwartet wird, deutlich verringern dürfte. Laut aktuellen Gerüchten wird nVidia die 8800 GTS bereits knapp drei Wochen nach der 8800 GT vorstellen: Am 19. November.

Kosten soll eine derartige Karte rund 305 US-Dollar, womit sie preislich durchaus ein gutes Stück über den 8800 GT Varianten (200 bzw. 250 US-Dollar) liegt. [...]"



Quelle: hardware.net



----------------------------------------------------------------------------------------------------------

nv 8800 GT

Launchtermin ist der 29. Oktober 2007 und hier nun die von vielen heiß ersehnten Specs. der GF 8800 GT:
(klick mich)
* G92-270-A2 revision (65nm, Week 37 2007)

* 37.5mm x 37.5mm 1148-pin FCBGA package
* Core clock : 600MHz / Shader clock : 1500MHz
* VGPU = 1.05±10.5mV
* 112 shader processors
* 10-layers PCB revision G92P393
* 8 chips of 16M x 32 Qimonda HYB18H512321 BF-10 @ 2V
* 256-bit 512MB GDDR3 @ 900MHz (Effective 1GHz)
* Coolermaster TM69 single slot cooler
* 3 heat-pipes, 1000-3200RPM, 34dB
* 110W TDP (Requires 6-pin PCIe connector)
* NVIO/HDCP
- allerdings nur 16 ROPs (im Vergleich zu 24 ROPs beim G80)
(klick mich)



________________________


News von Oktober 2007:


GeForce 8800 GT vorgestellt


Neues Modell löst GeForce 8800 GTS 320MB ab - Erhältlich ab 229 Euro

"Nach Wochen voller Gerüchte stellt nVidia nun endlich offiziell die GeForce 8800 GT Grafikkarte vor. Das neue Modell löst die 320-MByte-Version der GeForce 8800 GTS ab und soll laut nVidia von diversen Anbietern ab 229 Euro erhältlich sein. [...]
Im Vergleich zur GeForce 8800 GTS besitzt der Grafikchip der 8800 GT mehr Shader Einheiten bzw. Stream Prozessoren: 112 statt 96. Außerdem wurde der Chiptakt von 500 auf 600 MHz und der Speichertakt von 800 auf 900 MHz angehoben. Die Speicherschnittstelle ist dagegen nur noch 256 statt 320bit breit. Die GeForce 8800 GT wird mit 512 MByte GDDR3 SDRAM ausgestattet. Eine 256-MByte-Version folgt wohl später.
Außerdem wurde der Grafikchip der GeForce 8800 GT laut nVidia mit einer PureVideo HD Einheit der zweiten Generation ausgestattet, der High Definition Filme in H.264 und VC-1 beschleunigt. Die Karte entspricht dem PCI Express 2.0 Standard.
..."



Quelle: hardware.net



GeForce 8800 GT letzten Endes leicht zu kühlen?


"Vor einigen Tagen machten Schlagzeilen die Runde, Nvidia habe bei der kommenden GeForce 8800 GT mit Hitzeproblemen zu kämpfen. [...]

Das Problem schien der einfache Single-Slot-Kühler in Verbindung mit engen, schwach ventilierten Komplettsystemen zu sein. Es handelte sich offenbar um ein reines Kühlungsproblem, denn der G92, Grafikchip der künftigen 8800 GT, gilt mit einer Strukturbreite von 65 nm als gemäßigt hinsichtlich Leistungsaufnahme und Hitzeentwicklung. Die Fertigung des G92 wurde von Nvidia übrigens nicht wie sonst üblich bei TSMC sondern bei UMC in Auftrag gegeben.
G92 Package-Design​
Anhang anzeigen 53659
(klick mich)
Nvidia soll seinen Partnern mittlerweile bestätigt haben, dass die GeForce 8800 GT nicht zu heiß wird und dabei ungefähr 110 W an Leistung aufnimmt beziehungsweise an Wärme wieder abgibt. Im Zuge dessen ist auch ein neues Bild ins Internet gelangt, welches den Kühler der 8800 GT mit einem nun größeren Lüfter zeigt. Der Single-Slot-Kühler verrät aufgrund seiner in schwarz gehaltenen Abdeckung nach wie vor wenig über innere Qualitäten, soll aber über drei Heatpipes verfügen. Auf dem PCB ist eine einzelne herkömmliche 2x3 PCI-Express-Buchse zur Stromversorgung verlötet.

Des Weiteren verdichten sich Informationen um die Spezifikationen der GeForce 8800 GT. Gearbeitet wird mit einem Kerntakt von 600 MHz; der Speicher wird real mit 900 MHz (effektiv 1800 MHz) betrieben. Das Speicherinterface wird 256 Bit breit sein, die Speicherausstattung 256 MB oder 512 MB betragen – je nach Modell. Neu sind Angaben zur GPU-Spannung, welche bei 1,05 V oder 1,10 V liegen soll.

Interessant sind noch Angaben zur Chipgröße. Der G92 der GeForce 8800 GT soll mit 289 mm² kleiner sein als der 480 mm² große G80 einer 8800 GTS / GTX / Ultra. [...]

Außerdem scheint das PCB der 8800 GT zwar in der Länge einer GeForce 8800 GTS zu ähneln, das Layout scheint jedoch nicht mit dem einer GeForce 8800 GTS vergleichbar zu sein. Dieser Umstand ließ sich bereits aus der Erkenntnis ableiten, dass der Videospeicher auf der 8800 GT anders organisiert wird. Das kleinere, 256 Bit breite Speicherinterface der 8800 GT bindet acht Speicherchips an, während auf einer GTS mit 320 Bit zehn Chips und auf der GTX / Ultra mit 384 Bit zwölf Chips angebunden werden. Somit wären sämtliche bisher verfügbaren Kühler für die GeForce 8800 Serie nicht kompatibel zur 8800 GT.

Die GeForce 8800 GT wird am 29. Oktober der Öffentlichkeit präsentiert werden und soll zu ihren zwei DVI-Anschlüssen einen HDMI-Dongle spendiert bekommen."



Quelle: computerbase



GeForce 8800 GT


Neue Grafikkarte für $200 bis $249 mit flachem Kühler und guter Leistung

"Die neue GeForce 8800 GT von nVidia auf Basis des in 65nm Technologie gefertigten G92 Grafikchips wird bekanntlich Ende Oktober oder Mitte November eingeführt. [...] und kann im 3DMark06 10.000 Punkte übertreffen.

Das 3DMark06-Resultat von 10.769 Punkten hat nVidia den Grafikkartenherstellern als Referenz genannt. Es ist allerdings unklar, auf welchem System der Benchmark der GeForce 8800 GT durchgeführt wurde, so dass es keine vergleichbaren Leistungsdaten gibt. Mit über 10.000 Punkten im 3DMark06 rückt nVidia aber auf jeden Fall recht nah an die GeForce 8800 GTS heran, obwohl diese mehr Shader Einheiten und eine breitere Speicherschnittstelle besitzt.
Zum Vergleich: Während die GeForce 8800 GTS über 96 Shader Einheiten und ein 320bit breites RAM-Inteface verfügt, wird die GeForce 8800 GT "nur" 64 Shader Einheiten und eine 256bit Speicherschnittstelle besitzen.
Bislang rechnete man bei der GeForce 8800 mit 600 MHz Chip- und 900 MHz Speichertakt. Allerdings heißt es nun, dass der G92 Grafikchip auch höhere Taktraten gut verträgt und nVidia diese vor Einführung vielleicht noch erhöht. Das soll von der Leistung des neuen Konkurrenzmodells von AMD, der ATI Radeon HD 2950 Pro (RV670), abhängen, von der bislang noch keine Benchmark-Resultate durchgesickert sind.
Die GeForce 8800 GT soll mit 256 MByte Speicher für 200 US-Dollar und mit 512 MByte für $250 auf den Markt kommen."



Quelle: hardware.net


News von September 2007:


Aus G92 wird GeForce 8700 GTS


Im November: Grafikkarte mit G92 Chip heißt nVidia GeForce 8700 GTS

"Über den vermutlich Mitte November erscheinenden G92 Grafikchip von nVidia gab es bereits zahlreiche Gerüchte. Unklar ist weiterhin die genaue Leistungsfähigkeit, aber jetzt wird aus Asien berichtet, dass der offizielle Name der entsprechenden Grafikkarte "GeForce 8700 GTS" lauten wird. [...]
Zum Vergleich: Eine GeForce 8600 GTS taktet mit 675/1000 MHz und besitzt nur ein 128bit RAM-Interface. Die GeForce 8800 GTS läuft mit 500/800 MHz und verfügt über eine 320bit breite Speicherschnittstelle."



Quelle: VR-Zone


News von August 2007:


nVidia G92 angeblich am 12.11.


Neue G92 Grafikkarten sollen im November GeForce 8800 GTS ablösen

"Um den kommenden G92 Grafikchip von nVidia gab es widersprüchliche Meldungen. Einige positionierten diesen im High-End Segment, andere im Mainstream. [...]
Der in 65nm Technologie gefertigte nVidia G92 Grafikchip verfügt über eine 256bit breite Speicherschnittstelle. Zum Vergleich: der G80 Grafikchip der GeForce 8800 GTS wird noch in 90nm Strukturbreite produziert und besitzt ein 320bit RAM-Interface.
Grafikkarten mit dem G92 werden gegen die in den nächsten Monaten erwartete ATI Radeon HD 2950 Pro (RV670) positioniert. Genaue Produktbezeichnungen sind noch nicht bekannt, aber G92-Modelle werden wohl weiter zur GeForce 8 Serie zählen, noch nicht zur GeForce 9."



Quelle: HKEPCI

----------------------------------------------------------------------------------------------------------


Nvidia: GeForce 9800 GTX und GTS im November 07?


"Laut TweakPC sollen aus diversen Quellen bereits Informationen über die neue GeForce Generation ans Licht gekommen sein.
Ging man zuvor aus, dass der G92 eine Midrange Karte wird, so soll man jetzt zum Entschluss gekommen sein,
dass es ein High-End Modell sein wird, die GeForce 9800.
Nach unbestätigten Angaben soll der G92 bereits im November vorgestellt werden
und über eine Milliarde Transistoren verfügen, im G80 sind es lediglich 681 Millionen.

Spezifikationen des neuen G92 auf einer GeForce 9800 GTX sollen folgende sein:

65 Nanometer Prozess
Über eine Milliarde Transistoren
Unified-Shader-Architecture der zweiten Generation
Floatingpoint 64 Support
Über ein Teraflop Shader-Rechengeschwindigkeit
MADD+ADD Konfiguration für die Shader (2 + 1 FLOPS = 3 FLOPS pro ALU)
512-Bit-Speicher Interface
1.024 Megabyte GDDR4-Speicher
Direct-X 10.1 Support
OpenGL-3.0 Support
eDRAM die für "FREE 4xAA”
Eingebauter Audio-Chip (HDMI)
Verbesserte AA- und AF-Qualität
Die mutmaßlichen Preise der Karten sollen auch schon bekannt sein, so soll die GeForce 9800 GTX zwischen 549 und 649 US-Dollar und die GeForce 9800 GTS zwischen 399 und 499 US-Dollar kosten."

Quelle: TweakPC


----------------------------------------------------------------------------------------------------------

... und hiermit fing alles an:

Angeblich soll der G80 Refresh also der G81 mit 25% mehr Shader Einheiten kommen.


"Im März wird bekanntlich die neue DirectX10 Grafikkartengeneration von ATI erwartet.

nVidia hat seine neuen Grafikkarten (GeForce 8) bereits seit einiger Zeit auf dem Markt,
will aber offenbar nochmal nachlegen, um ATI jeglichen Wind aus den Segeln zu nehmen.

Angeblich ist eine GeForce 8900 GTX mit 25% mehr Shader Einheiten geplant, das wären dann 160.
Ob dieses Modell weiterhin auf dem in 90nm Technik gefertigten G80 Grafikchip basiert
und ob es höher getaktet wird als eine GeForce 8800 GTX, ist noch Spekulation."



Quelle: hartware.de
 
Zuletzt bearbeitet:
200€ und dann so viel Alu, stolzer Preis :fresse:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Naja Inno eben, deren Kühler sind ja immer etwas überteuert.

In der news auf CB von gestern steht was von einer 9800 GTS mit 600MHz GPU und 1800 MHz Speicher. Wird die überhaupt schneller sein als eine 8800GTS? Macht doch irgendwie keine sinn, oder? :confused:
 
Ach das ist doch wohl kacke jetzt wollt ich mir mal ne High-end Graka kaufen und dann kommt raus das es nicht so ist und im herbst schon die neuen high-end grakas kommen.... was soll ich den jetzt kaufen ? warten bis die GX2 kommt und die 88ultra billiger wird und 88u. kaufen ? wie lang kann man den in zukunft mit der graka *high details* zockn ?
 
die wird hier über 500€ kosten,


"Übertaktete Karte von MSI für 436 Euro gelistet"

Ein niederländischer Shop listet erstmals eine GeForce 9800 GX2 Grafikkarte. Hierbei handelt es sich gleich noch um eine bereits ab Werk übertaktete Variante aus dem Hause MSI. Die "N9800GX2-M2D1G-OC" kommt mit 1024 MByte Grafikspeicher, der mit 2400 MHz betrieben wird. Die GPU ist 660 MHz schnell, der Shadertakt liegt bei 1650 MHz. Kosten soll diese Karte rund 520 Euro mit Steuern, bzw. 436 Euro exklusive Steuern.

Hartware.net

Da hast du Recht, ich habs auch gelesen. :drool: Ich zitiere mal:

Die Hardwarespezialisten von Fudzilla.com wollen am Donnerstag erste Informationen zum Preis der Geforce-Karten erhalten haben.
So sollte die 9800GTX etwa 399 Euro kosten, während man für die Dual-GPU-Karte 9800GX2 satte 549 Euro ohne Mehrwertsteuer blechen darf. Gleichzeitig soll Nvidia den Grafikkarten-Herstellern verboten haben, übertaktete Modelle anzubieten.

lol@ Übertaktung, aber naja, das ist bestimmt sone Versicherungsgeschichte.

Quelle:
http://www.spieletester.com/news/geforce_9800gx2_guenstiger_als_erwartet-1-9662.htm
 
Die 9000er Serie ist die größte Scheiße die nVida jemals rausgebracht hat. Es sind noch nicht einmal neue Chips verbaut den G92 kennen wir schon und ich kann das wirklich nicht nach vollziehen da es immer noch keine Grafikkarte gibt mit der man Crysis voll ausnutzen kann.

Bei 4AA ist das Spiel schon kaum zu Spielen auch 3 Ultra in Triple SLI bringt nicht sehr viel weil es einfach immer noch zu wenig fps sind um das Spiel richtig zu genießen.

Von wegen die 9800GTX wird mehr als doppelt so schnell wie eine 8800 Ultra was habt ihr da nur geschrieben ... und ich warte extra auf die 9er Serie was soll ich mir nun kaufen ?

Mit WaKü wird die 9800GX2 über 600€ kosten das ist deutlich zu viel da bekommt man zwei 8800GTX für.
 
@Hmilch82

Denke das Nvidia die Werksübertaktungen unterbinden will da die Karte schon Stock extrem warm wird oder um sich die Option für eine Ultra Version offen zu halten um den Kunden noch mehr Geld aus den Taschen zu ziehen (wobei ich nicht an eine Ultra Version glaube =)

@1q2w3e

Wer hat denn behauptet das die 9800GTX die doppelte leistung der 8800GTX bringt ? ich denke mal die meinst die GX2
 
Zuletzt bearbeitet:
er wird die großen ankündigungen von vorigem jahr meinen.

wir sind alle verarscht wurden
 
Die großen Ankündigungen vom letzten Jahr waren nichts als Spekulationen und Wunschträume. Wer sich darauf verlassen hat, ist irgendwo selbst schuld, oder nicht?
 
Ich denke nicht das hier irgendjemand verarscht wurde
Ich denke viel mehr das so Plattformen wie Fudzilla usw zu viele Informationen rausbringen die auf halbwissen beruhen (siehe damals der R600) und ganz ehrlich ich finde solche Sammelthreads sind nicht unbedingt förderlich da zu viele Leute mit halbwissen ihre Meinung zum besten geben ohne sich an die Fakten zu halten bzw weil sie "FAN" einer Fraktion sind Behauptungen über die Leistung aufstellen die nicht im geringsten den Tatsachen entsprechen. Ich will damit niemanden angreifen oder sonstiges
 
Die nvidia GX2 ist die größte Grütze
Zu teuer, 2 einzelne, höher getaktete GTS kosten nur 480€.

Was soll die Karte ?

Dazu alle üblichen Multigpu Probleme, Hitze usw.

Und dann dazu noch die völlig überflüssige 9800GTX, eine GTS mit etwas mehr Dampf und Triplesli Möglichkeit.

Hätten die sich besser geschenkt und gleich in die neue Generation entwickelt.

Ich finds echt schade.

Grüße
Sascha
 
Ich bin mir ziemlich sicher, das an den Gerüchten etwas dran ist, das Nvidia für jede Situation etwas in der Schublade hat.
Das ist totales Wunschdenken.

Hätte NVIDIA einen Singel-Chip, der die X2 schlagen kann, würde sie den auch rausbringen. Die Produktionskosten einer GX2 dürften über dem doppelten einer Einzelkarte liegen (2 PCBs, die man dann auch noch zusammenmontieren muss) und viel mehr als 600 EUR kann man für eine Gamer-Karte nicht verlangen.

Die Marge einer (fiktiven) 9900GTX wäre also deutlich größer als bei der GX2, und damit gilt entweder:
[ ] NVIDIA ist dumm, oder
[ ] NVIDIA hat keine 9900GTX in der Schublade
 
Dem kann ich nur zustimmen, so siehts aus und nicht anders :bigok:
 
Das ist totales Wunschdenken.

Hätte NVIDIA einen Singel-Chip, der die X2 schlagen kann, würde sie den auch rausbringen. Die Produktionskosten einer GX2 dürften über dem doppelten einer Einzelkarte liegen (2 PCBs, die man dann auch noch zusammenmontieren muss) und viel mehr als 600 EUR kann man für eine Gamer-Karte nicht verlangen.

Die Marge einer (fiktiven) 9900GTX wäre also deutlich größer als bei der GX2, und damit gilt entweder:
[ ] NVIDIA ist dumm, oder
[ ] NVIDIA hat keine 9900GTX in der Schublade

Ich denke auch, wenn NVidia was in der Schublade hätte würden die das einfach raushauen, nur um damit ATi abzuziehen.
Wenn die was haben, warum schalten die ihre Konkurrenz dann nicht einfach aus, indem sie unheimlich schnelle und günstige Grakas anbieten?
 
Zuletzt bearbeitet:
@ Lord
Die großen Ankündigungen vom letzten Jahr waren nichts als Spekulationen und Wunschträume. Wer sich darauf verlassen hat, ist irgendwo selbst schuld, oder nicht?

@INDYMANIAK

Ich denke nicht das hier irgendjemand verarscht wurde
Ich denke viel mehr das so Plattformen wie Fudzilla usw zu viele Informationen rausbringen die auf halbwissen beruhen (siehe damals der R600) und ganz ehrlich ich finde solche Sammelthreads sind nicht unbedingt förderlich da zu viele Leute mit halbwissen ihre Meinung zum besten geben ohne sich an die Fakten zu halten bzw weil sie "FAN" einer Fraktion sind Behauptungen über die Leistung aufstellen die nicht im geringsten den Tatsachen entsprechen. Ich will damit niemanden angreifen oder sonstiges

das kann ich so nicht stehen lassen

ich rede nicht von den vielen spekulationen verschiedener zeitschriften und i-netseiten, sondern von der aussage eines herrn michael hara seines zeichens Vizepräsident bei nvidia vom frühjahr 2007 der zwar nicht mehr vom g90 sondern vom g92 mit der doppelten leistung eines g80 gesprochen hat. und jetzt komme mir keiner eine 8600 ist auch ein g80 und dessen doppelte leistung wäre gemeint Hier nochmal der link dazu

http://www.hardware-infos.com/news.php?news=1026

und nach diesem herrn haben sich noch diverse andere seniorpartner von nvidia genau mit den selben statements dazu geäußert und genau von diesen leuten kam auch der herbsttermin des 9800 gtx launches.

und sämtliche spekulationen diverser seiten und zeitungen beruhen auf aussagen von diesen nv offiziellen

und wer mir sagt das dieser scheiss mit denn g92 derivaten keine verarsche und kundenabzocke ist, den beneide ich weil der wirklich auf der sonnigen seite des lebens sich bewegt und jagt imaginäre schmetterlinge vor sich her oder hat sich mit der problematik nicht ernsthaft befasst.

wer jedoch seit vorigen jahr eine neue highend karte in den rechner haben will der ist angefressen weil er nicht von irgendwelchen zeitungen oder seiten verarscht wird, sondern von NVIDIA

Das gab es noch nie, das sogenannte highenkarten nicht bedeutent schneller waren wie ihre vorgänger und erst recht nicht das die teilweise noch schlechter sind bei hohen auflösungen und qualitätseinstellungen, genau dafür gibt man ja soviel geld aus.

das was die seit monate rausbringen alle g92er inkl. 9er reihe sind nur oberes midrange und die preise bis auf die der8800 gt und gts mittlerweile sind völlig überzogen


aber wie gesagt ich will auch keinen angreifen bis auf nv, die habens verdient

und das ist meine persönliche meinung
 
Zuletzt bearbeitet:
Was wäre wenn Nvidia tatsächlich alles auf dem Markt wirft was Sie haben?

Ihre G80,G92 usw. sind ca. 20 -30% schneller als ATI's R600er. Wenn Nvidia jetzt einen Chip bringen würde der nochmals 50% mehr Performence hätte, was würde das bewirken?

1. ATI würde z.Zt kaum im Highend reagieren können. Das Geld würd so wieso zum Grossteil im Midrage Segment verdient. Da steht ATI sehr gut da, aber Nvidia nicht so toll.
2. Nvidia würde weniger verdienen da ihre "alten" Modelle einem stärken Preisverfall ausgesetzt wären. So ist die Marge zufriedenstellend selbst für ältere Modelle.
3. Nvidia könnte einen Konkurreten ausschalten was zuerst ja gut wäre, doch mittelfristig würd es sich fatal auswirken zB drohenend Monopolstellung mit allen Konsequenzen.
4. Warum soll Nvidia reagieren wenn Sie sowieso die Performencekrone haben?
Höchstens aus Prestige. Wirtschaftliche Gründe liegen Derzeit keine vor. Nur im Midrange haben Sie reagieren müssen was Sie auch mit der 9600GT getan haben.

Ist zwar vielleicht für uns Hardwarefreaks schade da wir gerne in neue Grenzen vorstossen würden. Doch Nvidia ist nach wie eine Firma die Geld verdienen will. Nicht mehr nicht weniger.

Außerdem, warum beschweren sich eigentlich so Viele. So viel Performence wie es z.Zt gibt, gabs noch nie für so wenig Geld.
 
Zuletzt bearbeitet:
.--. ich hoff einfach nur das die 88ultras ein bissi billiger werden... dan n hol ich mir davon noch eine... wirds beste sein bis zur "wirklich" neuen Graka Generatiuon
 
@madjim

Außerdem, warum beschweren sich eigentlich so Viele. So viel Performence wie es z.Zt gibt, gabs noch nie für so wenig Geld.

im mittelsegment ist man zur zeit sehr gut bedient,das streitet auch niemand ab

da muss ich dir uneingeschränkt recht geben aber wir reden hier von highend und das sind zur zeit nur die preise von nv bei den 9800er karten die leistung steht in keinem verhältniss
 
Zuletzt bearbeitet:
Das, was du hier als großes Trara durch das Forum schmetterst, war früher gang und gäbe. Ich weise mal die Oldies hier freundlich daraufhin, wie eine Performancesteigerung früher - vor der Verwöhnung durch NV40, G80 und wie sie alles hießen - ausgesehen hat. Wie groß war der Schritt von der GeForce3 zur GeForce4? Wie groß der von der GeForce4 zur GeForce FX? Ziemlich mickrig, würde ich sagen. Wenn man also mal die lange Zeit seit dem G80-Launch außen vor lässt (denn die lässt sich recht einfach mit fehlender Konkurrenz erklären), dann bewegen wir uns jetzt eigentlich in recht vernünftigen Dimensionen. 30% Leistungssteigerung sind mit einer GX2 gegenüber der Ultra durchaus drin, mehr gabs früher auch nicht.

@Mirador: Kommt immer drauf an, wem man glaubt. Angenommen, du wärst ein Fan der amerikanischen Seite HardOCP, dann hat nVidia durchaus die Performancekrone. Und HardOCP sind nicht die einzigen, die das festgestellt haben.
 
Haben sie nicht.
Hinzugefügter Post:

Genau.

Nenn mir eine GPU von ATI die es mit der G80 oder G92 aufnehmen kann? Rein aus der Performence sicht betrachtet.

Komme mir bitte nicht mit der X2. Es gelten nur Single GPU's.
 
Nenn mir eine GPU von ATI die es mit der G80 oder G92 aufnehmen kann? Rein aus der Performence sicht betrachtet.

Komme mir bitte nicht mit der X2. Es gelten nur Single GPU's.

Immer wieder das gleiche, Warum bringt den Nvidia ne GX2? Um die Performance Krone zu holen die ATI jetzt hat. Vor allem *es gelten nur Single GPU* was ist das den wieder für ein Satz. Für dich vielleicht bei allen anderen ist das ein Brett wie jede andere Karte auch.

Aber ja für dich ist das eh egal... :hmm:

Aber darum geht es hier auch nicht , dass geht schon wieder viel zu weit vom Thema weg.
 
Zuletzt bearbeitet:
Ich sage nicht, dass AMD alles besser macht.

Mir geht's um die Aussagen, dass Nvidia angeblich alles besser macht. Und sie noch viel besser könnten, wenn sie nur wollten.

Aber sie wollen halt nicht, was?

Aktuelle PCGH: Crysis, DX10, eine HD3870X2 vorne. Knapp, aber immerhin.

Und ich gehe jede Wette ein, dass sich in diversen Spielen Settings finden lassen, in denen eine Ultra eine GX2 abhängen wird.

Es gab noch nie einen so großen Leistungssprung wie zur G80 - ok.

Aber gab es dass schon jemals, dass die High-End-Karte der neuen Generation sich in manchen Bereichen der Hight-End-Karte der alten Generation geschlagen geben musste?
 
Klar. Guck dir die HD2900XT an. Und btw gab es einen Leistungssprung wie zum G80 schonmal, nämlich zum NV40.
 
Das ist totales Wunschdenken.

Hätte NVIDIA einen Singel-Chip, der die X2 schlagen kann, würde sie den auch rausbringen. Die Produktionskosten einer GX2 dürften über dem doppelten einer Einzelkarte liegen (2 PCBs, die man dann auch noch zusammenmontieren muss) und viel mehr als 600 EUR kann man für eine Gamer-Karte nicht verlangen.

Die Marge einer (fiktiven) 9900GTX wäre also deutlich größer als bei der GX2, und damit gilt entweder:
[ ] NVIDIA ist dumm, oder
[ ] NVIDIA hat keine 9900GTX in der Schublade


Warum sollte Nvidia jetzt schon die neue Generation rausbringen und ihr Pulver verheizen.
Davon abgesehen, würde Nvidia ihre komplette Produktpalette von G80 bis G92 nicht mehr verkaufen können.
Ohne das von der Konkurrenz Druck kommt, etwas deutlich Schnelleres zu launchen, macht man sich doch nicht das Geschäft eigenhändig kaputt, die alte Technik weiterhin gewinnbringend zu verkaufen.
Die nächste GPU Generation/Modellbezeichnung incl. Marketingstrategie u.s.w. haben sie mit Sicherheit in der Schublade und werden diese gegen AMD's neue GPU's im Sommer auch ins Rennen schicken.
Planungen, wann wirklich eine neue Generation gelauncht wird, richtet sich neben dem technologisch Machbaren, primär nach der Konkurrenz und nicht nach Kundenwünschen.

Momentan stehen im Bereich Single GPU alle Modelle oberhalb der GT konkurrenzlos dar, jetzt etwas schnelleres zu launchen würde bedeuten seinen eigenen Produkten Konkurrenz zu machen und nicht mehr auf Ati's Launch im Sommer reagieren zu können.
Würde Nvidia strategisch so vorgehen, wie du denkst, sobald 9900GTX marktreif ist auf den Markt damit, egal was die Konkurrenz macht, oder egal ob die alte Serie aus eigenem Haus noch die Messlatte darstellt, könnte Nvidia den Laden mittelfristig dicht machen.

Davon abgesehen arbeiten sie mit Sicherheit schon längst an der übernächsten Generation, wie auch Ati, oder Firmen wie Intel u.s.w..
Ist doch lachhaft zu glauben, ein G92 Refresh wäre alles was Nvidia derzeit in der Schublade hätte.
Firmen wie Nvidia, Intel, Ati, AMD arbeiten sehr viel weiter vorraus, als es uns die derzeitige Produktpalette vermittelt.
Das heisst ja nicht, das sie nicht noch intensiv an der Performance des G92 Nachfolgers feilen, ich sage nur würde Ati den R770 Ende März bringen, gäbe es keinen G92 Refresh sondern Nvidia würde nachziehen.

Entscheidungen, wann eine neue Generation eingeführt wird, hängt nicht ausschliesslich davon ab, wann sie serienreif ist, sondern man wählt den Zeitpunkt, den man am sinnvollsten erachtet und das wird der Zeitraum sein, in dem Ati etwas neues präsentiert.

Das was Nvidia jetzt macht, ist die Situation auszunutzen, da sie nicht gefordert sind etwas ganz Neues auf den Markt zu werfen.
Sie reizen den G92 weiter aus, präsentieren auf dessen Basis eine neue Modellreihe, bis dann zum Launch des R770 die Karten neu gemischt werden.
Nvidia wäre auch dumm, wenn sie jetzt schon die neue Generation ins Rennen schicken würde und im Sommer haben sie Ati dann nichts entgegenzusetzen.

Nvidia macht genau das, was aus wirtschaftlicher Sicht logisch erscheint, sie versuchen den maximalen Gewinn aus dem G92 und seinen Abstufungen herauszuholen.
Es ist nicht immer das wirtschaftlichste, sobald man eine neue GPU Generation marktreif hat, diese auch instant auf den Markt zu werfen.
Häufig sind die Entwicklungskosten für eine neue Generation erstmal ziemlich hoch, so das man bestrebt ist, wenn es der Markt zulässt, den maximalen Gewinn aus der alten Generation herauszuholen.

Auch wenn es nicht im Sinne vieler Freaks ist, das Nvidia anscheinend einen lauen Aufguss launcht, ist es aus wirtschaftlicher Sicht logisch und nachvollziehbar.

Wer glaubt, das Nvidia seit dem G80 Release geschlafen hat und der G92 alles ist, was ihre Forschungs- und Entwicklungsabteilungen in 17 Monaten auf die Reihe bekommen haben, der ist in meinen Augen sehr naiv.
Und vielleicht nochmal zur X2, weil hier immer als Argument genannt wird Nvidia müsste auf die X2 reagieren.
Nvidia hat doch massiv Multi-GPU Lösungen am Markt, ob GT SLI, GTS SLI, GTX SLI, Ultra SLI, Triple SLI, wer Leistung haben will wird da auch fündig, wenn auch nicht immer zum Preis/Leistungsverhältnis von Ati.

Wenn es Ati, Nvidia in Zukunft mal etwas schwerer machen würde, würde auch mehr Druck auf die Nvidia Produkte bezüglich des Preis/Leistungsverhältnis enstehen.
Bei der 9600, GT u.s.w. ist das auch der Fall, weil Ati gute Produkte entgegenzusetzen hat, bei Karten wie der GTX oder Ultra konnte Nvidia bisher die Preise diktieren, weil ohne Konkurrenz und das spiegelt sich auch in der vermeindlichen Preispolitik von 9800GTX u.s.w. wieder, ohne direkte Konkurrenzprodukte kann man die Preise hoch halten.
Das hat sich mit der X2 und 3870CF vielleicht etwas geändert, aber trifft immer noch zu, zumal Multi-GPU immernoch eine Lösung für Minderheiten darstellt.

Das Produkte, wie GTX oder Ultra, lange Zeit so teuer waren, hängt ursächlich damit zusammen, das Ati leider keine konkurrierenden Lösungen anbieten konnte.
Und wenn ich mir in anderen Foren, häufig so ein Müll durchlese, wie Ati sind die kundenfreundlichen Menschenfreunde, Nvidia die gierigen Abzocker, kann ich nur mit dem Kopf schütteln.
Wer die Diskussion um Grafikkarten, auf eine derartig emotionale Ebene setzt, hat in meinen Augen den Schuss nicht gehört.

Egal ob Ati, oder Nvidia, Intel oder AMD, alle arbeiten gewinnorientiert und es geht um Ausbau der Markt-Position und um Gewinnmaximierung.
Unter dem Gesichtspunkt sind auch Entscheidungen zu bewerten, wie Plattformfreigabe für CF, oder SLI.
Ati gibt CF nicht für alle Plattformen frei, weil sie so lieb und nett sind, sondern weil es ihre aktuelle Marktposition und -ausrichtung nicht erlaubt anders vorzugehen.
Bei Nvidia liegt ein Augenmerk auf dem Boardgeschäft und sie konnten es sich bis jetzt marktechnisch erlauben, SLI nicht freizugeben.
Das Ati derzeit häufig mit einem guten Preis/Leistungsverhältnis agieren kann, liegt sicher nicht an der Kundenfreundlichkeit des Konzerns, sondern an Angebot und Nachfrage und der Leistungsklasse in der Ati momentan produkttechnisch aufgestellt ist.
Ich kann mich an Zeiten erinnern, wo Ati die Nase vorn hatte und das haben sie sich damals auch entsprechend bezahlen lassen, wie z.b. bei meiner alten 9800XT.
 
Zuletzt bearbeitet:
@lord
auch die leute von nvidia müssen sich an ihren aussagen messen lassen,dein sogenanntes großes trara kam von denen und dann nichts mehr

und was war früher gang und gäbe?

da saß man noch mit der pickelhaube vor dem schwarzweiss fernseher

das sich die technik in immer kürzeren schritten entwickelt ist doch ganz normal also komm mir nicht mit früher
 
Warum sollte Nvidia jetzt schon die neue Generation rausbringen und ihr Pulver verheizen.
Davon abgesehen, würde Nvidia ihre komplette Produktpalette von G80 bis G92 nicht mehr verkaufen können.
Ohne das von der Konkurrenz Druck kommt, etwas Schnelleres zu launchen, macht man sich doch nicht das Geschäft selbst kaputt, die alte Technik weiterhin gewinnbringend zu verkaufen.
Den nächste GPU Generation haben sie mit Sicherheit in der Schublade und werden diese gegen AMD's neue GPU's im Sommer auch ins Rennen schicken.
Planungen, wann wirklich eine neue Generation gelauncht wird, richtet sich neben dem technologisch Machbaren, primär nach der Konkurrenz und nicht nach Kundenwünschen...........*ganzer Text weiter weiter oben.

Ganz genau mein Reden. Handlungsbedarf seitens Nvidia bestand nur im Midrange Bereich da hier ATI sehr gut präsentiert ist (3800er). Hier ist auch Nvidia mit der 9600GT schliesslich tätig geworden. Ansonsten bleibt alles beim alten.
Geld wird eben mit Midrange gemacht. Nach dem ATI mit der 2900 gegen die G80 Serie nicht viel ausrichten konnte obwohl die R600 viel besser war als sein Ruf, mussten Sie im bei Midrange punkten. Der R600 hat ATI extrem viel Geld gekostet das mit dem RV670 wieder verdient werden musste.

Nvidia macht aus wirtschaftlicher Sicht mit der 9800GTX/GX2 usw. genau das Richtige.
Maximale Performence mit minimalen technischen Aufwand. Es ist erheblich günstiger bereits Bestehendes zu optimieren und auf kosten sparenden 256bit Speicherinterface zu setzen als neue Techniken auf dem Markt zu werfen und teuere 512bit Platinen zu bauen. Der Preisvorteil wird ja zu großen Teilen am Markt weiter gegeben.
Die GX2 ist zwar aufwendiger zu produzieren als eine Single GPU Lösung, dennoch günstiger als eine neue Generation zu bringen und sich selbst Konkurrenz machen und neben bei holt man sich die "vemeitliche" Leistungskrone wieder ins Boot.

Die vorhandene Technik reicht auch für 90% des Marktes aus. Es gibt keine Anwendung die nicht mit einer aktuellen Midrage Karte gut performed.
Der Großteil der Anwender ist nicht bereit mehr als 200€ für eine Grafikkarte auszugeben. Für die Leistungsfreaks gibt es ja SLI, Crossfire, X2, GX2 und die alten 8800 GTX und Ultras.

So ist eben die Marktwirtschaft.
 
Zuletzt bearbeitet:
knudl... das war ein schöner beitrag! danke :)

das beste war:
Wer glaubt, das Nvidia seit dem G80 Release geschlafen hat und der G92 alles ist, was ihre Forschungs- und Entwicklungsabteilungen in 17 Monaten auf die Reihe bekommen haben, der ist in meinen Augen sehr naiv.
 
@Knudd3l: Schlussfolgerung wäre doch, dass NV Entwicklungskosten spart, also doch in diesem Bereich langsamer arbeitet. Was anderes hätte ja keinen Sinn.
Sonst würden immer neue Chips entstehen, wovon die Hälfte wieder eingestampft werden müsste weil ATi nicht mitziehen kann. Also wäre das Geld zum Fenster rausgeschmissen.

Ich denke die shiften ihr Potenzial in solchen Zeiten von Entwicklung zur Forschung.
Die entwickeln weniger und langsamer neue Chips, forschen aber mehr an neuen Technologien die man in zukünftige Chips packen kann. So würde ich das zumindest machen :fresse:
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh