nVidia G90, G92, G9x (9800 GX2 / GTX), G100, GT200 [Speku-, News- & Sammelthread](P1)

Status
Für weitere Antworten geschlossen.
nVidia G90, G92, G9x (9800 GX2 / GTX), G100, GT200 [Speku-, News- & Sammelthread](P1)

nVidia G90, G92, G9x (9800 GX2 / GTX), G100, GT200
[Speku-, News- & Sammelthread]


In diesem Thread, geht es um Informationen, Meinungen, Fragen und Spekulationen rund um das Thema:

nvlogodeluxxul8.jpg

bringt nVidia einen G90 als Refresh des G80,
oder kommt der G90 oder G9x bzw. G100 schon mit einer völlig neuen oder aufgebohrten Architektur,
wird es wieder eine nV ULTRA oder (9800)GX2 Variante geben
und kommt eine 8800 GS oder 9800 GS jetzt wirklich ?!?


Spekulationen zur Folge wird NV auch im Mainstream Bereich eine neue Graka auf beschnittener G92 Basis releasen und zwar die GF 9600 GT.

Außerdem, steht der G92 kurz vorm Release und aller Voraussicht, resultiert die GF 8800GT als erste Graka daraus, dicht gefolgt von einer neuen GF 8800 GTS.


Aber werden nun auch die beiden jetzigen HighEnd 8800 Modelle(GTX/ULTRA), als 65nm Refresh auf dem G92 beruhen, oder bringt nv nun doch noch einen G90 sprich eine echte 9800 GTX?!?

So wie es derzeit aussieht, wird wohl der G92 für die kommenden 9800er verwendet werden, was wohl eine Speicher-Interface Limitierung auf 256 Bit bedeutet. :(


Wie man sieht, Fragen über Fragen! ;)

----------------------------------------------------------------------------------------------------------



nv 9800 GX2


GeForce 9800 GX2: Weitere Bilder

Neue Doppel-Grafikkarte auf Basis von zwei GeForce 8800 GTS 512MB

"[...] soll die GeForce 9800 GX2 wie vermutet auf zwei GeForce 8800 GTS mit 512 MByte basieren und damit über insgesamt 1 GByte Speicher verfügen. Angeblich wird die neue High-End Grafikkarte am 14. Februar erscheinen und 449 US-Dollar kosten.

Die [...] GeForce 9800 GX2 besitzt zwei DVI-Anschlüsse, einen HDMI-Port und einen digitalen Audioausgang (S/PDIF). [...] SLI-Anschluss, d.h. man kann zwei Modelle parallel betreiben (Quad-SLI). Triple- bzw. 6-fach-SLI ist dagegen nicht möglich.
Angeblich reicht zum Betrieb ein Netzteil mit 580 Watt Gesamtleistung und mindestens 40 Ampere auf der 12-Volt-Schiene aus."

Quelle: hartware.de

gf9800gx2vv5.jpg

G100 to be named Geforce 9800


At least for now

"Nvidia’s new G100 chip might get the Geforce 9800 name.

[...]

to launch two new high end parts each. In Q1 probably in January Nvidia is about to launch D8E, dual G92 card and ATI will reply with the already demonstrated R680 card. Later, probably in Q2, ATI will follow up with R700 to fight the G100.

We haven't seen any new high end cards since April, and that is way too long for this market."

Quelle: fudzilla.com



----------------------------------------------------------------------------------------------------------


nv 9800 GTX / GT



y1p6irVfTHljTORj97o6FZTosq-Bo61HFKAFID-sfNqrZt93iHnz6snveztqw6LDdzmvmCQdO5aPaxi40n0jZDCuw


Vorläufige Specs.:
GPUZ_Exp.jpg




----------------------------------------------------------------------------------------------------------


nv 9600 GT


9600gt1gq1.jpg

GeForce 9600 GT: Bilder und konkrete Specs

"Abseits der immer noch anlaufenden Consumer Electronics Show (CES) sorgen momentan erste Bilder zur kommenden GeForce 9600 GT, [...] die Bilder sind der nun sichtbare Beweis für dessen Existenz.

[...] insgesamt 64 Shadereinheiten der 9600 GT. Ferner gilt ein 256-Bit Speicherinterface als sehr wahrscheinlich. Durch einen Speichertakt von 900 MHz würde man so eine reale Speicherbandbreite von 57,6 GiB/s erzielen, die so im Mid-End-Sektor noch nicht zu sehen war. Der Chip soll entgegen bisheriger Meldungen mit 650- statt 500 MHz angesteuert werden; die Shadereinheiten mit 1625 MHz. In der Summe soll der in 65nm-gefertigte Chip rund 90 Prozent schneller als eine 8600 GTS rendern.

[...] ein Netzteil mit mindestens 400 Watt Gesamtleistung pflicht. Des Weiteren muss es 26 Ampere auf der +12-Volt-Schiene liefern.
Überdies gilt mittlerweile als relativ gesichert, dass der Chip eins-zu-eins auf der GeForce-8-Architektur aufsetzt, damit also quasi nur ein abgespeckter G92 ist, der bei der 8800 GT und 8800 GTS 512 eingesetzt wird. Sollte nichts Unerwartetes passieren, so wird Nvidia den Chip zusammen mit der 9800 GX2 am 14. Februar veröffentlichen."

Quelle: www.hardware-infos.com

9600gt2oa2.jpg

GeForce 9600 GT: Erste Resultate


Neue Mainstream-Grafikkarte ist Nachfolger der GeForce 8600 GTS

"[...]

Der Grafikchip taktet mit 650 MHz, der Speicher wird mit 900 MHz angesprochen. Der Shader-Takt liegt bei 1625 MHz. Nach aktuellem Kenntnisstand verfügt der Grafikchip (Codename angeblich G94-300) über 64 Stream Prozessoren (Shader Einheiten).
Der schwarze Kühler ähnelt äußerlich dem der GeForce 8800 GT und kommt wie bei der GT wohl auch wieder von Cooler Master.
Im 3DMark06-Vergleich zeigt sich die GeForce 9600 GT etwa so schnell wie die Übergangslösung GeForce 8800 GS (-6 bis +2 Prozent). Die GeForce 8800 GT (mit 512 MByte) ist allerdings ein gutes Stück schneller, zwischen 21 und 28 Prozent."

Quelle: hardware.de


----------------------------------------------------------------------------------------------------------



nv 8800 GTS


9ii3rf78.jpg

g92tabyi3.jpg

g92newgtshf3.jpg

----------------------------------------------------------------------------------------------------------

Aktuelle News von November 2007:


Weitere Bilder und neuer Termin der „G92 GTS“


" [...] neue GeForce 8800 GTS auf Basis des in 65 nm gefertigten „G92“-Grafikchip [...]

nv8800gtssideaa4.jpg
nv8800gtstopgg1.jpg

[...] am 11. Dezember 2007. Die maximale Leistungsaufnahme wurde ebenfalls mit nun 140 Watt – vormals 110 Watt – ein klein wenig (nach oben) korrigiert, [...], um eventuellen Temperaturproblemen bei gestiegener Leistungsaufnahme vorzubeugen, ein Dual-Slot-Kühler mit ausreichend dimensioniertem Lüfter verwendet. Der Chiptakt wird nach wie vor bei 650 MHz liegen, während der Speicher effektiv mit 1.940 MHz arbeitet. Der Shadertakt liegt bei hohen 1.625 MHz."



Quelle: computerbase.de



Taktraten der neuen 8800 GTS "G92"


"[...] die "alte" GTS aufzubohren, indem man kurzerhand die Taktraten von 500/1200/800 MHz auf 575/1350/900 MHz erhöhte und obendrein noch die Shadereinheiten von 96 auf 112 erhöhte.

Damit nicht genug, kündigte man auch eine weitere 8800 GTS für den 3. Dezember an. Diese Karte sollte auf dem in 65nm gefertigten G92 basieren und damit auf demselben Chip wie die 8800 GT. [...]

Demnach soll der 512 MiByte große Texturspeicher der neuen 8800 GTS mit einer Taktfrequenz von realen 970 MHz angesprochen werden und an das übliche 256-Bit-Speicherinterface des G92 gekoppelt sein. Der Kerntakt soll bei rekordverdächtigen 650 MHz liegen, während die insgesamt 128 Shadereinheiten mit ebenfalls rekordverdächtigen 1625 MHz angesprochen werden sollen. Die 9-Zoll-Karte soll unter Last 140 Watt aus einem 6-Pin-PCI Express-Stecker ziehen und damit deutlich verbrauchsarmer als die bisherigen 8800-GTS-Chips. [...]

Die nVidia GeForce 8800 GTS 512 wird voraussichtlich am 3. Dezember für ca. 299-349$ das Licht der Welt erblicken. Interessant wird die Positionierung, da diese Karte der jetzigen 8800 GTX angesichts brachialer Shaderpower überlegen sein dürfte und sich der Ultra bedingt durch die Speicherbandbreite wahrscheinlich unterordnen wird müssen. [...]"



Quelle: hardware-infos.com



Zwei neue GeForce 8800 GTS bis Dezember


"Verwirrung gibt es derzeit um die Zukunft, beziehungsweise um die neuen Ableger der GeForce 8800 GTS. Nachdem sie aus dem eigenen Hause starke Konkurrenz in Form der GeForce 8800 GT bekommen hat und Nvidia gestern bereits verriet, dass es eine neue Version der GTS geben wird, [...]

Richtig neu wird es dann ab dem 3. Dezember 2007. Dann wird es die richtige Neuauflage der GeForce 8800 GTS geben – die 65-nm-Fertigung des G92 inbegriffen. Diese neue GeForce 8800 GTS setzt dann auf die Grundelemente der GeForce 8800 GT, verfügt jedoch über 128 SP anstatt 112 der GT. Das Speicherinterface wird ebenfalls wie bei der GT-Version bei 256 Bit liegen, insgesamt stehen 512 MB GDDR3-Speicher zur Verfügung. [...]"

Übersicht / Specs.:
g92gtsgf7.jpg


"Wie der Tabelle zu entnehmen ist, wird laut den Kollegen von HKEPC das Portfolio durch einen weiteren Ableger, der GeForce 8800 GS, abgerundet. Da die GeForce 8800 GT mit 256 MB Speicher bereits ab 199 US-Dollar verfügbar sein soll, wird die GeForce 8800 GS einen noch günstigeren Einstieg in die 8800er-Generation ermöglichen. Allerdings sollen sowohl die 256-MB-Variante der GT als auch der GS erst einige Wochen später im Handel verfügbar sein [...]

Des Weiteren werfen die beiden neuen GeForce 8800 GTS die Frage nach dem Verbleib der GTX auf. Jene weiß sich im aktuellen Test der GeForce 8800 GT bei uns gerade noch zur Wehr zu setzen, jedoch dürfte es mit einer nochmals technisch verbesserten Neuauflage der Anfang Dezember erscheinenden Version der GTS kaum eine Überlebenschance für die GTX geben. Die geringere Leistungsaufnahme und die höheren Taktraten dürften die neue GTS in fast allen Bereichen das Duell für sich entscheiden lassen. Darüber hinaus wird die neue GTS um den von der GeForce 8600 und der GeForce 8400 bekannten „Video Processor 2“ (VP2) erweitert, weswegen man den G92 als „PureVideo HD“-fähig bezeichnet. Somit kann die GPU der CPU die Mehrarbeit bei MPEG2- sowie H.264-HD-Filmen abnehmen, weswegen es selbst auf schwächeren CPUs kein Problem darstellt, einen HD-Film anzuschauen – ein weiterer Vorteil gegenüber der bisherigen GTX.

Doch wie geht es dann weiter?
Ob nochmals eine neue Version der GTX auf Basis des G92 in den Startlöchern steht, vielleicht mit etwas mehr Speicher, muss abgewartet werden. Es erscheint jedoch nicht völlig unrealistisch, da das Synonym „GTX“ (abgesehen von wenigen Ultra-Derivaten) bisher immer für die schnellsten Nvidia-Grafikkarten stand. Dies dürfte ohne weitere Palettenänderung bei Nvidia jedoch kaum mehr der Fall sein, zumindest nicht mehr in den verbleibenden wenigen Wochen dieses Jahres."



Quelle: computerbase



8800 GTS am 19. November?


Weitere G92-Grafikkarte bereits am 19. November?

"Erst vor einigen Tagen waren Gerüchte und erste Details zur kommenden GeForce 8800 GTS aufgetaucht. Diese soll über 112 Stream-Prozessoren verfügen und mit 512 MByte Grafikspeicher ausgeliefert werden - der allerdings nur per 256 Bit Interface angebunden wird, was den Abstand zur GeForce 8800 GT mit 512 MByte, die für den 29. dieses Monats erwartet wird, deutlich verringern dürfte. Laut aktuellen Gerüchten wird nVidia die 8800 GTS bereits knapp drei Wochen nach der 8800 GT vorstellen: Am 19. November.

Kosten soll eine derartige Karte rund 305 US-Dollar, womit sie preislich durchaus ein gutes Stück über den 8800 GT Varianten (200 bzw. 250 US-Dollar) liegt. [...]"



Quelle: hardware.net



----------------------------------------------------------------------------------------------------------

nv 8800 GT

Launchtermin ist der 29. Oktober 2007 und hier nun die von vielen heiß ersehnten Specs. der GF 8800 GT:
Anhang anzeigen 54072
(klick mich)
* G92-270-A2 revision (65nm, Week 37 2007)
* 37.5mm x 37.5mm 1148-pin FCBGA package
* Core clock : 600MHz / Shader clock : 1500MHz
* VGPU = 1.05±10.5mV
* 112 shader processors
* 10-layers PCB revision G92P393
* 8 chips of 16M x 32 Qimonda HYB18H512321 BF-10 @ 2V
* 256-bit 512MB GDDR3 @ 900MHz (Effective 1GHz)
* Coolermaster TM69 single slot cooler
* 3 heat-pipes, 1000-3200RPM, 34dB
* 110W TDP (Requires 6-pin PCIe connector)
* NVIO/HDCP
- allerdings nur 16 ROPs (im Vergleich zu 24 ROPs beim G80)
Anhang anzeigen 54128
(klick mich)
Foxconn präsentiert als erster Graka- Hersteller seine neue GeForce 8800 GT Grafikkarte:
Anhang anzeigen 54216
(klick mich)




________________________


News von Oktober 2007:


GeForce 8800 GT vorgestellt


Neues Modell löst GeForce 8800 GTS 320MB ab - Erhältlich ab 229 Euro

"Nach Wochen voller Gerüchte stellt nVidia nun endlich offiziell die GeForce 8800 GT Grafikkarte vor. Das neue Modell löst die 320-MByte-Version der GeForce 8800 GTS ab und soll laut nVidia von diversen Anbietern ab 229 Euro erhältlich sein. [...]
Im Vergleich zur GeForce 8800 GTS besitzt der Grafikchip der 8800 GT mehr Shader Einheiten bzw. Stream Prozessoren: 112 statt 96. Außerdem wurde der Chiptakt von 500 auf 600 MHz und der Speichertakt von 800 auf 900 MHz angehoben. Die Speicherschnittstelle ist dagegen nur noch 256 statt 320bit breit. Die GeForce 8800 GT wird mit 512 MByte GDDR3 SDRAM ausgestattet. Eine 256-MByte-Version folgt wohl später.
Außerdem wurde der Grafikchip der GeForce 8800 GT laut nVidia mit einer PureVideo HD Einheit der zweiten Generation ausgestattet, der High Definition Filme in H.264 und VC-1 beschleunigt. Die Karte entspricht dem PCI Express 2.0 Standard.
..."



Quelle: hardware.net



GeForce 8800 GT letzten Endes leicht zu kühlen?


"Vor einigen Tagen machten Schlagzeilen die Runde, Nvidia habe bei der kommenden GeForce 8800 GT mit Hitzeproblemen zu kämpfen. [...]

Das Problem schien der einfache Single-Slot-Kühler in Verbindung mit engen, schwach ventilierten Komplettsystemen zu sein. Es handelte sich offenbar um ein reines Kühlungsproblem, denn der G92, Grafikchip der künftigen 8800 GT, gilt mit einer Strukturbreite von 65 nm als gemäßigt hinsichtlich Leistungsaufnahme und Hitzeentwicklung. Die Fertigung des G92 wurde von Nvidia übrigens nicht wie sonst üblich bei TSMC sondern bei UMC in Auftrag gegeben.
G92 Package-Design​
Anhang anzeigen 53659
(klick mich)
Nvidia soll seinen Partnern mittlerweile bestätigt haben, dass die GeForce 8800 GT nicht zu heiß wird und dabei ungefähr 110 W an Leistung aufnimmt beziehungsweise an Wärme wieder abgibt. Im Zuge dessen ist auch ein neues Bild ins Internet gelangt, welches den Kühler der 8800 GT mit einem nun größeren Lüfter zeigt. Der Single-Slot-Kühler verrät aufgrund seiner in schwarz gehaltenen Abdeckung nach wie vor wenig über innere Qualitäten, soll aber über drei Heatpipes verfügen. Auf dem PCB ist eine einzelne herkömmliche 2x3 PCI-Express-Buchse zur Stromversorgung verlötet.

Des Weiteren verdichten sich Informationen um die Spezifikationen der GeForce 8800 GT. Gearbeitet wird mit einem Kerntakt von 600 MHz; der Speicher wird real mit 900 MHz (effektiv 1800 MHz) betrieben. Das Speicherinterface wird 256 Bit breit sein, die Speicherausstattung 256 MB oder 512 MB betragen – je nach Modell. Neu sind Angaben zur GPU-Spannung, welche bei 1,05 V oder 1,10 V liegen soll.

Interessant sind noch Angaben zur Chipgröße. Der G92 der GeForce 8800 GT soll mit 289 mm² kleiner sein als der 480 mm² große G80 einer 8800 GTS / GTX / Ultra. [...]

Außerdem scheint das PCB der 8800 GT zwar in der Länge einer GeForce 8800 GTS zu ähneln, das Layout scheint jedoch nicht mit dem einer GeForce 8800 GTS vergleichbar zu sein. Dieser Umstand ließ sich bereits aus der Erkenntnis ableiten, dass der Videospeicher auf der 8800 GT anders organisiert wird. Das kleinere, 256 Bit breite Speicherinterface der 8800 GT bindet acht Speicherchips an, während auf einer GTS mit 320 Bit zehn Chips und auf der GTX / Ultra mit 384 Bit zwölf Chips angebunden werden. Somit wären sämtliche bisher verfügbaren Kühler für die GeForce 8800 Serie nicht kompatibel zur 8800 GT.

Die GeForce 8800 GT wird am 29. Oktober der Öffentlichkeit präsentiert werden und soll zu ihren zwei DVI-Anschlüssen einen HDMI-Dongle spendiert bekommen."



Quelle: computerbase



GeForce 8800 GT


Neue Grafikkarte für $200 bis $249 mit flachem Kühler und guter Leistung

"Die neue GeForce 8800 GT von nVidia auf Basis des in 65nm Technologie gefertigten G92 Grafikchips wird bekanntlich Ende Oktober oder Mitte November eingeführt. [...] und kann im 3DMark06 10.000 Punkte übertreffen.

Das 3DMark06-Resultat von 10.769 Punkten hat nVidia den Grafikkartenherstellern als Referenz genannt. Es ist allerdings unklar, auf welchem System der Benchmark der GeForce 8800 GT durchgeführt wurde, so dass es keine vergleichbaren Leistungsdaten gibt. Mit über 10.000 Punkten im 3DMark06 rückt nVidia aber auf jeden Fall recht nah an die GeForce 8800 GTS heran, obwohl diese mehr Shader Einheiten und eine breitere Speicherschnittstelle besitzt.
Zum Vergleich: Während die GeForce 8800 GTS über 96 Shader Einheiten und ein 320bit breites RAM-Inteface verfügt, wird die GeForce 8800 GT "nur" 64 Shader Einheiten und eine 256bit Speicherschnittstelle besitzen.
Bislang rechnete man bei der GeForce 8800 mit 600 MHz Chip- und 900 MHz Speichertakt. Allerdings heißt es nun, dass der G92 Grafikchip auch höhere Taktraten gut verträgt und nVidia diese vor Einführung vielleicht noch erhöht. Das soll von der Leistung des neuen Konkurrenzmodells von AMD, der ATI Radeon HD 2950 Pro (RV670), abhängen, von der bislang noch keine Benchmark-Resultate durchgesickert sind.
Die GeForce 8800 GT soll mit 256 MByte Speicher für 200 US-Dollar und mit 512 MByte für $250 auf den Markt kommen."



Quelle: hardware.net


News von September 2007:


Aus G92 wird GeForce 8700 GTS


Im November: Grafikkarte mit G92 Chip heißt nVidia GeForce 8700 GTS

"Über den vermutlich Mitte November erscheinenden G92 Grafikchip von nVidia gab es bereits zahlreiche Gerüchte. Unklar ist weiterhin die genaue Leistungsfähigkeit, aber jetzt wird aus Asien berichtet, dass der offizielle Name der entsprechenden Grafikkarte "GeForce 8700 GTS" lauten wird. [...]
Zum Vergleich: Eine GeForce 8600 GTS taktet mit 675/1000 MHz und besitzt nur ein 128bit RAM-Interface. Die GeForce 8800 GTS läuft mit 500/800 MHz und verfügt über eine 320bit breite Speicherschnittstelle."



Quelle: VR-Zone


News von August 2007:


nVidia G92 angeblich am 12.11.


Neue G92 Grafikkarten sollen im November GeForce 8800 GTS ablösen

"Um den kommenden G92 Grafikchip von nVidia gab es widersprüchliche Meldungen. Einige positionierten diesen im High-End Segment, andere im Mainstream. [...]
Der in 65nm Technologie gefertigte nVidia G92 Grafikchip verfügt über eine 256bit breite Speicherschnittstelle. Zum Vergleich: der G80 Grafikchip der GeForce 8800 GTS wird noch in 90nm Strukturbreite produziert und besitzt ein 320bit RAM-Interface.
Grafikkarten mit dem G92 werden gegen die in den nächsten Monaten erwartete ATI Radeon HD 2950 Pro (RV670) positioniert. Genaue Produktbezeichnungen sind noch nicht bekannt, aber G92-Modelle werden wohl weiter zur GeForce 8 Serie zählen, noch nicht zur GeForce 9."



Quelle: HKEPCI

----------------------------------------------------------------------------------------------------------


Nvidia: GeForce 9800 GTX und GTS im November 07?


"Laut TweakPC sollen aus diversen Quellen bereits Informationen über die neue GeForce Generation ans Licht gekommen sein.
Ging man zuvor aus, dass der G92 eine Midrange Karte wird, so soll man jetzt zum Entschluss gekommen sein,
dass es ein High-End Modell sein wird, die GeForce 9800.
Nach unbestätigten Angaben soll der G92 bereits im November vorgestellt werden
und über eine Milliarde Transistoren verfügen, im G80 sind es lediglich 681 Millionen.

Spezifikationen des neuen G92 auf einer GeForce 9800 GTX sollen folgende sein:

65 Nanometer Prozess
Über eine Milliarde Transistoren
Unified-Shader-Architecture der zweiten Generation
Floatingpoint 64 Support
Über ein Teraflop Shader-Rechengeschwindigkeit
MADD+ADD Konfiguration für die Shader (2 + 1 FLOPS = 3 FLOPS pro ALU)
512-Bit-Speicher Interface
1.024 Megabyte GDDR4-Speicher
Direct-X 10.1 Support
OpenGL-3.0 Support
eDRAM die für "FREE 4xAA”
Eingebauter Audio-Chip (HDMI)
Verbesserte AA- und AF-Qualität
Die mutmaßlichen Preise der Karten sollen auch schon bekannt sein, so soll die GeForce 9800 GTX zwischen 549 und 649 US-Dollar und die GeForce 9800 GTS zwischen 399 und 499 US-Dollar kosten."

Quelle: TweakPC


----------------------------------------------------------------------------------------------------------

... und hiermit fing alles an:

Angeblich soll der G80 Refresh also der G81 mit 25% mehr Shader Einheiten kommen.


"Im März wird bekanntlich die neue DirectX10 Grafikkartengeneration von ATI erwartet.

nVidia hat seine neuen Grafikkarten (GeForce 8) bereits seit einiger Zeit auf dem Markt,
will aber offenbar nochmal nachlegen, um ATI jeglichen Wind aus den Segeln zu nehmen.

Angeblich ist eine GeForce 8900 GTX mit 25% mehr Shader Einheiten geplant, das wären dann 160.
Ob dieses Modell weiterhin auf dem in 90nm Technik gefertigten G80 Grafikchip basiert
und ob es höher getaktet wird als eine GeForce 8800 GTX, ist noch Spekulation."



Quelle: hartware.de
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich dachte bei der 9800GX2 kommt ein Refresh Chip zum Einsatz der weniger Hitze erzeugen soll?
Hört sich an als ob Nvidia die Performance der X2 überrascht und jetzt vielleicht etwas verschoben wird um mehr Zeit zu haben für bessere Treiber.
Solange es Mikroruckler gibt, sind MultiGPU Lösungen keine wirkliche Lösung. :d

Vll kommt der Durchbruch mit dem R700...

Aber die neuen SingleGPU Karten... die werden interessant :drool:
 
Solange es Mikroruckler gibt, sind MultiGPU Lösungen keine wirkliche Lösung. :d

Vll kommt der Durchbruch mit dem R700...

Aber die neuen SingleGPU Karten... die werden interessant :drool:

Mir fällt beim zocken nichts auf. Und ich lasse nicht bei jeden Game Fraps mit laufen, damit ich nachher wieder sagen kann oh da wieder ein Mikroruckler.
Mal schaun was die CEBIT so bringt.
 
Mir fällt beim zocken nichts auf. Und ich lasse nicht bei jeden Game Fraps mit laufen, damit ich nachher wieder sagen kann oh da wieder ein Mikroruckler.
Mal schaun was die CEBIT so bringt.

Ja aber man kann MultiGPU FPS nicht mit SingleGPU FPS vergleichen. Warum dürfte dir bekannt sein.
Deswegen kann man nicht sagen, dass eine GX2 oder X2 schneller in dem und dem Fall ist.

Zudem sind Mikroruckler vorallem im niedrigen FPS Bereich zu finden.
Lass mal 3DMark06 in hoher Auflösung, voll AA und voll AF laufen sodass es noch mit 30fps rennt. Diese 30fps sind vll noch soviel wert wie 15 fps. ^^

Deswegen kann man eine X2 nicht gut mit einer SingleGPU Karte vergleichen.
 
Das wird in meinen Augen auch etwas überbewertet, wirklich aufgefallen ist es mir persönlich noch nicht.
Was in meinen Augen viel gravierender ist, das Multi GPU einfach nicht gleichmässig skaliert, manchmal auch überhaupt nicht greift.
Es ist zwar mit neuen Treibern besser geworden, aber man hat immer Spiele die unzureichend profitieren.

Sollten die neuen GPU's G100/GT200 wirklich die Erwartungen erfüllen, wird es auch vorrübergehend wieder etwas ruhiger um Multi-GPU.

Karten wie die GX2, X2, kommen erfahrungsgemäss immer zum Ende einer GPU Generation.
 
Zuletzt bearbeitet:
ich weiß nicht ob das microruckler waren, aber als ich ein 7800GT SLI hatte, habe ich gemerkt das spiele zwar schnell gelaufen sind mit hohen fps, aber nicht flüssig. und das hat mich extrem gestört
 
Das wird in meinen Augen auch etwas überbewertet, wirklich aufgefallen ist es mir persönlich noch nicht.
Was in meinen Augen viel gravierender ist, das Multi GPU einfach nicht gleichmässig skaliert, manchmal auch überhaupt nicht greift.
Es ist zwar mit neuen Treibern besser geworden, aber man hat immer Spiele die unzureichend profitieren.

Sollten die neuen GPU's G100/GT200 wirklich die Erwartungen erfüllen, wird es auch vorrübergehend wieder etwas ruhiger um Multi-GPU.

Karten wie die GX2, X2, kommen erfahrungsgemäss immer zum Ende einer GPU Generation.

Ist auch sehr Grafik Engine abhängig. Schau ma mal was Nvidia bis zur CEBIT so macht. Vielleicht kommt die 9800GX2 doch früher raus und kann mit der 3870 X2 mithalten, obwohl ich nicht daran glaube.
 
Ja aber man kann MultiGPU FPS nicht mit SingleGPU FPS vergleichen. Warum dürfte dir bekannt sein.
Deswegen kann man nicht sagen, dass eine GX2 oder X2 schneller in dem und dem Fall ist.

Versetz dich mal in die Lage des typischen Besitzers eines teueren CF oder SLI Systems:

Man ist wahrscheinlich sehr stolz darauf, und ist froh jede Menge fps zu haben.
Wenn´s dann mal auf 30 - 40 runter gehen sollte und nicht flüssig läuft, dann ist´s halt so. Man empfindet es halt ruckelig.
Man käme nie auf die idee, dass man mit den gleichen fps bei nur EINER GPU noch flüssig spielen könnte und würde dies natürlich auch nie öffentlich zugeben.

Solange es genug von diesen Leuten gibt, die einfach nur zufrieden damit sind, wird sich da so schnell auch nichts dran ändern.
Außerdem werden weiterhin verfälschte benchmarkergebnisse auf allen hardware Seiten erscheinen, weil einfahc generell bekannt ist, "dass man Mikroruckler nicht merkt."

Wieder voll OT, Entschuldigung. Dabei hat Le_Frog den thread grad schön gesäubert...
Find trotzdem dass das angebracht war.
 
@eLw00d: Ist doch total ontopic. Die 9800GX2 ist halt eine MultiGPU Lösung. Wenn man sowas hier nicht diskutiert, was dann? :d
 
Die GX2 wird es jedenfalls sehr schwer haben.
Die Konstruktion mit 2PCB's ist unatraktiv, Abwärme, Verbrauch ist für potentielle Käufer und Leistungsfetischisten vermutlich nicht mal so abschreckend, die schauen doch meist nur auf Leistung.

Das Hauptproblem der GX2 ist, das sie so spät kommt.
Wenn sie im März vorgestellt wird, dauert wieder eine Zeit bis sie verfügbar ist.

Dazu liegen immer noch Spekulationen in der Luft, das eine 9800GTX kommen könnte.
Der dann noch bleibende Zeitraum, bis harte Fakten zur neuen GPU Generation kommen, ist so kurz, das sie keine grossen Chancen hat.
Wenn dann erstmal echte Fakten zu G100/GT200 da sind, wird sie sich kaum noch verkaufen lassen, zumindest gewaltig unter Preisdruck geraten.
 
Zuletzt bearbeitet:
Versetz dich mal in die Lage des typischen Besitzers eines teueren CF oder SLI Systems:

Man ist wahrscheinlich sehr stolz darauf, und ist froh jede Menge fps zu haben.
Wenn´s dann mal auf 30 - 40 runter gehen sollte und nicht flüssig läuft, dann ist´s halt so. Man empfindet es halt ruckelig.
Man käme nie auf die idee, dass man mit den gleichen fps bei nur EINER GPU noch flüssig spielen könnte und würde dies natürlich auch nie öffentlich zugeben.

Solange es genug von diesen Leuten gibt, die einfach nur zufrieden damit sind, wird sich da so schnell auch nichts dran ändern.
Außerdem werden weiterhin verfälschte benchmarkergebnisse auf allen hardware Seiten erscheinen, weil einfahc generell bekannt ist, "dass man Mikroruckler nicht merkt."

Wieder voll OT, Entschuldigung. Dabei hat Le_Frog den thread grad schön gesäubert...
Find trotzdem dass das angebracht war.

Oh man,

kann man hier nicht Diskutieren ohne das gleich solch überflüssige Posts kommen? Wir sind hier ja nicht im Kindergarten, also bitte.

@Kudd3l

Preis von der 9800GX2 bin auch sehr gespannt. Schätze mal das er so um 400€ liegen wird, wenn ich mir derzeit anschau was eine 8800GT so kostet. Da hat man es dann doppelt so schwer.
 
Zuletzt bearbeitet:
Der Preis einer GX2 muss sich ja zwangsläufig an einer X2 messen.
Wenn sie mehr Leistung hat wird sie natürlich teurer, wenn sie weniger oder nur gleichviel leistet, muss sie sich mehr oder weniger am Preis der X2 orientieren.

Ich befürchte nur, das sie erst im April verfügbar sein wird, damit wird die Zeitspanne zur Next Generation so eng, das sie sich schwer tuen wird Interessenten im grösseren Ausmass anzuprechen.
 
Der Preis einer GX2 muss sich ja zwangsläufig an einer X2 messen.
Wenn sie mehr Leistung hat wird sie natürlich teurer, wenn sie weniger oder nur gleichviel leistet, muss sie sich mehr oder weniger am Preis der X2 orientieren.

Ich befürchte nur, das sie erst im April verfügbar sein wird, damit wird die Zeitspanne zur Next Generation so eng, das sie sich schwer tuen wird Interessenten im grösseren Ausmass anzuprechen.

April wäre fatal.
Der R700 soll ja im Juni kommen, der G100, GT200 wird sicher auch nicht wirklich viel später kommen. Da würde sich Nvidia sehr schwer tun bzw. sich selber eins reinwürgen.
Den für die Breite Masse ist SLI bzw. CrossFire nichts.
 
Jo nur wenn man überlegt, sie wird ja frühestens zur, oder nach der Cebit präsentiert.
Bis sie dann in den Handel kommt, ist es zumindest Ende März.
Deshalb wird sie es sehr schwer haben.
Gibt natürlich immer welche, die wenn die Leistung stimmt, zuschlagen.
Aber wer etwas nachdenkt, der wartet jetzt geduldig ab, bis die neuen GPU Generationen kommen.

Deshalb versteh ich auch Leute nicht, die ihre GTX verkaufen um eine X2 zu kaufen.
Oder von manchen liest man, das sie ihre Ultra verkaufen und auf die GX2 warten.

Wer eine GTX hat, kann so ziemlich alles flüssig spielen und die Hände in den Schoss legen, bis die neuen High End Single GPU Karten verfügbar sind.
Ist ja nicht so, das jedes zweite Spiel Anforderungen von Crysis hätte.
Aber dieses Spiel hat wohl einigen Leuten so sehr den Kopf verdreht das sie mit der Brechstange aufrüsten, frustriert mit der Performance unter Crysis bleiben sie meist trotzdem.
 
Zuletzt bearbeitet:
Jo nur wenn man überlegt, sie wird ja frühestens zur, oder nach der Cebit präsentiert.
Bis sie dann in den Handel kommt, ist es zumindest Ende März.
Deshalb wird sie es sehr schwer haben.
Gibt natürlich immer welche, die wenn die Leistung stimmt, zuschlagen.
Aber wer etwas nachdenkt, der wartet jetzt geduldig ab, bis die neuen GPU Generationen kommen.

Deshalb versteh ich auch Leute nicht, die ihre GTX verkaufen und eine X2 kaufen.
Oder von manchen liest man, das sie ihre Ultra verkaufen und auf die GX2 warten.

Wer solche Karten hat, kann so ziemlich alles superflüssig spielen und die Hände in den Schoss legen, bis die neuen High End Single GPU Karten verfügbar sind.

Also ich für meinen Teil habe damals meine 8800GTX deswegen verkauft, weil ich ein sehr gutes Angebot gekriegt habe.
Das war zur derzeit als alle Geil auf die 8800GT bzw. auf die 8800GTS waren.

Wenn ich mal so von meinen bekannten Kreis bzw. im Clan so umhöre interessieren sich von ca. 50 Leuten etwa 5 für Multi GPU Systeme und 2 davon haben eines. Von den 2 bin einer ich.
Wenn man das hochrechnen würde, dann würden sich solch Dual Karten kaum bis wenig lohnen.
Die Leute, die wegen einen Game ( noch dazu einen schlechten, wenn man mich fragt ) ihre 8800GTX oder Ultra verkaufen und sich SLI oder CrossFire zulegen, sind voll auf das Marketing reingefallen.
 
Zuletzt bearbeitet:
Was haltet ihr von den Benches der 9600GT? Auf dennen sieht man das sie schneller sein soll als die HD3870. Die soll ja nur 120€ kosten. (nur gelesen). Ich werde mal auf ein Reviwe noch warten und dann kaufe ich rmi diese Karte. Vllt auch in SLI.
 
probiert mal den 169.61 WHQL aus, in anderen foren wird von "dem besten" treiber geschwärmt. außerdem funzt AA in G3 endlich

http://img216.imageshack.us/img216/9274/gothic32008021022422586wx6.jpg

...
Der 169.61 ist aber explizit für Quadro Karten. Weniger Leistung bei Games. Das steht sogar auf der Linkseite...


Und das heisst in etwa so...

Zitat Computerbase-Treiber-Seite

Nvidias Grafikkarten der Quadro-Serie sind für High-End-Workstations optimiert und können ihre Stärken beispielsweise bei CAD-Anwendungen ausspielen. Sie sind optimiert für OpenGL-Anwendungen und sehr hohe Auflösungen jenseits der im Consumer-Bereich üblichen 1280x1024 Pixel. Bei gewöhnlichen Spielen erzielen sie jedoch geringere Leistungen als ihre GeForce-Pendants.

Zitat Ende...


Und der 169.32 ist explizit für die 8800GS. http://www.computerbase.de/downloads/treiber/grafikkarten/nvidia/nvidia_forceware/

Somit wäre der WHQL 169.28 immer noch der Aktuellste. So lange bei nVidia der BetaDoanload nicht funktioniert. VBScriptFehler auf der Seite....


Oder hat jemand nen Link zu nem normalen Beta Treiber, der für alle Grakas ist?
...
 
Zuletzt bearbeitet:
...Der 169.61 ist aber explizit für Quadro Karten. Weniger Leistung bei Games. Das steht sogar auf der Linkseite...

Glaubst du alles, was du ließt? Auch wenn manche Treiber als Quadro Treiber bezeichnet werden, heißt das nicht, dass sie nicht für normale Grafikkarten geeignet sind bzw. weniger Leistung für diese bieten.

Siehe: http://forums.guru3d.com/showthread.php?t=252458&page=2

Und Kannst du mir erklären, wieso der "Quadro" Treiber (XPx86) Unterstützung für die GeForce 5 bis GeForce 8 in der .inf hat, wenn er nur für Quadro Karten ist?

Es ist nicht das erste mal, dass ein Quadro Treiber mehr Leistung bietet, als ein normaler GeForce Treiber.
Außerdem würde ich gerne Quadro Karten sehen, die "3-Wege-SLI" können.
 
Zuletzt bearbeitet:
Hast Du Die Treiber Release von Vidia geselen? Nur Spez Karten drin in der Unterstützungsliste.

Eben diese Treiber sind für OpenGL und CAD gedacht und konzipiert.

Und die Leute wundern sich, dass sie Leistungseinbussen haben......


Und ich bin mir nicht mal so sicher, dass da alle Inf's drin sind. Hat derjenige eine komplette Neuinstallation des Treibers gemacht? Also alten komplett deinstalliert neu gestartet und dann den neue montiert?

Bei einem TreiberUpdate würde auf der Hand liegen, wieso alle funzen.


Und nochmal... es ist explizit ein Quadro Treiber... Eben auf Qualität für CAD Anwendungen und OpenGL und speziell für hohe Auflösungen. Dafür laufen eben die Games schlechter, bzw. die Treiber sind nicht so konfiguriert pro Game, wie's eigentlich sein sollte.

Geh mal auf den Link auf der Guru Seite... da liest Du dann das Release Note. Oder bei nVidia...

Was meinst Du, wieso schreiben sie .. "nur für Quadro...." Damit nur die Oberschlauen merken, dass dies ein geheimer Turbo Treiber für 8800 GTS ist und sagenumwohbene Mehrleistung bringt?

Bei Guru hat's ja noch nen Link, wo extra steht, für gForce Karten nehmen sie die Treiber hier....

Unter Umständen hat der Treiber ja die Inf's drin. Aber wenn der ja besser wäre, als die ForceWare WHQL. Glaubst Du nicht auch, dass nVidia diesen Treiber anpreisen würde?

Und mehr FPS ist nicht immer besser. Ausser man hat zuwenig.

Es macht den Anschein, dass die Qualitätseinstellung für OpenGL und CAD eben Abstriche bei den Games zur Folge hätte. Entweder Qualitätsabstriche oder FPS-Einbussen.

Sonst wäre der Satz "nur für Quadro" ja 100% sinnlos. Und ich glaube nicht dass nVidia sich selbst ein Ei legt.

Unterstützte Produkte .....

Quadro FX 330
Quadro FX 350
Quadro FX 370
Quadro FX 500
Quadro FX 540
Quadro FX 550
Quadro FX 560
Quadro FX 570
Quadro FX 600
Quadro FX 700
Quadro FX 1000
Quadro FX 1100
Quadro FX 1300
Quadro FX 1400
Quadro FX 1500
Quadro FX 1700
Quadro FX 2000
Quadro FX 3000
Quadro FX 3000G
Quadro FX 3400
Quadro FX 3450
Quadro FX 3500
Quadro FX 3700
Quadro FX 4000
Quadro FX 4400
Quadro FX 4400G
Quadro FX 4500
Quadro FX 4500 X2
Quadro FX 4600
Quadro FX 5500
Quadro FX 5600
Quadro NVS 55/280 PCI
Quadro NVS 440
Quadro NVS 285
Quadro NVS 290


Supported NVIDIA Gsync Products

Product
Windows XP 32bit / Windows 2000
Windows XP Professional x64

Quadro FX 5500
Quadro FX 4500 x2
Quadro FX 4500


Supported NVIDIA Gsync II Products

Product
Windows XP 32bit / Windows 2000
Windows XP Professional x64

Quadro FX 5600
Quadro FX 4600


Supported NVIDIA Quadro Plex Products

Product
Windows XP
Windows XP Professional x64

NVIDIA Quadro Plex 1000 Model I
NVIDIA Quadro Plex 1000 Model II
NVIDIA Quadro Plex 1000 Model III
NVIDIA Quadro Plex 1000 Model IV

Release Notes (v169.61)
Control Panel User's Guide
Quadro Plex Technische Details
 
Zuletzt bearbeitet:
Wenn man keine Ahnung hat, sollte man ... :rolleyes:

Hier die originale .inf aus 169.61_quadro_winxp2k_international_whql.exe
 

Anhänge

  • nv4_disp..txt
    51,6 KB · Aufrufe: 45
Zuletzt bearbeitet:
Du verstehst immer noch nicht worum es geht.

nVidia hat diesen Treiber speziell für CAD und OpenGL eingestellt.

Also.. geh doch mit dem Gamen... Bist Du dann viielleicht zufrieden?


Oder was erwartest Du.,.... Dass nun alle diesen Treiber montieren mit der Unsicherheit, dass entweder die Quali anders konfiguriert ist? Also entweder viel zu viel Qualitäts- bzw. Ressourcenfressende EInstellungen. Oder aber das Gergenteil.


PS.
Aber wenn ich's mir so überlege... Du hast Recht... Die bei nVidia schreiben ja wahrscheinlich nur Müll. Wieso sollten Sie sonst wohl eine offizielle Empfehlung rausgeben, dass man für Forceware den anderen Treiber nehmen sollte. (Ist das ein Code für Turbo-Treiber für Forceware Karten?

Und wegen den Inf's... Schon mal was von Kompatibilität gehört? Oder u.U. auch einfach zu faul die anderen inf's rauszunehmen. Aber ich tippe eher auf Kompatibilität.

Aber Du hast Recht. Nvidia hat hier nen TurboTreiber rausgebracht, mit dem TopSecret Vermekr Nur für Quadro....

Und in der Inf kann noch viel drin stehen. Es geht um die Empfehlung, und wie der Treiber justiert worden ist.

Aber es bringt nichts. Du hast ja, wie oben gesagt von Anfang Recht gehabt.

Kannst Du mir bei nVidia mal schnell den Link geben, aber mit der Auswahl Gweforce 8 oder 7 und nicht Quadro? (Oder hat das nVidia auch falsch gemacht? )

Aber lad den Treiber doch erst mal runter. Und eben in der richtigen Auswahl. Echt kompliziert. Wenn mann einen Treiber will, darf man ja nicht den richtigen GrafikkartenTyp angeben, sonst bekommt man nicht den UltraTurboTreiber, der mit den gleichen Qualitätseinstellungen und Fuilterungen wie beim ForceWare Treiber 20 FPS mehr bringt. Oh... nVidia müsste wirklich doof sein, wenn das so wäre wie Du meinst. Ich glaube aber dass sie dann diesen Treiber für die normalen Karten freigeben würden.


Aber was sarkaste ich hier eigentlich weiter... Installier doch den Treiber... Du hast ja Recht. Mach es....
 
Zuletzt bearbeitet:
Ich will niemanden dazu bewegen diesen Treiber zu benutzen, jedoch ist deine Aussage, dass der Treiber nur für Quadro Karten geeignet ist und weniger Leistung oder schlechtere Qualität bietet nicht richtig.
Wenn nVidia die Absicht gehabt hätte, diesen Treiber nur für Quadro Karten zu veröffentlichen, hätten sie bestimmt nicht die Unterstützung für andere Karten eingebaut.

Die Mehrheit ist überzeugt von diesem Treiber, siehe hier bzw hier.

Kein Bock mehr mit sturen Leuten zu diskutieren, außerdem ist das nicht der Treiber Thread, also :btt:!
 
Noch was... Auszug aus der Beschreibung... was alles in diesem Quadro-Treiber nicht funktioniert. (dennoch Forceware Geheimtip von einigen FPS Freaks)

Limitations in This Release
• NVIDIA Quad SLI Technology
This driver does not support NVIDIA Quad SLI mode.
• NVIDIA SLI Antialiasing
This driver does not support NVIDIA SLI antialiasing


Usw. Klar geht der dann am Ende schneller Demnach geht's um 3DMurks. Logo hast Du mit dem mehr FPS. Wenn GameFeatures abgestellt werden. SLI AA usw.

Aber installier doch den Treiber.


Hinzugefügter Post:
Falsch... Dann würden sie ihn anpreisen als normalen und Quadro Treiber. Was sie aber nicht machen. Wieso wohl...


Noch mehr...

Features Not Yet Available in the NVIDIA Control Panel
Support for the following control panel features is under development and not
yet available under Windows Vista:
• Display Category
• Run display optimization wizard
• Move CRT screen position
• Manage custom timings
• Run multiple display wizard
• Video & Television Category
• Adjust television color settings
• Adjust screen size and position
• Workstation Category
The Workstation category page is not available with


• GPU Temperature Monitoring (Unsupportted)


• Full‐screen Video Mirror
• Video Zoom
• Per‐display Video Color Setting Adjustment
Video color setting adjustments through the NVIDIA Control Panel can only
be made across all displays in a system, and not on a per‐display basis.
• nView Horizontal and Vertical Span Modes
Due to architectural changes in the new Windows Vista Window Display
Driver Model (WDDM), span mode cannot be supported in NVIDIA
graphics drivers. NVIDIA recommends using the built‐in Windows Vista
multi‐display modes.
• Edge Blending
• Display/Connection Wizard (such as was provided with Windows
Media Center Edition)
• DVD/MPEG Extensions (such as was provided with Windows Media
Center Edition)
• Audio Extensions (such as was provided with Windows Media
Center Edition)
• Windowed quad‐buffered stereo
This is an operating system limitation.


Ergo... Das ist ein Quadro Treiber oder aber 3DMurks FPS Freaks. Klar haste mit dem viel mehr FPS.

PS. Viel Spass beim Einstellen mit mehreren CRT-Monitoren und TV Ausgabe, wie auch Spawning. Funktioniert leider nicht, wie auch die Temperaturüberwachung und so vieles mehr. Aber um zu zeichnen muss man ja nicht Video schauen.... wenigstens nicht im Vollbildmodus.

Aber vor allem braucht man kein AA. Lol

"Im SLI-Modus dank dieses coolen Treibers kein AA." ...Muahahaha ... guter Treiber... Muss ich habe"

Hier zur Dokumentation über den Quadro Treiber...
 
Zuletzt bearbeitet:
ich hab ihn installiert und für vista lade ich ihr grade runter:drool:
 
Ok... :fresse: War auch bereits fertig.... Aber hin oder her...verstanden! :bigok:
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh