NVIDIA GeForce GTX 690 vorgestellt (Update)

mhab

[online]-Redakteur
Thread Starter
Mitglied seit
03.08.2007
Beiträge
3.900
<p><img style="float: left; margin: 10px;" src="images/stories/logos/nvidia.gif" alt="nvidia" width="100" height="100" />Im Rahmen eines NVIDIA-Events in Shanghai kündigte der CEO und Mitgründer Jen-Hsun Huang das neue Flaggschiff GeForce GTX 690 an. Die Grafikkarte vereint zwei GTX-680-Grafikprozessoren auf einer Platine und soll im Gegensatz zu einem SLI-Betrieb den Vorteil haben, dass der 3D-Beschleuniger mit mehr Effizienz arbeitet und dabei zudem den Nutzer mit weniger Geräuschen belästigen soll. Insgesamt kommt das Grafikmonster auf satte 3.072 CUDA-Kerne. Zur Energieversorgung wird auf dem Referenzdesign eine 10-Phasen-Steuerung verbaut sein und die verwendete Platine besteht aus zehn Schichten mit mindesten zwei Unzen Kupfer. Natürlich werden die zwei verbauten...<p><a href="/index.php?option=com_content&view=article&id=22366&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wieder die erste Nvidia Grafikkarte die mir zusagen würde (Bin ja von meiner 9800GTX+ auf ATI/-AMD) umgestiegen aber der Preis....
Der Kühler sieht mal viel besser aus nicht von der stange wie sonst ^^
 
Also auf dem ersten Blick schaut das Teil ganz hübsch aus, auch die Benchmarks, vertrau dem ganzen aber nicht so ganz :)

PS: So weit runtergetacktet als ich erwartet hab is sie auch nicht
 
Schaut echt hüpsch aus hat was man könnte schwach werden.
 
Improved Frame rate Metering

Kepler introduces hardware based frame rate metering, a technology that helps to minimize stuttering. In SLI mode, two GPUs share the workload by operating on successive frames; one GPU works on the current frame while the other GPU works on the next frame. But because the workload of each frame is different, the two GPUs will complete their frames at different times. Sending the frames to the monitor at varying intervals can result in perceived stuttering.

The GeForce GTX 690 features a metering mechanism (similar to a traffic meter for a freeway entrance) to regulate the flow of frames. By monitoring and smoothing out any disparities in how frames are issued to the monitor, frame rates feel smoother and more consistent.

Das fand ich das Interessanteste des ganzen Artikels. Ich dachte, sowas gibts schon länger bei Nvidia? Vielleicht bisher nur per Software. Und durch den PCIe 3.0 Chip verdoppelt sich die Bandbreite, vielleicht kann das Metering dann noch besser arbeiten. Die Karte dürfte (ohne Framelimiter) der 7990 klar überlegen sein, was Mikroruckler angeht. Ich hoffe inständig, dass alle Reviews das auch mittesten und Nvidia das in ihrem Reviewer Guide entsprechend anpreist/erwähnt. Die Zeiten, an denen man für Multi-GPU per AFR nur die fps betrachtet und zur Qualität dieser fps kein Wort verliert, sollten endlich vorbei sein.
 
Alles wie erwartet..
Skaliert echt gut in BF3. :)
Bei EVGA dann als Hydrocopper OC Model knappe 1300$ :fresse:
 
ok, dann sollen die Preise für GTX 680 auf 400€ fallen und ich kaufe mir die 2te ;)
 
ok, dann sollen die Preise für GTX 680 auf 400€ fallen und ich kaufe mir die 2te ;)

Welche dann ja nicht sooo toll skalieren soll.. der NF200 Chip kann es ja nicht mehr sein. Ergo ein neuer Chip?
Zudem - die News ist der reine Pressetext. Die GPU ms greifen auf 2x 2GB zurück .. mit 2x 5PWMs - das wäre richtiger.
Oder wurde SLI komplett neu definiert auf ner Dual-Chip-Karte? Wäre ja toll..
 
Zuletzt bearbeitet:
Mal schauen wann wir ein Sample bekommen.
 
Der NF200 Chip kann es ja nicht mehr sein. Ergo ein neuer Chip?

Um die beiden GPUs miteinander zu verbinden setzt NVIDIA einen PEX 8747 von PLX Technology ein. Dabei handelt es sich um einen PCI-Express-3.0-Switch-Chip mit 48 Lanes. Über jeweils 16 Lanes bindet er die Grafikkarte über den Steckplatz an das System an. Jeweils 16 Lanes werden für die Anbindung der GPU seingesetzt.
 
Das verstehe ich nicht. Sind die GPUs gemeinsam an den Steckplatz angebunden oder separat als einzelne Chips? Du schreibst "jeweils 16 Lanes bindet er die Grafikkarte..." Es gibt doch nur eine Grafikkarte.
16 Lanes von GPU 1 zum Chip. 16 Lanes von GPU 2 zum Chip. 16 Lanes vom Chip zum Steckplatz. Der Chip sitzt praktisch an einer T-Kreuzung. So korrekt?
 
Ja - quasi ne T-Kreuzung. Den Chip haben auch einige Boards für Quad-SLI (Marketing).
Heißt der auf Grafikkarten PEX anstatt PLX? Wenn es PLX wäre, dann gäbe es auch Ressourcen-Sharing..
Aber interessant - anscheinend hat Nvidia keinen Sinn in einem NF300 gesehen?!
Ich dachte immer, dass ließe sich so gut mit dem SLI Logo bundeln. ;)
 
die stellen das grade so hin, als ob ein 10-schichten PCB was tolles wäre... in deutschland gibts genug gute designer die sowas auf 2 schichten schaffen...

war das jetzt der blöde countdown? der preis ist sowieso eine frechheit
 
Ja, 16 Lanes für GPU1, 16 Lanes für GPU2 und dann 16 Lanes für den Steckplatz. Ist ein PCI-Express-Switch, wie bei allen anderen Dual-GPU-Karten zuvor auch.
 
Ok ich wollte eigentlich nicht derjenige sein der diese Frage stellt. Wer braucht so eine Karte nochmal?
 
Leute die Skyrim mit Super Sampling auf 2k Auflösung spielen, dabei alle Details auf Maximum setzen und dann feststellen, dass der VRAM nicht ausreicht... äh... also niemand - richtig. :d
 
Ok ich wollte eigentlich nicht derjenige sein der diese Frage stellt. Wer braucht so eine Karte nochmal?
Wer braucht ne 680er... Da gibt es genügend Beispiele, selbst denken Herr nisc:)

BTW: Es scheint mir ob sie die Preise ganz schön angezogen haben, + - 400€ teurer als noch die GTX 590 ist ne Ansage.

Die Optik gefällt mir, ist das Plexiglas Glas oder offen zu den Kühleinheiten hin?
 
Zuletzt bearbeitet:
Ok ich wollte eigentlich nicht derjenige sein der diese Frage stellt. Wer braucht so eine Karte nochmal?

viel wichtiger und interessanter wären modelle unter der 680gtx gewesen !!
da hat nvidia nichts zu bieten außer die letzte baureihe die sich recht
schwer behaupten kann gegen 7850/7870 modelle .

wie hoch beträgt der prozentsatz die sich diese karte kaufen von den leuten die nur nvidia kaufen ??
wieviel leute werden jetzt beim neukauf um nvidia nen bogen machen weil sie nur über 400,-€
karten anbieten ?


MFG
 
Wird Zeit, dass die Preise mal fallen. Ist ja nicht mehr mit anzusehen das Spektakel.
AMD hat's ja auch schon getan.
 
boxleitnerb schrieb:
Supersampling braucht genausoviel VRAM wie Multisampling.

Hast du dazu ne Quelle? Würd mich interessieren.

Zum Topic:

Schade, dass Nvidia nicht gleich 2x 4GB V-ram verbaut hat, dann wäre die Karte zumindest für mich stimmig.
 
Mal abgesehen davon das ich diese Leistung nicht gebrauchen kann für meine Anforderungen ist das mal ne Highendgrafikkarte die auch den Eindruck einer highendgrafikkarte macht .
das kühlerdesign sieh mal richtig fett und durchdacht aus da wurde an nichts gespart .
 
Okay, MSAA im override-Modus verbrät 3 GB und ohne overrride nur 2GB. Mal zurück zur Theorie: Entweder ich lasse die Anwendung in doppelter Auflösung laufen und sample es dann runter oder ich nutze eine andere AA-Lösung, die weniger VRam verbrät. Im Falle vom Downsampling ist das Prinzip aber immer gleich: Ich führe es in doppelter/4-facher etc Auflösung aus und breche es dann auf meine native Auflösung vom Bildschirm herunter. Dieses Grundprinzip hat einen Namen, und dieses Prinzip verbrät ordentlich VRam und ist in Bildqualität den anderen AA-Lösungen ein klein wenig überlegen, was nicht bedeutet, dass die anderen schlecht sind - korrekt?

Also nochmal für Leute, die das Thema nur streifen: Wenn ich ne hohe Auflösung rendere, habe ich einen VRam Verbrauch von X. Verdoppel ich die Auflösung, vervierfacht sich mein VRam Bedarf. Auch korrekt?

WENN ich also diese Supersampling/Downsampling/whatever Methode benutze, werde ich ab einer bestimmten Bildschirmauflösung die 2 GB durchbrechen. Und genau für solche Fälle haben diese Monsterkarten ja die Leistung.

Stelle ich also Leistung der Karte mit dem VRam in Verbindung, macht 4 GB durchaus Sinn. Falls das was ich geschrieben habe Bullshit sein sollte, bitte ich um eine kleine Erläuterung, wie das jetzt zusammenhängt.
 
Danke, hat denn das LOD Einfluss auf den V-ram Verbrauch?

Nicht wirklich. Ich kanns mir aber nochmal anschauen, die ersten Messungen mit LOD dazu haben einmal einen 50MB Ausschlag gehabt, war aber wohl nur eine Anomalie, weil das nicht mehr aufgetaucht ist bei der zweiten Messung.

@Shevchen:
SGSSAA ist Downsampling immer überlegen was die Bildqualität und Performance angeht - wenn es denn funktioniert/auf alles greift/nicht blurrt. Beim VRAM-Verbrauch...gute Frage. 3840x2160 ist sowieso grad noch so machbar, selbst für ein SLI. Da kann man praktisch kein AA mehr zuschalten, sonst wäre es unspielbar. 4xAA braucht nicht soviel RAM. Ich kann mir das ja mal bei Gelegenheit anschauen.
 
Zuletzt bearbeitet:
Mal abgesehen davon das ich diese Leistung nicht gebrauchen kann für meine Anforderungen ist das mal ne Highendgrafikkarte die auch den Eindruck einer highendgrafikkarte macht .
das kühlerdesign sieh mal richtig fett und durchdacht aus da wurde an nichts gespart .

Das sieht genauso aus, wie bei der GTX 590. Bis auf die Metallplatte, die aber mehr Design als Nutzen sein wird. Außerdem bläst die Karte wieder die Hälfte der Abwärme in das Gehäuse. Perfekt ist das Design nicht. Mich würde mal interessieren, wie die Gewinnmarge bei den Kepler GPUs aussieht.
 
AMD wird sich in der Zeit die Taktraten der HD 7990 zurechtlegen und wohl auf des Pferd "mehr V-ram" aufpringen.
2x HD 7970 Undervolted bei 925mhz wird AMD wohl zusammenbringen und dann wohl ca gleichschnell sein, bei mehr V-ram Reserven.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh