[Sammelthread] NVIDIA GeForce GTX 680 + FAQ & OC-Benches - bei Fragen erste Seite lesen

NVIDIA GeForce GTX 680 Sammelthread​



Impressionen der Karte:

gtx680-01-rs.jpg
gtx680-02-rs.jpg

gtx680-03-rs.jpg
gtx680-04-rs.jpg

gtx680-05-rs.jpg
gtx680-07-rs.jpg

gtx680-08-rs.jpg
gtx680-09-rs.jpg

gtx680-10-rs.jpg
gtx680-11-rs.jpg

gtx680-12-rs.jpg
gtx680-13-rs.jpg

gtx680-15-rs.jpg
gtx680-17-rs.jpg



Bild und Hinweis zum verbauten GDDR5 VRAM (Hynix H5GQ2H24MFR-R0C):

hynixh5gq2h24mfr-r0cgxf4sa.jpg


Hinweise: Der Hynix GDDR5 VRAM (vermutlich 0,3 ns) ist für 1500 MHz Realtakt spezifiziert und wird mit 1,6V betrieben. Dieser fand etwa auch schon bei der Radeon HD 7970 Verwendung.


Unboxing-Bilder meiner ersten Zotac GeForce GTX 680:




Vergleich GeForce GTX 680 zu GeForce GTX 580:






Technische Daten der GeForce GTX 680

  • GPU = GK104
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 3,54 Milliarden
  • Die-Größe = 294 mm²
  • Chiptakt = 1006 MHz (mit Boost zwischen 1058 bis 1110 MHz)
  • Shadertakt = (mit Boost zwischen 1058 bis 1110 MHz)
  • Speichertakt = 1502 MHz
  • Speichergröße = 2048 MB nach Referenz (8 x 256 MB; 4096 MB durch Boardpartner möglich -> 16 x 256 MB)
  • Speichertyp = GDDR5 (Hynix auf 6.0 Gbps bzw. 1500 MHz spezifiziert, vermutl. 0,3 ns => effektiv 1,2 ns)
  • Speicherinterface = 256 Bit
  • Speicherbandbreite = 192,256 GB/s
  • Shader Model = 5.0
  • DirectX = 11.1
  • Shader-Einheiten = 1536 (1D)
  • SMX Einheiten (weiterentwickelte Streaming Multiprocessors; je 192 (1D) Shader pro SMX) = 8
  • Texture Mapping Units (TMUs) = 128
  • Raster Operations (ROPs) = 32
  • Rechenleistung Single Precision (SP) (MADD) = 3090,432 GFlops (ohne Boost)
  • Rechenleistung Double Precision (DP) (MADD) = ~ 128,768 GFlops -> 1/24 SP Leistung bei GK104
  • Pixelfüllrate = 32,192 GPixel/s (ohne Boost)
  • Texelfüllrate = 128,768 GTexel/s (ohne Boost)
  • maximale Leistungsaufnahme 3D inkl. Boost und mit Power Target @ 100 % (TDP) = 195 Watt
  • durchschnittliche Leistungsaufnahme 3D = 170 Watt (schwankt je nach Spiel/GPU-Auslastung -> Boost oder eben auch Taktabsenkung ohne manuell festgelegte Target-fps)
  • maximale Leistungsaufnahme 2D = 15 Watt
  • Stromaufnahme >= 150 Watt (Versorgung über 2 x 6 Pin PCIe Anschluss)
  • Anschlussmöglichkeiten = 2 x DVI (Dual-Link), 1 x HDMI 1.4a, 1 x DisplayPort 1.2 (unterstützt 4 Monitore gleichzeitig, also auch 3D Vision Surround per DVIs und HDMI und ein Monitor in Windows per DisplayPort bzw. DP-Adapter!)
  • Die Karte besitzt Shader Model 5.0, das heißt sie hat volle DX11.1 und auch OpenGL 4.2 Unterstützung!
  • -
  • -
  • 65 mm Radiallüfter
  • Taktraten Idle (1 Monitor) Chip/Speicher - P8 = 324/162 MHz @ 0,987V
    Taktraten Low-3D (1 Monitor) Chip/Speicher- P5 = 540/405 MHz @ 0,987V
  • Taktraten Idle/Low-3D (2 bis 4 Monitore) Chip/Speicher - P2 = 550/1502 MHz @ 0,987V (angeblich sogar doch nur im P8, zumindest die meiste Zeit)


Kurzvorstellung der GeForce GTX 680 seitens NVIDIA:

NVIDIA GeForce GTX 680 Release Video - YouTube


GeForce GTX 680 Wallpaper: klick


Einige Tests der Karte (SLI Tests, Einzelkartentests):
Code:
 [LIST]
[*][B][COLOR="red"]SLI-Tests[/COLOR]:[/B] 
[*].
[*]deutsch:
[*].
[*][url="http://ht4u.net/reviews/2012/nvidia_geforce_gtx_680_kepler_sli_evga_zotac_test/"]HT4U - GeForce GTX 680 SLI (EVGA und Zotac)[/url]
[*][url="http://www.computerbase.de/artikel/grafikkarten/2012/kurztest-gtx-680-sli-vs.-hd-7970-cf/"]ComputerBase - GeForce GTX 680 SLI gegen Radeon HD 7970 CFX (Kurztest) inkl. Surround-Gaming[/url]
[*].
[*].
[*]englisch:
[*].
[*][url="http://nl.hardware.info/reviews/2641/nvidia-geforce-gtx-680-quad-sli-review-english-version"]HardwareInfo - GeForce GTX 680 4-Way SLI und SLI[/url]
[*][url="http://www.guru3d.com/article/geforce-gtx-680-3way-sli-review/"]Guru3D - GeForce GTX 680 3-Way SLI[/url]
[*][url="http://www.guru3d.com/article/geforce-gtx-680-sli-review/"]Guru3D - GeForce GTX 680 SLI[/url]
[*][url="http://www.hardocp.com/article/2012/03/28/nvidia_kepler_geforce_gtx_680_sli_video_card_review/1"][H]ard|OCP - GeForce GTX 680 SLI[/url]
[*][url="http://www.hardwareheaven.com/reviews/1453/pg1/zotac-geforce-gtx-680-graphics-card-sli-performance-review-introduction.html"]HardwareHeaven - Zotac GeForce GTX 680 SLI inkl. Surround[/url]
[*][url="http://www.guru3d.com/article/geforce-gtx-680-sli-review/"]Guru3D - Zotac GeForce GTX 680 SLI[/url]
[*][url="http://www.techpowerup.com/reviews/ASUS/GeForce_GTX_680_SLI/"]TechPowerUp! - ASUS GeForce GTX 680 SLI[/url]
[*][url="http://www.youtube.com/watch?v=kEPL1SilkJ8"]Newegg.TV - GeForce GTX 680 Vorstellung inkl. (SLI-) Synthetische Benchmarks (3DM11, Vantage und Heaven 2.5 ab 4:30 Min.[/url]
[*].
[*].
[*].[*][B]Einzelkartentests - [COLOR="red"]Referenz-Design[/COLOR]:[/B]
[*].
[*]deutsch:
[*].
[*][url="http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/21816-test-nvidia-geforce-gtx-680.html"]HardwareLUXX - NVIDIA GeForce GTX 680 [/url]
[*][url="http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-680/"]ComputerBase - NVIDIA GeForce GTX 680[/url] 
[*][url="http://www.pcgameshardware.de/aid,873907/Test-Geforce-GTX-680-Kepler-GK104/Grafikkarte/Test/"]PCGH - NVIDIA GeForce GTX 680[/url]
[*][url="http://www.tomshardware.de/geforce-gtx-680-test-benchmarks-Kepler-GK104,testberichte-240979.html"]Tom's Hardware - NVIDIA GeForce GTX 680[/url]
[*][url="http://www.gamestar.de/index.cfm?pid=1589&pk=65407"]GameStar - NVIDIA GeForce GTX 680 Video-Test (8:49 Min.)[/url]
[*].
[*].
[*]englisch:
[*].
[*][url="http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/52616-nvidia-geforce-gtx-680-2gb-review.html"]Hardware Canucks - NVIDIA GeForce GTX 680[/url]
[*][url="http://www.guru3d.com/article/geforce-gtx-680-review/"]Guru3D - NVIDIA GeForce GTX 680[/url]
[*][url="http://www.anandtech.com/show/5699/nvidia-geforce-gtx-680-review"]Anandtech - NVIDIA GeForce GTX 680 [/url]
[*][url="http://www.hardwareheaven.com/reviews/1452/pg1/nvidia-geforce-gtx-680-kepler-graphics-card-review-introduction.html"]HardwareHeaven - NVIDIA GeForce GTX 680 inkl. Surround[/url]
[*][url="http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_680/"]TechPowerUp! - NVIDIA GeForce GTX 680[/url]
[*][url="http://www.hardocp.com/article/2012/03/22/nvidia_kepler_gpu_geforce_gtx_680_video_card_review"][H]ard|OCP - NVIDIA GeForce GTX 680[/url]
[*][url="http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-GeForce-GTX-680-2GB-Graphics-Card-Review-Kepler-Motion"]PC Perspective - NVIDIA GeForce GTX 680[/url]
[*][url="http://www.youtube.com/watch?v=ER3nv7NTwbs"]PC Perspective  - Live-Review Stream: NVIDIA GeForce GTX 680 mit Tom Petersen (Director of Technical Marketing bei NVIDIA) (1:49:52 Std.)[/url]
[*][url="http://www.overclock3d.net/reviews/gpu_displays/nvidia_gtx680_review/1"]Overclock3D - NVIDIA GeForce GTX 680[/url]
[*][url="http://www.youtube.com/watch?v=Y8RZDPjMttY&feature=player_embedded"]Overclock3D TV - NVIDIA GeForce GTX 680 (39:30 Min.)[/url]
[*][url="http://www.legitreviews.com/article/1881/1/"]Legit Reviews - NVIDIA GeForce GTX 680[/url]
[*]. 
[*]. 
[*][B]Einzelkartentests - [COLOR="Red"]OC bzw. Non-Referenz-Design (bzw. meist PCB im Referenzdesign, aber anderer Kühler) [/COLOR]:[/B]
[*].
[*]deutsch:
[*].
[*][url="http://www.hardwareluxx.de/index.php?option=com_content&view=article&id=22051  &catid=74&Itemid=170"]HardwareLUXX - Palit GeForce GTX 680 JetStream[/url]
[*][url="http://www.tomshardware.de/Gigabyte-GTX-680-Windforce-X3,testberichte-240990.html"]Tom's Hardware - Gigabyte GeForce GTX 680 OC Windforce X3 (GV-N680OC-2GD)[/url]
[*].
[*].
[*]englisch:
[*].
[*][url="http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/53144-evga-geforce-gtx-680-sc-review.html"]Hardware Canucks - EVGA GeForce GTX 680 SC+ (2GB)[/url]
[*][url="http://www.guru3d.com/article/gigabyte-geforce-gtx-680-oc-edition-review/"]Guru3D - Gigabyte GeForce GTX 680 OC Edition (2GB)[/url]
[*][url="http://www.guru3d.com/article/palit-geforce-gtx-680-jetstream-review/"]Guru3D - Palit GeForce GTX 680 JetStream 2GB [/url]
[*][url="http://www.hardwareheaven.com/reviews/1461/pg3/palit-geforce-gtx-680-jetstream-edition-graphics-card-review-the-card.html"]Hardware Heaven - Palit GeForce GTX 680 JetStream 2GB[/url]
[*][url="http://www.hardwareheaven.com/reviews/1461/pg3/palit-geforce-gtx-680-jetstream-edition-graphics-card-review-the-card.html"]Hardware Heaven - Palit GeForce GTX 680 JetStream 2GB[/url]
[*][url="http://translate.google.de/translate?hl=de&sl=zh-CN&tl=en&u=http%3A%2F%2Fwww.expreview.com%2F19011.html"]EXPreview - Zotac GeForce GTX 680 Extreme Edition (Kurz-Review -> Google Translator @ englisch)[/url]
[*].
[/LIST]



Geizhals Links:

Code:
[URL=" "]HardwareLUXX Preisvergleich - GeForce GTX 680[/URL]



Treiber & nützliche Tools:

Alle Infos über die aktuellen Treiber für Windows XP/7/Vista sowie weitere OS und nützliche Tools findet ihr in diesem Thread hier



nVidia Techdemos:

Code:
[LIST]

[*]        [URL="http://www.youtube.com/watch?v=2Fp5N-pOxKA"]NVIDIA CUDA/PhysX-Kepler-Techdemos - Pillars (dynamische Zerstörung dank PhysX) & Fur (aufwendige Echtzeit Haarsimulation)[/URL]
[*]        [URL="http://www.nvidia.de/object/cool_stuff_de.html#/demos/2678"]Alien vs. Triangles[/URL]
[*]        [URL="http://www.nvidia.de/object/cool_stuff_de.html#/demos/2664"]Endless City[/URL]
[*]        [URL="http://www.nvidia.de/object/cool_stuff_de.html#/demos/2123"]Supersonic Sled[/URL]
[*]        [URL="http://www.nvidia.de/object/cool_stuff_de.html#/demos/2122"]Design Garage[/URL]
[*]        [URL="http://downloads.guru3d.com/downloadget.php?id=2541&file=4&evp=ff4e7fdf8c5ee9708ad2a45af75af3d7"]Hair-Demo[/URL]
[*]        [URL="http://downloads.guru3d.com/downloadget.php?id=2542&file=4&evp=152d5d1b601f30588c6b1029baf59fb2"]Island-Demo[/URL]
[*] . 
[*]        [B]Noch nicht als Download verfügbar:[/B]
[*]        [URL="http://www.hardwareluxx.de/index.php/downloads/software/systemutilities/doc_details/140-ragingrapidsride.html"]Raging Rapid Ride[/URL]
[*]        NVIDIA GF100 Fluids (PhysX Based Water) Demo 
[/LIST]


Weitere DX11 Benchmarks / Techdemos:
Code:
[LIST]

[*]        [URL="http://www.hardwareluxx.de/index.php/downloads/benchmarks/3d-grafik/doc_download/166-futuremark-3dmark-11.html"]Futuremark 3D Mark 11 (Basic Edition)[/URL]

[*]        [URL="http://www.techpowerup.com/downloads/2111/Unigine_Heaven_DX11_Benchmark_3.0.html"]Unigine Heaven 3.0 Benchmark[/URL]

[*]        [URL="http://www.hardwareluxx.de/index.php/downloads/benchmarks/3d-grafik/doc_download/170-unigine-heaven-25.html"]Unigine Heaven 2.5 Benchmark[/URL]

[*]        [URL="http://www.techpowerup.com/downloads/1799/Unigine_Heaven_DX11_Benchmark_2.1.html"]Unigine Heaven 2.1 Benchmark[/URL]

[*]        [url="http://www.pcgameshardware.de/aid,745728/Download-Stone-Giant-Sehenswerte-DirectX-11-Techdemo-fuer-HD-5000-und-GTX-400/Benchmark/Download/#dl_anchor"]Stone Giant 1.0 Techdemo (leider keine Benchmark Auswertung a la Heaven  integriert -> per OSD via FRAPS lassen sich z.B. zusätzlich auch min. und max. fps aufzeichnen, Stone Giant kann nur current & avg. fps ! ;))[/URL]
[*]         .
[*]         [B]Hinweis zur Bedienung in Stone Giant: Wichtigste Tasten -> F1 (Wireframe Modus ON/OFF), F2 (Tesselation Modi), F3 (Diffusion DoF (Depth of Field =   Tiefenunschärfe) ON/OFF), F4 (current & avg. fps Counter ON/OFF), Pfeiltasten + Maus = freier Flug, ENTER = Benchmark Run) [/B]
[*]         .
[*]        [URL="http://www.pcgameshardware.de/aid,699738/DirectX-11-Benchmark-Stalker-Call-of-Pripyat-Update-1080p-Youtube-Video-zeigt-DX9-bis-DX11-im-Direktvergleich/Benchmark/Download/#dl_anchor"]S.T.A.L.K.E.R. - Call of Pripyat Benchmark-Tool (getestet wird Day, Night (Gewitter), Rain und Sun - Ergebnisse als min., avg. und max. fps) [/URL]

[*]        [url=http://downloads.guru3d.com/Aliens-vs.-Predator-DirectX-11-Benchmark-Tool-download-2553.html]Aliens vs. Predator DirectX 11 Benchmark Tool[/url]
[*]        [url=http://downloads.guru3d.com/Lost-Planet-2-Benchmark-download-2607.html]Lost Planet 2 Benchmark[/url]

[/LIST]



Hinweise zu nützlichen Tools:

Report zur Benutzung des NVIDIA Inspectors (Monitoring, OC & Treiberprofileinstellungen inkl. forciertem AA, SGSSAA usw.:

Report: "NVIDIA Inspector" Grafikkarten-Tweaktool | 3DCenter.org

Hinweise zu EVGA PrecisionX 3.0.0 Beta 20:
Dies ist die erste Boardpartner-Software, die die GeForce GTX 680 vollständig unterstützt. Dementsprechend sehen auch die Optionen im neu gestallteten GUI aus. Zum jetzigen Zeitpunkt noch Non-Public.

GTX 680 OC.jpg

evga-precision-2.jpg


Bei Power Target stellt man ein, ob die Verbrauchsgrenze höher oder niedriger sein soll. Basis ist hierbei 100 % (entspricht der TDP von 195 Watt). Man kann zwischen 70 bis 130 % (70 % = 136,5W, 100 % = 195W, 130 % = 253W) wählen. Bei CPU Clock Offset wird sowohl der Basistakt, als auch der GPU Boost erhöht. Bei Memory Offset ist zu beachten, dass der GDDR5 Realtakt genau die Hälfte ist (hier findet also wie meist bei den Tools üblich ein Vergleich auf GDDR3 statt). Das Maximum der Spannung liegt - zumindest ohne einen wohlmöglichen BIOS-Unlock - bei 1,150V. Die VCore wird über Adjust Voltage eingestellt. Die besten Overclocking-Werte werden erziehlt, wenn man Power Target auf + 30 % setzt, womit die Karte bis zu 253 Watt aufnehmen kann, und dies mit einer Erhöhung der VCore kombiniert.

OC Beispiel an unserem Testsample - höchste stabile Taktraten:

Power Target: + 30 % auf 130 % (neue Grenze nun bei 253W)
VCore: auf 1,150V (mit maximalem Boost 1,175V)
GPU Clock Offset: + 177 MHz (-> default nun: 1183 MHz, maximaler Takt inkl. GPU Boost: 1280 MHz, also + 97 MHz)
Memory Offset: + 274 MHz (-> ~ + 137 MHz GDDR5 Realtakt -> 1638 MHz GDDR5 == 3278 MHz GDDR3)


Download: EVGA Precision X 3.0.1


Hinweise zu MSI Afterburner:

Mit am 20.03.2012 erschienen Version 2.2.0 Beta 15 unterstützt der Afterburner nun auch die GeForce GTX 680. Die OC Settings selber dürften wie bei PrecisionX ausfallen - stammen beide Tools doch von Unwinder.

Voltage Regelung freischalten: Settings -> " Unlock voltage control " & "Unlock voltage monitoring" aktivieren.



Overclocking generell:
Coretakt = Shadertakt (es gibt bei Kepler keinen sogenannten Hotclock mehr)

Power Target kann unter Settings -> General eingestellt werden - dies ist in Precision X komfortabler gelöst!


Individuelle Lüftersteuerung in Windows:





NVIDIA Inspector 1.9.6.1 Beta

nvidia_20120331_110723.png


Von der Bedienung, bis auf die Tatsache, dass in P0-State (Volllast) und somit auch automatisch auch im P2-State noch ein Voltage Offset gesetzt werden kann, gibt es keine Unterschiede beim OC im Vergleich zu den Tools von Unwinder. Mit dem "P2-State-Trick", siehe How-To's, kann man innerhalb der gesetzten TDP einen erhöhten Base Clock ohne schwankenden GPU Boost fahren. :)



How To's:

Code:
[LIST]
[URL="http://www.hardwareluxx.de/community/f14/nvidia-geforce-gtx-680-faq-oc-benches-bei-fragen-erste-seite-lesen-880765-41.html#post18662033"]Overclocking: [COLOR="Green"][B]Mit NVIDIA Inspector P2-State fixieren, um GPU Boost, sofern innerhalb der TDP, zu deaktivieren[/COLOR][/URL][/B]


[URL="http://www.abload.de/img/inspectormdpsera5r.png"]Multi-Monitoring: [COLOR="Green"][B]NVIDIA Inspector MDPS (Multi Display Power Saver) nutzen (auch bei 1 Monitor  und 120Hz empfehlenswert für konstanten P8-State)[/COLOR] 
[/B] [/URL]
[/LIST]




Aufruf in eigener Sache zum Sharing eurer GTX 680 BIOS-Files - eventuell können wir sie ja doch noch gebrauchen: klick




FAQ (Frequently Asked Questions):


Wie laut ist die Karte?
  • Standardmäßig kommt die GTX 680 mit einem Kühler, in dessen Grundplatte drei Heatpipes eingearbeitet sind - die Wärme wird dann von dieser über viele feine Aluminium-Lamellen abgegeben, die sich im Luftstrom des Radiallüfters hin zur Slotblende befinden. Die Karte verfügt außerdem über eine Grundplatte zum passiven Kühlen von VRAM und Spannungswandlern besitzt. Der Radiallüfter hat, wie bei den auf GF100 basierenden Karten, zwar nur einen Durchmesser von 65 mm - dieser soll nun aber aus lärmdämmenden Materialen gefertigt sein, was den störende Frequenzen für den User unterbinden soll. Das Referenzdesign der GTX 680 setzt gegenüber den anderen Testprobanden sogar neue Maßstäbe in Sachen Laustärke im Idle (34,8 dB(A)). Unter Last liegt man mit 51,4 dB(A) im guten Mittelfeld - nur minimal hinter beiden Radeon HD 7800 Karten (je 51,2 dB(A)).

    mess5.jpg
    mess6.jpg


    Für die die Last-Verbrauchs- und Lautstärkemessungen nutzen wir Crysis 2. Letztere führen wir mit einer Messempfindlichkeit zwischen 30 bis 70 dB(A) im Abstand von 30 cm zu den Grafikkarten im offenen Gehäuse durch.



Wie hoch sind die Temperaturen der Karte?
  • Im Idle wird die Karte 36 °C warm, unter Last sind es - wohl aufgrund der Lautstärkeoptimierungen - immer noch, für diese Leistungsklasse, ordentliche 80 °C.

    mess3.jpg
    mess4.jpg


    Für die Messung der Temperaturen und Lautstärke wählten wir einen Durchlauf in Battlefield 3 in maximaler Auflösung und bei maximalen Einstellungen für die Darstellungsqualität.


Taktdomänen GTX 680:

GTX 680 - Taktdomänen:

  • Idle (1 Monitor) - P8: 324/162 MHz @ 0,987V
    Low-3D (1 Monitor) - P5: 540/405 MHz @ 0,987V
    Idle/Low-3D (2 bis zu 4 Monitore) - P2: 550/1502 MHz @ 0,987V (E: angeblich sogar doch nur im P8, zumindest die meiste Zeit)
    Volllast (1 Monitor bis 4 Monitore wenn * nicht gegeben) - P0: 1006/1502 MHz (ohne Boost)


Wie hoch ist der Stromverbrauch?
  • Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

    Die GeForce GTX 680 hat laut NVIDIA einen Idle-Stromverbrauch von gerade einmal 15 Watt (15 Watt auch beim PCGH-Testsample). Unter Last nimmt die Karte (PCGH-Testmuster) 174 Watt auf. Dazu muss bei Kepler aber gesagt werden, dass eine Lastmessung wie bisher nicht mehr möglich ist. Standardmäßig wirkt bei vorhandenen TDP-Reserven und wichtigen Titeln oder Benchmarks der GPU Boost (1058 bis 1110 MHz), oder aber - wenn man einen Titel mit extrem hohen fps hat - wird der Coretakt gedrosselt um den Verbrauch zu senken, sofern man dies nicht über den optional vorhandenen Framelimiter verhindert.


    Hier unsere Messungen (gesamtes System):

    mess1.jpg
    mess2.jpg


    Das System verbraucht im Idle mit der GTX 680 recht wenig und liegt knapp hinter der HD 7870. Unter Last fällt der Systemverbrauch mit der GTX 680 (363 Watt) minimal geringer als mit der Radeon HD 7970
    (366,4 Watt) aus. Somit kann gesagt werden, dass NVIDIA die Effizienz im Vergleich zu Fermi deutlich steigern konnte und nun auf einem Level mit der Konkurrenz liegt.
    NVIDIA spricht von der doppelten Performance/Watt im Vergleich zur GeForce GTX 580.

    Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen.


    Verwendetes Testsystem:

    testsystemgtx680lhjz0.png




Passt die Karte in mein Gehäuse?

  • Die Länge der Karte ist genau 10" (Zoll), also 25,4 cm, und damit ist die GeForce GTX 680 etwas länger als die Radeon HD 7870 (9,5", also 24,13 cm). Somit dürfte die GeForce GTX 680 ohne Probleme in die meisten User-Gehäuse passen. Wie üblich, setzt man auf ein Dual-Slot-Design, allerdings sitzen beide PCI-E 6-Pin Buchsen nun treppenartig übereinander, was Single-Slot-Lösungen auf Basis einer Wasserkühlung nicht zulässt - es sei denn manche Boardpartner bringen Karten mit konservativen PCI-E-Buchsen nebeneinander.



Ist es möglich, die Tonformate Dolby TrueHD und DTS HD per Bitstream wiederzugeben?
  • Die GTX 680 (GK104) unterstützt die Wiedergabe der HD-Tonformate im Bitstream über den HDMI-Ausgang.
    Dafür ist aber unter Umständen die passende Software - etwa die neuste Version von Cyberlinks PowerDVD notwendig.

    Update: Das kostenlose ffdshow (die aktuelle Version ist das erweiterte ffdshow tryouts) ermöglicht ebenfalls die Ausgabe per Bitstream -> Guide



Die Performance:
  • Wie man sieht, ordnet sich die GeForce GTX 680 aktuell im High-End-Segment ein und beerbt damit die GeForce GTX 580 offiziell. Die Performance liegt in unseren Benchmarks zumeist oberhalb der Radeon HD 7970. Somit ist die Karte für User geeignet, die keine Kompromisse in den einstellbaren Qualitätssettings haben möchten und könnte auch Enthusiasten, die lieber zur GeForce als ezwa zu einer HD 7970 greifen möchten, als Übergangslösung bis zum GK110-Launch dienen. Später soll es durch die Boardpartner auch Modelle mit 4 GB GDDR5 geben.

    Weitere Details zur Ausführung der Benchmarks aus dem aktuellen HardwareLUXX-Review:

    Der Artikel basiert auf folgenden Karten seitens der GeForce GTX 680:

    NVIDIA GeForce GTX 680 (Referenz).

    Benutzte Auflösungen sind 1680x1050 4xAA/16xAF & 8xAA/16xAF, über 1920x1200 4xAA/16xAF & 8xAA/16xAF
    bis hin zu 2560x1600 4xAA/16xAF & 8xAA/16xAF. Teilweise kam auch 1xAA/16xAF zum Einsatz, Rage unterstützt asu Grünen der Kompatibilität nur 4xAF.

    Gebencht wird auf folgendem System:

    testsystemgtx680lhjz0.png



    Im Artikel vertreten sind folgende synthetische Benchmarks & Game-Benchmarks:

    Synthetische Benchmarks: Futuremark 3D Mark 11 sowie LuxMark 2.0
    Game-Benchmarks: Anno 2070 (DX11), Battlefield 3 (DX11), Call of Duty: Modern Warfare 3 (DX9), Crysis Warhead (DX10), Crysis 2 (DX11),
    Metro 2033 (DX11), Rage (OpenGL), The Elder Scolls V: Skyrim (DX9) sowie The Witcher 2 (DX9)


    Hier gibt es alle Benchmarks -> klick -> HARDWARELUXX-Artikel-Linkhttp://www.hardwareluxx.de/index.ph...karten/21816-test-nvidia-geforce-gtx-680.htmlhttp://www.hardwareluxx.de/index.ph...karten/21816-test-nvidia-geforce-gtx-680.htmlhttp://www.hardwareluxx.de/index.ph...karten/21816-test-nvidia-geforce-gtx-680.html




Kleiner Ausschnitt aus dem Artikel:


Synthetische Benchmarks:


3dmark2.jpg
3dmark3.jpg





Game-Benchmarks:

bf4.jpg
bf6.jpg


crysis2-4.jpg
crysis2-6.jpg


metro4.jpg
metro6.jpg


skyrim4.jpg
skyrim6.jpg




Overclocking-Tests

Generelles zum Overclocking:
Die Karten sind, wie auch schon die Vorgänger auf Fermi-Basis sehr taktfreudig. Der neue 28nm-Prozess trägt hier seinen Teil bei.
Bei Power Target stellt man ein, ob die Verbrauchsgrenze höher oder niedriger sein soll. Basis ist hierbei 100 % (entspricht der TDP von 195 Watt). Man kann zwischen 70 bis 130 % (70 % = 136,5W, 100 % = 195W, 130 % = 253W) wählen. Bei CPU Clock Offset wird sowohl der Basistakt, als auch der GPU Boost erhöht. Bei Memory Offset ist zu beachten, dass der GDDR5 Realtakt genau die Hälfte ist (hier findet also wie meist bei den Tools üblich ein Vergleich auf GDDR3 statt). Das Maximum der Spannung liegt - zumindest ohne einen wohlmöglichen BIOS-Unlock - bei 1,150V. Die VCore wird über Adjust Voltage eingestellt. Die besten Overclocking-Werte werden erziehlt, wenn man Power Target auf + 30 % setzt, womit die Karte bis zu 253 Watt aufnehmen kann, und dies mit einer Erhöhung der VCore kombiniert.

OC Beispiel an unserem Testsample - höchste stabile Taktraten:

GTX 680 OC.jpg

Power Target: + 30 % auf 130 % (neue Grenze nun bei 253W)
VCore: auf 1,150V (mit maximalem Boost 1,175V)
GPU Clock Offset: + 177 MHz (-> default nun: 1183 MHz, maximaler Takt inkl. GPU Boost: 1280 MHz, also + 97 MHz)
Memory Offset: + 274 MHz (-> ~ + 138 MHz GDDR5 Realtakt -> 1638 MHz GDDR5 == 3278 MHz GDDR3)

Overclocking-Benchmarks mithilfe von EVGA PrecisionX 3.0.0 Beta 20:

Referenztakt bei den Benchmarks: 1006/1502 MHz (mit Boost zwischen 1058 und maximal 1110 MHz Coretakt)



Stabile Taktraten unseres Testsamples: 1280/1638 MHz (inkl. maximalen GPU Boost)

Unterschied der Taktraten in %:
Coretakt (default bis max. Boost per OC): + 27,2 % (Minimum + 17,6 % ausgehend von 1006 MHz + 177 MHz; ohne aktiven GPU-Boost)
VRAM-Takt: + 9,1 %


Fazit: Wie man sieht, steigt die Performance etwas an, aufgrund der schon recht hohen Basistaktraten, hält sich der Gewinn aber in Grenzen - hier wird sich zeigen, ob mit OC-Versionen und aufgewerteten PCBs sowie alternativen Kühlmethoden mehr drin ist :


Synthetische Benchmarks:

3dmark2.jpg
vs.
oc1.jpg

Performance: + 8,5 %


Game Benchmarks:

bf6.jpg
vs.
oc2.jpg

Performance: + 7,8 %

vs.
oc3.jpg

Performance: + 8,1 %

crysis2-6.jpg
vs.
oc4.jpg

Performance: + 8,2 %


Unterschied beim Lastverbrauch (gesamtes System):

mess2.jpg
vs.
oc5.jpg

Verbrauch: + 7,1 %

Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen
- so ist es möglich, dass die Verbrauchswerte von anderen Redaktionen unterschiedlich ausfallen, selbst wenn auch ein ähnliches LGA 2011 System verwendet wurde
.



testsystemgtx680lhjz0.png


HardwareLUXX - User-OC-Werte (nicht nur Furmark stable) in MHz - inkl. 3D Mark Vantage & 3D Mark 11 User-Liste



Beispielschema von OliverM84:

1200 GPU | 1502 Speicher | 1,150V | VID 1,100V | EVGA | WaKü/LuKü | Username


12xx GPU | 17xx Speicher | 1,150V | VID 1,100V | Gigabyte | LuKü | Hardware LUXX



3DMark Vantage - Performance (PhysX On)

Vantage Score | GPU Takt | Speicher Takt | GPU VCore | VID | Hersteller | WaKü oder LuKü | Username mit Link | Treiber


52791 | 1006 | 1502 | 1,150V | 1,087V + 1,125V | Zotac SLI | LuKü | Edgecrusher86 | 301.10 WHQL


3DMark Vantage - Performance (PhysX Off)

Vantage Score | GPU Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link | Treiber


41955 | 1121 | 1617 | 1,150V | 1,087V + 1,125V | Zotac SLI | LuKü | Edgecrusher86 | 301.10 WHQL
41008 | 1006 | 1502 | 1,150V | 1,087V + 1,125V | Zotac SLI | LuKü | Edgecrusher86 | 301.10 WHQL


3DMark Vantage - Extreme (PhysX On)

Vantage Score | GPU Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link | Treiber


1xxxx | 1200 | 1700 | 1,150V | 1,1xxV | MSI | LuKü | HardwareLUXX | 301.10 WHQL


3DMark Vantage - Extreme (PhysX Off)

Vantage Score | GPU Takt | Speicher Takt | GPU VCore | VID | Hersteller | WaKü oder LuKü | Username mit Link | Treiber


xxxxx | 1200 | 1700 | 1,150V | 1,1xxV | MSI | LuKü | HardwareLUXX | 301.10 WHQL


3DMark11 - Performance

3DMark11 Score | GPU Takt | Speicher Takt | GPU VCore | VID | Hersteller | WaKü oder LuKü | Username mit Link | Treiber


14967 | 1121 | 1617 | 1,150V | 1,087V + 1,125V | Zotac SLI | LuKü | Edgecrusher86 | 301.10 WHQL
14166 | 1006 | 1502 | 1,150V | 1,087V + 1,125V | Zotac SLI | LuKü | Edgecrusher86 | 301.10 WHQL
9682 | 1156 | 1627 | 1,150V | 1,087V | Zotac | LuKü | Edgecrusher86 | 301.10 WHQL
8847 | 1006 | 1502 | 1,150V | 1,087V | Zotac | LuKü | Edgecrusher86 | 301.10 WHQL


3DMark11 - Extreme

3DMark11 Score | GPU Takt | Speicher Takt | GPU VCore | VID | Hersteller | WaKü oder LuKü | Username mit Link | Treiber


6483 | 1121 | 1617 | 1,150V | 1,087V | Zotac SLI | LuKü | Edgecrusher86 | 301.10 WHQL
5924 | 1006 | 1502 | 1,150V | 1,087V | Zotac SLI | LuKü | Edgecrusher86 | 301.10 WHQL
3522 | 1156 | 1627 | 1,150V | 1,087V | Zotac | LuKü | Edgecrusher86 | 301.10 WHQL
3179 | 1006 | 1502 | 1,150V | 1,087V | Zotac | LuKü | Edgecrusher86 | 301.10 WHQL





Andere Kühllösungen



Karten im Referenzdesign:

Anscheined dürfte es etwas dauern, bis erste eigene Lösungen durch die Boardpartner zu erwarten sind, bis dahin kommen generell alle Karten ausschließlich im Referenzdesign.




Angekündigte Non-Referenz-Karten bzw. Karten mit Werks-OC:


Colorful iGame Kudan (xxxx/xxxx MHz, 3 x 80 (?) mm Axiallüfter (Triple Slot Kühler) + 10 Heatpipes, 8 Phasen + 4 per SO-DIMM, BIOS-Switch, Acryl-Farben(!), 8+8 Pin PCI-E)




EVGA GeForce GTX 680 FTW 4GB (xxxx/xxxx MHz, 4 GB)




EVGA GeForce GTX 680 FTW (xxxx/xxxx MHz)




EVGA GeForce GTX 680 Superclocked Signature 2 (1058/1552 MHz, 2 x 80 mm Axiallüfter, 5+2 Phasen, 8+6 Pin PCI-E)




Gainward GeForce GTX 680 Phantom 4GB (1084/1150/1575 MHz , 2 x 80 mm Axiallüfter und 5 Heatpipes, 2,5 Slot Phantom II Kühler, 4GB, 5+2 Phasen, 8+6 Pin PCI-E)




Gainward GeForce GTX 680 Phantom (1084/1150/1575 MHz , 2 x 80 mm Axiallüfter und 5 Heatpipes, 2,5 Slot Phantom II Kühler, 5+2 Phasen, 8+6 Pin PCI-E)




Galaxy/KFA² GeForce GTX 680 4GB (~ 1100/xxxx MHz, 2 x 90 mm Axiallüfter, 4 GB, 5+2 Phasen, 8+6 Pin PCI-E)




Galaxy/KFA² GeForce GTX 680 Hall of Fame Edition (xxxx/xxxx MHz, 3 x 90 mm Axiallüfter, xx Phasen, 8+8 Pin PCI-E - konventionelle Buchsen, weißes PCB)




Galaxy/KFA² GeForce GTX 680 Single Slot (xxxx/xxxx MHz, xx mm Radiallüfter, xx Phasen, Single-Slot Design)




Gigabyte GeForce GTX 680 OC Windforce X3 (GV-N680OC-2GD) (1071/1137/1502 MHz, 3 x 80mm Axiallüfter - Windforce X3-Kühler, 5+2 Phasen, 8+6 Pin PCI-E - konventionelle Buchsen)




Inno3D iChiLL Arctic Cooling GeForce GTX 680 (xxxx/xxxx MHz, ~75 mm Axiallüfter + 120 mm Axiallüfter und Radiator - Arctic Accelero Hybrid (Luft/Kühlmittel-Lösung ähnlich Asetek- oder Cool-IT CPU-Lösungen), 8+6 Pin PCI-E - konvetionelle Buchsen)



Guru3D Forum: schrieb:
The iChill GeForce GTX 680 features a pre-fitted water-cooling loop which consists of a GPU Core base plate and two individual tubes which would transfer the coolant through the reservoir pump which is cooled by a 120mm fan. The Cooler shroud also features a fan which cools down the Power and Memory Area. Display is provided through two DVI, HDMI, DisplayPort, the GPU would cover two expansion slots.

As far as performance goes, The cooler is said to drop temperatures down to 44 ℃ at load which is much better than the stock cooling design and at only 10% noise of air cooled models. Inno3D hasn’t yet detailed the frequencies but the core is expected to reach 1.2GHz. Pricing and launch date have not been detailed.


Inno3D GeForce GTX 680 TwinFan (xxxx/xxxx MHz, 2 x 90 mm (?) Axiallüfter)




MSI N680GTX Twin Frozr III/OC (1056/1108/1505 MHz, 2 x 80mm Axiallüfter, 3 x 6 mm + 2 x 8 mm Heatpipes, Twin Frozr III-Kühler (27 cm Kartenlänge))




Palit GeForce GTX 680 JetStream 4GB (1084/1150/1575 MHz , 3 Axiallüfter - 1 x 90 mm mit blauer LED & 2 x 80mm abgewinkelt, 2,5 Slot JetStream Lüfter, 5+2 Phasen, DrMos, 4GB, 8+6 Pin PCI-E)




Palit GeForce GTX 680 JetStream (1084/1150/1575 MHz , 3 Axiallüfter - 1 x 90 mm mit blauer LED & 2 x 80mm abgewinkelt, 2,5 Slot JetStream Lüfter, 5+2 Phasen, DrMos, 8+6 Pin PCI-E)




Zotac GeForce GTX Extreme Edition (1202/1502 MHz, 2 x 90 mm Axiallüfter mit bis zu 3500 U/Min.+ und 5 x 6 mm Heatpipes, ingesamt 12 Phasen (AIO Ferrit-Spulen), 3 FPCAP Kondensatoren sowie USB-OC+ Modul für Zotac Firestorm OC-Tool und verbreitertes PCB samt 8+6 Pin PCI-E, 1,212V default, mit LN2 DIP-Schalter und bis zu 1,500V VCore per OC+ (USB)! - Spannungsmesspunkte und Status LEDs, anscheinend leider nur für China geplant)



Chinesisches Video - Zotac GeForce GTX 680 Extreme Edition: (10:13 Min.)
Chinesisches Video Zotac GeForce GTX 680 Extreme Edition - OC auf 1,4 GHz Coretakt: (5:57 Min.)

1,5 GHz wäre kein Problem gewesen, sofern es die Kühlung mitgemacht hätte - bei 1,41 GHz @ 1,375V hatte der Kühler bei nicht unerheblicher Lautstärke schon 95 °C unter Last auf dem Buckel. :fresse:




Alternative Kühler (Luft):


Kompatible Kühler zum Referenzdesign (Liste nach Launch)

vgakhlerkompatibilittu1cxq.png


PCGH - Geforce GTX 680: Diese VGA-Kühler passen plus Test des Arctic Twin Turbo 2 und Thermalright Shaman


Arctic Accelero Twin Turbo II (2 Slot - Maße: 220 (L) x 125 (B) x 54 (H) mm - 2 x 92mm PWM Lüfter - 900 bis 2000 U/Min - 0,3 Sone - 5 x 6 mm Heatpipes) - kompatibel zum Referenzdesign! Preis: ab ~ 31€



Links:
Hardwareluxx - User-Review Arctic Twin Turbo II auf Gigabyte GeForce GTX 680 (Referenzdesign) (THX @ derredbaron)
Hauptseite
Download - PDF Spezifikationen
Download - PDF Handbuch (Sprachenauswahl)
Download - PDF Maße und Bauhöhen

Arctic Accelero Twin Turbo 2 auf GeForce GTX 680 (THX @ Naennon):



http://www.hardwareluxx.de/communit...erste-seite-lesen-880765-38.html#post18660287


Arctic Accelero Xtreme III (3 Slot - Maße: 288 (L) x 104 (B) x 54 (H) mm - 3 x 92mm PWM Lüfter - 900 bis 2000 U/Min - 0,5 Sone - 5 x 6 mm Heatpipes) - aufgrund der PCI-E Buchse im Tower-Design ist das GTX 680 Referenzdesign inkompatibel - somit bedarf es einer Non-Referenzkarte! Preis: ab ~ 58€



Links:
Hardwareluxx - Test des Arctic Accelero Xtreme III anhand der Gigabyte GeForce GTX 670 OC (identisches PCB wie GTX 680 OC)
KitGuru - Review Arctic Accelero Xtreme III @ ASUS GeForce GTX 680 DirectCUII
Hauptseite
Download - PDF Spezifikationen
Download - PDF Handbuch (Sprachenauswahl)


Liste der zum Arctic Accelero Xtreme III kompatiblen, hierzulande lieferbaren Karten (mit klassischen PCI-E Buchsen - ohne Tower-Design)

Karten ohne Backplate

Gigabyte GeForce GTX 680 OC (GV-N680OC-2GD)
Inno3D iChill GeForce GTX 680 Herculez 3000
Inno3D iChill GeForce GTX 680 Herculez 3000 (4GB)
KFA² GeForce GTX 680 EX OC
KFA² GeForce GTX 680 EX OC (4GB)
KFA² GeForce GTX 680 LTD OC V2

Karten mit Backplate (evtl. weitere Umbaumaßnahmen - Schrauben <-> Abstandshalter - notwendig, sofern die Backplate weiterhin verwendet werden soll)

ASUS GTX680-DC2-2GD5 (DirectCUII)
ASUS GTX680-DC2O-2GD5 (DirectCUII OC)
ASUS GTX680-DC2T-2GD5 (DirectCUII TOP)
EVGA GeForce GTX 680 Classified (4GB)
Gigabyte GeForce GTX 680 Super Overclock (SOC)
MSI N680GTX Lightning
Point of View GeForce GTX 680 Exo
Point of View GeForce GTX 680 Exo (4GB)
Point of View GeForce GTX 680 TGT Charged Triple Fan + TGT Backplate
Point of View GeForce GTX 680 TGT Charged Triple Fan + TGT Backplat (4GB)
Point of View GeForce GTX 680 TGT Ultra Charged + TGT Backplate
Point of View GeForce GTX 680 TGT Ultra Charged Low Leakage Selection (LLS) + TGT Backplate (4GB)


Arctic Accelero Hybrid (2 Slot - Maße: Grafikkarten-Modul: 243 (L) x 112 (B) x 44.2 (H) mm - Maße: Radiator und Lüfter: 150 (L) x 120 (B) x 52.8 (H) mm - GPU-only-Flüssigkeitskühlung inkl. Pumpe, 120mm Radiator und F12 PWM Lüfter (400 bis 1350 U/Min) + 80 mm Lüfter (900 - 2000 U/Min) für Spannungswandler und VRAM - max. 0,4 Sone (2000 U/Min + Pumpe)) - anders als Accelero Xtreme III kompatibel zum GTX 680 Referenzdesign (siehe Thumbnail & Review-Link)! Preis: ab ~ 106€



Links:
Review - KitGuru - Arctic Accelero Hybrid auf Palit GeForce GTX 680 (Referenzdesign)
Hauptseite
Download - PDF Spezifikationen
Download - PDF Handbuch (Sprachenauswahl)







Erhältliche WaKü-Blocks für die GTX 680 & weitere Infos:


Aquacomputer aquagrafx GTX 680 (gelistet für 93,99€ bei Aquatuning)



Montage-Video: http://www.youtube.com/watch?v=iZyT8fKW0L0&feature=player_embedded

http://forum.aquacomputer.de/wasser...d-aquagratix-hd-7950-mit-3d-flow-technologie/


Bei Aquacomputer für 94,90€ lieferbar.
Ebenso gibt es eine schwarze Backplate für 29,90€.







EK Water Blocks EK-FC680 GTX (Kupfer + Plexiglas, Kupfer + Acetal, Acetal + Nickel (vern. Kupfer) sowie Nickel (vern. Kupfer) + Plexiglas geplant - zwischen 83,99 € bis 93,99€ gelistet)



Installationsanleitung: http://www.ekwaterblocks.com/shop/EK-IM/EK-IM-3831109856321.pdf

Der EK-FC680 GTX (Plexiglas + Kupfer) und der EK-FC680 GTX Acetal (Kupfer + Acetal) sind für jeweils 84,95€ im EK-Shop schon als lieferbar gelistet!
Das komplette Lineup wird laut Aquatuning für den 05.04. erwartet.


http://www.ekwaterblocks.com/shop/blocks/vga-blocks/fc-geforce/geforce-gtx-6x0-series.html




EVGA Waterblock GTX 680 Hydro Copper (Swiftech 400-CU-G680-B1) - gelistet für 159,99$ im EVGA Shop



Installationsanleitung: http://www.evga.com/products/pdf/400-CU-G680-B1.pdf

Link EVGA Shop (159,99$)




Karten mit WaKü-Blocks ab Werk:


EVGA GeForce GTX 680 Hydro Copper Classified (xxxx/xxxx MHz, Swiftech 400-CU-G680-B1 WaKü-Block)




EVGA GeForce GTX 680 Hydro Copper (xxxx/xxxx MHz, Swiftech 400-CU-G680-B1 WaKü-Block)




Point of View TGT GeForce GTX 680 Beast (xxxx/xxxx MHz, Aquacomputer aquagrafx GTX 680 WaKü-Block)






Das Layout der Karte:



Ein Vergleich zwischen der GeForce GTX 680 PCB- gegenüber der GeForce GTX 580 PCB-Rückseite


Alle weiteren Infos zu den WaKü-Lösungen findet ihr hier (THX @ Guapa):


GeForce GTX 680 WaKü-Sammelthread





Allgemeiner Hinweis



Dies ist ein Sammelthread für die GeForce GTX 680, das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen. Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (etwa HD 7000 und GTX 500) angemessen.

Was allerdings nicht hier rein gehört:

Offtopic Beiträge (beispielsweise eine Technikdiskussion über die Architektur des R1000 a la HD 79x0), Gespamme oder "Privatkriege -> NV vs. AMD".

Es ist nur im Interesse des Forums, dass es hier gesittet abläuft.

Bei Postings, die zu sehr OT sind oder etwa nur reine Provokation, am Besten gar nicht darauf eingehen, sondern durch Benutzen des "Beitrag melden-Buttons" (
report.gif
) die Moderatoren/-innen die Angelenheit regeln lassen.

Sollte es zu mehrmaligem Verstoß gegen die Regeln kommen, so können auffällige User eine Auszeit von diesem Thread erhalten.



Gruß
Edge
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@fdsonne
2800er auflösungen gingen bei mir schon immer - nur sehe ich darin keinen sinn. die treiber sind auf 0815-auflösungen wie 1920x1080, 1920x1200, 2560x1440 und 2560x1600 pixel optimiert. diese krummen dinger auflösungen fühlen sich auch krumm an. schätze mal, da verhungern die kleinen keplers am SI und nicht an der RAM-menge.

Ne Gefore 2 Ultra war für 1500DM aber damals auch nicht angemessen^^

darum hab ich auch nach der GTS nur ne "pro" gekauft und ihr einen komischen kühler draufgeklebt. die gabs für 800, wenn ich mich nicht irre.. ist lange her.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Ne ne die GTX690 macht das um Welten besser, ich denke das liegt an dem verbauten PLX PCIe-Switch.

vermutet hab ich das auch.im cb artikel wird aber allgemein drauf hingewiesen,das nv was an der 600er diesbzgl. geändert hat.ob nun an der gpu o. an der bridge?
cb stellt es zumindest in aussicht,das da noch was bzgl. sli mr per treiber nachgeschoben wird.


jepp,preise sind wirklich unverschämt geblieben,selbst für die 670...
 
Ist wenn überhaupt beides wo bei ich es ehr dem Ram zu schreibe wenn man sich die Benchmarks in hohen Auflösungen an sieht wo der Ram bedarf unter 2 GB liegt hält NV sehr gut mit.

Beispiel bei 2GB reicht das SI heisst aber nicht das wenn man 2150 mb bräuchte das das SI Kapitulieret die 4GB sind so oder so overkill .
Ein SLI ist aber sehr gut in der Lagge flüssige Bildraten bis ca.2300MB zu liefern ohne einschnitte durch das SI hin nehmen zu müssen da rüber hinaus reichen 2 Karten meist nicht mehr aus zum flüssigen Spielen da wird eine 3 fällig.
Und genau da ist der knack Punkt.
Von der GTX580 gab es ja eine 3GB Version die mit einer Speicherbandbreite von 192.384 MB/s bei einem 384 SI auf wartet.
Wieso sollte das SI dann bei einer GTX680 mit einer Speicherbandbreite von 192.256 MB/s so stark bremsen vor allem wenn man nie mehr als an die 2300 MB nutzen wird .
Kann das recht gut beurteilen da ich solche setings auf 2 Extrem übertaktetn 7970ern gefahren habe und dort mal auf 230.00MB/s den Speicher herunter getaktet habe.
 
Die GTX580 konnte aber mit den 3GB Ram weniger anfangen, da der Karte einfach die Textureinheiten gefehle haben dafür.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
bei 20-30€ unterschied würden wir uns da gar nicht drüber unterhalten,weil wir alle 4gb hätten.

ich geh davon das 3-4gb erst ab 250--260 gb/s wirklich sinn machen.

wenn man der 600er 1750 ramtakt verpassen kann hat man ~225 gb/s u. sollte gut mit 2gb im sli harmonieren.

ich hab auch immer noch 600 vs 580 bandbreite im kopf.die 580 war ja lange zeit da führend.

im sli/cf scalierungsthread hatte jemand mal gesagt,das 1600 mhz schon ausreichen um scalierungsprobleme zu umschiffen.

warst du das nicht?


aber wir können ja nie genug von höher,weiter u. breiter bekommen.:p
 
Zuletzt bearbeitet:
ich geh davon das 3-4gb erst ab 250--260 gb/s wirklich sinn machen.
Darum meinte ich ja mehr wie 2300MB-2400MB wird für ein SLI und CF von FPS so oder so Haarig von da her geht das SI noch in Ordnung da man eh nicht mehr Ram reinladen sollte um noch flüssig zu Spielen.
2500MB hätten Dicke gelangt wo bei das ja bei 256Bit nicht drin ist.
 
Zuletzt bearbeitet:
@fdsonne
2800er auflösungen gingen bei mir schon immer - nur sehe ich darin keinen sinn. die treiber sind auf 0815-auflösungen wie 1920x1080, 1920x1200, 2560x1440 und 2560x1600 pixel optimiert. diese krummen dinger auflösungen fühlen sich auch krumm an. schätze mal, da verhungern die kleinen keplers am SI und nicht an der RAM-menge.

Was willst du da optimieren? Und vor allem, was ist bei dir Krum?
Es gibt da eigentlich nix Krummes, denn im Grunde skaliert das ganze nach der Anzahl der Bildpunkte. Ob du nun 4:3, 5:4, 16/9/10, Surround-Auflösungen oder weis der Teufel was fährst, spielt keine Rolle. Vor allem, wenn man beim Downsampling sowohl die horizontale als auch die vertikale Auflösung gleich skaliert, gibts da absolut keine Chance irgendwo "Optimierungen" einzubüßen. Wie auch? Es ist und bleibt einfach (im Fall von FullHD Basis) eine 16:9 Auflösung, mit eben ein paar Bildpunkten mehr...

Wenn man so will müsste 2560x1440 (was du ja als optimiert siehst) genau so "krum" sein. Denn es wäre 1,333... mal mehr wie FullHD an beiden Achsen.
Ich würde fast jede Wette eingehen, das sich dort skalierungstechnisch absolut gar nix verändert.
Oder noch ein Beispiel, nimm als Basis 1280x720, Downsampling auf 1,5 ergibt 1920x1080 ;) Wäre dementsprechend auch "Krum"

darum hab ich auch nach der GTS nur ne "pro" gekauft und ihr einen komischen kühler draufgeklebt. die gabs für 800, wenn ich mich nicht irre.. ist lange her.

Die Ultra war mir damals auch zu teuer, ich hab aber noch zwei Geforce 2 GTSen im Schrank, eine davon macht sogar die Ultra Taktraten stabil. Und hat mich nur (Jan. 2001) 449,99 DM gekost :fresse:

Beispiel bei 2GB reicht das SI heisst aber nicht das wenn man 2150 mb bräuchte das das SI Kapitulieret die 4GB sind so oder so overkill .
Ein SLI ist aber sehr gut in der Lagge flüssige Bildraten bis ca.2300MB zu liefern ohne einschnitte durch das SI hin nehmen zu müssen da rüber hinaus reichen 2 Karten meist nicht mehr aus zum flüssigen Spielen da wird eine 3 fällig.
Und genau da ist der knack Punkt.

Eigentlich gibt es keine nennenswerte Abhängigkeit zwischen Speichergröße und Speicherbandbreite. Das Problem ist, der Speed der Karte hängt massiv von den Anwendungen ab, und es läuft quasi analog zum RAM des PCs. Ist der Punkt erreicht, wo die Speichermenge nicht mehr ausreichend ist, so bringt dir mehr (V)RAM, der langsam angebunden ist immernoch massivst viel mehr Speed als schneller (V)RAM, der aber zu klein ist. Denn es limitiert schlussendlich der PCIe Port den Durchsatz und nicht das SI.
Wäre der PCIe Port so schnell, das man dort in Größenordnungen 150-200GB/sec Daten durchbekäme, würde sich zu kleiner VRAM nahezu gar nicht auf den Gamespeed auswirken! Natürlich nur unter der Voraussetzung, das der RAM ebenso die Datenmenge bringen würde -> sollte logisch sein ;)

Der Speicherspeed pro Speichermenge halbiert sich also zwischen 2 und 4GB bei gleichem SI und gleichem VRAM Takt. Und genau an dem Punkt, wo der doppelte VRAM von nöten ist, weil belegbar ist, rückt der Speicherspeed immer mehr in den Hintergrund, da der Speed eben immernoch ausreichend ist.


Ich hatte damals meine GTX 465 freigeschaltet zur 470er, aber diese hat den Speichertakt der 470er nicht mitgemacht, daher den Speichertakt runter und das lief auch. Schlussendlich habe ich ca. 28% Speicherbandbreite eingebüßt, was unterm Strich im Schnitt nichtmal 5% Leistungsverlust ausgemacht hat. (bei um die 100GB/s)
Mit OC meiner Karten lag ich aber im Schnitt immernoch auf GTX 480 Niveau und das bei fast 70% weniger Bandbreite als diese hat... ;)
Die 680er hat fast 200GB/s Bandbreite (fast doppelt so viel). Ich wüsste nicht, was es dort für Schwierigkeiten geben sollte. Auch nach Messungen skaliert der Speichertakt alles andere als gut mit dem FPS Gewinn ;)
Die 680er hat fast das doppelte an Bandbreite

Die GTX580 konnte aber mit den 3GB Ram weniger anfangen, da der Karte einfach die Textureinheiten gefehle haben dafür.

Das musst du mal erklären!?
Was haben die TMUs damit zu tun? Außer das dort das Teilwörtchen "Textur" im Namen mit vorkommt!?

bei 20-30€ unterschied würden wir uns da gar nicht drüber unterhalten,weil wir alle 4gb hätten.

ich geh davon das 3-4gb erst ab 250--260 gb/s wirklich sinn machen.

wenn man der 600er 1750 ramtakt verpassen kann hat man ~225 gb/s u. sollte gut mit 2gb im sli harmonieren.

Wie gesagt, die Speichermenge ist nicht ausschlaggebend in Verbindung zur Bandbreite. Denn genau ab dem Punkt, wo der 2GB VRAM zu klein wird, ist (vereinfacht gesagt) alles was Bandbreitentechnisch größer des PCIe Busspeeds ist sowieso verschenkte Bandbreite, weil die Daten durch den PCIe Busspeed gebremst werden.

Klar ist es so, das womöglich doppelte Bandbreite bei doppelter Speichermenge nochmal etwas mehr Speed bringen würde, aber das ist bestenfalls messbar, keinesfalls spürbar.

ist gddr5 ram so teurer?nein,4gb gabs vorher nicht u. die lassen sichs deshalb gut bezahlen.

Der Preis sollte keinesfalls unterschätzt werden. Schließlich sprechen wir hier von HighClock RAM mit doppelter Speichergröße pro Einheit wie die 2GB Defaultkarte hat.
Das gabs bis dato (Vorgänger von Kepler) nur bei den Quadros (Fermi Basis mit 384Bit SI und 6GB)
Und Kepler setzt schlappe 50% mehr Takt an den Speicher als Fermi es tat ;)
Die Quadro/Tesla Karten auf Fermi Basis sind dazu noch konservativer als die Gamerkarten getaktet bei der Speichermenge...

Allein weil es vorher keine 4GB gab, ist der Preis definitiv nicht geschuldet. Wobei man aber sagen muss, mit dem GK104 und dessen Preis hat NV wohl deutlich mehr Luft in Sachen Gewinn wie noch mit vorherigen Top GPUs...
 
Zuletzt bearbeitet:
@fdsonne

ist dir entgangen, dass die gk104 eine performancekarte ist? die reicht für das, was verbreitet ist. verbreitet sind die auflösungen, die ich weiter oben aufgezählt habe. wenn du wie'n bekloppter übersampeln willst, musst du auf eine karte mit breiterem SI warten oder weiter auf einen wundertreiber hoffen, der dir 2x 1920 erlaubt. ein speichercontroller erlaubt generell immer optimierungen über den treiber | speicherverwaltung ist nicht fix..

ich halte von DS nicht mehr viel - mir reicht schon, dass ich aufm desktop mit DS nix mehr anständig erkennen kann. wenn ich ne selbstbeweihräucherung brauche, um zu sehen wie toll meine hardware dieses und jenes wuppt, schalte ich den 3D-modus ein, werfe das bild an die wand und setze meinem publikum shutterbrillen auf.

die doppelte speicherbestückung - ich wiederhole mich - hat für das gros der paar GTX680-käufer den nachteil, dass der kartenpreis steigt und dass die karten mehr leistung aufnehmen und zwar komplett ohne, dass man einen direkten nutzen daraus zieht. : es gibt nichtmal wirklich spieltaugliche, schnelle bildschirme für die auflösungen (nativ), die ihr hier immer einige downsampeln wollen..


(..)

mfg
tobi
 
Zuletzt bearbeitet:
@fdsonne

ist dir entgangen, dass die gk104 eine performancekarte ist? die reicht für das, was verbreitet ist. verbreitet sind die auflösungen, die ich weiter oben aufgezählt habe. wenn du wie'n bekloppter übersampeln willst, musst du auf eine karte mit breiterem SI warten oder weiter auf einen wundertreiber hoffen, der dir 2x 1920 erlaubt. ein speichercontroller erlaubt generell immer optimierungen über den treiber | speicherverwaltung ist nicht fix..

ich halte von DS nicht mehr viel - mir reicht schon, dass ich aufm desktop mit DS nix mehr anständig erkennen kann.

Ist doch völlig egal, ob Performancekarte oder nicht. Fakt ist, es ist aktuell der Top Chip am Markt. Ob das Teil sich nun Performance, HighEnd oder Krümelmonster schimpft, spielt absolut keine Rolle. Und klar gibts Optimierungen am Speichercontroller, dennoch macht es keinen Unterschied ob du nun Downsampling fährst oder nicht. Denn die Optimierung greift eben am Speichercontroller und nicht bei der eingestellten Auflösung. Und wie gesagt, Beispiel 1280x720, das ganze mal 1,5 und du hast FullHD. Warum sollte also 1,5x1,5er Downsampling bei 1280x720 weniger gut laufen als native FullHD? Das musst du mir erklären. Es gibt schlicht und einfach keinen technischen Hintergrund, mit dem man das erklären könnte. ;)

Noch dazu habe ich nichmal gesagt, das ich "wie'n bekloppter übersampeln will" :rolleyes:
Sondern das es technisch keinen Grund gibt, warum aktiviertes Downsampling schlechter laufen sollte als das Spielen in der nativen Monitorauflösung. Unterm Strich hängt es schlicht daran, wie gut die Karte mit der eingestellten Auflösung skaliert. Ob die Auflösung nun durch Downsampling, durch riesige Monitore oder durch Surround Setups erreicht wird, ist völlig uninteressant.

es gibt nichtmal wirklich spieltaugliche, schnelle bildschirme für die auflösungen (nativ), die ihr hier immer downsampeln wollt.

Was hat das eine mit dem anderen zu tun?
Der Sinn des Downsamplings ist es nunmal, mehr Bildpunkte zu berechnen als native aufs Bild passen und diese dann wieder runter skalieren zu lassen. Was optimalerweise das Anzeigegerät macht.
3840x2160 als native Auflösung (2x2 bei FullHD) würde der "Treppenbildung" absolut Null entgegen wirken.
 
Ein Wechsel von einem GTX680 SLI 2GB zu einem 4GB SLI brachte im Idle eine Erhöhung von 20 Watt.
In BF3 stieg der Verbrauch von 550 Watt auf 570 Watt, also auch 20 Watt.

Gemessen mit Voltcraft Energy Logger 4000.
 
Zuletzt bearbeitet:
Ein Wechsel von einem GTX680 SLI 2GB zu einem 4GB SLI brachte im Idle eine Erhöhung von 20 Watt.
In BF3 stieg der Verbrauch von 550 Watt auf 570 Watt, also auch 20 Watt.

Gemessen mit Voltcraft Energy Logger 4000.

im netz wirst du SLi tests finden, wo der unterschied höher liegt. als ich mein SLi zusammengesteckt habe, habe ich 60W mehr gelesen.

ich hatte mit den beiden 2GiB karten 600W peakwerte wenn ich mit einem 625W enermax messe und 640W peak wenn ich ein 850W bequiet verwende.

Ist doch völlig egal, ob Performancekarte oder nicht. Fakt ist, es ist aktuell der Top Chip am Markt. Ob das Teil sich nun Performance, HighEnd oder Krümelmonster schimpft, spielt absolut keine Rolle. Und klar gibts Optimierungen am Speichercontroller, dennoch macht es keinen Unterschied ob du nun Downsampling fährst oder nicht. Denn die Optimierung greift eben am Speichercontroller und nicht bei der eingestellten Auflösung. Und wie gesagt, Beispiel 1280x720, das ganze mal 1,5 und du hast FullHD. Warum sollte also 1,5x1,5er Downsampling bei 1280x720 weniger gut laufen als native FullHD? Das musst du mir erklären. Es gibt schlicht und einfach keinen technischen Hintergrund, mit dem man das erklären könnte. ;)

gott - stehst du auf der leitung heute? die treiber sind auf das optimiert, was die user zuhause stehen haben und nutzen wollen. das sind HD-bildschirme mit FHD auflösung oder kleiner mit und ohne 3D support. mancheiner hat derer 2 oder 3 und darauf sind die treiberteams angesetzt. DS und absurde auflösungen kommen gaaaaanz weit hinten auf der to-do-liste.

btw,
einfach mal die releasenotes lesen.. bis zu xy% mehrleistung in spiel z bei auflösung h * v.

so, und jetzt packe ich frau, hund und eipäd und fahre an den see -> FEIERABEND!!! scheiss langer dienstag bei 345384°C.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
die 560 Watt liegen bei mir an mit dem 680er 2GB SLI.
CPU @ 4,5gig
GPUs laufen Standard (max Takt 1136 bei 1,175)

Idle zieht der Rechner 220-250W je nachdem was im Hintergrund läuft.

3DM11 Xtreme 520-560W (Ladesequenzen 320-330W)

3DM Vantage Xtreme 411-560W (Ladesequenzen 310-320W)

Unigine Heaven mit Tesselation auf Extreme mit 16xAF und 8xAA 550-560W

Prime95 Customtest mit FFTs in Place 390W

Furmark habe ich nicht getestet weil der Bench Schwachsinn ist.

Ich will endlich meine 3. ... wenn man nicht immer seiner Kohle hinterher rennen müsste :hwluxx:
 
Zuletzt bearbeitet:
das das so wenig ist hätte ich jetzt nicht gedacht:PCI Express
da sollen die mal sofort pcie20 bringen...

fdsonne,aber ich find deine sichtweisen schon manchmal lustig.

was zwischen gpu u. vram hin u. her wandert ist sicherlich berrechnungen geschuldet u. entspricht nicht dem was zwischen grafikkarte per pcie u. cpu hin u. her wandert.sonst würd sich schnellerer vram 0 auszahlen,wenns an den pcie bus gekoppelt ist u. wir würden alle mit ddr2 800er ram noch hier rumgurken.

2 vs 4gb ram ist nicht halb so schnell, wie du sagst.zeig mir mal einen test wo das bei 2vs 4gb bewiesen wird?

durch den mehr an verwaltungsaufwand sind mehr vram sicherlich nen paar prozent je nach game langsamer,oft real aber gleich schnell.

bischen langsamer, bitte...

edit:
bzgl. der override ssaa diskussion, die wir letztens hatten steht hier nochmal was anderes:
http://www.3dcenter.org/artikel/rep...ktool/profileditor-supersampling-antialiasing
 
Zuletzt bearbeitet:
gott - stehst du auf der leitung heute? die treiber sind auf das optimiert, was die user zuhause stehen haben und nutzen wollen. das sind HD-bildschirme mit FHD auflösung oder kleiner mit und ohne 3D support. mancheiner hat derer 2 oder 3 und darauf sind die treiberteams angesetzt. DS und absurde auflösungen kommen gaaaaanz weit hinten auf der to-do-liste.

btw,
einfach mal die releasenotes lesen.. bis zu xy% mehrleistung in spiel z bei auflösung h * v.

Ich steh nicht auf der Leitung, deine Argumentation ist schlicht einfach quatsch... Mir ist vollkommen bewusst, das hier und dort ein paar Optimierungen drin sind. Das ändert aber am besagten nix. Wenn du mix DS nix anfangen kannst, ist das schön und gut, deine Behauptungen von oben, von wegen, krumm und nicht optimiert usw. treffen vllt in 0,5% aller Problemfälle zu, der breiten Masse ist es aber vollkommen wurscht, ob die Auflösung schief ist oder weis der Teufel. :rolleyes:

Noch dazu, Downsampling kommt gar nicht auf der ToDo Liste, zumindest aktuell nciht, denn es wird nicht native unterstüzt. Man missbraucht als User nur eine Möglichkeit, eine benutzerdefinierte Auflösung zu fahren und diese vom Treiber und/oder vom Monitor selbst skalieren zu lassen. Der eigentliche Sinn dahinter ist ein ganz anderer, das sollte dir aber denke ich bewusst sein ;)
Das man dieses Verfahren nutzen kann, um mehr Auflösung dem Spiel vorzugaukeln, als der Monitor schafft, ist eher ein Abfallprodukt des ganzen.

Übrigens, noch ein Hinweis. Surroundgaming mit 3xFullHD TFTs sind knappe 1,3 mal mehr Bildpunkte als besagtes 1,5x1,5er Downsampling. Prüf es selbst nach, das skaliert ziemlich 1:1 mti der Auflösung mit...

Zum Releasenotes, bis zu xy% in Spiel z ist klar. Den Rest habe ich so bis dato nicht gesehen bzw. nicht drauf geachtet. Schick mal nen Link zu nem Changelog!

fdsonne,aber ich find deine sichtweisen schon manchmal lustig.

was zwischen gpu u. vram hin u. her wandert ist sicherlich berrechnungen geschuldet u. entspricht nicht dem was zwischen grafikkarte per pcie u. cpu hin u. her wandert.sonst würd sich schnellerer vram 0 auszahlen,wenns an den pcie bus gekoppelt ist u. wir würden alle mit ddr2 800er ram noch hier rumgurken.

2 vs 4gb ram ist nicht halb so schnell, wie du sagst.zeig mir mal einen test wo das bei 2vs 4gb bewiesen wird?

durch den mehr an verwaltungsaufwand sind mehr vram sicherlich nen paar prozent je nach game langsamer,oft real aber gleich schnell.

bischen langsamer, bitte...

Ähm, du verstehst den Zusammenhang nicht.

Erstens, ich habe nie behauptet, 2 vs. 4GB RAM ist halb so schnell. Ich sagte "Der Speicherspeed pro Speichermenge halbiert sich also zwischen 2 und 4GB bei gleichem SI und gleichem VRAM Takt"
Das heist erklärt an einem Beispiel: bei 2GB VRAM und 200GB/sec Speicherbandbreite braucht es genau 10ms Zeit, bis der 2GB VRAM voll ist. Sind es nun 4GB VRAM bei gleichbleibenden 200GB/sec dauert es doppelt so lange bis der VRAM voll ist.
Oder umgedreht, in der gleichen Zeit bekommst du nur die halbe Menge des Speichers voll.
Das impliziert aber in keinster Weise eine Abhängigkeit des SI (und somit der Bandbreite) in Verbindung mit der VRAM Menge...

Und weiter...
Da du oben was von wegen ab 250GB/sec Bandbreite lohnen sich 3-4GB Speicher erst bzw. gehen sich aus, geschrieben hast, zeigt dir mein Beispiel genau den Punkt, das es eben nicht stimmt.

Und der andere Part, mir ist vollkommen bewusst, das zwischen GPU und VRAM Kommunikation stattfindet, als über den PCIe Bus, dennoch ist es Fakt, das bei übervollem VRAM ausgelagert wird, und der Auslagerungspart des VRAMs ist der normale RAM des PCs. Welcher nur über den PCIe Bus angesprochen werden kann.
Das heist, ist der VRAM einer Karte zu klein, ist es vollkommen wurscht, wie viel Speicherbandbreite der VRAM macht, da für die Kommunikation der Daten zwischen GPU und VRAM + RAM eben der PCIe Slot der Flaschenhals ist. Erhöht man hingegen die VRAM Menge bei gleicher Bandbreite, büßt man vllt minimal speed im Allgemeinen ein, fährt damit aber hundert mal besser als die Daten im RAM auszulagern.
Wie sich dieses Verhalten bemerkbar macht, zeigen genügend Benches im absoluten VRAM Limit
 
schön, dass PCIe nichtmal ein bus ist.. *händeübermkopfzusammenschlägt* bitte kauft endlich meine karte, damit ich hier nicht mehr mitlesen muss :-)

@fdsonne
WAS möchtest du eigentlich sagen? du nimmst hier bruttowerte und wikipedia-formeln um irgendwas auszurechnen. berücksichtige: 64bit heisst nicht, dass du auch 64 datenleitungen hast. und diese diskrepanzen führen dazu, dass praktische ergebnisse nicht zu theoretischen rechnungen passen. dazu kommen noch latenzen durch rechenzeiten und die kluft wird größer. die breite eines SI ist das pendant zum hubraum beim auto. weiss nicht wie ich dir sonst irgendwas begreiflich machen könnte.

dein gpu-seitiges DS ist ebenfalls rechenaufwand, eben weil eine geforce keine der gpu nachgeschalteten hardware-scaler hat; sie ist selbst der scaler. freilich kann man sich den skalierungskünsten seines endgeräts ausliefern - geräten mit farudja-scalern würde ich das sogar anvertrauen - aber bei 0815-geräten wird das zusammenmatschen von vier pixeln zu einem nicht brauchbarer. gott.. ich hab mich vor 15 jahren über leute totgelacht, die ihre CRTs respektive deren lochmaske mit absurden grenzwertauflösungen überfahren haben.

das ist für schwachsinnige mit zuviel zeit oder die gern mit ihrer hardware an eine wand fahren. ich hatte NIE den eindruck, dass selbstbastelauflösung so sauber liefen wie "passende" und hübsch ist eh was anderes. da weder NVidia, noch die monitorhersteller irgendwas offenlegen, das man bei manuellem anlegen von benutzerdefinierten auflösungen einstellen kann, bezweifle ich, dass irgendwer weiss, was er da tut. trial and error und wir nehmen das, was noch irgendwie ein bild anzeigt ohne out-of-range zu melden.. welch ein käse! drück 16xAF rein und zermatsch das bild im anschluss.. wenn das nicht sinnlose grafikrechnerei ist weiss ich auch nicht.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
@TobiWahnKenobi
Woher wusste ich das du jetzt auf dem Wort Bus rumreitest, anstatt dich mit der Sachlage zu beschäftigen... :rolleyes: Aber neja, mir solls wurscht sein, technisch nicht begründbare Halbweisheiten ohne jeglichen Nachweis findet man nichtmal bei Wikipedia ;)

PS: zum Thema Skalierung, du bist auch damit meilenweit am Thema vorbei. Es interessiert nicht die Bohne wie gut oder schlecht das Endgerät das Skalieren der hohen auf die native Auflösung beherscht, da es schlicht und einfach absolut mit dem benannten Thema nichts gemein hat.
Noch dazu, ich sehe bei mir kein Matsch auf dem Bild, aber das wirst du sowieso nicht glauben ;)
Aber spiel halt mit deinen hübsch anzusehenden Kanten im Bild.
 
Ich sagte "Der Speicherspeed pro Speichermenge halbiert sich also zwischen 2 und 4GB bei gleichem SI und gleichem VRAM Takt"

etwas unglücklich ausgedrückt.das ist aber irgendwie ne aussage ohne bedeutung.die bandbreite u. der gefüllte speicher bleibt ja gleich.am ende limitiert nur der ram wenn mehr benötigt wird.das ist halt nen zwischenszenario.


Das impliziert aber in keinster Weise eine Abhängigkeit des SI (und somit der Bandbreite) in Verbindung mit der VRAM Menge...

bsp. 256bit vs 384bit=150% bei beiden jeweils 6000er ram

194gb/s vs 291 gb/s=150%

2 vs 3gb =150%

das ist zum einen der techisch optimalen vollen anbindung geschuldet u. zum anderen am bedarf der momentanen spiele bzw auflösung orientiert.momentan wird 3gb als optimal empfohlen um sicher nicht ins vramlimit zu laufen.

ich hab sicherlich in meiner aussage nur grob geschätzt.so wärs richtig.meine aussage bezog sich eher auf optimal angebundenen ram um eben optimalen vorteil raus ziehen zu können.

das nun si unterschiede nicht 1:1 in leistung auf dem bildschirm ankommt wissen wir alle.

wenn nun angenommen bigk mit 512bit u. 4gb kommt ists nen weiter schritt für optimale anbindung .wäre rein von benötigter bandbreite u. speicher aber etwas seiner zeit vorraus bei fullhd.

wird eigentlich nen kleiner teil wie bei win immer ausgelagert?wahrscheinlich.
 
Zuletzt bearbeitet:
Ich sagte "Der Speicherspeed pro Speichermenge halbiert sich also zwischen 2 und 4GB bei gleichem SI und gleichem VRAM Takt"

etwas unglücklich ausgedrückt.das ist aber irgendwie ne aussage ohne bedeutung.die bandbreite u. der gefüllte speicher bleibt ja gleich.am ende limitiert nur der ram wenn mehr benötigt wird.das ist halt nen zwischenszenario.

Wieso ohne Bedeutung?
Es zeigt dir, das selbst bei halbierung des besagten Verhältnisses keine nennenswerten Einschnitte zu verbuchen sind. Ich hab mit dem Thema nicht angefangen, das wart ihr (Tobi und du)



bsp. 256bit vs 384bit=150% bei beiden jeweils 6000er ram

194gb/s vs 291 gb/s=150%

2 vs 3gb =150%

das ist zum einen der techisch optimalen vollen anbindung geschuldet u. zum anderen am bedarf der momentanen spiele bzw auflösung orientiert.momentan wird 3gb als optimal empfohlen um sicher nicht ins vramlimit zu laufen.

Und was sagt die Rechnung am Ende?
Nichts was nicht bekannt wäre... Es ist irgendwie logisch, das bei erhöhung der Werte um 50% am Ende auch 50% mehr bei rum kommen... Oder worauf willst du hinaus?
Hättest du nun aber nur GDDR3 RAM hättest du nur die hälfte der Bandbreite. Und auf "wundersamer Weise" ;) wäre die Rechnung exakt immernoch die gleiche mit dem gleichen Ergebnis/Verhältnis, nur stehen am Ende eben nur noch "97GB/sec vs. 145,5GB/sec"
Und nun? Ergo, die Aussage oben macht keinen Sinn -> es besteht folglich kein wirklicher Zusammenhang zwischen Größe und Bandbreite, den man pauschal aufzeigen könnte.

ich hab sicherlich in meiner aussage nur grob geschätzt.so wärs richtig.meine aussage bezog sich eher auf optimal angebundenen ram um eben optimalen vorteil raus ziehen zu können.

das nun si unterschiede nicht 1:1 in leistung auf dem bildschirm ankommt wissen wir alle.

wenn nun angenommen bigk mit 512bit u. 4gb kommt ists nen weiter schritt für optimale anbindung .wäre rein von bandbreite u. speicher aber etwas seiner zeit vorraus.

Im Grunde haben wir fast ausnahmslos diese optimale Anbindung. Es gibt genau eine einzige Grafikkarte seit den letzten 10 Jahren die ich kenne, wo ein anderer Weg eingeschlagen wurde. Nämlich 192Bit SI bei 2GB VRAM. Und das war irgend so ne Mittelklasse Teil bei NV.

PS: warum wäre 512Bit SI bei 4GB seiner Zeit vorraus?
BigK, wenn er denn so kommt muss sich in ganz anderen Märkten messen als nur im Gamerbereich, beim Thema GPGPU kann man auch teils gar nicht genug VRAM haben.

wird eigentlich nen kleiner teil wie bei win immer ausgelagert?wahrscheinlich.

eher nicht... Das Problem ist, aktuell gibt es keine Möglichkeit das nachzuweisen bzw. zu belegen. Da mit Vista/7/8 dieser non local memory nicht auslesbar scheint...

Damals zu XP Zeiten konnte man das mit dem Rivatuner noch auslesen. Und da war die Anzeige optimalerweise bei 0 MB ;)

Müsste sich mal jemand ran machen und nen gegentest probieren. Zumindest für die 5xxer Geforce und 6xxxer AMD gibts ja noch XP Treiber.
Wie es mit den neuen ausschaut, weis ich nicht...
 
Zuletzt bearbeitet:
Ich sagte "Der Speicherspeed pro Speichermenge halbiert sich also zwischen 2 und 4GB bei gleichem SI und gleichem VRAM Takt"

etwas unglücklich ausgedrückt.das ist aber irgendwie ne aussage ohne bedeutung.die bandbreite u. der gefüllte speicher bleibt ja gleich.am ende limitiert nur der ram wenn mehr benötigt wird.das ist halt nen zwischenszenario.


Das impliziert aber in keinster Weise eine Abhängigkeit des SI (und somit der Bandbreite) in Verbindung mit der VRAM Menge...

bsp. 256bit vs 384bit=150% bei beiden jeweils 6000er ram

194gb/s vs 291 gb/s=150%

2 vs 3gb =150%

das ist zum einen der techisch optimalen vollen anbindung geschuldet u. zum anderen am bedarf der momentanen spiele bzw auflösung orientiert.momentan wird 3gb als optimal empfohlen um sicher nicht ins vramlimit zu laufen.

ich hab sicherlich in meiner aussage nur grob geschätzt.so wärs richtig.meine aussage bezog sich eher auf optimal angebundenen ram um eben optimalen vorteil raus ziehen zu können.

das nun si unterschiede nicht 1:1 in leistung auf dem bildschirm ankommt wissen wir alle.

wenn nun angenommen bigk mit 512bit u. 4gb kommt ists nen weiter schritt für optimale anbindung .wäre rein von benötigter bandbreite u. speicher aber etwas seiner zeit vorraus bei fullhd.

wird eigentlich nen kleiner teil wie bei win immer ausgelagert?wahrscheinlich.

kann und wird es nicht geben. eine 512bittige anbindung. das würde die gpu (und das PCB) zu komplex machen, weil jeder chip über 64 leitungen an der cpu angeschlossen ist. versuch sowas mal zu zeichnen. für heutige maßstäbe würde ein 512bittiges SI bei 64bit kanalbreite je chip optimale 4GiB VRAM ergeben. aber das bleibt wohl utopie; das wäre unbezahlbar.

@fdsonne
ich habe diese rechenspielchen schon zu hassen gelernt, als ich noch fachinformatiker in ausbildung war. fürs MCTS-zerfikat war das überflüssiges wissen; für meinen alltag auch, da halte ich mich an bruttorechnungen, wie tools sie auslesen und hersteller sie angeben; auch wenns eigentlich unkorrekt ist. und wozu soll ich mir hier einen abbrechen und irgendwas nachstellen wollen? downsampling ist im grunde schrott und mir ist nicht langweilig! wenns mir ist (langweilig), ziehe ich karten raus oder stecke welche rein und spiele bf3 oder skyrim.. joa.. und dann ist freizeit zuende.. beides spiele, die kein DS brauchen.. normales MS und SS -AA greift in beiden titeln. und GTAIV (letzte woche bei steam gekauft) sieht mit DS auch nicht glatt aus - ich sehe da trotzdem flimmerkanten und treppen - da wäre mir normales AA x-mal lieber. für hohe auflösungen ist die AMD karte (HD7970) technisch besser aufgestellt.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
kann und wird es nicht geben. eine 512bittige anbindung. das würde die gpu (und das PCB) zu komplex machen, weil jeder chip über 64 leitungen an der cpu angeschlossen ist.
Gibt doch genug Beispiele der Vergangenheit, die 512Bitige Anbindung schon zeigten. Warum sollte das diesmal nicht so sein? Auch wenn ich es ebenso für unwarscheinlich halte, besteht nach wie vor die Möglichkeit.

ich habe diese rechenspielchen schon zu hassen gelernt, als ich noch fachinformatiker in ausbildung war. für MCTS-zerfikat war das überflüssiges wissen; für den alltag auch. und wozu soll ich mir hier einen abbrechen und irgendwas nachstellen wollen? downsampling ist im grunde schrott und mir ist nicht langweilig! wenns mir ist, ziehe ich karten raus oder stecke welche rein und spiele bf3 oder skyrim.. joa.. und dann ist freizeit zuende.. beides spiele, die kein DS brauchen.. normales MS und SS -AA greift in beiden titeln. und GTAIV (letzte woche bei steam gekauft) sieht mit DS auch nicht glatt aus - ich sehe da trotzdem flimmerkanten und treppen - das wäre mir normales AA x-mal lieber.

Was haben Flimmerkanten mit Downsampling zu tun? Bist du dir sicher, das dir bekannt ist, was da wie im Zusammenhang steht? Es macht streckenweise nicht den Eindruck ;)

Aber nicht zu vergessen sind Games, wo es schlicht und einfach nicht möglich ist, AA zu aktiveren, weder MSAA noch SSAA usw.
Da bleiben PostProcessing Effekte (was das Bild wirklich sichtbar matsch machen kann) oder eben Downsampling gegen Treppchenbildung.
Risen2 ist so ein Beispiel...

Und in GTA IV geht doch ebenso kein AA... Oder hab ich was verpasst?
 
MSI N285GTX SuperPipe 2G OC, GeForce GTX 285, 2GB GDDR3, 2x DVI, TV-out, PCIe 2.0 (V188-014R) - Preisvergleich (EU) - ComputerBase

yo.

kommt immer drauf an wie teuer ram bzw. das drumrum bauen ist.damals ist nv den weg gegangen,weil kein schnellerer ram zur verfügung stand bzw. es in der übergangszeit war wo schnellerer ram zu teuer war.

bei 512bit u. 6000er ram hätte man wahnsinnige ~388 gb/s.evtl gehts noch bis 7000er ram,aber da geht das drumrumbauen auf jeden fall wieder los u. dann gehts mit mpc ram weiter.

ich geh aber bei bigk auch eher von 384bit aus.
 
Zuletzt bearbeitet:

Nicht nur für die Lightning die Classified ist ebenso betroffen

But for now you guys will have to face the fact that NVIDIA's 1.175V limitation is a solid fact. But sure, this news is a little bitter


Nur frag ich mich allen Ernstes,wie man ohne vorher abzuklären ob das Tweaking funktioniert,solche Optionen in eine in Massen produzierte Karte verbaut,die dann für 99% der User nicht nutzbar sind,weil ohne Hardmod nix geht
 
Zuletzt bearbeitet:
funktionieren tuts doch.nv u. msi waren sich wohl nicht ganz einig.ich denke nv hat ne halbaussage getätigt,neue rma zahlen bekommen u. kalte füße bekommen.
msi ganz ihrer lightning philosophie treu die beste oc karte zu haben:wir bauen das schon mal,bis dahin hat nv genickt.

war aber leider nicht so.

im grunde sind wir die letzten jahre ja auch verwöhnt worden.nun hat nv 28nm u. den turbo, der den prozess nach herstellerangaben mehr ausreizt.1200-1300 zum 40nm prozess -1000?was wollen wir mehr?

+vcore auf 1,25v als lite variante wäre noch nice gewesen um abschied zu nehmen vom wilden vcore-hoch.nun denn,ist so...wussten wir ja eigentlich alle vor kauf....
 
Zuletzt bearbeitet:
Kurze Frgae, was bringt es wenn ich im EVGA Pre... X Power Target von 100% auf 160% hochdrehe?!



Grüße
Sharie
 
Dann lässt er im Worst Case bis zu 60% mehr Saft zum Werkssetting zu,was aber durch Nvidias 1.175Volt Grenze auch gedeckelt wird

Je kälter die Karte ist um so mehr vom Power Target wird in die Stabilität der Taktraten fließen,je heißer um so mehr geht durch Leckströme drauf
 
Zuletzt bearbeitet:
wahrscheinlich die üblichen +25-30w aufgeteilt auf 160%.da hat das kind nur nen anderen amen,äh namen.:)
 
Gibt doch genug Beispiele der Vergangenheit, die 512Bitige Anbindung schon zeigten. Warum sollte das diesmal nicht so sein? Auch wenn ich es ebenso für unwarscheinlich halte, besteht nach wie vor die Möglichkeit.

Was haben Flimmerkanten mit Downsampling zu tun? Bist du dir sicher, das dir bekannt ist, was da wie im Zusammenhang steht? Es macht streckenweise nicht den Eindruck ;)

nein, natürlich nicht - ich brauche schon immer ganz dringend die hilfe des forums, um nicht den faden zu verlieren. darum bin ich auch bei c't rausgeflogen und hartze jetzt bei siemens. bitte lieber fdsonne: ergötze mich mit deiner weisheit und erkläre mir und den mitlesern deine sicht von downsampling, multi- und supersampling. und dann suchen wir auf meiner webseite die alte anleitung zum thema DS und schauen mal, wann tobi das noch toll fand.. muss auf jedenfall lange vor stereo@beamer und vor win7 gewesen sein.. ergo: ein älterer artikel.

btw,
hatte die 285GTX echt ein 512bit SI mit 16 (in worten: sechzehn!) chips?? krass teuer gewesen, das PCB.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh