[Sammelthread] NVIDIA GeForce GTX 780 (GK110) Sammelthread + FAQ - Bei Fragen erste Seite

NVIDIA GeForce GTX 780 (GK110) Sammelthread + FAQ

Impressionen der Karte:


gtx780-1kiufh.jpg
gtx780-2ibuas.jpg

gtx780-35xuwr.jpg
gtx780-4k4uid.jpg

gtx780-9y6ux8.jpg
gtx780-729u6c.jpg

gtx780-8kquwl.jpg
gtx780-12bau60.jpg

gtx780-11vkusa.jpg
gtx780-15chufc.jpg




Technische Daten der GeForce GTX 780
  • Chip = GK110-300-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 561 mm²
  • Shader-Einheiten = 2304 (1D) (12 SMX)
  • Texture Mapping Units (TMUs) = 192
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 41,4 GPixel/s (real 27,6 oder 34,5 GPixel/s)
  • Texelfüllrate = 165,7 GTexel/s
  • Chiptakt = 863 MHz Baseclock + Boost (902 MHz) + Estimated Boost
  • Shadertakt = Chiptakt (863 MHz Baseclock + Boost (902 MHz)+ Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 3072 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 222W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel

Introducing the GeForce GTX 780 | GeForce
NVIDIA GeForce GTX 780 Announcement Video




Geizhals Link:
GeForce GTX 780 | Deutschland - Hardwareluxx - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier

FAQ (Frequently Asked Questions)

Wie laut ist die Karte?


Die GeForce GTX 780 erzeugt sowohl im Idle, als auch unter Last eine für einem Referenzdesign niedrige Lautstärke und ist immer leiser als die GeForce GTX 680.
mess5-1rmkka.jpg
mess6bhjyw.jpg


Für eine bessere Vorstellung ein Video der Karte unter Furmark. Das maximum des Lüfters liegt bei rund 56% und hält die Karte bei rund 83°C.

Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX Titan -sowohl im Idle, als auch unter Last (dank des Temp-Targets von 80°C).
mess3-1p5jcj.jpg
mess4tfs8m.jpg



Wie hoch ist der Stromverbrauch?

Im Idle verbraucht die GeForce GTX 780 laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 und GTX TITAN ist. Unter Spielelast nimmt die Karte um die 200-220 Watt (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:
mess1-1alj05.jpg
mess2-1cekqs.jpg

Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!



Passt die Karte in mein Gehäuse?


Bei der GeForce GTX 780 misst wie die GTX Titan das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.



Wie viele GPCs sind bei meiner Karte aktiviert?

Da die GTX 780 über 12 SMX verfügt gibt es zwei möglichkeiten, wie die Karte ausgeliefert wird. Entweder alle 5 GPCs sind aktiv (in jedem GPC ist mindestens ein aktiver SMX) und man erhällt die reele Pixelfüllrate von 34,5 GPixel/s. Allerdings kann die möglichkeit bestehen, dass bei einer Karte auch ein ganzes GPC deaktiviert wurde (ein GPC besitzt keine funktionierenden SMX) und die Karte somit 20% weniger Pixelfüllrate besitzt (27,6 GPixel/s). Wie sich das in der Praxis auswirkt ist noch nicht bekannt. Allerdings ist dieser Unterschied wohl nicht spür- und auch nur selten Messbar.

Eine genaue Feststellung, wie viele GPCs aktiv sind lässt sich nur durch das messen der Füllrate testen.
Fillrate Tester | 3DCenter.org


Die Performance:

Eine Performanceeinordnung findet ihr im Hardwareluxx-test zur GeForce GTX 780. Im Schnitt erreicht die GTX 780 zwischen 90 und 95% der absoluten Leistung der GTX Titan und ist somit zwischen 20 und 30% schneller als die GTX 680 und rund 15% schneller als die HD 7970 GHz Ed.

Einige Messwerte:
3dmark3mnkcq.jpg
3dmark7zyj5y.jpg


bf69ikhj.jpg
crysis3-6vfj5n.jpg


far3jbjhk.jpg
bio3a8kdd.jpg


bf9hgk9j.jpg
skyrim9iuj0x.jpg

Eine genauere Einordnung über mehrere Benchmarks findet ihr hier:
Launch-Analyse: nVidia GeForce GTX 780



Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.

(Seit der GTX 680 nimmt die GPU immer nur noch 13MHz schritte an. Wenn man z.B. +50MHz Offset angibt, erhält man aber nur +39MHz mehr GPU-Takt, da in den +50MHz nur drei +13MHz Stufen drin sind. Die nächst höhere Stufe wären +52MHz.)

Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung. Hardwareluxx erreichte bei eingestellten 1,200V, Temperatur-Target von 90 °C und Power-Target von 106% eine maximale Taktrate von 1150/1625MHz. Das Overclocking wirkt sich wie folgt aus:
Performance:
oc1v5k3b.jpg
oc31mkij.jpg
oc4g8jnx.jpg


oc77qkyq.jpg
oc890kzg.jpg
oc52pksg.jpg
HardwareLUXX - GTX 780 overclocking
Speicherbandbreite-Abhängigkeit

Geforce GTX 780 Taktskalierung im Test - 9 Games, 3 Auflösungen



Geforce GTX 780 Skin für EVGA Precision X (by me)
previewxtuii.png




Custom BIOSe und flashen
Die GTX 780 lässt sich wie alle anderen Kepler-Karten ebenfalls mit andere BIOSe und eigenkreationen flashen. Das Vorgehen ist dabei das selbe wie schon bei der GTX 600er oder GTX 400/500er. Für mehr Informationen den passenden Thread aufsuchen:
GTX 700/600 - BIOS-Files
Geforce-Karten allgemein flashen unter Windows/DOS



Probleme mit ASUS/ASRock/Gigabyte Mainboards
Sporadisch sollen Probleme mit GTX 700-Karten bei der verwendung von ASUS/ASRock/Gigabyte Mainboards vorkommen. Falls man von solch einem Problem betroffen ist, kann dies helfen:
http://www.hardwareluxx.de/communit...x-780-oc-windforce-967164-3.html#post20864765
http://www.hardwareluxx.de/community/f300/asus-p8z68-deluxe-fehlercode-62-bei-770gtx-967392.html
http://www.hardwareluxx.de/community/f219/gigabyte-ga-x79-ud3-ud5-intel-x79-865610-27.html
https://forums.geforce.com/default/...-ti-wont-get-pc-past-motherboard-load-screen/


Custom-Karten
Anders als bei der GTX Titan erlaubt Nvidia bei der GTX 780 eigendesigns der Boardpartner. Da die GTX 780 über beinahe das selbe PCB wie die Titan verfügt, dürften alle verfügbaren Wasserkühler für die Titan auch auf die 780 passen.

Zurzeit sind schon auch schon einige neue Designs, wie das ACX-Design von EVGA verfügbar. Weitere Custom-Designs anderer Partner sind ebenfalls vorhanden, wie die sehr leise MSI GTX 780 Gaming und die extrem schnelle Inno iChill HerculeZ 2000. Dazu kommen schon bekannte Designs wie etwa von ASUS, Gainward und Palit (Direct CU II, Jetstream (Super Jetstream) und Phantom).

Da einige Besitzer des EVGA ACX-Designs sich über ein unrundes Laufverhalten des Lüfters im Idle beschwert haben, hat EVGA ein neues erstellt:
http://www.hardwareluxx.de/community/f300/gtx-780-acx-bios-mit-neuer-luefterregelung-969007.html

Der Vorteil dieser Designs ist nicht nur die teilweise niedrigere Lautheit der Karte, auch die niedrigen Temperaturen unter Last sorgen dafür, dass solche Custom GTX 780-Karten meistens den vollen GPU-Boost nutzen. Bei einigen Karten bedeutet das Taktraten von knapp über 1.100MHz und somit deutlich mehr Performance als mit den von Nvidia als Durchschnitt angegebenen 902MHz.




Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX 780. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Dieser Thread wird in zukunft erweitert.

(Dank an Edgecrusher86 für den Titan-Sammelthread - da die 780 sehr ähnlich ist, habe ich einiges aus seinem Sammelthread zitiert.)
 
Zuletzt bearbeitet:
Meine windforce wird ebenfalls 78 grad warm.
Vom Kühler bin ich schon auch ein wenig enttäuscht.


Sent from my iPhone using Hardwareluxx app
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Habt ihr mal geschaut mit welcher Geschwindigkeit die Lüfter laufen?
Irgendwas scheint ja bei euch nicht zu stimmen.


Sent from my iPhone using Hardwareluxx app
 
meine windforce geht auch auf die 78° und von silent kann da auch keine rede mehr sein...
was für asic habt ihr denn so?
 
und nach nextgen konsolen release geht die ram panik los bei zukünftigen games? :shot:


wf würd ich zurück schicken wegen nicht gefallen wenn das so ist .

Quatsch, informier dich erstmal wie das mit dem Speicher bei den neuen Konsolen ist, bevor du solche Behauptungen aufstellst. Und die 770 hat mit 4GB auch nur 1GB mehr.
Und bevor 4GB wirklich nötig werden geht der 770 locker die Puste aus, auch im SLI.
Zudem werden Spiele immer für die Masse entwickelt, und diese besitzen Karten mit 1-2 GB VRam, also wird man mit den 3GB noch längere Zeit locker hinkommen, und wenn es irgendwann nicht mehr reicht, dann gibt es eh schon bedeutend schnellere Karten.


Sent from my iPhone using Hardwareluxx app
 
Meine Windforce hat nen ASIC Wert von 76,1%

ok, dachte das geht nur den mit niedrigen so... hab 67,4%
bin wohl zu sehr von meiner POV 680 EXO verwöhnt worden, der Lüfter war(ist) nun wirklich TOP
naja, der große Chip zollt scheinbar schon Tribut, aber gleich 78° bei 60% Lüfter :hmm:
 
Ich glaube bei euch stimmt da was nicht, die WF wurde hier doch so gelobt als leise und kühl, eure ist ja fast gleich auf mit dem Ref- Design.
Habt ihr irgendwas verändert?
Anderes Bios oder ähnliches?
Welchen Treiber? Mal den neusten probiert der hier gepostet wurde?

Sent from my iPhone using Hardwareluxx app
 
Zuletzt bearbeitet:
@norti

Metro Last Light: Ingame eingestellt 2xSSAA, 1920x1200, Sehr Hoch, VSync an, 16xAF = Eigentlich immer volle 60FPS, bei "größeren" Szenen bricht es ab und an mal ein, auf max 45FPS, aber eigentlich nicht feststellbar "unflüssig" in dem Moment. Ich merk keinen Unterschied, nur das ich es oben links dann im Precision sehe.

Boost bleibt fast konstant auf den max. 1071 die die EVGA boostet. Sonst im Precision nichts geändert.

Edit: Im Nvidia Inspector hab ich bei BF3 jetzt mal 4xSGSSAA eingestellt und testweise 8xSGSSAA, ich seh, subjektiv, kaum Veränderungen. Das Bild ist insgesamt sehr ruhig, außer an Zäunen (bzw. Zäunen die von "Rauch" umgegeben werden), da flimmert es nach wie vor, wie bei der ATI auch....
 
Zuletzt bearbeitet:
Zur Windforce: Meine wurde unter 1200 / 3600 MHz @1.187V im Valley Bechmark max. 78°C warm bei max. 62% Fan-Speed (siehe Video).
Das deckt sich also mit den vorhin genannten Werten. Auch wurde hier ja max. OC betrieben und die Spannung um die max. +38mV erhöht. Ich denke daher, dass das also unter diesen Bedingungen (+33% OC) mit den Temps und der Lüftergeschwindigkeit völlig normal ist.
 
Zuletzt bearbeitet:
Quatsch, informier dich erstmal wie das mit dem Speicher bei den neuen Konsolen ist, bevor du solche Behauptungen aufstellst. Und die 770 hat mit 4GB auch nur 1GB mehr.
Und bevor 4GB wirklich nötig werden geht der 770 locker die Puste aus, auch im SLI.
Zudem werden Spiele immer für die Masse entwickelt, und diese besitzen Karten mit 1-2 GB VRam, also wird man mit den 3GB noch längere Zeit locker hinkommen, und wenn es irgendwann nicht mehr reicht, dann gibt es eh schon bedeutend schnellere Karten.

Sent from my iPhone using Hardwareluxx app

selber quatsch u. informier du dich mal vorher:http://www.guerrilla-games.com/presentations/Valient_Killzone_Shadow_Fall_Demo_Postmortem.pdf

3072mb vram + 128mb shared.

die ps4 nimmt 3gb fürs betriebssystem ein.bleiben 5gb für cpu u. gpu.momentan ists bei pc eher um 2gb.bei multiplattform spieleentwicklung wirds ne änderung bzgl. vram geben nach release.

das wird zu 100% so kommen!ist nur die frage wie schnell u. in welchen umfang...

oder glaubst du,das spiele zukünftig auf pc schlechter aussehen weil die dann nur 2gb nutzen?stichwort high res texturen..

watt die an hardware haben nutzen die auch schnell u. da geben eher dann die konsolen den ton an.
 
Zuletzt bearbeitet:
ok, dachte das geht nur den mit niedrigen so... hab 67,4%
bin wohl zu sehr von meiner POV 680 EXO verwöhnt worden, der Lüfter war(ist) nun wirklich TOP
naja, der große Chip zollt scheinbar schon Tribut, aber gleich 78° bei 60% Lüfter :hmm:

Die gleiche Karte hatte ich vorher auch ;)

@HansOConner: Ich habe den Valley-Benchmark nun mal mit deinen Werten aus dem Video laufen lassen:
Da hatte ich max 77°C bei 61% Lüftergeschwindigkeit.
Dann scheint ja alles zu passen.
Mir fällt auf, dass meine Karte trotz Spannungserhöhung und Übertaktung kaum wärmer wird.
 
Zuletzt bearbeitet:
selber quatsch u. informier du dich mal vorher:http://www.guerrilla-games.com/presentations/Valient_Killzone_Shadow_Fall_Demo_Postmortem.pdf

3072mb vram + 128mb shared.

die ps4 nimmt 3gb fürs betriebssystem ein.bleiben 5gb für cpu u. gpu.momentan ists bei pc eher um 2gb.bei multiplattform spieleentwicklung wirds ne änderung bzgl. vram geben nach release.

das wird zu 100% so kommen!ist nur die frage wie schnell u. in welchen umfang...

oder glaubst du,das spiele zukünftig auf pc schlechter aussehen weil die dann nur 2gb nutzen?stichwort high res texturen..

watt die an hardware haben nutzen die auch schnell u. da geben eher dann die konsolen den ton an.

Hahahaha jedes mal kommt jemand mit dieser PDF zur Begründung.
Gibt es auch weitere Quellen oder bislang nur diese eine PDF?
Ausserdem ist das ein Exclusiv Game, das niemals auf PC oder XBox erscheinen wird, warum sollte man sich da Gedanken über den Speicher machen.
Zudem ist bei 3GB auch immer noch genug Platz um gerade nicht benötigte Daten wieder zu löschen und Nvidias Speichermanagment ist ziemlich gut.
Das mit 3GB Vram ist im Moment einfach nur Gelaber und in 2 Jahren sind die GTX 770 schon wieder viel zu langsam, die ist ja jetzt schon deutlich langsamer als die 780.
Mit Konsolen ist das auch gar nicht vergleichbar, die haben einen Speicher für alles, mein PC hat dann mit Ram zusammen 19GB, also doppelt so viel, da müsste ich dann ja gut gerüstet sein nach deiner Logik oder?
Und klar können Spiele auf dem PC auch schlechter aussehen in Zukunft, warum nicht? Das geht sogar heute schon.
Du hast überhaupt keine Ahnung was in Zukunft zu 100% kommen wird, die PDF wurde auch schon in verschiedenen Foren diskutiert, da kannst du dich ja mal einlesen was das angeht.
Einfach nur 2 Sachen rauskopieren und dann sagen ist so, obwohl man nichts verstanden hat klappt nicht.
Hardware für die Zukunft kaufen eh nicht.
Aber hol dir ruhig 2 Karten, die selbst heute schon nicht mal mehr in den Top3 sind leistungsmäßig, ist sicherlich zukunftssicher!
👊


Sent from my iPhone using Hardwareluxx app
 
hat jemand nen inspector profil für bf3 für mich ? wegen 2x SGSSAA oder 4x SGSSAA ?

und hat mal jemand diesen treiber probiert ?

Nvidia Driver 320.39
 
hab überhaupt keine ahnung von dem tool

wo genau muss ich das dort ändern ?

 
unbenanntbru5z.jpg


Antialiasing - Behaviour Flags auf "None" setzen
Antialiasing Mode auf "Enhance application Settings" setzen
Antialiasing Setting z.b. auf "4x MSAA" setzen
Antialiasing Transperancy Supersampling auf z.b. "2x SGSSAA" setzen
Negatives LOD Bias erlauben und auf -0,5 setzen

Was du beachten musst:

- Behaviour Flags auf None setzen !
- Wenn das Spiel AA ingame hat dann auf Enhance Application Settings setzen...
- Es muss mindestens immer genausoviel MSAA eingestellt sein wie SGSAAA (2x MSAA + 4x SGSSAA geht nicht, anderesrum schon, 4x MSAA + 4x SGSSAA geht auch)
- Negative LOD Bias für 2xSGSSAA auf -0,5 , für 4xSGSAAA auf -1,0 und für 8xSGSSAA auf -1,5
 
Zuletzt bearbeitet:
Cool, danke ich hoffe das macht meine 780 mit
 
Ja habe einen Samsung 2233rz 120hz mit 1680x1050
 
Hab so durchgehen 100,auf großen maps ca 80, wie sehe ich ob alles aktiviert ist?
 
Zuletzt bearbeitet:
Ich weiß ja nicht mal wie sich das aufs Bild auswirkt :-)
 
Hier mal der Vergleich zwischen dem 320.18 und dem 320.39 mit Heaven BM, sieht mal net schlecht aus der neue
werd mal bisschen FC 3 zocken und in SolidEdgeSt5 nochmal testen was geht

mfg
 

Anhänge

  • GTX 1.JPG
    GTX 1.JPG
    47,1 KB · Aufrufe: 77
  • GTX 2 320-39.JPG
    GTX 2 320-39.JPG
    46,4 KB · Aufrufe: 80
Danke, aber das Ergebnis fällt wohl eher unter Messgenauigkeit aus.
Wie sehen die Temps aus, geringer...höher ?
 
Hab gerade ne runde bf gespielt und dann diese msg bekommen, hab auch neuen treiber drauf.
ahe6yty3.jpg
 
Zuletzt bearbeitet:

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh