[Sammelthread] NVIDIA GeForce GTX 780 (GK110) Sammelthread + FAQ - Bei Fragen erste Seite

NVIDIA GeForce GTX 780 (GK110) Sammelthread + FAQ

Impressionen der Karte:


gtx780-1kiufh.jpg
gtx780-2ibuas.jpg

gtx780-35xuwr.jpg
gtx780-4k4uid.jpg

gtx780-9y6ux8.jpg
gtx780-729u6c.jpg

gtx780-8kquwl.jpg
gtx780-12bau60.jpg

gtx780-11vkusa.jpg
gtx780-15chufc.jpg




Technische Daten der GeForce GTX 780
  • Chip = GK110-300-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 561 mm²
  • Shader-Einheiten = 2304 (1D) (12 SMX)
  • Texture Mapping Units (TMUs) = 192
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 41,4 GPixel/s (real 27,6 oder 34,5 GPixel/s)
  • Texelfüllrate = 165,7 GTexel/s
  • Chiptakt = 863 MHz Baseclock + Boost (902 MHz) + Estimated Boost
  • Shadertakt = Chiptakt (863 MHz Baseclock + Boost (902 MHz)+ Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 3072 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 222W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel

Introducing the GeForce GTX 780 | GeForce
NVIDIA GeForce GTX 780 Announcement Video




Geizhals Link:
GeForce GTX 780 | Deutschland - Hardwareluxx - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier

FAQ (Frequently Asked Questions)

Wie laut ist die Karte?


Die GeForce GTX 780 erzeugt sowohl im Idle, als auch unter Last eine für einem Referenzdesign niedrige Lautstärke und ist immer leiser als die GeForce GTX 680.
mess5-1rmkka.jpg
mess6bhjyw.jpg


Für eine bessere Vorstellung ein Video der Karte unter Furmark. Das maximum des Lüfters liegt bei rund 56% und hält die Karte bei rund 83°C.

Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX Titan -sowohl im Idle, als auch unter Last (dank des Temp-Targets von 80°C).
mess3-1p5jcj.jpg
mess4tfs8m.jpg



Wie hoch ist der Stromverbrauch?

Im Idle verbraucht die GeForce GTX 780 laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 und GTX TITAN ist. Unter Spielelast nimmt die Karte um die 200-220 Watt (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:
mess1-1alj05.jpg
mess2-1cekqs.jpg

Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!



Passt die Karte in mein Gehäuse?


Bei der GeForce GTX 780 misst wie die GTX Titan das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.



Wie viele GPCs sind bei meiner Karte aktiviert?

Da die GTX 780 über 12 SMX verfügt gibt es zwei möglichkeiten, wie die Karte ausgeliefert wird. Entweder alle 5 GPCs sind aktiv (in jedem GPC ist mindestens ein aktiver SMX) und man erhällt die reele Pixelfüllrate von 34,5 GPixel/s. Allerdings kann die möglichkeit bestehen, dass bei einer Karte auch ein ganzes GPC deaktiviert wurde (ein GPC besitzt keine funktionierenden SMX) und die Karte somit 20% weniger Pixelfüllrate besitzt (27,6 GPixel/s). Wie sich das in der Praxis auswirkt ist noch nicht bekannt. Allerdings ist dieser Unterschied wohl nicht spür- und auch nur selten Messbar.

Eine genaue Feststellung, wie viele GPCs aktiv sind lässt sich nur durch das messen der Füllrate testen.
Fillrate Tester | 3DCenter.org


Die Performance:

Eine Performanceeinordnung findet ihr im Hardwareluxx-test zur GeForce GTX 780. Im Schnitt erreicht die GTX 780 zwischen 90 und 95% der absoluten Leistung der GTX Titan und ist somit zwischen 20 und 30% schneller als die GTX 680 und rund 15% schneller als die HD 7970 GHz Ed.

Einige Messwerte:
3dmark3mnkcq.jpg
3dmark7zyj5y.jpg


bf69ikhj.jpg
crysis3-6vfj5n.jpg


far3jbjhk.jpg
bio3a8kdd.jpg


bf9hgk9j.jpg
skyrim9iuj0x.jpg

Eine genauere Einordnung über mehrere Benchmarks findet ihr hier:
Launch-Analyse: nVidia GeForce GTX 780



Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.

(Seit der GTX 680 nimmt die GPU immer nur noch 13MHz schritte an. Wenn man z.B. +50MHz Offset angibt, erhält man aber nur +39MHz mehr GPU-Takt, da in den +50MHz nur drei +13MHz Stufen drin sind. Die nächst höhere Stufe wären +52MHz.)

Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung. Hardwareluxx erreichte bei eingestellten 1,200V, Temperatur-Target von 90 °C und Power-Target von 106% eine maximale Taktrate von 1150/1625MHz. Das Overclocking wirkt sich wie folgt aus:
Performance:
oc1v5k3b.jpg
oc31mkij.jpg
oc4g8jnx.jpg


oc77qkyq.jpg
oc890kzg.jpg
oc52pksg.jpg
HardwareLUXX - GTX 780 overclocking
Speicherbandbreite-Abhängigkeit

Geforce GTX 780 Taktskalierung im Test - 9 Games, 3 Auflösungen



Geforce GTX 780 Skin für EVGA Precision X (by me)
previewxtuii.png




Custom BIOSe und flashen
Die GTX 780 lässt sich wie alle anderen Kepler-Karten ebenfalls mit andere BIOSe und eigenkreationen flashen. Das Vorgehen ist dabei das selbe wie schon bei der GTX 600er oder GTX 400/500er. Für mehr Informationen den passenden Thread aufsuchen:
GTX 700/600 - BIOS-Files
Geforce-Karten allgemein flashen unter Windows/DOS



Probleme mit ASUS/ASRock/Gigabyte Mainboards
Sporadisch sollen Probleme mit GTX 700-Karten bei der verwendung von ASUS/ASRock/Gigabyte Mainboards vorkommen. Falls man von solch einem Problem betroffen ist, kann dies helfen:
http://www.hardwareluxx.de/communit...x-780-oc-windforce-967164-3.html#post20864765
http://www.hardwareluxx.de/community/f300/asus-p8z68-deluxe-fehlercode-62-bei-770gtx-967392.html
http://www.hardwareluxx.de/community/f219/gigabyte-ga-x79-ud3-ud5-intel-x79-865610-27.html
https://forums.geforce.com/default/...-ti-wont-get-pc-past-motherboard-load-screen/


Custom-Karten
Anders als bei der GTX Titan erlaubt Nvidia bei der GTX 780 eigendesigns der Boardpartner. Da die GTX 780 über beinahe das selbe PCB wie die Titan verfügt, dürften alle verfügbaren Wasserkühler für die Titan auch auf die 780 passen.

Zurzeit sind schon auch schon einige neue Designs, wie das ACX-Design von EVGA verfügbar. Weitere Custom-Designs anderer Partner sind ebenfalls vorhanden, wie die sehr leise MSI GTX 780 Gaming und die extrem schnelle Inno iChill HerculeZ 2000. Dazu kommen schon bekannte Designs wie etwa von ASUS, Gainward und Palit (Direct CU II, Jetstream (Super Jetstream) und Phantom).

Da einige Besitzer des EVGA ACX-Designs sich über ein unrundes Laufverhalten des Lüfters im Idle beschwert haben, hat EVGA ein neues erstellt:
http://www.hardwareluxx.de/community/f300/gtx-780-acx-bios-mit-neuer-luefterregelung-969007.html

Der Vorteil dieser Designs ist nicht nur die teilweise niedrigere Lautheit der Karte, auch die niedrigen Temperaturen unter Last sorgen dafür, dass solche Custom GTX 780-Karten meistens den vollen GPU-Boost nutzen. Bei einigen Karten bedeutet das Taktraten von knapp über 1.100MHz und somit deutlich mehr Performance als mit den von Nvidia als Durchschnitt angegebenen 902MHz.




Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX 780. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Dieser Thread wird in zukunft erweitert.

(Dank an Edgecrusher86 für den Titan-Sammelthread - da die 780 sehr ähnlich ist, habe ich einiges aus seinem Sammelthread zitiert.)
 
Zuletzt bearbeitet:
Was soll ein Boost, der genau dann unter hoher Last heruntertaktet, wenn die Leistung eigentlich erst gebraucht wird?

Der also viel zu oft genau dann die Löffel abgibt, wenn man ihn braucht?

Wenn er wenigstens so funktionieren würde wie bei CPUs.

Naja, wenn man z.B. als Limit die Leistungsaufnahme hat, dann müsste man die Karte so niedrig takten, dass diese bei der anspruchsvollten Anwendung unter diesem Limit bleibt.

Spich man käme z.B. auf das Ergebnis dass beim 3D Mark 11 maximal 867 MHz möglich seien, um im Limit zu bleiben.
Dann wäre das aber auch gleichzeitig der maximale Takt.
Kommt nun ein Spiel welches deutlich besser mit der Leistungsaufnahme umgeht, z.B. FC3, dann würde dort die Karte auch nur mit 867 MHz takten und nicht mit 1150. Da würden schon ein paar FPS fehlen, oder?

Andersrum betrachtet, sparst du Strom, wenn du Diablo 3 zockst und 600 MHz ausreichen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Skynet Bios geflasht aber mit VDDC Kontrolle ist sich nichts bei der Lightning. Max VDDC 1.162 ... Banana-Ware von MSI. :wall:

MSI_N780_NO_VDDC.gif
 
Zuletzt bearbeitet:
Vielleicht gehen die MSI-Leute irrtümlicherweise davon aus, dass User bei so einem Stück Technik immer mit Messgeräten an den Spannungsmesspunkten ablesen? Aber echt Mist, wenn man das per Software nicht auslesen kann.

@ JohnMainhard:

Nimm doch für Autostart-OC ein anderes Tool als den Inspector. EVGA Precision-X arbeitet hier tadellos.
 
Zuletzt bearbeitet:
Komischer Weise hat es ja mit der vorigen Version funktioniert. Dort habe ich das oc Profil in autostart gelegt und es ging....

Gruß JM

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Was soll ein Boost, der genau dann unter hoher Last heruntertaktet, wenn die Leistung eigentlich erst gebraucht wird?

Der also viel zu oft genau dann die Löffel abgibt, wenn man ihn braucht?

Wenn er wenigstens so funktionieren würde wie bei CPUs.

bin auch kein Boostfan, aber nimm doch das Mod-Bios. Mit dem bin ich voll zufrieden, was braucht man denn noch mehr?
Der Takt liegt genau da an, wo er festgelegt wird. Trotzdem wird im idle sowohl ram als auch gpu takt gesenkt.
Die Lüfter kann ich nun (brauche ich zwar nicht...) bis 100% drehen lassen. Volt geht nun bis 1,21 und wenn das nicht reicht, dann kannst du immer noch den Voltmod für bis zu 1.3V via MSI-A nutzen.
Was fehlt denn jetzt noch.....!?
 
Vielleicht gehen die MSI-Leute irrtümlicherweise davon aus, dass User bei so einem Stück Technik immer mit Messgeräten an den Spannungsmesspunkten ablesen? Aber echt Mist, wenn man das per Software nicht auslesen kann.

Schlechter Scherz ist das oder ich habe einfach ein mangelhaftes Exemplar erwischt.

Kann nicht sein, dass nicht mal die Hersteller eigene Software die VDDC auslesen geschweige denn ändern kann.

Ich kann in den Settings vom Afterburner die Anzeige im OSD auch nicht aktivieren ... grau hinterlegt ... und was GPU-Z ausliest siehst Du ja oben.

Das ist auf jeden Fall nicht bei allen ausgelieferten Exemplaren der Fall ... also MSI Fail bei Endkontrolle der Karte.
 
Schon wieder Pech ? :fresse: Grakas sind nicht Irons Fall zur Zeit :(. Wobei das auch ein komischer Fehler wäre. Gibt's sowas überhaupt?
Schau doch mal in anderen Foren was da die Leute so schreiben
 
Zuletzt bearbeitet:
Ich habe eine gute GTX680 Lightning und auch eine gute Referenz-Karte aktuell - von daher sehe ich das ganz entspannt. ;)

Nach einigen Treiber Versionen inklusive Wechsel der OS SSD glaube ich nicht daran, dass sich das so einfach beheben lässt.

Ich warte noch auf eine Antwort vom MSI Support und dann geht das Teil zwecks Tausch retour.
 
bin auch kein Boostfan, aber nimm doch das Mod-Bios. Mit dem bin ich voll zufrieden, was braucht man denn noch mehr?
Der Takt liegt genau da an, wo er festgelegt wird.

Genau das ist das Problem: Man braucht ein Mod-Bios.

Bei den Karten, die vor dem ganzen Boost-Quatsch erschienen, reichte es völlig aus, den maximalen Takt auszuloten und gut war. Und genau so hätte es mMn auch bleiben sollen.

Boost ist gut für den Hersteller, möglicherweise hat er dadurch weniger Probleme mit defekten Karten und kann treibermäßig auch schön Richtung längster Balken optimieren.
 
Genau das ist das Problem: Man braucht ein Mod-Bios.

Bei den Karten, die vor dem ganzen Boost-Quatsch erschienen, reichte es völlig aus, den maximalen Takt auszuloten und gut war. Und genau so hätte es mMn auch bleiben sollen.

Boost ist gut für den Hersteller, möglicherweise hat er dadurch weniger Probleme mit defekten Karten und kann treibermäßig auch schön Richtung längster Balken optimieren.


Ja stimmt früher wars besser, mir gefällt der Boost auch nicht wirklich
 
Schlechter Scherz ist das oder ich habe einfach ein mangelhaftes Exemplar erwischt.

Kann nicht sein, dass nicht mal die Hersteller eigene Software die VDDC auslesen geschweige denn ändern kann.

Ich kann in den Settings vom Afterburner die Anzeige im OSD auch nicht aktivieren ... grau hinterlegt ... und was GPU-Z ausliest siehst Du ja oben.

Das ist auf jeden Fall nicht bei allen ausgelieferten Exemplaren der Fall ... also MSI Fail bei Endkontrolle der Karte.

Bisher war es doch bei an andern 780ern/Titan so, dass die Spannung die direkt am Voltage Ragulator angelegt wird, nicht von den "normalen" Tools ausgelesen wird, da diese am Treiber ansetzen, oder?
 
Bin auch kein Freund von diesem GPU Boost 2.0, deshalb hat meine Karte auch gleich das svl7 - ModBios spendiert bekommen um den GPU Boost 2.0 ein für alle mal ein Ende zu setzen. svl7 wird übrigens in der neuen PCGH 10/2013, eine ganze Seite gewidmet. (S. 13)... Dort geht es um gigantische Vorteile, welche Grafik-Mod-Bios mitbringen... Habe die Ausgabe dank Abo heute schon erhalten.

An dieser Stelle nochmal ein großes Dankeschön an svl7 und Grüße in die Schweiz ;)
 
Zuletzt bearbeitet:
IMAG0059.jpg
IMAG0061.jpg

ich meine die Klötzchen bei der 3dmark 11 schrift

schade das es so unscharf ist, handy ist net das beste und da das zeug flackert und vielleicht nur 4-5 mal in dem video auftaucht schwer genug im richtigen augenblick abzudrücken ..

ist nur im im Entry modus zu sehen
 
Gibt übrigens auch Software zum Screenshot machen :)
Hmm sieht komisch aus. Hast mal den Speicher runtergetaktet und geschaut was dann passiert ?
 
zum Thema Boost 2.0

hab meine beiden Karten auf 1100 getaktet mit Stock Bios und halt Wakü

die Karten takten 1 mal hoch und nicht runter, wie gesagt Wakü

sooo schlecht ist das Feature nicht, allenfalls noch nicht sehr gut umgesetzt, respektive fehlt sowas wie bei CPUs:

wollen sie Boost Features oder festen Takt ja/nein
 
mit dem 320 final ist es auch nicht weg

gpu und ram steht auf +0 , ram geht nicht in minus bereich
 
Na ja hier liest man auch nix gutes über die Msi Li wollte mir eigentlich mal so eine gönnen, aber da Nvidia ja so mit den spannungen rum zickt werd ich mal auf die kongurenz warten bis da etwas dampf rein kommt, dauernd die gängelein zuerst im Spielemarkt, und jetzt im Hardwaremarkt, können die net die spannungen einfach frei geben die Säcke :motz: :wut: ahhh
 
Bin auch kein Freund von diesem GPU Boost 2.0, deshalb hat meine Karte auch gleich das svl7 - ModBios spendiert bekommen um den GPU Boost 2.0 ein für alle mal ein Ende zu setzen. svl7 wird übrigens in der neuen PCGH 10/2013, eine ganze Seite gewidmet. (S. 13)... Dort geht es um gigantische Vorteile, welche Grafik-Mod-Bios mitbringen... Habe die Ausgabe dank Abo heute schon erhalten.

An dieser Stelle nochmal ein großes Dankeschön an svl7 und Grüße in die Schweiz ;)

Und ich danke dir, ohne deine Hilfe hätte ich das flashen nicht hinbekommen!
 
Gerne doch @Schu... Genau dafür ist doch so ein Forum da. Man kann echt alle Informationen austauschen und auch viel von einander lernen ;)
 
so mein Titan Miner is fertsch

v2syu.png
 
:eek: Das ist schon krank !!! Die erste von 8 Titan Karten wurde nicht mit Strom versorgt!!!

Dafür würde sich ja ein Gespann aus 3 - 4K Monitoren mit 24 Megapixeln anbieten ;)
 
Zuletzt bearbeitet:
@naennon
was ist das denn, kann man damit zocken? 8 Karten
 
das wird irgendne Medizin- oder Simulationskiste sein

damit kann man net zocken
 
deswegen ja auch keine sli brücken.
und soweit ich weiß ist "quad sli max" sowohl Mainboard seitig, Grafikkarten seitig und Software seitig.
 
So, auch meine Karte hält es nicht mehr für nötig, im "idle" (unter Windows7), die Spannung und den Takt zu verringern. Diese wird konstant bei 1.21V und 1019MHz gehalten (im Spiel dann 1.21V und 1204MHz). Eigentlich habe ich bewusst nichts am System (softwaremäßig) verändert. Naja, wird schon seine Gründe haben. :fresse:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh