[Sammelthread] NVIDIA GeForce GTX 780 Ti (GK110) Sammelthread + FAQ - Bei Fragen erste Seite

NVIDIA GeForce GTX 780 Ti (GK110) Sammelthread + FAQ

Impressionen der Karte:


gtx780ti-1-950x6332oj64.jpg
gtx780ti-2-950x6330hja5.jpg

gtx780ti-4-950x633bcjz8.jpg
gtx780ti-3-950x633bbj24.jpg

gtx780ti-8-950x6338cjtb.jpg
gtx780ti-9-950x6333kjwu.jpg

gtx780ti-6-950x6335qk44.jpg
gtx780ti-11-950x633eyj5e.jpg

gtx780ti-10-950x633mqkfm.jpg
gtx780ti-12-950x633vhjv2.jpg




Technische Daten der GeForce GTX 780
  • Chip = GK110-425-B1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 561 mm²
  • Shader-Einheiten = 2880 (1D) (15 SMX)
  • Texture Mapping Units (TMUs) = 240
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 42,0 GPixel/s (real 35,0 GPixel/s)
  • Texelfüllrate = 210,2 GTexel/s
  • Chiptakt = 876 MHz Baseclock + Boost (928 MHz) + Estimated Boost
  • Shadertakt = Chiptakt (876 MHz Baseclock + Boost (928 MHz)+ Estimated Boost)
  • Speichertakt = 1750 MHz
  • Speichergröße = 3072 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 336,0 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 222W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing the GeForce GTX 780 Ti | GeForce
NVIDIA GeForce GTX 780 Ti Announcement Video




Geizhals Link:
GeForce GTX 780 Ti | Deutschland - Hardwareluxx - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier

FAQ (Frequently Asked Questions)

Wie laut ist die Karte?


Die GeForce GTX 780 Ti erzeugt sowohl im Idle weiterhin eine sehr gute Lautstärke, unter Last wird die Karte zuweilen etwas Lauter, da Nvidia das Temperatur-Target von 79°C auf 83°C gestellt halt. Dadurch wird die Karte zwar etwas wärmer und lauter, kann aber länger höhere Taktstufen nutzen. Unter Last ist eine GTX 780 vergleichbar mit dem "Quiet-Modus" der Radeon R9-290X.
mess5.jpg
mess6.jpg


Wie hoch sind die Temperaturen der Karte?

Wie schon erwähnt liegt das Temperatur-Target der Karte anders als bei der GTX Titan, 780 und 770 nicht mehr bei 79°C, sondern bei 83°C. Dadurch erreicht die Karte unter Last zwischen 80 und 83°C.
mess3.jpg
mess4.jpg


Wie hoch ist der Stromverbrauch?

Im Idle liegt die GTX 780 Ti auf dem Selben Level wie die GeForce GTX 780 und GTX TITAN. Unter Spielelast nimmt die Karte um die 240 bis 250 Watt (Messung von PCGH bei BF: Bad Company 2 und Anno 2070). Dies liegt recht nah an der TDP von 250 Watt, welche wie schon auf die GTX 780 und GTX Titan einem Power-Target von 100% entspricht.

Hier die Messungen (gesamtes System) von HardwareLUXX:
mess1.jpg
mess2.jpg

Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!


Passt die Karte in mein Gehäuse?


Bei der GeForce GTX 780 Ti misst das PCB 26,67 cm, wie bei der GTX 770, 780 und Titan, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.

Die Performance:

Eine Performanceeinordnung findet ihr im Hardwareluxx-test zur GeForce GTX 780. Im Schnitt erreicht die GTX 780 Ti in etwa die Performance der R9-290X im Übermodus oder knapp darüber und ist somit wieder die schnellste Single-GPU-Karte der Welt.

Einige Messwerte:
3dmark3.jpg
3dmark7.jpg


bf3-6.jpg
crysis3-6.jpg
skyrim6.jpg
far3.jpg

Eine genauere Einordnung über mehrere Benchmarks findet ihr hier:
Launch-Analyse: nVidia GeForce GTX 780

Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.

(Seit der GTX 680 nimmt die GPU immer nur noch 13MHz schritte an. Wenn man z.B. +50MHz Offset angibt, erhält man aber nur +39MHz mehr GPU-Takt, da in den +50MHz nur drei +13MHz Stufen drin sind. Die nächst höhere Stufe wären +52MHz.)

Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung. Hardwareluxx erreichte bei eingestellten 1,212V, Temperatur-Target von 95°C und Power-Target von 106% eine maximale Taktrate von 1163/1825MHz.
Performance:
oc4.jpg
oc3.jpg
oc2.jpg
oc1.jpg
oc6.jpg
oc7.jpg

oc5.jpg
HardwareLUXX - GTX 780 Ti overclocking

Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX 780 Ti. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 780, Titan und Radeon R9-290(X) uvm.) angemessen.

Dieser Thread wird in zukunft erweitert.
 
Zuletzt bearbeitet:
Hab ich in BF4 auch.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zuletzt bearbeitet:
62 und 66 haben meine 2
 
Hab mal ein paar Runden Napoleon Total War gespielt und ab und zu bekomme ich egal bei welcher Einstellung ein paar weiße Quadrate. Entweder kommen 3 Quadrate von links nach rechts oder von oben nach unten.

Das muss ein Treiber-, oder Spielproblem sein, bei normalen Einstellungen läuft die Karte mit 1.020mhz und 1,00V dahin, und da besteht das Problem auch, zumal auch alles andere Fehlerfrei läuft.

Quadrate = vram

Solange 3dmark11( u-boot demo ) keine Artefakte produziert ist alles in Ordnung.
mit 1850MHz sehe ich im 3d mark11 bereits ab und zu weiße Striche aufblitzen, ab dem zweiten/dritten loop

bf4 lief aber ca 4 Stunden alles ohne Probleme, ist aber schwierig das mitzubekommen weil in bf4 imba viel flackert
 
Zuletzt bearbeitet:
Nein das nix Fehler
Sieht eher aus wie ein ingame popup Chat Benachrichtigung oder sowas.
 
Wie Maibauer sagt, es sieht so aus als würde ein Chat Fenster auftauchen und verschwinden.

Fehler sind es keine, und zum Thema 3DMark 11. Da kann man ein paar Seiten zurück schauen, hatten wir ja schon mal in diesem Thread, da meinte jemand, man müsste den VRam um satte 500mhz runtertakten, damit es sauber läuft.

Mal ein nettes Video vom 3DMark 2011, jeder normale Mensch würde da wohl denken, da passt die Spannung nicht, aber selbst mit 993/3.300mhz läuft das sauber durch.

Gigabyte GTX 780 Ti Windforce - 3DMark 11 Artifact - YouTube

Heaven, Valley, 3DMark 2013, GPU-Tool (6 Minuten) laufen alle problemlos und sauber, Hitman, Tomb Raider 2013, BF4, etc..., machen alle keine Probleme, aber es gibt wohl Anwendungen, die einfach Konflikte erzeugen, und dann kommt Pixelbrei raus. Ich dachte AMD wäre da schlimm, aber NVIDIA ist ja auch nicht viel besser. ;)

Das GPU-Tool ist so ähnlich wie Furmark aufgebaut, nur vergleicht es das soeben gerenderte Bild, mit dem vorigen, und bei Abweichungen/Fehlern taucht unten ein Error xyz, und last error since xy sec auf.

Es sei aber gesagt, das man nur auf test for stability drücken, und den Rest ignorieren sollte.

Bei mir hat das selbst nach 5 Minuten mit 1.175mhz keine Fehler angezeigt, 1.200mhz rannten auch für knappe 2 Minuten, bei 1,10V, von daher kann man nie sagen, wie sehr man dem Tool trauen kann. Aber man sagt 20 bis 30 Minuten müsste es halten, um sagen zu können, es wäre sehr sehr stabil. 1,10V und 1.200mhz erzeugen in Heaven ab und zu nach dem Schiff schwarze Striche.
 
Zuletzt bearbeitet:
welches GPU-Tool ?

edit:

ok, aber das Tool deaktiviert meine GPU Lüfter lol

- - - Updated - - -

hmm, im heaven bekomme ich ab 1200MHz auch ab und zu für eine msec Striche.
egal ob mit 1.125v oder mit 1.1620v, das soll mir mal bitte jemand erklären...
wenn ich die Lüfter auf 100% stelle und somit die GPU unter 70°C halten kann dann bekomme ich keine Striche mehr.
Mein chip doch nicht so gut wie ich Anfangs dachte lul.
Ech mies, also muss ich schon wieder RMA ( kleiner Scherz )

Valley läuft aber noch mit 1300MHz fehlerfrei, und das mit 80°C
 
Zuletzt bearbeitet:
Quadrate = vram

Solange 3dmark11( u-boot demo ) keine Artefakte produziert ist alles in Ordnung.
mit 1850MHz sehe ich im 3d mark11 bereits ab und zu weiße Striche aufblitzen, ab dem zweiten/dritten loop

bf4 lief aber ca 4 Stunden alles ohne Probleme, ist aber schwierig das mitzubekommen weil in bf4 imba viel flackert

Warum nehmt ihr immer alle bf4 zum stable testen?
Das läuft super easy durch. Wobei beispielsweise Metro ll bei den selben settings abschmiert und um einiges Spannung für den selben Takt braucht
 
Metro 2 läuft bei mir noch durch über Stunden wo in bf4 bereits nach 2 Stunden der Treiber Crasht.
BF4 ist nicht so einseitig wie andere spiele
 
Zuletzt bearbeitet:
Warum nehmt ihr immer alle bf4 zum stable testen?
Das läuft super easy durch. Wobei beispielsweise Metro ll bei den selben settings abschmiert und um einiges Spannung für den selben Takt braucht

ist bei jedem anders
Metro rennt mit wesentlich mehr Takt als BF4/Heaven :d bei mir..
 
Jo Heaven 4.0 ist auch bei mir sehr sensiebel .
 
Dass die Unterschiede da so groß sind hätte ich ja nich gedacht. Metro vordert bei mir um einiges mehr, die karte wird auch bei gleicher Spannung wesentlich wärmer
 
Hat man nicht bei höherer ASIC weniger Leckströme o_O

Gruß JM

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Kann ich nicht verstehen! Warum sollte die Chipgüte höher sein, wenn mehr Leckströme fließen?
gpuz-0.6.0-gtx470-asic-quality.jpg


Ich will es nicht anzweifeln, aber ein Link um mich zu belesen wäre schön.

Gruß JM

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Zuletzt bearbeitet:
niedrige ASIC = hohe Leckströme
das ist nunmal so
 
Denk ich auch so, aber mein Vorposter behauptet unbewiesen das Gegenteil.

Gruß JM

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
will ich nicht abstreiten das ihr wisst was ihr tut
Fakt ist: niedrige ASIC = mehr Leckströme
denn niedrige ASIC = schlechte Chipgüte
schlechte Chipgüte = viel Leckstrom (darum bekommen low ASIC auch immer mehr Saft per default, weil eben viele Leckströme)
schlechte Chipgüte = viel Leckstrom = niedrige ASIC
und viel Leckstrom = wird nicht so warm, weils eben nicht umgesetzt wird in thermische Abwärme (niedrige ASIC = nett für Lukü deswegen)
 
Quote.

Lets recap:

Higher leakage <--> High ASIC <--> Lower voltage needed to reach MHz <-> Lower VID

same TDP as

Lower leakage card <--> High Vid <--> Low ASIC <--> High voltage needed to reach MHz

Which ones can clock higher?

Pure luck.

Low ASIC can take higher voltage. But it NEEDS higher voltage, and will produce same heat as higher ASIC on lower voltage/same MHz.


:wink:
 
Kann ich nicht verstehen! Warum sollte die Chipgüte höher sein, wenn mehr Leckströme fließen?
gpuz-0.6.0-gtx470-asic-quality.jpg

Eigentlich ist es doch umgekehrt... die guten OC Chips sind, wie bei CPUs, im Prinzip die schlechten Chips (von der Reinheit des Siliziums betrachtet) mit hohen Leckströmen und hohem Takt bei niedriger Spannung (dafür fließt Strom und eben Leckströme). Diese CPUs/GPus haben meist auch eine niedrige VID und somit hohe ASIC.

Dies ist wiederum für Extreme OC schlecht und erklärt (Chips sterben schneller), warum Extremeübertakter nach einem Chip mit niedrigerer ASIC, d.h. höherer VID und dafür weniger Leckströmen suchen, der aber trotzdem gut mit dem Takt skaliert.

Oder etwa nicht? ;)

will ich nicht abstreiten das ihr wisst was ihr tut
Fakt ist: niedrige ASIC = mehr Leckströme
denn niedrige ASIC = schlechte Chipgüte
schlechte Chipgüte = viel Leckstrom (darum bekommen low ASIC auch immer mehr Saft per default, weil eben viele Leckströme)
schlechte Chipgüte = viel Leckstrom = niedrige ASIC
und viel Leckstrom = wird nicht so warm, weils eben nicht umgesetzt wird in thermische Abwärme (niedrige ASIC = nett für Lukü deswegen)

Würde somit bedeuten:
- Niedrige ASIC = Mehr Vcore und weniger Leckströme
- Vom OC her betrachtet korrekt, vom Material her bzw. der Reinheit des Siliziums her nicht
- Korrekt (das in den Klammern wiederum nicht, da wenn viel Spannung anliegt weniger Leckströme auftreten, im Prinzip nach "URI")
- Vom OC her betrachtet korrekt, vom Material her bzw. der Reinheit des Siliziums her nicht. Temps sind bei Low ASIC deswegen besser, da eine höhere VID/Standardpspannung immer für bessere Temperaturen sorgt und weniger Strom (und somit Leckströme) fließt.

Habe keine Halbleiterphysik studiert und lasse mich gern eines besseren belehren, aber soweit habe ich das immer verstanden gehabt bzw. auf diesem Stand befindet sich mein Wissen.
 
Zuletzt bearbeitet:
ne... die nehnen Low ASIC weil man da Strom draufbolzen kann weil 1. viel weggeht (Wärme) und 2. sie nicht warm werden

High ASIC lohnt nur für moderates OC mit wenig Spannung und moderater Kühlung

denen kannste nicht soviel Saft geben, weil eben wenig Leckstrom > Hitze
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh