[Sammelthread] NVIDIA GeForce GTX 780 Ti (GK110) Sammelthread + FAQ - Bei Fragen erste Seite

NVIDIA GeForce GTX 780 Ti (GK110) Sammelthread + FAQ

Impressionen der Karte:


gtx780ti-1-950x6332oj64.jpg
gtx780ti-2-950x6330hja5.jpg

gtx780ti-4-950x633bcjz8.jpg
gtx780ti-3-950x633bbj24.jpg

gtx780ti-8-950x6338cjtb.jpg
gtx780ti-9-950x6333kjwu.jpg

gtx780ti-6-950x6335qk44.jpg
gtx780ti-11-950x633eyj5e.jpg

gtx780ti-10-950x633mqkfm.jpg
gtx780ti-12-950x633vhjv2.jpg




Technische Daten der GeForce GTX 780
  • Chip = GK110-425-B1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 561 mm²
  • Shader-Einheiten = 2880 (1D) (15 SMX)
  • Texture Mapping Units (TMUs) = 240
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 42,0 GPixel/s (real 35,0 GPixel/s)
  • Texelfüllrate = 210,2 GTexel/s
  • Chiptakt = 876 MHz Baseclock + Boost (928 MHz) + Estimated Boost
  • Shadertakt = Chiptakt (876 MHz Baseclock + Boost (928 MHz)+ Estimated Boost)
  • Speichertakt = 1750 MHz
  • Speichergröße = 3072 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 336,0 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 222W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing the GeForce GTX 780 Ti | GeForce
NVIDIA GeForce GTX 780 Ti Announcement Video




Geizhals Link:
GeForce GTX 780 Ti | Deutschland - Hardwareluxx - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier

FAQ (Frequently Asked Questions)

Wie laut ist die Karte?


Die GeForce GTX 780 Ti erzeugt sowohl im Idle weiterhin eine sehr gute Lautstärke, unter Last wird die Karte zuweilen etwas Lauter, da Nvidia das Temperatur-Target von 79°C auf 83°C gestellt halt. Dadurch wird die Karte zwar etwas wärmer und lauter, kann aber länger höhere Taktstufen nutzen. Unter Last ist eine GTX 780 vergleichbar mit dem "Quiet-Modus" der Radeon R9-290X.
mess5.jpg
mess6.jpg


Wie hoch sind die Temperaturen der Karte?

Wie schon erwähnt liegt das Temperatur-Target der Karte anders als bei der GTX Titan, 780 und 770 nicht mehr bei 79°C, sondern bei 83°C. Dadurch erreicht die Karte unter Last zwischen 80 und 83°C.
mess3.jpg
mess4.jpg


Wie hoch ist der Stromverbrauch?

Im Idle liegt die GTX 780 Ti auf dem Selben Level wie die GeForce GTX 780 und GTX TITAN. Unter Spielelast nimmt die Karte um die 240 bis 250 Watt (Messung von PCGH bei BF: Bad Company 2 und Anno 2070). Dies liegt recht nah an der TDP von 250 Watt, welche wie schon auf die GTX 780 und GTX Titan einem Power-Target von 100% entspricht.

Hier die Messungen (gesamtes System) von HardwareLUXX:
mess1.jpg
mess2.jpg

Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!


Passt die Karte in mein Gehäuse?


Bei der GeForce GTX 780 Ti misst das PCB 26,67 cm, wie bei der GTX 770, 780 und Titan, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.

Die Performance:

Eine Performanceeinordnung findet ihr im Hardwareluxx-test zur GeForce GTX 780. Im Schnitt erreicht die GTX 780 Ti in etwa die Performance der R9-290X im Übermodus oder knapp darüber und ist somit wieder die schnellste Single-GPU-Karte der Welt.

Einige Messwerte:
3dmark3.jpg
3dmark7.jpg


bf3-6.jpg
crysis3-6.jpg
skyrim6.jpg
far3.jpg

Eine genauere Einordnung über mehrere Benchmarks findet ihr hier:
Launch-Analyse: nVidia GeForce GTX 780

Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.

(Seit der GTX 680 nimmt die GPU immer nur noch 13MHz schritte an. Wenn man z.B. +50MHz Offset angibt, erhält man aber nur +39MHz mehr GPU-Takt, da in den +50MHz nur drei +13MHz Stufen drin sind. Die nächst höhere Stufe wären +52MHz.)

Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung. Hardwareluxx erreichte bei eingestellten 1,212V, Temperatur-Target von 95°C und Power-Target von 106% eine maximale Taktrate von 1163/1825MHz.
Performance:
oc4.jpg
oc3.jpg
oc2.jpg
oc1.jpg
oc6.jpg
oc7.jpg

oc5.jpg
HardwareLUXX - GTX 780 Ti overclocking

Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX 780 Ti. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 780, Titan und Radeon R9-290(X) uvm.) angemessen.

Dieser Thread wird in zukunft erweitert.
 
Zuletzt bearbeitet:
Das ist schon richtig. Aber vorher brachte alles über 1300 Artefakte, egal bei welcher Voltage. Jetzt ist es artefaktfrei.


Gruß JM
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das ist schon richtig. Aber vorher brachte alles über 1300 Artefakte, egal bei welcher Voltage. Jetzt ist es artefaktfrei.


Gruß JM
Was für nen kühler hast du drauf?

Habe mein SLV7 Bios runter geworfen weil..
Manchmal kein conect mit meinem Onky so mit kein Bild am Fernseher...und Videos haben geruckelt mit dem SLV...und weil ich mit dem Skynet höher komme beim Oc .
 
Zuletzt bearbeitet:
@Haudi
Danke für die Antwort mmh .
Ist da der kontakt nicht richtig gegeben ja???
Da für wird der Ram ja direkt gekühlt bei Kyro oder die Spawas auch ??
Meine ist auch stark Temp abhängig habe den Warenkorb schon vorbereitet da her hacke ich noch mal nach .
Hat jemand schon den Watercool drauf gehabt.
 
Zuletzt bearbeitet:
Ne, wie gesagt, bei EK haben sie auf den R-Bauteilen ja auch Pads drauf. Und das wie es scheint ja auch nicht ganz ohne Grund;). Hatte das bei meiner ersten mit EK verbauten Karte auch feststellen können - hatte erst die Pads nicht drauf auf den R-Teilen. Nun beim 2. sind sie drauf und auch die 1350 in TR mit Tesselation laufen locker ohne Artefakte bei 1.175V durch. Ich dachte erst, dass es nen Tesselations Bug gibt bei NV. Weil ohne Tesselation gings auch locker ohne die Pads;). Da erst mal draufkommen....
Naja aber wie man sieht hilft es tatsächlich...
 
Danke für die Antwort haudi:wink:

DIE und RAM sind direkt gekühlt mit WLP. VRMs sind auch direkt gekühlt mit Pads. R22 und R33 werden eigentlich nicht gekühlt, aber ich hab Pads rauf gemacht und es hat mein Max OC bis Crash nicht verbessert, aber dafür in den Taktstufen davor die Artrfakte entfernt.

Edit: ich habe allerdings erst gezögert, ob ich wirklich Pads drauf mache. Es halten sich im Netz Gerüchte dass Karten verreckt sind aufgrund der Pads auf diesen Bauteilen.

Gruß JM

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Zuletzt bearbeitet:
Naja wenn tatsächlich Karten deswegen verreckt sind warum sind sie dann bei EK standardmäßig drauf? Hast mal nen Link dazu wo vermutet wird, dass Karten diesbezüglich über den Jordan sind?
 
Später. Mach gerade Mittag. Stand glaube im oc.net Sammler. Da bezog sich aber nicht auf EK Kühler. Die werden ja ihre Toleranzen kennen, wenn sie meinen da sollten Pads drauf. Gerade bei AC war ich mir unschlüssig, da ja wie gesagt auch die RAM Bausteine WLP bekommen.

Gruß JM

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Ah o.k. alles klar.Joa das war auch der Grund warum ich mich gegen AC entschieden hatte. Wegen WLP auf VRAM;). Aber könnte natürlich sein, dass dann durch Pads auf den R22/33 Bauteilen bei AC mehr Platz zwischen Kühler und VRAM ist bzw. die Karte mehr durchgebogen wird dass Kontakt entsteht. Und dies eventuell zu Schäden führt. Wobei die Biegung bestimmt im Rahmen ist:).
 
Habt ihr mal nen screen um welche Bauteile es sich handelt Frau weg und die kleine schiebt Terror ohne Ende komm nicht zum suchen .:fresse2:

Jetzt war einer schneller und vor allem welche pads von der Stärke her.
 
Zuletzt bearbeitet:
Haudi hat's gepostet. Habe auch einfach die normalen von AC genommen, die beilagen. Müssten auch 0,5 sein. Ihr werdet die Bauteile schon erkennen. Es steht halt R22 drauf, das sind die 6 großen, und R33, das sind die 2 kleinen.

Edit:
500x1000px-LL-72df6b4d_780Timemindpads.png


Gruß JM

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Zuletzt bearbeitet:
Mmh dan nehme ich einfach den EK Kühler und gut ist.
 
Wenn du man den Deckel abschraubt sieht's unter allen gleich aus... völlig egal welchen man nimmt. So lange es nicht die hässlichen Alphacool sind.

Gruß JM

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Anhang anzeigen 272864

Die WLP Paste ringsrum soll nicht zeigen wie es geschützt ist :fresse: Da hatte ich nur keinen Bock mehr sauber zu machen... Ich wollte nur zeigen wie wenig dür den ganzen DIE reicht.

Hast Du die LM mit einem Pinsel oder sonnstigem verteilt oder einfach Kühler drauf und fertig. Frag deswegen, weils meine erste WAKÜ is die ich verbaut hab. :hail:
 
Zuletzt bearbeitet:
650 Flocken nun für die gesamte Wasserkühlung na ja dann habe ich wenigsten einige Jahre Ruhe.

Hätte ja nun auch ein SLI werden können lol:d
 
Mit Pinsel. Wenn du LM noch nie benutzt hast, dann würde ich es an deiner Stelle auch nicht an einer GPU testen. Besser ist sogar noch ein klein bisschen weniger aufzutragen als mein Tropfen dort.

Edit: GENERELL GILT LM NIEMALS EINFACH NUR ZU KLECKSEN! ES MUSS VERTEILT WERDEN!

Gruß JM

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Zuletzt bearbeitet:
Das ist ratsam ;-) dann kannst auch klecksen.

Gruß JM

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Auf alle Fälle schon mal DANKE für die Antworten. Bin schon gespannt, was die GTX gegenüber der HD7950 bringt :confused:
 
Na hoffentlich. Das ganze GRAKA-Projekt hat immerhin knapp 800 Teuronen verschluckt :p
Aber man(n) gönnt sich ja sonnst nix :rofl:
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh