[Sammelthread] NVIDIA GeForce GTX 780 (GK110) Sammelthread + FAQ - Bei Fragen erste Seite

NVIDIA GeForce GTX 780 (GK110) Sammelthread + FAQ

Impressionen der Karte:


gtx780-1kiufh.jpg
gtx780-2ibuas.jpg

gtx780-35xuwr.jpg
gtx780-4k4uid.jpg

gtx780-9y6ux8.jpg
gtx780-729u6c.jpg

gtx780-8kquwl.jpg
gtx780-12bau60.jpg

gtx780-11vkusa.jpg
gtx780-15chufc.jpg




Technische Daten der GeForce GTX 780
  • Chip = GK110-300-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 561 mm²
  • Shader-Einheiten = 2304 (1D) (12 SMX)
  • Texture Mapping Units (TMUs) = 192
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 41,4 GPixel/s (real 27,6 oder 34,5 GPixel/s)
  • Texelfüllrate = 165,7 GTexel/s
  • Chiptakt = 863 MHz Baseclock + Boost (902 MHz) + Estimated Boost
  • Shadertakt = Chiptakt (863 MHz Baseclock + Boost (902 MHz)+ Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 3072 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 222W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel

Introducing the GeForce GTX 780 | GeForce
NVIDIA GeForce GTX 780 Announcement Video




Geizhals Link:
GeForce GTX 780 | Deutschland - Hardwareluxx - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier

FAQ (Frequently Asked Questions)

Wie laut ist die Karte?


Die GeForce GTX 780 erzeugt sowohl im Idle, als auch unter Last eine für einem Referenzdesign niedrige Lautstärke und ist immer leiser als die GeForce GTX 680.
mess5-1rmkka.jpg
mess6bhjyw.jpg


Für eine bessere Vorstellung ein Video der Karte unter Furmark. Das maximum des Lüfters liegt bei rund 56% und hält die Karte bei rund 83°C.

Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX Titan -sowohl im Idle, als auch unter Last (dank des Temp-Targets von 80°C).
mess3-1p5jcj.jpg
mess4tfs8m.jpg



Wie hoch ist der Stromverbrauch?

Im Idle verbraucht die GeForce GTX 780 laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 und GTX TITAN ist. Unter Spielelast nimmt die Karte um die 200-220 Watt (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:
mess1-1alj05.jpg
mess2-1cekqs.jpg

Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!



Passt die Karte in mein Gehäuse?


Bei der GeForce GTX 780 misst wie die GTX Titan das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.



Wie viele GPCs sind bei meiner Karte aktiviert?

Da die GTX 780 über 12 SMX verfügt gibt es zwei möglichkeiten, wie die Karte ausgeliefert wird. Entweder alle 5 GPCs sind aktiv (in jedem GPC ist mindestens ein aktiver SMX) und man erhällt die reele Pixelfüllrate von 34,5 GPixel/s. Allerdings kann die möglichkeit bestehen, dass bei einer Karte auch ein ganzes GPC deaktiviert wurde (ein GPC besitzt keine funktionierenden SMX) und die Karte somit 20% weniger Pixelfüllrate besitzt (27,6 GPixel/s). Wie sich das in der Praxis auswirkt ist noch nicht bekannt. Allerdings ist dieser Unterschied wohl nicht spür- und auch nur selten Messbar.

Eine genaue Feststellung, wie viele GPCs aktiv sind lässt sich nur durch das messen der Füllrate testen.
Fillrate Tester | 3DCenter.org


Die Performance:

Eine Performanceeinordnung findet ihr im Hardwareluxx-test zur GeForce GTX 780. Im Schnitt erreicht die GTX 780 zwischen 90 und 95% der absoluten Leistung der GTX Titan und ist somit zwischen 20 und 30% schneller als die GTX 680 und rund 15% schneller als die HD 7970 GHz Ed.

Einige Messwerte:
3dmark3mnkcq.jpg
3dmark7zyj5y.jpg


bf69ikhj.jpg
crysis3-6vfj5n.jpg


far3jbjhk.jpg
bio3a8kdd.jpg


bf9hgk9j.jpg
skyrim9iuj0x.jpg

Eine genauere Einordnung über mehrere Benchmarks findet ihr hier:
Launch-Analyse: nVidia GeForce GTX 780



Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.

(Seit der GTX 680 nimmt die GPU immer nur noch 13MHz schritte an. Wenn man z.B. +50MHz Offset angibt, erhält man aber nur +39MHz mehr GPU-Takt, da in den +50MHz nur drei +13MHz Stufen drin sind. Die nächst höhere Stufe wären +52MHz.)

Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung. Hardwareluxx erreichte bei eingestellten 1,200V, Temperatur-Target von 90 °C und Power-Target von 106% eine maximale Taktrate von 1150/1625MHz. Das Overclocking wirkt sich wie folgt aus:
Performance:
oc1v5k3b.jpg
oc31mkij.jpg
oc4g8jnx.jpg


oc77qkyq.jpg
oc890kzg.jpg
oc52pksg.jpg
HardwareLUXX - GTX 780 overclocking
Speicherbandbreite-Abhängigkeit

Geforce GTX 780 Taktskalierung im Test - 9 Games, 3 Auflösungen



Geforce GTX 780 Skin für EVGA Precision X (by me)
previewxtuii.png




Custom BIOSe und flashen
Die GTX 780 lässt sich wie alle anderen Kepler-Karten ebenfalls mit andere BIOSe und eigenkreationen flashen. Das Vorgehen ist dabei das selbe wie schon bei der GTX 600er oder GTX 400/500er. Für mehr Informationen den passenden Thread aufsuchen:
GTX 700/600 - BIOS-Files
Geforce-Karten allgemein flashen unter Windows/DOS



Probleme mit ASUS/ASRock/Gigabyte Mainboards
Sporadisch sollen Probleme mit GTX 700-Karten bei der verwendung von ASUS/ASRock/Gigabyte Mainboards vorkommen. Falls man von solch einem Problem betroffen ist, kann dies helfen:
http://www.hardwareluxx.de/communit...x-780-oc-windforce-967164-3.html#post20864765
http://www.hardwareluxx.de/community/f300/asus-p8z68-deluxe-fehlercode-62-bei-770gtx-967392.html
http://www.hardwareluxx.de/community/f219/gigabyte-ga-x79-ud3-ud5-intel-x79-865610-27.html
https://forums.geforce.com/default/...-ti-wont-get-pc-past-motherboard-load-screen/


Custom-Karten
Anders als bei der GTX Titan erlaubt Nvidia bei der GTX 780 eigendesigns der Boardpartner. Da die GTX 780 über beinahe das selbe PCB wie die Titan verfügt, dürften alle verfügbaren Wasserkühler für die Titan auch auf die 780 passen.

Zurzeit sind schon auch schon einige neue Designs, wie das ACX-Design von EVGA verfügbar. Weitere Custom-Designs anderer Partner sind ebenfalls vorhanden, wie die sehr leise MSI GTX 780 Gaming und die extrem schnelle Inno iChill HerculeZ 2000. Dazu kommen schon bekannte Designs wie etwa von ASUS, Gainward und Palit (Direct CU II, Jetstream (Super Jetstream) und Phantom).

Da einige Besitzer des EVGA ACX-Designs sich über ein unrundes Laufverhalten des Lüfters im Idle beschwert haben, hat EVGA ein neues erstellt:
http://www.hardwareluxx.de/community/f300/gtx-780-acx-bios-mit-neuer-luefterregelung-969007.html

Der Vorteil dieser Designs ist nicht nur die teilweise niedrigere Lautheit der Karte, auch die niedrigen Temperaturen unter Last sorgen dafür, dass solche Custom GTX 780-Karten meistens den vollen GPU-Boost nutzen. Bei einigen Karten bedeutet das Taktraten von knapp über 1.100MHz und somit deutlich mehr Performance als mit den von Nvidia als Durchschnitt angegebenen 902MHz.




Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX 780. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Dieser Thread wird in zukunft erweitert.

(Dank an Edgecrusher86 für den Titan-Sammelthread - da die 780 sehr ähnlich ist, habe ich einiges aus seinem Sammelthread zitiert.)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ok supi :d Da könnte man ja glatt das erweitern komplett weg lassen ;D oder bringt es bei manchen Spielen bessere qualität, wenn man es nur erweitert statt das treiberseitige aufzuwingen?^^
 
Treiberseitiges MSAA/SGSSAA sieht in nahezu allen fällen besser als ingame AA/erweitertes SGSSAA aus. Kostet aber meistens mehr Performance und mehr Vram.

Die Unterschiede wird man aber nur selten sehen (außer, man ist da sehr, sehr empfindlich).
 
Kann man grob in % sagen, wieviel mehr Performance und mehr Vram das Treiberseitige MSAA/SGSSAA verbraucht?
 
nein, da das von applikaton zu applikation unterschiedlich ist. mal ist treiber-MSAA so schnell wie ingame-MSAA, mal deutlich langsamer. Mal verbraucht es kaum mehr Vram, ma deutlich mehr.
 
Okay, danke Dir :d

Mal zum Bios von den 780er Karten, wie kann ich da denn jetzt genau mit GPU Z bzw dem Inspector
1. Das eigene Bios auslesen ob es Elpida oder Hynix hat?
2. Und wie ich (ohne flashen zu müssen!) ein fremdes Bios auslesen kann, um dort ebenfalls gucken zu können, ob es für Elpida oder Hynix ist? Es wurde hier schon gesagt das es mit dem neusten GPU-Z oder dem Inspector gehen soll.. wo soll man denn bei dem jeweiligen Programm draufklicken, um ein fremdes Bios auslesen zu können, finde es selber nicht, eine Bilder-Beschreibung wäre erstklassig!

Habe nach sämtlichen Bildern gegoogelt und Videos geschaut, finde aber keine Bilder/Beschreibung, wie ich diese beiden Dinge hinbekomme. :/
 
Zuletzt bearbeitet:
@Broly

Hab das mit den paar Mhz mehr oder weniger grad ausprobiert ^^

Also die Hauptseite von GPU-Z reagiert auf jedes Mhz was ich verstelle. Die Sensorseite als auch AB reagieren nur auf ~13Mhz Schritte bis sich da was am Takt tut. Einmal hab ich es sogar hinbekommen das alle 3 Werte was anderes Anzeigen :fresse:

Also entweder runden die Programme unterschiedlich oder kommen sich zusammen ins Gehege :d

Ganz 100% Synchron bekommt man die Anzeigen nicht.

AB zeigt jetzt 1150Mhz an, GPU-Z auf der Hauptseite 1151Mhz und die Sensorseite 1149,7Mhz :d

Aber mir jetzt auch wurscht. Läuft so wie es eingestellt ist Stundenlang jedes Game ^^

Wobei es mir ja immernoch in den Fingern juckt auf zwei Ti's umzusteigen :fresse:

Wann soll eigentlich Maxwell kommen ?
 
Also die Hauptseite von GPU-Z reagiert auf jedes Mhz was ich verstelle. Die Sensorseite als auch AB reagieren nur auf ~13Mhz Schritte bis sich da was am Takt tut. Einmal hab ich es sogar hinbekommen das alle 3 Werte was anderes Anzeigen
Die GPU-z hauptseite zeigt auch nicht die wirklichen (realen) MHz an, das tut GPU-z nur unter sensors.

AB zeigt jetzt 1150Mhz an, GPU-Z auf der Hauptseite 1151Mhz und die Sensorseite 1149,7Mhz :d
AB/PrecisionX runden auf/ab. Den ganz genauen MHz-Wert bekommt man nur vom GPU-z sensors-tab.

Wann soll eigentlich Maxwell kommen ?
Die Frage muss heißen: Wann kommt ein Maxwell, der mit dem GK110 gleichziehen wird/diesen überholen kann. Auf solche GPUs warten wir mindestens noch bis ende des Jahres, wenn nicht noch länger - und dann, wenn möglich, sehen wir auch erst einen Performance-chip ala GK104 (GTX 680).

Die Situation zurzeit sieht einfach so aus, dass nVidia nichts neues rausbringen muss (müsste). Man hat die schnellste Single-GPU (GTX 780 Ti), demnächst kommt wohl erstmal eine neue GTX Titan (780 Ti + 6GiB Vram + volle DP-Performance) und eine GTX 790.
 
Naja, wenn du zwei gute erwischt, diese rund 1250-1300MHz mitmachen, kannst du schon nochmal 25% mehr Performance bekommen (gegenüber einer 780 mit 1150 MHz), und gerade bei SGSSAA/OGSSAA schlagen die ganzen 2880 Shader der Ti voll durch, sodass dann mal auch 30 oder 35% mehr bei rauskommen kann.

Ich hab für 35% von einer 680 auf eine 780 gewechselt. Wenn man die 780er noch gut loswerden kann, würde sich das sogar fast noch lohnen:d
 
Naja... Das ist genau der Haken an der Sache. Die beiden GTX780 gut loswerden -.-

Selbst wenn ich die für 450€ es Stück mit Wasserkühler Quit werde dann muss ich gute 200-250€ / Stück drauflegen für ne Ti mit WaKü :heul:

Weil ich brauch auf jedenfall wieder 2 :(
 
Naja, wenn du zwei gute erwischt, diese rund 1250-1300MHz mitmachen, kannst du schon nochmal 25% mehr Performance bekommen (gegenüber einer 780 mit 1150 MHz), und gerade bei SGSSAA/OGSSAA schlagen die ganzen 2880 Shader der Ti voll durch, sodass dann mal auch 30 oder 35% mehr bei rauskommen kann.

Ich hab für 35% von einer 680 auf eine 780 gewechselt. Wenn man die 780er noch gut loswerden kann, würde sich das sogar fast noch lohnen:d

Ich überlege die ganze verdammte Zeit, ob ich eine gtx 780 HC Classified nehme (diese mit 1,35v betreibe @ ca 1400-1450mhz) oder 2x GTX 780 @ jeweils mit 1100-1150mhz, was würdest Du bzw Ihr empfehlen? :d

Warte eigentlich nur auf die 780 Ti mit 6GB. Wenn ich diese im 2way sli betreiben würde, wäre diese Karte dann mit oc schnell genug, um die 6 GB Vram zu füllen und in BF4 trotzdem noch 60-80 konstante fps zu haben? Was sagt der Fachmann? Weil wenn das nicht hin haut, wozu sollte ich mir dann die 6gb Variante kaufen :/?
edit: Falls das wichtig ist, betrieben wird dann ein 120hz 1440p Monitor.

Falls das wirklich hinhauen sollte (und ich hoffe das bei 60fps nicht zuuuviele mikroruckler vorhanden sind), würde ich garkeine andere kaufen und direkt auf die 6gb Version warten.
Wollte das erst mit 2 Titanen machen, aber im anderen Board wurde gesagt, dass diese viel zu lahm ist - wenn ich nämlich die 6gb voll hätte (auch 2way sli), dann hätte ich nurnoch 20-30fps..

Und angenommen man betreibt die beiden 780 Ti dann mit jeweils 1,30v und den cpu mit 1,35v - wird da ein 1200watt Netzteil pflicht, oder reicht das 1000er noch aus? o_O
 
Zuletzt bearbeitet:
Bei 1.3v auf zwei Karten und dann noch CPU OC denke mal 5 GHz dann reicht kein 1000 Watt NT.
 
Das ist quatsch ich habe gtx 780 sli oc mit 4770k auf 4,7 Ghz mit 750Watt NT stabil am laufen.

Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
mir ist das E9 580w auch schon ausgegangen bei 4,8-4,9cpu und 1,3v graka.. deswegen kommt jetzt p10 mit 850W ..für eine graka;)
 
Zuletzt bearbeitet:
i7 3770K@1,5v und SLI GTX780Classy@1,3v ging bei mir(950W Revo 85+) bei 1160W der PC aus :shot:
 
was habe ihr den für Weicheier Netzteile.

Konnte zwei übertaktete gtx780 mit nem 550w bq p10 betreiben.
nicht mal bei knapp 900w ging das Netzteil aus :fresse2:
 
Ich überlege die ganze verdammte Zeit, ob ich eine gtx 780 HC Classified nehme (diese mit 1,35v betreibe @ ca 1400-1450mhz) oder 2x GTX 780 @ jeweils mit 1100-1150mhz, was würdest Du bzw Ihr empfehlen? :d
Wenn SLI funktioniert, sind zwei 780er mit 1150 MHz deutlich schneller als eine mit 1400-1450 MHz - im GPU-limit liefert SLI gerne mal 90% mehr Fps. 1400-1450MHz ist aber im besten fall nur 26% schneller als 1150 MHz, eher im schnitt nur etwa 15 bis 20%, da die Speicherbandbreite eine bessere skalierung verhindert. Das SLI wäre also über 50% schneller. Allerding hat man mit SLI immer die Multi-GPU probleme - höherer Input-Lag, man ist auf SLI-Bits angewiesen und Micro-ruckler.

Was sagt der Fachmann? Weil wenn das nicht hin haut, wozu sollte ich mir dann die 6gb Variante kaufen :/?
edit: Falls das wichtig ist, betrieben wird dann ein 120hz 1440p Monitor.
Selbst in 1440p werden 3GiB eher selten wirklich limitieren. Das einzige Game, was ich mit 3GiB wirklich kaum noch spielen konnte war Skyrim - in 4k + 8x MSAA + Textur-mods. Mit 4x MSAA ging es aber wieder. Im SLI wären 6GiB sicherlich nicht verkehrt, vor allem, wenn man die Karten länger behalten möchte. Hinzu kommt, dass du abwägen musst: Die Titan Black (780 Ti + 6GiB) kostet warscheinlich wieder 1000€:d


Wollte das erst mit 2 Titanen machen, aber im anderen Board wurde gesagt, dass diese viel zu lahm ist - wenn ich nämlich die 6gb voll hätte (auch 2way sli), dann hätte ich nurnoch 20-30fps..
Eine Ti ist nur etwas schneller als eine Titan (nur etwa 10%)... Die 6GiB bekommst du sogut wie kaum gefüllt - und wenn, dann sind auch 3 oder vier Karten schlicht nicht ausreichend, um flüssige Bilder darzustellen. Grob: Selbst wenn du in 4K speilst, die 6GiB wirst du zu 99% niemals vollbekommen - stand heute.
 
Eine Ti ist nur etwas schneller als eine Titan (nur etwa 10%)... Die 6GiB bekommst du sogut wie kaum gefüllt - und wenn, dann sind auch 3 oder vier Karten schlicht nicht ausreichend, um flüssige Bilder darzustellen. Grob: Selbst wenn du in 4K speilst, die 6GiB wirst du zu 99% niemals vollbekommen - stand heute.

Um es auf den punkt zu bringen - 2way sli wäre extrem quatsch, denn würde ich die 4-6gb vram voll bekommen, wären es definitiv unter 60fps? Das ist doch grütze -.-

Gesendet von meinem U9200 mit der Hardwareluxx App
 
Zuletzt bearbeitet:
nein, nein, du kannst den Vram auch voll bekommen und weiterhin flüssige Fps haben. Ist halt von Game zu Game unterschiedlich. Skyrim kann man z.B. mit einer 780 (mit Textur-mods) in 4K +4x MSAA ganz gut spielen (etwa 60Fps im schnitt), der Vram ist allerdings sogut wie voll - eine Karte mit 6GiB würde da schon vorteile bieten, wie weniger Nachladeruckler.


In der Regel ist es aber so (um 6GiB voll zu bekommen), dass man Settings nutzen muss, die auf einer Single-GPU nicht mehr flüssig sind und auf zwei Karten man auch mit nur 20 bis 40Fps rechnen kann. Wie ich schon sage: Um 6GiB vollzumachen braucht man meistens eine extrem hohe auflösung (3840x2160, 5760x1080, 8x MSAA, Textur-mods, etc. ...) Und in solchen Situationen reicht auch die rechenleistung von zwei Karten oft nicht mehr aus.

Also: Wenn man in hohen Auflösungen spielt, mit viel MSAA und Textur-mods - dann können sich 6GiB im vergleich zu 3GiB lohnen. Es ist, wie ich schon sagte, eben Fallabhängig.
 
Zuletzt bearbeitet:
Klasse Erklärungen, vielen dank :)

Bei mir bezieht es sich nur auf BF4, ich will da das absolute maximum rausholen, auf einem 1440p Monitor. Ingame 150% reolutionscale einstellen, wären dann ja sogar schon 4k.

Aber mit flüssigen 200% (entspricht dann schon 5k, also 5120x2880) spielen zu können und evt sogar noch MSAA dazu, reichen die 3gb vram jedenfalls nicht.

Ich hatte noch nie SLI, kann leider nicht Ansatzweise testen/abschätzen wieviel fps ich z.B in bf4 mit vollen 4gb vram hätte.
Die normale Titan wird ja nicht wirklich vergleichbar sein, oder hat hier jemand 2 Titan und kann mal sein feedback abgeben?

Ich will halt MINDESTENS 60 fps haben, also konstant. Vielleicht erwarte ich auch zu viel? Wenn ich mir jetzt die 6gb Karten kaufe und ich z.b 4-4,5gb vram nutzen würde, aber das Bild nur MINIMAL besser ist wie bei 2x 780ti@3gb, dann wären mir die 6gb wohl zu teuer. Ich denke Du weisst was ich meine, wenn das grafisch kaum einen unterschied macht, weis ich nicht ob sich die 6gb lohnen.
Wenn sich dadurch aber die ruckler spürbar verringern, ist das jedenfalls (für mich) nochmal ein GROßES plus für die 6gb Variante, bin schon sehr pingelig würde ich sagen :d

edit: Wenn wir mal extrem pervers sind.. und man 4x 780gtx Ti @ 6gb einbauen würde, dann wäre die rechenleistung sicherlich vorhanden? Aber wären die mikroruckler dann nicht ebenfalls extrem, oder wären die dann z.B wie bei 2way sli @ 3gb? Schätze mal das konntest Du selber auch noch nicht testen, oder gibts hier jemanden der 4 Titan nutzt?
 
Zuletzt bearbeitet:
Aber mit flüssigen 200% (entspricht dann schon 5k, also 5120x2880) spielen zu können und evt sogar noch MSAA dazu, reichen die 3gb vram jedenfalls nicht.
Da ich kein BF4 habe, kann ich das schlecht vergleichen - aber: 6GiB wären in der Auflösung aber von Vorteil.

Ich will halt MINDESTENS 60 fps haben, also konstant. Vielleicht erwarte ich auch zu viel? Wenn ich mir jetzt die 6gb Karten kaufe und ich z.b 4-4,5gb vram nutzen würde, aber das Bild nur MINIMAL besser ist wie bei 2x 780ti@3gb, dann wären mir die 6gb wohl zu teuer. Ich denke Du weisst was ich meine, wenn das grafisch kaum einen unterschied macht, weis ich nicht ob sich die 6gb lohnen.
Wenn sich dadurch aber die ruckler spürbar verringern, ist das jedenfalls (für mich) nochmal ein GROßES plus für die 6gb Variante, bin schon sehr pingelig würde ich sagen :d
Die Frage ist, ob in der Auflösung zwei Karten überhaupt noch so viele Fps berechnen können. mehr als doppelt so viele Fps wirst du mit einem SLI sowieso nicht erreichen können. Es ist doch weider die Frage: Muss man BF4 in 5120x288 spielen? Tut es 4x SGSSAA in 1440p nicht auch? (was optisch sogar besser aussieht und deutlich schneller ist). Braucht man in dieser riesigen Pixelmenge noch MSAA, reicht nicht auch FXAA?

edit: Wenn wir mal extrem pervers sind.. und man 4x 780gtx Ti @ 6gb einbauen würde, dann wäre die rechenleistung sicherlich vorhanden? Aber wären die mikroruckler dann nicht ebenfalls extrem, oder wären die dann z.B wie bei 2way sli @ 3gb?
1. 4-way-SLI skaliert schon nicht mehr optimal, bzw. sogar recht mieß (vllt nur +30 bis 40% mehr Fps als 3-way-SLI
2. Ja, die Microruckler werden dadurch deutlich stärker sein - und der Inputlag ebenfalls.
3. Es müssen erstmal Profile für 4-way-SLI vorhanden sein, damit das überhaupt skaliert.
 
BF4 ist doch eh eine einzige Bug-Sammlung. Ich hab ja 2x GTX780 im SLI @ 1150/3200 und spiele sogar in 2560x1440. Da haben die beiden schon genug zutun ! Da kanns mal ganz schön stark einknicken wenn halli galli ist ^^

1080p zu 1440p sind mal gard fast 80% mehr Pixel zu berechnen, das darfste nicht vergessen !

4K kannste fast knicken. Da werden dir auch keine 6GB RAM helfen. Da fehlt einfach die GPU Power für...
 
Zuletzt bearbeitet:
Oh man, hätte ich nicht gedacht. Befasse mich erst jetzt so richtig mit highend Karten.. aber das "so wenig" möglich ist, war mir nicht klar. Ich dachte man könne mit 2x Titan ohne weiteres auf 4k + SGSSAA + MSAA und alles auf Anschlag zocken, aber dem ist ja mal garnicht so.

Die Sache ist, mich stören in BF4 am meisten die extrem pixeligen Bäume/Büsche die mittel bis weit weg sind, spiele jedoch nur auf high (nicht ultra) ohne MSAA und auf einen 1050er Monitor, also nichtmal full hd.

Wenn ich ultra settings+4x MSAA auf einem 1440p Monitor zocke, sollte sich mein Problem doch deutlich bessern - so sollte es ja eigentlich sein :d ? Das einzige ist, wenn ich mir YT Videos anschaue, wo auf 4k gespielt wird (downsampling) sehen die Bäume immernoch nicht perfekt aus.
Daher auch zuvor die Frage, ob man die 6gb vram voll bekommen würde (um ein noch glatteres Bild zu bekommen), aber wenn ich 6gb vram habe und diese überhaupt nicht nutzen kann bzw wenn mehr als 3gb vram voll sind, auch gleichzeitig 40 fps bedeuten (im 2way sli), kann ich das vergessen. Das bringt einem ja mal garnichts :d

Schätze dann wird es eine 780 HC classified oder 780 Ti, was spricht denn für die Ti? Was haben die mehr shader für einen Vorteil?
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh