[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nö Mario, ein "Olli Kahn" :-)fresse:) reicht mir aus.
Haswell wäre eigentlich genau das Richtige ... vom B2 zum Haswell-Bug :shot:. Nee, im Ernst, die Sandy hat eigentlich noch genug Dampf und wenn nötig gibt's eben 5GHz "on the fly" (muss erst ab 5,1GHz ins Bios und u.a. PLL-Overvoltage enablen^^).

Allerdings bin ich momentan drauf und dran in meiner Zweitwohnung Phone+DSL nun doch zu holen (wegen meiner WoT-Clanaktivität) und überlege schon ob MIVE+Sandy dann umziehen und im Rechner Nr.1 IB/Haswell ohne Bug samt PCIe 3.0 Bord Einzug hält. Schaun mer mal...
 
melthread + FAQ - Bei Fragen erste Seite lesen

Hoffentlich klappt das heute beim Grinse nun!?
Hatte auch heute Besuch vom DHL Mann und ein Lian Li W-65BT Seitenteil mit Fenster bekommen. Extra zwecks der Titan bestellt, auch wenn Caseking meinte, dass das Seitenteil für mein Lancool K7 nicht passt. Nach eigener Recherche soll es passen, was es auch tut.
Jetzt kann ich wann immer ich will meine Titan betrachten und dabei zu ihr sprechen "Na du geile Matz du" während sie mich grün anleuchtet und meine Freundin im Hintergrund sagt "In Zukunft kannst du sie ja um Sex anbetteln" :fresse2:

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Dann bekommt Grinsi Eier wie ein Titan wenn das passieren sollte:fresse2:

leckomio war das ein Tag^^
Ich sehe schon, ihr seid richtig gut zu mir :d

heute Morgen losgeeiert. Musste aber schnell noch was besorgen. Was habe ich da gesehen !?! :bigok: DHL :banana:
Direkt nen Anker geschmissen, der gestressten Dame fast in die Arme gefallen :fresse:
Sie hat mir dann das Paket in die Hand gedrückt mit nem schönen Ostergruß :banana:

... scheiß auf den Termin. Ab nach hause, ausgepackt, eingebaut ... lüppt
noch mal gestreichelt, bussi, bist gleich du geiles Miststück :haha:

so, nun endlich wieder da und kann mich dem Teil mal widmen, alle TFTs anschließen und testen, zocken.
Ich habe direkt bescheid gegeben. In meinem Raum herrscht heute Familienfreie Zone :d
 
leckomio war das ein Tag^^
Ich sehe schon, ihr seid richtig gut zu mir :d

heute Morgen losgeeiert. Musste aber schnell noch was besorgen. Was habe ich da gesehen !?! :bigok: DHL :banana:
Direkt nen Anker geschmissen, der gestressten Dame fast in die Arme gefallen :fresse:
Sie hat mir dann das Paket in die Hand gedrückt mit nem schönen Ostergruß :banana:

... scheiß auf den Termin. Ab nach hause, ausgepackt, eingebaut ... lüppt
noch mal gestreichelt, bussi, bist gleich du geiles Miststück :haha:

so, nun endlich wieder da und kann mich dem Teil mal widmen, alle TFTs anschließen und testen, zocken.
Ich habe direkt bescheid gegeben. In meinem Raum herrscht heute Familienfreie Zone :d

geil ^^
 
Hitman ist das erste Spiel das ich sehe, dass ohne überzogene Einstellungen das VRAM der Karte ausfüllt bis aufs letzte.
Und das beste .... dann fängt es an zu swappen, also üble Framedrops während neue Texturen geladen werden :-(

 
so, mal Treiberreinigung betrieben, neuen drauf, surround eingerichtet und ein bissi rumgedaddelt erstmal @ stock.

Gefühlt hat sich das ja schonmal absolut gelohnt dem 680er SLI gegenüber.
Ich habe erstmal ohne und dann mit Fraps gespielt. Ich war überrascht wie niedrig stellenweise die fps waren, es sich dennoch deutlich geschmeidiger anfühlte.
Hier und da war in Alan Wake beispielsweise mal nen Ruckler. Ich denke aber mit der 2. ist das weg. Beim SLI fehlte mir Ram, jetzt wieder Power.
Schon komisch im GPU-Z SLI disabled zu sehen :fresse:
Einerseits hätte ich schon bock mich ans OC zu geben, andererseits habe ich nach der langen Durststrecke einfach nur bock zu zocken.
Ich weiß nur nicht was ich jetzt als erstes anfangen soll. Ich glaube AlanWake spare ich mir für die 2. auf und beginne endlich TombRaider worauf ich schon so sehnsüchtig warte.

Das mit Hitman ist krass :eek:
Lief das mit anderen Karten besser ? Dann ists wohl eher ein Treiberproblem ?
6GB auf Anschlag ist fett.

€dit:

da ja Ostern ist und ich ohne Wakü arbeiten muß (meine Frau schaute mich ganz verdattert an "du ohne Wasserkühlung !? :stupid: das gibts nochmal !?! :fresse:), spendiert sie mir nen Kühler.
- Echt ? :eek::hmm:
- was kost der ?
- 130 mit BP
- jaa, geht ja noch .. du warst schon schlimmer

:banana: :bigok:
 
Zuletzt bearbeitet:
Ne ne das mit hitman passt schon ich habe hier zwei hd7970 und bei 2560x1440@ultra und 4xMSAA wird der vram auch immer wieder voll und bei 8xMSAA habe ich sofort alles überflutet.

Tombraider und alan wake sind beide total geil ;)
 
so, mal Treiberreinigung betrieben, neuen drauf, surround eingerichtet und ein bissi rumgedaddelt erstmal @ stock.

Gefühlt hat sich das ja schonmal absolut gelohnt dem 680er SLI gegenüber.
Ich habe erstmal ohne und dann mit Fraps gespielt. Ich war überrascht wie niedrig stellenweise die fps waren, es sich dennoch deutlich geschmeidiger anfühlte.
Hier und da war in Alan Wake beispielsweise mal nen Ruckler. Ich denke aber mit der 2. ist das weg. Beim SLI fehlte mir Ram, jetzt wieder Power.
Schon komisch im GPU-Z SLI disabled zu sehen :fresse:
Einerseits hätte ich schon bock mich ans OC zu geben, andererseits habe ich nach der langen Durststrecke einfach nur bock zu zocken.
Ich weiß nur nicht was ich jetzt als erstes anfangen soll. Ich glaube AlanWake spare ich mir für die 2. auf und beginne endlich TombRaider worauf ich schon so sehnsüchtig warte.

Das mit Hitman ist krass :eek:
Lief das mit anderen Karten besser ? Dann ists wohl eher ein Treiberproblem ?
6GB auf Anschlag ist fett.

€dit:

da ja Ostern ist und ich ohne Wakü arbeiten muß (meine Frau schaute mich ganz verdattert an "du ohne Wasserkühlung !? :stupid: das gibts nochmal !?! :fresse:), spendiert sie mir nen Kühler.
- Echt ? :eek::hmm:
- was kost der ?
- 130 mit BP
- jaa, geht ja noch .. du warst schon schlimmer

:banana: :bigok:

Falls noch nicht geschehen: Heiraten! Sofort! :d
Ansonsten... Glückwunsch :d
 
wir haben schon ein paar Jährchen aufm Buckel (bald 14 !). Sie hat halt akzeptiert das es mich ohne HW nicht gibt und weiß das sie mir mit sowas ne Freude machen kann ;)

Asic 72,5%
wie schon gedacht macht die mit höherer Lüfterdrehzahl krach. Ist zwar was besser als die 680er, aber immernoch zum kotzen.
OC lohnt nicht für dieses Defizit meine Ohren zu schinden und ein innerlichen Klos zu Agressionen kehren zu lassen. H2O FTW^^

Ich werde mich dann mal weiter den Games widmen :drool:
 
kenn ich ^^
heut morgen: das scheiss IPad geht mir auf den Sack!!! (Gen 1)
sie: hol dir halt ein neues...
ich: öh... an Computer und direkt bestellt :)

manchmal hat sie schwache Moment und ich nutz sie gnadenlos aus :d

beim PC sagt sie auch nix, weil man das alte Zeugs hier verscherbeln kann und dann ist sie zufrieden
 
najaa. Die Karten zahle ich ja aus meinem Sparstrumpf. Wenn sie wüsste was sie kosten, würde sie mir wahrscheinlich eher nen Aufstand machen.
Wenn ich mir aber was extra verdiene und es anspare kann sie ja nichts sagen. Ich will auch nicht wissen was sie für x Sachen ausgibt. Ich behaupte mal ganz frech das sich das aufwiegt.
Natürlich wird sowas ausgenutzt. Andersrum sagen die ja auch nicht nein ;) Da hätte von mir eher die Frage kommen müssen ob ich 2 bekomme :fresse: .. wenn dann richtig :haha:
 
Weiß nicht ob schon verlinkt : Frame Rating: GeForce GTX Titan, GeForce GTX 690, Radeon HD 7990 (HD 7970 CrossFire) | PC Perspective
Titan der Sieger ^^

Die Jungs von PC-Per bringen die Tage noch 2 Artikel, die wollens wirklich wissen und anderen mitteilen :d

schon gesehen
die ganzen MGPU Fitzen und ganz speziell aus dem AMD Lager freuen sich über 120 FPS obwohls nur 60 oder 40 sind
einfach nur lächerlich wie über Titan gezogen wird weil er das Oma-Osterbargeld Budget sprengt, aber im Wahn werden 2-3 Karten in CF gedroschen mit Frametimes jenseits von gut und böse
ich finds leider nicht mehr, aber im 3DC gabs mal ein schönes Zitat:

"manchmal möchte ich CFX User mal mit ner Nadel pieksen und sehen, ob die überhaupt noch Schmerzen spüren"

ich hatte ne 4870X2 und mein mutiger Kollege 7950 CF
das ist soooooooo abartig, aber er freut sich wenn Fraps mehr FPS anzeigt als bei mir :)

bringt auch nix drüber zu reden, entweder ist man dumm oder Fanboy oder Posts werden gelöscht
daher sind solche Tests prima und offensichtlicher gehts nicht mehr
 
Neannon schrieb:
die ganzen MGPU Fitzen und ganz speziell aus dem AMD Lager freuen sich über 120 FPS obwohls nur 60 oder 40 sind
einfach nur lächerlich wie über Titan gezogen wird weil er das Oma-Osterbargeld Budget sprengt, aber im Wahn werden 2-3 Karten in CF gedroschen mit Frametimes jenseits von gut und böse

Wenn es halt stimmen würde was du da erzählst, aber du lässt ja absichtlich Sachverhalte weg um dir irgendetwas schön reden zu müssen, ganz ehrlich ich verstehe sowas nicht.
SLi und CF haben Nachteile wobei die Nachteile bei CF derzeit größer sind, aber jene Symptome kann man bekämpfen, deine Aussage setzt voraus, dass CF user ohne FPS Limiter spielen und das ist nunmal falsch.

Man hat aber auch ohne Limiter bei einem soliden CF Profil spürbar deutlich mehr FPS, alles wird flüssiger, aber ich weiß das ist ja eine Lüge, besonders die subjektiven Erfahrungen der Cb Tester, User hier usw.. sind ja nichts wert.
Wenn ich deine Kommentare lese, dann ist das nichts anderes wie Extremismus in verbaler Form, Übertreibungen, pauschalisierungen und künstliches Aufregen über irgendetwas.

Hast du dir den test schonmal durchgelesen?

Three other games, Dirt 3, Skyrim and Far Cry 3 didn't have this problem.
 
Zuletzt bearbeitet:
ist das letzte mal das ich dir antworte:

ich habe geschrieben: MGP User ( das heisst Nv UND AMD) und speziell die AMD Leute

du schreibst: ja alle MGP User haben Probleme, CF Probs sind gravierender

ja also was nun, weisst du nicht was du liest oder nicht was du schreibst?

ich schreibe was du schreibst und es stört dich? interessant

weiterhin ist Framelimiting und VSync nicht wirklich ein Mittel der Wahl, denn es führt den Vorteil mehrerer GPUs ad absurdum

ist mir klar das du das nicht verstehen kannst oder willst und nur auf Postings von diversen Leuten wartest

aber ich sags auch gern nochmal:
MGPU und damit meine ich ALLE ist niemals eine Option für mich aus besagten Gründen

und der Link demonstriert sehr wohl woran CF krankt
und ja, bei ein paar Spielen funzt es hervorragend, ist doch gut so

von mir aus sollen sich Leute soviele Karten wie sie wollen reinhauen, aber endlich mal akzeptieren das MGPU krankt und die Hersteller zu wenig dagegen unternehmen

und ja, von mir aus sollen die Leute die Vorteile von MGPU mit SSGAA und Downsampling und weiss der Geier womit rechtfertigen

ich rechtfertige Titan oder generell SGPU mit konstanten FPS zu jeder Zeit ohne irgendwelche Profile und Tools
und in Full HD oder 1440p brauch ich kein AA jedweder Art, denn ich glotz mir keine Treppeneffekte oder Kanten im Spiel an, sondern bin in Bewegung und da reicht 2x MSAA/FXAA/TXAA Und wie das ganze Kroppzeug heißt

so und Liste +1
schon allein für deinen Avatar
 
Hast du dir den test schonmal durchgelesen?
Three other games, Dirt 3, Skyrim and Far Cry 3 didn't have this problem.

Stimmt den bei den 3 anderen war die 7970CF FPS gleich oder minderwertig gegenüber der Titan.

Da ich besitzer von 2 6950@6970 @ 1Ghz war, davor 4890CF, kann ich dir sagen das Problem war schon immer da und so wird es auch LEIDER bleiben.

Wenn du so angetan bist von AMD dann geh mal ins Notebook segment und informier dich mal über die 7970m @ Enduro. (>1 Jahr !!! bis es zumutbar wurde)
 
Die Jungs von PC-Per bringen die Tage noch 2 Artikel, die wollens wirklich wissen und anderen mitteilen :d

Ja denn werden wohl in Zukunft Balkenlängen einem gemäßigterem Frameverlauf geopfert werden müssen wenn man sich nicht ständig dieser Wertung aussetzen will^^

---------- Post added at 22:50 ---------- Previous post was at 22:48 ----------

ist das letzte mal das ich dir antworte:

Warum überhaupt?

Einfach links liegen lassen
 
scully: Ich gehe davon aus, wenn AMD eine Lösung findet, die aber zu lasten der Performance geht - Mir persönlich ist es eigentlich egal, wie es rattert/ruckelt, bin bestens mit meiner Lösung zufrieden - Scheint aber wohl bei den meisten so zu sein ^^

Amüsant wird es aber mal wieder, wenn eine Redaktion nach alten Muster bencht und andere eben nach der neueren, dann entfachen hoffentlich auch zwischen denen ein Krieg. Das macht die ganze Thematik noch lustiger als sie imo schon ist :fresse:
 
zur Info: Serious Sam 3 zeigt nicht nur die FPS an sonstern den Abstand der Frames in ms. bei meinem 680er Sli schwankts zwischen 2 und 6ms. wobei da selbst bei 4k Auflösung 90fps rum Kommen :d
 
du hast doch meine Lightning oder?
direkt SLI gemacht?

sieht sicher schick aus :)

und ja SS3 kannst in jeder Hinsicht ausmaxen
 
Sind alle titan bisher referenz? Also sprich 6+8 pin und diesen V lock, oder gibt es da schon Unterschiede bisher?

Treiber müssen noch obtimiert werden oder? Weil sli etwas schlecht skaliert, oder täusch ich mich da.
 
Sind alle titan bisher referenz? Also sprich 6+8 pin und diesen V lock, oder gibt es da schon Unterschiede bisher?

Treiber müssen noch obtimiert werden oder? Weil sli etwas schlecht skaliert, oder täusch ich mich da.

Derzeit alles Referenz


Ob da noch was nachkommt mit 2x8Pin oder gar 2x8 + 6Pin weiß derzeit niemand.Möglich wäre es da das Layout der Platine Spielraum dafür ließe


Bei den Treibern sollte Nvidia eigentlich schon gut dabei sein denn Kepler ist Kepler u den gibts ja nicht erst seit Titan;)
 
Zuletzt bearbeitet:
Ok, vielen Dank. Das mit dem Treiber stimmt eigentlich. Bin gerade hin und her gerissen ob ich mir zwei 680 4 gb holen soll oder erstmal eine titan... Hat alles seine Vor- und Nachteile.
 
du hast doch meine Lightning oder?
direkt SLI gemacht?

sieht sicher schick aus :)

und ja SS3 kannst in jeder Hinsicht ausmaxen

nein ist nicht deine Lightning ^^

sind 2 Jetstream 4gb @ 1200mhz
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh