[Sammelthread] NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ - Bei Fragen erste Seite lesen

NVIDIA GeForce GTX TITAN (GK110) Sammelthread + FAQ
Impressionen der Karte:

titan-pic-010qqyf.jpg
titan-pic-02ntoyx.jpg


titan-pic-03uyqps.jpg
titan-pic-045fo5n.jpg


titan-pic-123fr4g.jpg
titan-pic-1162ooj.jpg


titan-pic-06ggoj3.jpg
titan-pic-05ywrcc.jpg


titan-pic-1353oy2.jpg
titan-pic-15nvqrf.jpg


Technische Daten der GeForce GTX Titan
  • Chip = GK110-400-A1
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 7,1 Milliarden
  • Die-Größe = 551 mm²
  • Shader-Einheiten = 2688 (1D) (14 SMX)
  • Texture Mapping Units (TMUs) = 224
  • Raster Operations (ROPs) = 48
  • Pixelfüllrate = 40,2 GPixel/s
  • Texelfüllrate = 187,5 GTexel/s
  • Chiptakt = 837 MHz Baseclock + Boost (876 MHz) + 1006 MHz Estimated Boost
  • Shadertakt = Chiptakt (837 MHz Baseclock + Boost (876 MHz)+ 1006 MHz Estimated Boost)
  • Speichertakt = 1502 MHz
  • Speichergröße = 6144 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 384 Bit
  • Speicherbandbreite = 288,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 11.0
  • Leistungsaufnahme 3D (TDP) = 250W (PCGH hat bei ihrem Sample 214W in BF: Bad Company 2 gemessen)
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über jeweils einen 8-Pin & 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 2 x DL-DVI (1 x DVI-D, 1 x DVI), 1 x HDMI 1.4a, 1 x DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Introducing The GeForce GTX TITAN (NVIDIA, Andrew Burns)http://www.geforce.co.uk/whats-new/articles/introducing-the-geforce-gtx-titan

Download The GeForce GTX TITAN Wallpaper (NVIDIA)http://www.geforce.co.uk/whats-new/articles/nvidia-geforce-gtx-titan-wallpaper-now-available


Reviews zur Karte:


Videos zu NVIDIA GeForce GTX TITAN (NV & Previews/Reviews)
NVIDIA GeForce GTX TITAN Announcement

<iframe width="560" height="315" src="http://www.youtube.com/embed/0_xgeOZrnJI" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective (mit Tom Petersen von NV)

<iframe width="560" height="315" src="http://www.youtube.com/embed/qsuvlg8cuWA" frameborder="0" allowfullscreen></iframe>


HardwareLUXX - NVIDIA GeForce GTX TITAN - Teil 1 & 2

<iframe width="560" height="315" src="http://www.youtube.com/embed/ABhkIpF5Dj0" frameborder="0" allowfullscreen></iframe>

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>


NVIDIA GeForce GTX Titan Unboxing & Technology Overview Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/bgQbcQlRoNE?list=UUXuqSBlHAE6Xw-yeJA0Tunw" frameborder="0" allowfullscreen></iframe>

GTX Titan LCD Monitor Overclocking Guide Linus Tech Tips



GeForce GTX Titan 1080p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/dRloMkcVeus" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan 1600p Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/L1dN4aN6vS0" frameborder="0" allowfullscreen></iframe>


GeForce GTX Titan Surround Performance Review Linus Tech Tips

<iframe width="560" height="315" src="http://www.youtube.com/embed/Qw24094REh0" frameborder="0" allowfullscreen></iframe>


Geizhals Link:
HardwareLUXX Preisvergleich - GeForce GTX Titan

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia

Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon HD 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Die GeForce GTX TITAN erzeugt sowohl im Idle, als auch unter Last eine für diese Preisklasse relativ niedrige Lautstärke und ist etwas leiser als etwa die GeForce GTX 680. Dort liegt man auf Niveau der GeForce GTX 580.

laut-idlexnc6v.jpg
laut-lasthocoo.jpg


Wie hoch sind die Temperaturen der Karte?

Die Temperaturen der Karte entsprechen in etwa denen der GeForce GTX 680, was für eine Karte dieser Leistungsklasse als sehr gut zu bewerten ist.

temp-idle7lfl7.jpg
temp-lastauddq.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von PCGH -> klick

Im Idle verbraucht die GeForce GTX Titan laut NVIDIA ca. 15 Watt, was auf einem Level mit der GeForce GTX 680 ist. Unter Spielelast nimmt die Karte etwa 214W (Messung von PCGH bei BF: Bad Company 2). Dies liegt also deutlich unter dem TDP, das wie auch das 100% Power-Target auf 250W spezifiziert ist.

Hier die Messungen (gesamtes System) von HardwareLUXX:

strom-idlemziri.jpg
strom-last6jeux.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der GeForce GTX Titan misst das PCB 26,67 cm, was vielen High-End Karten vergangener Generationen wie etwa der GeForce 400- oder 500-Serie entspricht.


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX TITAN!

Synthetische Benchmarks
3dmark3.jpg
3dmark11-3.jpg


uni4.jpg
uni6.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


crysis1-4.jpg
crysis1-6.jpg


far2.jpg
far3.jpg


skyrim4.jpg
skyrim6.jpg


Overclocking:

Wie bei jeder Karte, die auf der Kepler-Architektur basiert, lässt sich der Takt von GPU/Shader und VRAM nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt.
Die Höhe des GPU Boostes wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.


Aus dem HardwareLUXX Review

titan-oc-evga0fpu4.png


Wie frühere "Kepler"-Karten auch, spielt GPU-Boost 2.0 für das Overclocking der GeForce GTX Titan eine wichtige Rolle. Für die Overclocking-Tests haben wir folgende Voreinstellungen vorgenommen:

Power Target auf +106 Prozent, was auf Basis der 250 Watt TDP eine maximale Leistungsaufnahme von 265 Watt ergibt.
Temp Target auf 95 °C
Lüfterdrehzahl auf 85 Prozent
OverVoltaging auf 1,2 Volt

Letztendlich konnten wir einen stabilen Betrieb bei +150 MHz Takt-Offset für GPU und Speicher erreichen. Werte darüber waren mit unserem Sample nicht möglich und führten zum Absturz. Dies sind aber natürlich eine exemplarischen Werte für die GeForce GTX Titan, sondern eine von drei Karten. Aus Zeitgründen konnten wir aber nicht alle drei auf ihr OC-Potenzial hin überprüfen.

Synthetisch:

3dmark3ocutp0f.jpg
uni6oc6fpi5.jpg


Games:


bf6oc1hr1k.jpg
skyrim6oc26p9t.jpg



Das gewählte Offset mit einem Peak Boost von 1175 MHz auf der GPU und 1625 MHz GDDR5 steigert die Performance um durchschnittlich 10%.


Lastverbrauch im Vergleich - GTX Titan:

oc5okqmh.jpg


Temperatur im Vergleich - GTX Titan:

oc6xfr2w.jpg


Lautstärke im Vergleich - GTX Titan:


oc7snoj1.jpg


Wie man sieht, fordern die oberen OC-Settings ihren Tribut in allen Bereichen, angefangen vom Verbrauch, über die Last-Temperatur (wobei dies mit dem der neuen Target-Temperatur notwendig ist - zumindest unter Luft), als auch bei der Laustärke (85% = Maximaldrehzahl).


NVIDIA GeForce GTX Titan - Teil 2 (GPU Boost 2.0)

<iframe width="560" height="315" src="http://www.youtube.com/embed/hUPsFBmZr9A" frameborder="0" allowfullscreen></iframe>

Don war so freundlich, ein Video zu schneiden, in dem er genau auf das Verhalten von GPU-Boost 2.0 inkl. Temp-Target eingeht.


Auf Guru3D gibt es einen gesonderten Artikel -> GTX Titan Overclock Guide



Andere Kühllösungen


Erhältliche WaKü-Blocks für die GeForce GTX TITAN:



Aquacomputer kryographics GTX TITAN (89,90€ im Shop):



Aquacomputer kryographics GTX TITAN vernickelte Ausführung (98,98€ bei Aquatuning):




<iframe width="640" height="360" src="http://www.youtube.com/embed/v4oN0w6_H6U?feature=player_embedded" frameborder="0" allowfullscreen></iframe>




EK Water Blocks stellt EK FC TITAN vor (Preis je nach Version zwischen 89,95 - 99,95€ im EK-Shop)



EK kündigt lange Version des Fullcover-Blocks an (Aktiv gekühlter Teil ist identisch mit kompakter-Version! Preis geschätzt 120 - 125€):




EK Waterblocks EK-FC Titan Backplate - Black (25,94€ im EK-Shop)






Watercool HEATKILLER GPU-X³ GTX TITAN (89,95 - 94,95€ im Watercool-Shop)




HEATKILLER GPU Backplate GTX TITAN (27,95€ im Watercool-Shop)






Koolance VID-NXTTN Water Block (inkl. Aluminium-Backplate - 129,99$ exkl. Versand im Koolance-Shop, Mengenrabatt möglich)






Daneben listet EVGA auch die GeForce GTX TITAN HydroCopper-Serie mit einem Block von Swiftech, gibt aber weder Preise noch Datum an:



E: Update: Taktraten -> 928 MHz Baseclock, 980 MHz Boostclock, vermutlich knapp 1,1 GHz Estimated Max. Boost, 1502 MHz GDDR5.



Allgemeine Hinweise

Dies ist ein Sammelthread für die GeForce GTX TITAN. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wieso wird das scheißteil eigentlich in den Himmel gelobt? Sauteuer und es gibt noch nichtmal einen gescheiten Treiber dafür. Die Leistung ist auch mehr als lächerlich und für den Preis sowieso. :fresse:

setzen, 6.

das ding ist genauso ein "meilenstein" in der grafikkartentechnik wie GTX690 oder seltene voodoo-karten.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
soweit ich das nach fast einer woche titan sli beurteilen kann, sind die 1.2 GHz keine frage der kühlung und auch nicht der nach dem pt. es fehlt an weiteren voltage mods für mehr ps. ich kann das ding kühlen wie ich will, deswegen läuft er auch nicht staibler ab einem gewissen takt. pt wird nicht erreicht. es scheitert am weiteren staiblen offset, der nur durch mehr spannung stabil zu bekommen ist.
da kann man auch mit der wakü wenig machen. so sehe ich das zumindest, nachdem ich ein langes woend an den titans rumgefummelt habe.
 
ich würde nichtmal glauben, dass noch mehr spannung ihn stabiliert. nvidia ist sicher nicht zu doof, den sweetspot zu finden und verglichen mit tesla ist schon ein gutes stück auf den takt draufgelegt worden. vllt. auch ein grund für die deaktivierte einheit.

btw,
eine CPU bekommt man irgendwann auch selbst mit dem holzhammer nicht mehr stabil.


(..)

mfg
tobi
 
Nö, das Asustool hat auch net mehr zu bieten. Selbst wenn du 1,25V anlegen könntest würde das PT dazwischen funken.

okay.

naja wakü ist für mich keine Option *;D - findedie verpackung der asus titan geil, vllt. hol ich einfach die. habe jaauch ein asus mainboard,also das passt dann ja *;D

muss dannmeinen prozessor übertakten, habe schonmal einen ersten how to thread angeguckt, oh je, das sieht hefitg aus *:( tausend programme runterladen, immer temperatur und spannung überprüfen während man sich seinem ziel nähert usw. *:(
 
Zuletzt bearbeitet:
@webmi
Bei mir ist das aber so.
Hab auch Taktraten über 1200MHz gesehen, leider nur kurz, da das PT dazwischen funkt und Spannung+Boosttakt senkt. Würden IMMER 1,16V oder gar mehr anliegen können, dann wären >1200MHz dauerhaft eventuell machbar mit meiner Karte. Dank PT leider nicht....scheiss Handbremse :fresse:.

---------- Post added at 11:01 ---------- Previous post was at 10:57 ----------

@MeliMelicious
Hab meine 24/7 Settings auch verändert. der i7 lüppt nun mit 4,5GHz anstatt 4,1^^. Und rumtesten/experimentieren/benchen macht Spass :).
 
es ist ganz einfach zu erklaren:

nehmen wir an wir takten eine 680 (GK104) von 1006 auf 1200
dann sind das 1536 Cuda Cores mal 200 MHz und nur als Beispiel!! 30 Watt
takten wir jetzt Titan von 837 auf 1037 sind das 2688 Cuda Cores mit entsprechend 75% mehr Leistung, also 30Watt mal 1,75 = 52 Watt

das schon mal das erste

zweitens sind hier 6 statt 2 GB Vram, die ebenfalls nochmal mit rund 20 Watt zu Buche schlagen, sind wir bei 60-70 Watt

und Drittens und am schlimmsten:

der 100% Powereintrag sind 250 Watt und die kann man auf 300 ändern, es bleibt aber HARD bei den 250Watt, daran kommt man nicht vorbei! nicht durch Bios und vielleicht nichtmal durch Hardmods, das ist im GK 110 fest verankert.

2x8 Pin dürfte die maximale Boardpower erhöhen (für Ram OC) aber der GPU bringt das nichts

Erhöhung der 106% bringt nichts, weil wir an den 250W 100% nicht vorbeikommen

die einzige Möglichkeit ist
gutes Silizium
niedrige Temperatur
wenig VCore für das TDP Fenster

dann könnten 1200 drin sein
aber keine Lightning der Welt wird das ändern
 
Ja bei dem GK104 hat man ja das bandbreiten problem und wie es scheint ist das beim titan nicht so schlimm weil der RAM auch gut mehr takt zulässt.
Fals man mit ner TITAN in allen GAMES 1250MHZ@wakü halten kann wäre das der hammer...
Hoffen wir mal das man auch mehr erreichen kann durch irgendwelcher tweaks am treiber oder bios.

Also bei meiner Titan ist das mit dem RAM eher so durchschnitt, was das mehr an Takt angeht. Ich habe jetzt den absolut stabilen Wert mit 3DMark 11 ganz gut ermitteln können, Grafiktest 1 und 2 sind dafür ganz gut geeignet - und was kam raus, alles oberhalb von 132MHz+, was effektiv in 6272MHz mündet, erzeugt irgendwann Blitzer oder Artefakte - so weltbewegend toll ist das also nicht. Gut, es gibt bestimmt genug Besitzer, die sich selbst nicht eingestehen, dass der RAM nicht so gut geht, das sind dann eben die, die sich dann auch über abstürze wundern. Der RAM ist aber so schnell genug und ist bei der Titan ja auch nicht der limitierende Faktor, wie eben beim GK104. GPU-Takt bringt hier mehr und da will ich mit meiner Karte dann bei 1.200V dann die 1200-1250 sehen, wenn der Wasserkühler drauf ist. ;) Mit 3DMark 11 Grafiktest 1 kann man im Übrigen auch gut die TDP überschreiten, mit 106% eingestellt sehe ich hier dann öfter schon mal die 104% und das schon ohne das die Vcore erhöht wurde.

Gruß
Trill
 
ich würde nichtmal glauben, dass noch mehr spannung ihn stabiliert. nvidia ist sicher nicht zu doof, den sweetspot zu finden und verglichen mit tesla ist schon ein gutes stück auf den takt draufgelegt worden. vllt. auch ein grund für die deaktivierte einheit.

btw,
eine CPU bekommt man irgendwann auch selbst mit dem holzhammer nicht mehr stabil.


(..)

mfg
tobi

sweetspot hin oder her, wenn wir mehr saft drauf geben könnten, könnten wir auch 1.2 GHz stable fahren.
das ist fakt, ob das verhältnismäßig mehr spannung pro hz ist, interessiert nicht, wenn die kühlung stimmt.
das setzt wahrscheinlich auch ein erhöhtes pt voraus.

sollte es dann bald entsprechende bios geben, werde ich mir aber überlegen ob ichs flash. habe schon lange keien karte mehr geflasht. bei 1900€ karten erst recht eine überlegung wert. heiß drauf bin ich alle mal.
 
Zuletzt bearbeitet:
Also bei meiner Titan ist das mit dem RAM eher so durchschnitt, was das mehr an Takt angeht. Ich habe jetzt den absolut stabilen Wert mit 3DMark 11 ganz gut ermitteln können, Grafiktest 1 und 2 sind dafür ganz gut geeignet - und was kam raus, alles oberhalb von 132MHz+, was effektiv in 6272MHz mündet, erzeugt irgendwann Blitzer oder Artefakte - so weltbewegend toll ist das also nicht. Gut, es gibt bestimmt genug Besitzer, die sich selbst nicht eingestehen, dass der RAM nicht so gut geht, das sind dann eben die, die sich dann auch über abstürze wundern. Der RAM ist aber so schnell genug und ist bei der Titan ja auch nicht der limitierende Faktor, wie eben beim GK104. GPU-Takt bringt hier mehr und da will ich mit meiner Karte dann bei 1.200V dann die 1200-1250 sehen, wenn der Wasserkühler drauf ist. ;) Mit 3DMark 11 Grafiktest 1 kann man im Übrigen auch gut die TDP überschreiten, mit 106% eingestellt sehe ich hier dann öfter schon mal die 104% und das schon ohne das die Vcore erhöht wurde.

Gruß
Trill

+1

*unterschreib* same here. speicher und GPU grob +150MHz | darüber glücksache, ob der code fordert oder halt nicht.


(..)

mfg
tobi
 
Da bin ich mal gespannt auf deine OC-Werte (Naennon) und in wie weit dann Estimated Max Boost stabil läuft unter Wasser. Denke auch wie box, dass die niedrigeren Temps dem PT zu Gute kommen müssten. :)
 
Zuletzt bearbeitet:
Die VRAM-Menge macht fast nichts beim Verbrauch aus, der Löwenanteil wird bei der Belastung des Speicherinterfaces verbraten, egal wieviele Chips da dranhängen. Hab ich mir sagen lassen :)
 
ich hab den lüfter auf maximum gestellt, ewig laut aber kühl bleibt er. das hat mir die 1.2GHZ auch nicht stable gemacht. was ihr euch von der wakü erhofft, im bezug auf die 1.2 bzw den bessren takt, verstehe ich nicht. ich versuche das seit meinen letzten beiden beiträgen zu erklären, oder zumindest meine erfahrung dahingehend zu verdeutlichen.

entweder liest keiner, was ich schreibe oder es wird ignoriert.

es kann auch sein, dass ich irgendwas übersehe, was den stabilen takt von 1.2 ghz bei einier niedrigeren temp angeht.

ich würde mich daher über eine aufklärung sehr freuen.
 
Zuletzt bearbeitet:
So,

ihr dürft mich jetzt hassen :d

 
@svk da bin ich doch schon ganzschön neidisch ;) für den Preis hätte ich auch zugeschlagen! viel spass damit
 
UI.. gainward möchte wohl nicht, dass man den KK entfernt.. *gg* bei asus klebt hinten nicht soviel mist drauf..


(..)

mfg
tobi
 
Da hättest du gleich 10 kaufen sollen, sofern verfügbar. :fresse:
Also ich glaub, ich hätte mal zum Testen für das kommende Sys vier Stück für den Preis gekauft - mal bissl benchen - auch wenn dann maximal 3-way drin geblieben wäre (Xonar soll für 24/7 auch rein - ist ja "nur" E-ATX, das R IV E. ;)).
 
Zuletzt bearbeitet:
Hmm, den Ram hab ich bissher nur mal kurz angefasst, weil der Takt bzw. PT dann den GPU-Takt beeinflusst hat. Müsste mal schauen was dort so geht. GPU sind +150 locker drinne, also wie bei fast jeder TITAN (kämpfe noch mit 170-180 und rede mir ein das Wakü das schon richtet xD).
 
nein.


(..)

mfg
tobi

Geht das auch ausführlicher? RAM-Chips werden periodisch refreshed, sind ja nicht flüchtig. Mehr Chips bedeuten hier einen höheren Verbrauch. Aber die allermeiste Energie wird benötigt, um die Daten überhaupt zu transportieren, und das ist unabhängig davon, wie groß das "Lager" am anderen Ende ist. Denn du kannst pro Zeiteinheit nur eine bestimmte Menge an Daten schaufeln und die ist proportional zum Speicherinterface und zu sonst nix :)
Stell es dir wie eine Flasche vor. Wenn der Flaschenhals gleich groß ist, ist es wurscht wie groß die Flasche selbst ist, du kannst nur soviel pro Sekunde rausschütten.
 
Zuletzt bearbeitet:
@SVK
Da hast gestern aber echt Schwein gehabt. Glückwunsch und viel Spass mit der "Billigkarte" :fresse2:.
 
es ist ganz einfach zu erklaren:

nehmen wir an wir takten eine 680 (GK104) von 1006 auf 1200
dann sind das 1536 Cuda Cores mal 200 MHz und nur als Beispiel!! 30 Watt
takten wir jetzt Titan von 837 auf 1037 sind das 2688 Cuda Cores mit entsprechend 75% mehr Leistung, also 30Watt mal 1,75 = 52 Watt

das schon mal das erste

zweitens sind hier 6 statt 2 GB Vram, die ebenfalls nochmal mit rund 20 Watt zu Buche schlagen, sind wir bei 60-70 Watt

und Drittens und am schlimmsten:

der 100% Powereintrag sind 250 Watt und die kann man auf 300 ändern, es bleibt aber HARD bei den 250Watt, daran kommt man nicht vorbei! nicht durch Bios und vielleicht nichtmal durch Hardmods, das ist im GK 110 fest verankert.

2x8 Pin dürfte die maximale Boardpower erhöhen (für Ram OC) aber der GPU bringt das nichts

Erhöhung der 106% bringt nichts, weil wir an den 250W 100% nicht vorbeikommen

die einzige Möglichkeit ist
gutes Silizium
niedrige Temperatur
wenig VCore für das TDP Fenster

dann könnten 1200 drin sein
aber keine Lightning der Welt wird das ändern

Was nützt einen das schnellste Auto, wenn die Handbremse klemmt?

Aber hey, es war das teuerste Auto, also muß es auch das beste Auto sein! :d

Bin schon auf den klöpper von AMD gespannt, mit dem der TITAN dann geschlagen wird.
 
@SVK
Da hast gestern aber echt Schwein gehabt. Glückwunsch und viel Spass mit der "Billigkarte" :fresse2:.

ja, man muß auch mal Glück haben. Ich baue sie grade ein, ich kann nicht widerstehen... Trotz Lukü... :fresse:
 
Geht das auch ausführlicher? RAM-Chips werden periodisch refreshed, sind ja nicht flüchtig. Mehr Chips bedeuten hier einen höheren Verbrauch. Aber die allermeiste Energie wird benötigt, um die Daten überhaupt zu transportieren, und das ist unabhängig davon, wie groß das "Lager" am anderen Ende ist. Denn du kannst pro Zeiteinheit nur eine bestimmte Menge an Daten schaufeln und die ist proportional zum Speicherinterface und zu sonst nix :)
Stell es dir wie eine Flasche vor. Wenn der Flaschenhals gleich groß ist, ist es wurscht wie groß die Flasche selbst ist, du kannst nur soviel pro Sekunde rausschütten.

dem speicher ist egal ob er in seinen registern nullen oder einsen hinterlegt. beides sind für ihn werte. ist er verdrahtet und wird er angesteuert, verbraucht er strom. das delta bei GTX680 2GiB vs. 4GiB liegt bei ca. 30W. einfluss hat auch die taktfrequenzt, weil die direkt mit wärmeentwicklung einhergeht.


Was nützt einen das schnellste Auto, wenn die Handbremse klemmt?

Aber hey, es war das teuerste Auto, also muß es auch das beste Auto sein! :d

Bin schon auf den klöpper von AMD gespannt, mit dem der TITAN dann geschlagen wird.

ich würde lieber einen 997 auf 260KM/h gedrosselt fahren, als einen gleichschnellen golf GTi. und was AMD angeht: solange die hardware bauen die technisch was hermacht aber softwareseitig versagt, können die bauen, was immer sie wollen. ich kann es ja nicht nutzen, wenn meine projektoren(2), mein TFT und mein HDTV mit den ausgängen der karten nicht harmoniert (getestet mit 3x HD7970 + 1x 7850, einzig die 4250IGP lief zufriedenstellend ohne tonaussetzer im HDMI-betrieb oder ohne grünes griesel auf dem projektor).




(..)

mfg
tobi
 
Zuletzt bearbeitet:
Maaaaan der Download des BF3-Updates dauert ja ewig. Wenn fertig wird erstmal der SP in 3D-Vision gezockt :drool:.
 
dem speicher ist egal ob er in seinen registern nullen oder einsen hinterlegt. beides sind für ihn werte. ist er verdrahtet und wird er angesteuert, verbraucht er strom. das delta bei GTX680 2GiB vs. 4GiB liegt bei ca. 30W. einfluss hat auch die taktfrequenzt, weil die direkt mit wärmeentwicklung einhergeht.
mfg
tobi

Natürlich verbraucht er Strom beim Refresh (Schreiben bedeutet einen verfrühten Refresh). Der Punkt ist aber, dass dieser Verbrauch sehr gering ist im Vergleich zum Interface. Das Delta kann man gar nicht beurteilen, weil nie dieselbe Karte gemessen wird mit x und 2x GB. Viele der 4GB oder 6GB Karten sind OC-Modelle, und schon ist die Vergleichbarkeit komplett im Eimer. Dazu noch etwaige Unterschiede bei den Umgebungsbedingungen wie Raumtemperatur und in Folge Temperaturen von jeder Komponente im PC.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh