[Sammelthread] NVIDIA GeForce GTX 660 Ti (GK104) - bei Fragen erste Seite lesen

NVIDIA GeForce GTX 660 Ti (GK104) Sammelthread + FAQ
Impressionen der Karte (Beispiel Asus Direct Cu II TOP):

asus-660-1-rs.jpg
asus-660-2-rs.jpg


asus-660-4-rs.jpg
asus-660-5-rs.jpg


asus-660-7-rs.jpg

asus-660-8-rs.jpg


Technische Daten der GeForce GTX 660 Ti
  • Chip = GK104
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 3,54 Milliarden
  • Die-Größe = 294 mm²
  • Chiptakt = 915 MHz + Boost (980 MHz)
  • Shadertakt = Chiptakt (915 MHz + Boost (980 MHz))
  • Speichertakt = 1502 MHz
  • Speichergröße = 2048 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 192 Bit
  • Speicherbandbreite = 144,2 GB/Sek.
  • Shader Model = 5.1
  • DirectX = 11.1
  • Shader-Einheiten = 1344 (1D)
  • Texture Mapping Units (TMUs) = 112
  • Raster Operations (ROPs) = 24
  • Pixelfüllrate = 22 GPix/s
  • Texelfüllrate = 102 GTex/s
  • Leistungsaufnahme 3D (TDP) = 150 Watt
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über zwei 6-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = Abhängig vom Hersteller, da Nvidia kein Referenzdesign anbietet
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im 3D Modus maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel
Reviews zur Karte:

Geizhals Link:
HardwareLUXX Preisvergleich - Geforce 660 Ti

Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
Oder direkt bei Nvidia

Tools:
  • Grafikkarten Analyse Tool GPU-Z hier
  • MSI Afterburner hier
  • FurMark VGA Stress Test hier
  • Sapphire TriXX GPU Tweak Utility hier
  • Futuremark 3D Mark 11 (Basic Edition) hier
  • Unigine Heaven Benchmark hier


FAQ (Frequently Asked Questions):

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Wie laut ist die Karte?

Es gibt bei der 660 Ti kein wirkliches Referenzdesign, daher variieren hier die Messungen sehr stark, je nach Hersteller. Im Hardwareluxx-Test war die Direct Cu II unter Last am leisesten.

mess5.jpg
mess6.jpg


Wie hoch sind die Temperaturen der Karte?

Das hängt wieder vom verwendeten Modell ab, allerdings lagen im Hardwareluxx-Review die getesteten Varianten hier dicht zusammen.

mess3.jpg
mess4.jpg


Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von HT4U -> klick

Im Idle verbraucht die 660 Ti DC2 TOP von Asus ca. 17 Watt, was in Ordnung ist, allerdings höher ausfällt als z.B. bei der GTX670. Unter Spielelast nimmt die Karte (HT4U-Testmuster) etwa 129 Watt auf, lockert man allerdings das Power Target, so sind es 148 Watt - ebenso wie im Furmark Test. Nvidia drosselt also die maximale Leistungsaufnahme der Karte und verwehrt dem Nutzer dadurch natürlich auch ein gewisses Maß an Mehrleistung.

Hier die Messungen (gesamtes System) von Hardwareluxx:

mess1.jpg
mess2.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!

Passt die Karte in mein Gehäuse?

Bei der Asus Direct Cu II Top misst das PCB kleine 23,1 cm. Der Kühler steht hier mit 27,1 cm deutlich über. Da es kein Referenzdesign gibt kocht hier aber jeder Hersteller sein eigenes Süppchen, es gilt also sich vorher im Luxx oder in Reviews zu informieren.

Wie gut läßt sich die Karte übertakten?

Wie bei jeder GK104 Karte lässt sich der Takt von Speicher und GPU/Shader nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate. Oben drauf gewährt NVIDIA dem Nutzer noch einen Turbo-Mode, welcher den OC Ergebnissen mal mehr, mal weniger im Weg steht.
Die Höhe der Turbotaktrate wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schwankt die Taktrate der GPUs ein paar MHz während der Anwendung.

Im Test liegen keine Übertaktungsergebnisse vor.

Übertaktungs-Kurzanleitung von marvinator (ursprünglich für die 670, funktioniert aber analog):
OC-Kurzanleitung:

Was wird benötigt?
Zeit, Unigine Heaven 3.0, EVGA Precision X oder MSI Afterburner, (Crysis 2, BF3, Dirt3)
Was gilt es zu beachten?
Temperatur! Liegt nicht 1.175V an ist die Temperatur zu hoch (ab 70°C oder ab 63°C). Die Spannung lässt sich nicht erhöhen und MinV anheben bringt nichts. Wer eine EVGA FTW oder GB OC 3X hat kann aber auf custom BIOS-Mods zurückgreifen.
Wie gehe ich vor?
- RivaTuner OSD von Precision/Afterburner konfigurieren (s.u.)
- Lüfterkurve mit Precision/Afterburner anpassen, sodass 70°C auf keinen Fall überstiegen werden
- im nV-Treiber unter 3D-Einstellungen "Energieverwaltungsmodus" auf "maximale Leistung bevorzugen" stellen und auf Einzel-Display-Leistungs-Modus wechseln
- Heaven mit max. Settings starten (Fenstermodus wenn man es bequem will geht auch; Auslastung ist hoch genug)
- Power Target auf max. stellen und beobachten, was der real anliegende Takt ist (1.175V) -> nur der zählt!
- probeweiser GPU Offset so einstellen, das es 1250MHz ergibt -> Heaven 5-10min laufen lassen (1-2 Benchmark runs)
- wenn das zu viel war, stürzt Heaven ab und es erscheint eine Treiber-wurde-zurückgesetzt-Meldung
- von hier aus kann man sich in +10MHz (bzw. -10MHz) Schritten und je einem Benchmark run vorantasten, das reicht zum groben ausloten
- vermutlich finalen Offset etwa 30min mit Heaven laufen lassen, danach ist die Chance hoch, dass es so passt
- beim Memory Offset mit +200MHz anfangen -> 2-3 runs testen
- in +100MHz Schritten herantasten
- MemOC (ohne GPU OC und danach mit) mit o.g. oder mindestens ähnlich anspruchsvollen Spielen 20-30min testen
- 3-4 Stunden unter hoher Spielelast müssen so nicht stabil laufen, da kann es immer noch ein wenig zu viel für sein -> ausprobieren!


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX 660 Ti!

Synthetische Benchmarks
3dmark2.jpg
3dmark3.jpg


luxmark.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


anno4.jpg

anno6.jpg


skyrim4.jpg
skyrim6.jpg


cod2.jpg
cod3.jpg


Andere Kühllösungen

Laut Arctic Cooling werden der Accelero Twin Turbo 2, der Accelero Mono Plus, der Accelero Xtreme 3 und der Accelero Hybrid zur 660 Ti kompatibel sein.

Erhältliche WaKü-Blocks für die GeForce GTX 660 Ti:

http://www.hardwareluxx.de/communit...ammelthread-bitte-startpost-lesen-895012.html

Allgemeine Hinweise

Dies ist ein Sammelthread für die Geforce GTX 660 Ti. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespamme oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (
beitragmeldenz3p9c.png
) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Hmm, also leise ist was anderes. Na ja, was solls.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
nun bleiben wir aber lieber wieder beim Thema 660Ti, bevor das wieder ausufert :wink:
 
Welche Kühler aus dem Zubehör passen denn? Irgendwie hat es da früher auch mehr Auswahl/Entwicklung gegeben.?
 
Lasse sie mal paar Stunden einlaufen Ralf - das brummen gibt sich und bei mir rauscht sie nur noch :-)

Gesendet von meinem GT-S6102 mit der Hardwareluxx App
 
Und hat einer schon mit der GTX 660 TI Games getestet ?
 
Nein... ich mache nur Gehörtest und Benchmarks.

Gesendet von meinem GT-S6102 mit der Hardwareluxx App
 
Noch nicht vollständig, da ich ja noch am Ausloten bin.

Fakt ist dass das Maximus V Gene kein Stromsparer ist :fresse2:

System verbraucht mit allem, also Monitor, Soundsystem, Maus + Tastatur etc. pp. 125W im Idle, was etwa 69-72W nur für den Rechner entspricht.

Genauere Verbrauchstests kommen wenn ich bei meinen final-24/7ern angekommen bin :wink:


P.S: Karte läuft jetzt im Schnitt mit 1250Mhz GPU und 6700Mhz aufm Speicher *yay*
 
Nope, Spannung ist default :)

Anfangs war die EVGA relativ laut zu hören, nach der Einlaufphase ist es jetzt aber nur noch nen ganz leichtes Brummen begleitet von nem Rauschen - da ich gezwungen bin DHE Karten zu verwenden und ich schon mehrere hatte kann ich sagen: Die ist leise... wesentlich leiser als ne HD7870 zum Bleistift :) (angenehmeres Laufgeräusch)
 
ui, gratz!...und da soll nochmal jemand sagen die GTX660ti hätte kein oc-potenzial!

ahh...jetzt findet der dhl-paket-tracker mein paket gar nicht mehr! hoffentlich ist das
grad irgendwo in Frankreich unterwegs und wurde nur vergessen ein zu scannen!
 
Joa, lasse sie aber ehrlich gesagt @stock laufen - die hat dermaßen Dampf das es bisher in keinem Game nötig war mehr als den Standard-Boost zu gebrauchen o_O
 
bevor ich jetz einen weiteren Blindkauf starte, wollte ich gerne wissen ob die 660er bei Last auch so ein nervendes Surr-Geräusch von sich gibt wie viele 670er (siehe entsprechenden Thread)

Hier eine Sounddatei zumm Geräusch aufgenommen von einem 670er User:

FreakShare - Easy One-Click File Hosting
 
Lasse sie mal paar Stunden einlaufen Ralf - das brummen gibt sich und bei mir rauscht sie nur noch :-)

Gesendet von meinem GT-S6102 mit der Hardwareluxx App

Wie meinst Du das genau? Also idle höre ich gar nicht. Sobald aber Last drauf kommt und sich die Drehzahl erhöht, macht sie ein tiefes grgrgrgrgrgrgrgrgr..... .
Oder hast du die Drehzahl manuell und auf konstant hohes Niveau erhöht?

Das MSI tool finde ich am besten. Da ist auch so ein Stabilitätstest dabei. Beim evga tool kommt man beim takten auch nicht sehr weit.

Also 1200 gpu scheint meine auch zu machen. Allerdings taktet sie unter Last essig und runter, wird einfach zu heiß jetzt im Sommer. Ram war ich mal so bei 3200,3300. Mit einem anderen, besseren Kühler geht da sicher einiges bei dieser Karte.

Hast du die Watt bisschen erhöht? Taktet die deshalb runter wen man da zu wenig einstellt?

Also unter Last mit diesem Fellwürfel kann man das Slotblech hinten nicht mehr anfassen. Unglaublich was da für heiße Luft raus kommt.

@Klaus: Meinst Du Geräusche von der Stromversorgung der Karte? Also wenn dann nur mal kurz vor dem Bildaufbau oder während Ladezeiten beim Benchmark. Aber ich guck nochmal. Meine 8800GTX hatte das. Hat mich aber über vier Jahre lang nicht gestört. ;)


Was ich noch zur evga anmerken möchte: OVP, Verpackung der Karte und Lieferumfang echt top. Da macht das Auspacken schon Spaß! :)
 
Zuletzt bearbeitet:
Noch nicht vollständig, da ich ja noch am Ausloten bin.

Fakt ist dass das Maximus V Gene kein Stromsparer ist :fresse2:

System verbraucht mit allem, also Monitor, Soundsystem, Maus + Tastatur etc. pp. 125W im Idle, was etwa 69-72W nur für den Rechner entspricht.

Genauere Verbrauchstests kommen wenn ich bei meinen final-24/7ern angekommen bin :wink:


P.S: Karte läuft jetzt im Schnitt mit 1250Mhz GPU und 6700Mhz aufm Speicher *yay*
Thx..

Btw: AnandTech - The GeForce GTX 660 Ti Review, Feat. EVGA, Zotac, and Gigabyte
Da hat die Gigabyte den höchsten Takt mitgemacht .....
 
Hallo ,
Meine MSI GTX 660 bei 80C geht (siehe unten) TAKTET so ......ist leiser , als die MSI 460 HAWK 70C .

00000.jpg die Einstellungen gtx660.gif und Bild.jpg
 
Zuletzt bearbeitet:
80°C Da taktet die noch nur mit 1.15V oder nicht?! Unter 70°C sollte der volle Boost greifen. kannst du ganz einfach mit RivaTuner OSD des Afterburners ingame beobachten.
 
Zuletzt bearbeitet:
Also ich habe die Test auch mit 100% Lüfter an gemacht und keine Steigerung messen können die GTX 660 hatte dann nur 65C bei CPUID und 59C max zeig Afterburner !
 
Hast du noch Ergebnisse mit deiner 560TI vom 3D Mark 11? Wenn ja, dann vergleiche hier mal vs. GTX 660. Der 3D Mark 06 ist massiv CPU-limitiert (ist auch kein Geheimnis).

3D Mark 11 Alt: 5463 Punkte
3D MArk 11 Neu: 7941 Punkte

Scheint doch an der CPU zu liegen, die meine Karte ausbremst -.-
 
MSI KOMBUSTOR 2.3.0

MANUELL :-----------------------------Auto:
Lüfter : 100%--------------------------Lüfter : 49%
CPU : 68C-----------------------------CPU : 80C
POWER: 104% TPD---------------------Power : 101%
Core: 1255 mhz ----------------------Core: 1230mhz
MEM:3402 mhz-------------------------MEM:3402
VDDC: 1.125V max 1.137V--------------VDDC:1.100 V
 
Zuletzt bearbeitet:
Also bei defaults @CPU & GPU habe ich im 3DMARK06 27790 Punkte.

Im 11er warens glaub ich 7408 oder so.
 
Also bei defaults @CPU & GPU habe ich im 3DMARK06 27790 Punkte.

Im 11er warens glaub ich 7408 oder so.

Versteh einer die logik Ich hab im 3D Mark 11 7941=Mehr und im 3D Mark 06 23261=Weniger
 
Hmm, keine Ahnung. Ich habe meine neue Hardware noch nicht so lange und die letzten Jahre habe ich mich damit auch nicht beschäftigt. Ist vieles neu für mich noch im Moment. ;)

Gerade aber nochmals 3DM11 durch laufen lassen: 7676 Punkte.

Aber deine 660ti taktet höher im Boost. Meine hat hier 980. Im 3DM06 scheints die CPU auszumachen.
 
@0815mm: (Hier passt es besser, also weiter) Hier steht auch noch mal, dass 1.175V die max Spannung sind - real ist das aber auch immer etwas anders. Das Verhalten des GK104 lässt sich nicht mit 'ner 460 vergleichen, da alles voll dynamisch ist. Clock ~ Voltage ~ Temp. Bei der 670 war die thermische Grenze meist 70°C GPU-Temp, bei manchen auch ~63°C; darunter liegt bei genügend Auslastung der volle Takt und 1.175V an. Gegen Schwankungen kann man noch im Treiber den "Energieverwaltungsmodus" auf "maximale Leistung bevorzugen" stellen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh