Welche GTX 680 Karten sind "cherry picked"?

Kurze Frage am Rande, was ist so schlimm, wenn sie nicht im Referenzdesign ist und mehr Strom frisst? Ist ja nicht so, dass da 100Watt unterschied sind... und bei einer Highend Karte sollte m.M. der Verbrauch eh eine untergeordnete Rolle spielen...

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Man weiß, dass zum Beispiel für die GTX 680 DCII TOP oder die GIgabyte GTX 680 Super Overclock nur Chips mit sehr gutem Binning ausgesucht werden, sprich sie werden "cherry picked".

Zumindest für die Asus ist die Aussage defintiiv falsch.
Es gibt genug Beispiele, bei denen die Karte kaum noch übertaktbar war über Standard-OC-Takt.
Die Karte die ich hatte, war nicht mal bei Standardtaktung stabil und
wurde es erst bei Absenkung der Taktraten.
 
Zuletzt bearbeitet:
Marketing Blödsinn.
Hört sich besser an wenn die Hersteller bei den High OC Karten werben dass da nur besonders gute Chips zum Einsatz kommen. Der Kunde soll ja glauben er kauft was besonderes.

jupp, du hast es durchschaut - und falls überhaupt jemand "selektiert", dann TSMC.


(..)

mfg
tobi
 
Du könntest aber Recht haben

EVGA GeForce GTX 680 FTW, 2GB GDDR5, 2x DVI, HDMI, DisplayPort (02G-P4-3686) Preisvergleich | Geizhals Deutschland

Die FTW hat den zweithöchsten Core Clock von allen, und ist im Vergleich dazu noch Referenz
Mit 1,110GHZ und Referenzdesign schauts schon nicht schlecht aus. (auf dem selben Level einer Lightning)
Jedoch finde ich nirgends heraus was für Stromanschlüsse die 2GB FTW hat, ich hoffe 2x 6Pin

Würde aber gerne wissen ob die ASUS DCII OC auch Ref ist?

Schwanke gerade zwischen der FTW und DCII OC, da ich ne Wakü benützen will.
OC ist glaube ich aber nicht Referenz und könnte mehr Strom fressen was ich absolut nicht will.
Anderseits würde ich wirklich gerne die 1,3GHZ schaffen und bin nicht sichr ob die Ref FTW dahinkommt.

Du hast das glaube ich nicht richtig verstanden.
Die FTW hat kein referenz Layout ! Der User Guapa hat hier eine schöne Tabelle gemacht,wo du dir den Kühler aussuchen kannst: Layout GTX 680 - 2048MB
Ich habe mir die Evga SC + Backplate bestellt,sie hat referenz Layout und schöne Backplate.Dazu 3 Jahre Garantie,die auch bei Kühlerwechsel bleibt.
 
OC ist glaube ich aber nicht Referenz und könnte mehr Strom fressen was ich absolut nicht will.
Anderseits würde ich wirklich gerne die 1,3GHZ schaffen und bin nicht sichr ob die Ref FTW dahinkommt.

Das ist ein reines Glücksspiel.
Es gibt genügend Asus DirectCU II die sich kaum übertakten lassen und nicht mal die 1250 packen. Ich hatte eine, die war schon bei der Werksübertaktung instabil...
Garantie gibts bei keiner, wenn man jedoch im msi Forum liest, geht die Lightning ziemlich gut was OC angeht. Aber auch da gibts gute und weniger gute...
 
im grunde ist es doch eh pillepalle ob die jetzt mit 1170, 1200 oder sonstwie laufen. frequenz XY vorauszusetzen ist ebenso schwachsinnig, wie die karte nach farbe zu kaufen. mancheiner denke hier solange über kauf nach, dass er sich schon gedanken über den nachfolger machen kann..


(..)

mfg
tobi
 
Du hast das glaube ich nicht richtig verstanden.
Die FTW hat kein referenz Layout ! Der User Guapa hat hier eine schöne Tabelle gemacht,wo du dir den Kühler aussuchen kannst: Layout GTX 680 - 2048MB
Ich habe mir die Evga SC + Backplate bestellt,sie hat referenz Layout und schöne Backplate.Dazu 3 Jahre Garantie,die auch bei Kühlerwechsel bleibt.

Kacke, hatte gehofft die FTW wäre Referenz.

Die anderen Poster hier haben aber schon Recht, ne 100%ige Garantie gibts sowieso nicht, im Endeffekt is immer bischen Glück dabei oder auch nicht.

Danke für den Link, werd ich mir mal anschauen.

Ich werde mir entweder eine Referenzkarte holen und einfach hoffen dass sie zum benchen gut übertaktet oder sonst eben die Referenz Stromverbrauch Specs von Nvidia einhält.
Oder ich hol mir eben die Non Referenz Karte, welche eben am nähesten an der Referenzstromverbrauchsstatistik steht, wobei ich denke, dass die Lightning bzw. DCII OC hier meine Wahl wären.

Kurze Frage am Rande, was ist so schlimm, wenn sie nicht im Referenzdesign ist und mehr Strom frisst? Ist ja nicht so, dass da 100Watt unterschied sind... und bei einer Highend Karte sollte m.M. der Verbrauch eh eine untergeordnete Rolle spielen...

Gesendet von meinem GT-I9100 mit der Hardwareluxx App

Naja, ich weiß nicht ob du alleine lebst, aber 100Watt sinnlos raushauen macht bei den Strompreisen sehrwohl nen Unterschied.
Es wäre fast so als ob man zwei Lichter im Haus konstant brennen lässt.
Die Grundidee hinter Kepler ist ja Stromeffizienz, natürlich will man von diesem Feature in der Langzeitbenutzung auch Gebrauch machen?
Ich als Student kann mir das Hobby zwar noch leisten, aber irgendwo muss man halt sparend, und der Strom sticht mir da auf Langzeit am gewaltigsten ins Auge:)
 
Zuletzt bearbeitet:
Ja, ich wohne alleine und zahle meinen Strom alleine. Und trotzdem ist er mir so was von egal. Was kostet ein KW Strom? Wie viele Stunden läuft die Karte davon auf Volllast? Da kannst du auch 10min weniger den Fön benutzen und hast das gespart... Ganz ehrlich, wenn ich highend will, dann m.M. mit allen Konsequenzen... ich will doch auch nicht ein Auto was ich tunen lasse (als Vergleich zum übertakten) und sage dem Tuner ich möchte XXX PS mehr aber es darf nicht mehr Sprit verbrauchen als vorher... ;) aber jeder wie er mag :)

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Was machst du denn mit den Referenzlayoutkarten? Mit Standardtakt betreiben oder übertakten? Willst du diese übertakten, dann ist dein ganzes Gedankengebäude um den Stromverbrauch hochgradig einsturzgefährdet.
 
Ich benche gerne ab und zu, wobei ich eben den Maximaltakt für ne Stunde draufhabe fürs benchen.
Danach downclocke ich dann für den alltäglichen Gebrauch um eben den stromsparenden Aspekt von Kepler nochmal schön auszunutzen.
Deshalb wäre mir das Referenzdesign so wichtig, da hier eben auch die Referenzstromverbrauchsstatistik anfällt, welche eben die niedrigste ist.
Ein Grund warum ich mich für die 680 entschieden hab ist ja eben der niedrige Verbrauch im Verhältnis zu nem gutem Leistungsprofil im Vergleich mit anderen Karten.

@Dave: Ich halte dein Auto Beispiel nicht für passend, denn ich habe ja vor dieses Auto nur für kurze Zeiträume zu tunen um Ergebnisse zu erhalten, wobei es danach sofort wieder auf Werk bzw. unter die Werkeinstellungen getrimmt wird um Sprit zu sparen:)

Ich habs so eigentlich immer schon gemacht und bin damit gut zurecht gekommen.
Aber seit einigen Monaten habe ich sehr stark verspürt wie mein 2011 System mit 580 SLI einfach auf Langzeit bzgl. Stromverbrauchs zu teuer würde, daher alles verkauft und auf 1155:)

Ich werd mich nochmal ein bischen über den Stromverbrauch der Non Reference Karten informieren.
Die besten scheinen aus dem Hause MSI, EVGA und ASUS zu kommen aber ich check das nochmal genauer ab:)
Vielleicht gibts ja von eurer Seite diesbezüglich auch ein paar Anregungen.

Und dass ichs nicht vergesse, ich werde natürlich wasserkühlen.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Danke für den Hinweis, habs mir mal durchgelesen, mit der Lightning scheint das nichts zutun zu haben.

Hab jetzt mal grob die Powerprofile der Non Referenz Modelle durchgesehen und bin zu dem Entschluss gekommen, dass die Lightning die beste Statistik hat, dicht gefolgt von DCII OC und FTW/Classified und Co.

Werde mir höchstwahrscheinlich die Lightning holen und mit Aquagrafx kühlen.

Mit der sollte ich ja dann die 1,3GHZ höchstwahrscheinlich schaffen.
Hat noch jemand Einwände oder Anregungen:)?
 
Zuletzt bearbeitet:
Hallo theGooch12,

was den Stromverbrauch angeht, so habe ich die Erfahrung gemacht das die Non-Referenz Modelle da tlw. besser sind.
Ob das trotz oder grad wegen der aufwendigeren Spannungsversorgung ist, sei mal dahingestellt.
Auch brauchen meine Non Referenz Karten meistens weniger Spannung um auf den selben Takt zu kommen, als z.B. die Zotac GTX 680 4GB im Referenzdesign. U.a. habe ich die Gainward Phantom (4GB) und die GTX 680 Classified (auch 4GB) dazu genommen und besonders die Classified hat mich da wirklich überrascht!
Auch die Phantom, die ja ein erweitertes Referenzdesign mit sich herumträgt, hat bei selbem Takt/Spannung unter Wakü etwas weniger verbraucht als die Referenzkarte von Zotac!
Zwar nicht viel, aber immerhin ;)

Übrigens kann man auch die Classified heruntertakten und somit auch nochmal Strom sparen, wenn man es darauf anlegt!

Ach ja, seit wann gibt es einen AquagraFX für die Lightning? Imho gibt es nur von EK einen Kühler dafür oder ?
 
Hallo theGooch12,

was den Stromverbrauch angeht, so habe ich die Erfahrung gemacht das die Non-Referenz Modelle da tlw. besser sind.
Ob das trotz oder grad wegen der aufwendigeren Spannungsversorgung ist, sei mal dahingestellt.
Auch brauchen meine Non Referenz Karten meistens weniger Spannung um auf den selben Takt zu kommen, als z.B. die Zotac GTX 680 4GB im Referenzdesign. U.a. habe ich die Gainward Phantom (4GB) und die GTX 680 Classified (auch 4GB) dazu genommen und besonders die Classified hat mich da wirklich überrascht!
Auch die Phantom, die ja ein erweitertes Referenzdesign mit sich herumträgt, hat bei selbem Takt/Spannung unter Wakü etwas weniger verbraucht als die Referenzkarte von Zotac!
Zwar nicht viel, aber immerhin ;)

Übrigens kann man auch die Classified heruntertakten und somit auch nochmal Strom sparen, wenn man es darauf anlegt!

Ach ja, seit wann gibt es einen AquagraFX für die Lightning? Imho gibt es nur von EK einen Kühler dafür oder ?

Das ist ja mal sehr interessant:)

Die Standardmaximalspec ist ja 195W bei der 680

Könnte gut möglich sein, dass bei einem gewissen Takt die Non Referenz Karten weniger verbrauchen aufgrund von besserer Power Delivery und weniger Spannungsaufnahme bzw. Anforderung.

Hier der AquagrafX für die GTX 680 Lightning:Aquatuning Österreich - Aquacomputer aquagraFX für GTX 680 Lightning G1/4 Aquacomputer aquagraFX für GTX 680 Lightning G1/4 12643

Also die Lightning hat 2x 8Pin und eine von MSI spezifizierte Standard TDP bei Stock Clocks von 120W.

Beim Downclocken bzw. nem Core von ca 1005MHZ oder etwas weniger sollten jedoch alle Modelle so ziehmlich mit der gleichen Spannung wegkommen.
Die Lightning kostet zurzeit 507€, was doch noch etwas lastig ist, aber wir werden mal schauen was sich zu Weihnachten ergibt:)

Hier ein kleines Vid bzgl. Stromverbrauch:
 
Wenn du nur kurzzeitig ans Limit gehen willst, verstehe ich deine Argumentation noch weniger.... Unter Vollast sind vielleicht 20 Watt Unterschied (meine Schätzung), unter Idle vermutlich 0. 1kw kostet irgendwas um die 20Cent. Und du willst allen ernstes erzählen, dass dich der Mehrverbrauch stören würde? Davon ab fragst du in einem anderen Thread nach 32GB Ram bzw. SSD Raid. In Relation gesehen kostet das insgesamt die selben Stromkosten bzw. decken die Anschaffungskosten (mal abgesehen von der Sinnlosigkeit) die Stromkosten für mehrere Jahre ab...

Aber jeder wie er mag, ich habe meine 7970 nicht um sie mal für 1h hochzutakten. Die läuft immer am Anschlag unter Volllast. Und ob sie da 1; 5 oder 50 Watt mehr braucht ist mir Jacke, da es vermutlich jährliche Mehrkosten von 5,00 Euro sind ;)
 
Da rechnest du aber ein bischen schwammig:)

Es kommt auf das kW/h Verhältnis an, hochgerechnet wären konstante 50W Mehraufwand in einem 8h Fenster pro Tag auf ein Quartal hochgerechnet ca. 50€-60€ mehr.

Stimmt aber dass bei meiner Intention die Karte sowieso im Normalbetrieb downzuclocken, die Frage zwischen Referenz oder Non Referenz nicht wirklich notwendig ist.

Ich werde nen 32GB RAM Kit kaufen, um ne RAM Disk zu erstellen, inwiefern 32GB mehr Strom verbrauchen als 16GB würde ich gerne wissen, denn du hast anscheinend Infos diesbezüglich?
 
Zuletzt bearbeitet:
Sicher kommt es auf das Verhältnis an aber 1. Sind das Volllast Werte die nicht permanent anliegen und 2. ist dein PC tgl. (!) 8h an? Dann Frage ich mich wann du studierst ;) In sofern sind es eben doch nur 5Euro mehr im Jahr. Und da man im Normalfall die Karte max. 3Jahre hat (eher weniger würde ich sagen) sind es 15Euro... selbst 50 Euro auf 3 Jahren sind ein Witz. Und mal ehrlich, wenn du diese einsparen musst, solltest du dich lieber fragen ob du nicht eine IGPU benutzt um zu sparen ;) bzgl RAM kannst du normal nachlesen was ein RAM Modul verbraucht. Du hättest dann mind. 2 module "zu viel" drin. Mal davon abgesehen wirst du für deine Zwecke mit einer RAM disk keinen unterschied merken. Und die 50eus mehr für den RAM kannst dann für die 3 Jahre Strom nehmen ;)

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Ist das hier jetzt ne Kaufberatung?

Cherrypicking wird höchstens TSMC beim Funktionstest betreiben, wenn überhaupt. Es wäre nicht unvorstellbar das gute Modelle von NV für nen Dollar mehr verkauft werden. Die Chips beim Hersteller extra zu testen wäre zu teuer.

Zweite Möglichkeit wäre höchstens das die Hersteller ihre fertigen Karten einmal einem Stresstest unterziehen ob sie die anvisierten Taktraten überhaupt erreichen und bei Problemen umlabeln bzw das Bios anpassen. Asus hat beispielsweise drei 680er im Angebot die sich scheinbar nur durch ihr Bios unterscheiden. Fertige Karten zu testen wäre auch wesentlich einfacher als ein extra Aufbau für einzelne Chips.
 
abgesehen wirst du für deine Zwecke mit einer RAM disk keinen unterschied merken. Und die 50eus mehr für den RAM kannst dann für die 3 Jahre Strom nehmen ;)

Gesendet von meinem GT-I9100 mit der Hardwareluxx App

:) Hab dir doch meine Zwecke noch garnicht erläutert?

RAM DIsk größtenteils zum Entpacken, Cachen, Temp/Pagefiles legacy, und int. Prog boost

Mein PC läuft täglich ca. 8h, jedoch heißt das nicht, dass ich davor sitze:)
Und genaugenommen bin ich seit heute ein fertiger Student, hab meinen Master heute in der Post gekriegt^^
Is schon lustig, man studiert 5 Jahre seines Lebens und am Ende kriegt man nen Zettel mit nem Stempel, vl krieg ich ja mal einen von euch in die Praxis:wink:

Also wie gesagt, GTX 680 Lightning kommt ins Haus, und wird ernsthaft untertaktet, wenn nicht benchen angesagt ist.
Bezüglich des Themas "cherry picking" werd ich noch paar infos zusammentragen und nochmal posten.
 
Du hast aber in dem anderen Thread deine Vorhaben geschrieben.

Und ich bezweifel, dass dein PC 8h am Tag unter Volllast läuft, sodass du überhaupt einen Mehrverbrauch feststellen würdest. Davon ab heißt 6 + 8 Pin nicht automatisch, dass die Karte mehr verbraucht als eine mit 2x 6 Pin. Aber nun gut, entscheidet jeder selbst. Ich bleibe aber dabei, dass der Stromverbrauch bei einer HighEnd Karte das dümmste (nicht persönlich nehmen!) Argument ist. :)


P.s. Glückwunsch zum Abschluss.
Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
in der halbleiterfertigung wird der chip gemessen (widerstandsmessung) und nicht das fertige kartenprodukt getestet. das sollte eig. jeder FISI oder ITSE wissen; gehörte zumindest damals zu meiner siemens-ausbildung. für die schuhverkäufer unter uns habe ich es mal erwähnt.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Ein Funktionstest wird doch auch mit dem fertigen Produkt vorgenommen werden oder nicht?
 
Ich weiss auch nicht was erst rechnet das erst im Quartal 50 bis 60 Euro mehr verbraucht bei 50w. Das wären gerade mal 36kw/h mehr im Quartal. Bei 30cent pro kW wären das im Quartal circa 11 Euro mehr. Im Jahr dann 44 Euro. Da kann man eher an anderen Sachen sparen ;)



Gesendet von meinem NexusHD2 mit der Hardwareluxx App
 
Zuletzt bearbeitet:
kleinvieh macht auch mist - wenn ich auf meine monatlichen abrechnungen gucke und sehe, dass strom hier mit 152€ zu buche schlägt, handle ich schon bedächtig im umgang mit allem, das strom verbraucht.

dass es hans müller schnulli ist, ob aus seinen 52€ durch verbraucher XY 59€ werden mag ich noch einsehen.

btw,
die EU-richtlinien werden es richten und nächstes jahr schauen hier einige oder deren eltern recht dumm aus der wäsche; besonders die, die eh schon nix oder nur wenig haben.



(..)

mfg
tobi
 
Zuletzt bearbeitet:
wenn du damit meinst, dass die zusammengelötete karte irgendwo reingesteckt und probelaufen gelassen wird, dann NEIN.


(..)

mfg
tobi

Bei den Grafikkartenhersteller gibt es ganz sicher einen Probelauf sogar Quallitätskontrolle und Funktionstest des fertigen Grafikkartenprodukts, jede Grafikkarte auch OC Karten werden getestet mit unterschiedlicher Software das weiß doch jeder Schuhverkäufer.;)
 
Zuletzt bearbeitet:
vllt eine von 100 (=stichprobe), die dann nicht im verkauf landet.


(..)

mfg
tobi
 
Eigentlich läuft alles einmal Probe. Selbst Intel testet die CPUs bevor sie rausgehen. Ich komme zwar aus nem anderen Berreich der Industrie, aber auch hier wird jede Anlage oder System auf Funktion überprüft bevor es zum Kunden geht.

Ich bezweifel auch das eine Siemens CNC Sinumerik nicht getestet wird bevor man sie an den Kunden weitergibt. Nur weil ein Chip funktioniert heißt das nicht das die Platine mit all den anderen Elementen vernünftig läuft, da gibt es einfach zu viele Fehlerquellen.
 
klar macht kleinvieh auch mist. Aber wenns jetzt nur allein der PC ist dann kann man das unbeachtet lassen. Und im Idle ist es eh nicht erwähnenswert bei der aktuellen gen ;).

Da sollte man lieber mal das Licht auslassen usw.


Denke aber auch nicht das da was kontrolliert wird,wenn nur bei TSMC. Ihr müsst mal bedenken was das für ein mehraufwand wäre jede Karte noch sepperat zu testen. TSMC sieht da schon eher ob eine Produktion gut lief oder eher weniger gut. Hatte auch schon einige Karten wo die Grossen Hersteller,ala Asus,Evga und Gigabyte weniger gut in Sachen OC angeschnitten haben. Hatte auch schon welche von Gainward,Palit usw die dafür richtig gut gingen. Also finde das vernachlässigbar. Hole mir Grundsätzlich auch nie ne Referenzkarte die nur ein bisschen mehr Takt hat aber dafür 50€ mehr kostet. Ist eh die Selbe karte und übertakten ist heute so leicht das es jeder kann, mit ein bisschen interesse daran!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh