Welche GTX 680 Karten sind "cherry picked"?

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
naja es ist nen werbevideo. Dann rechne dir mal aus wieviel Karten die herstellen und dann wieviele die auch testen müssen.
 
naja es ist nen werbevideo. Dann rechne dir mal aus wieviel Karten die herstellen und dann wieviele die auch testen müssen.

Naja Hardware geht eh durch viele Hände bevor sie die Fabrik verlässt: Gigabyte Factory Tour - YouTube . Aber 5:47 kann man aber auch das Testen sehen, das sieht nach Stichproben aus. Bei den ganzen mauellen Vorkontrollen, sollte das Stochastisch aber auch reichen...
 
naja es ist nen werbevideo. Dann rechne dir mal aus wieviel Karten die herstellen und dann wieviele die auch testen müssen.

Ist doch egal wieviel Grafikarten die herstellen in Cina gibt es genug Kapazitäten um jede Grafikarte für wenig kosten zwei mal prüfen zu lassen. Die Hersteller mit Namen haben auf ihren Karten ja auch das QC zeichen für Quallitätkonntrolle.
 
Zuletzt bearbeitet:
Mir ist auch bekannt, dass zumindest stichprobenartik getestet wird. Wäre ja grob fahrlässig sich darauf zu verlassen, dass alles läuft wenn der Chip läuft. Und wenn das Siemens so macht, dann Respekt.... ;) Davon ab, was ändert die neue EU Richtlinie? Dann zahle ich monatlich halt 5 Euro mehr, das ändert doch nix an meinem kaufverhalten...

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Ok Stichproben kann ich nachvollziehen das sie das vielleicht machen oder vielleicht noch einstecken Bild kommt und nächste Karte. Aber auf keinen Fall ob nen Spiel läuft oder was den Takt angeht testen. Also quasi die Karte bei last testen. Wenn sie das machen würden gäbe es viele Karten nicht die von Haus aus unstabiel laufen. Dann lieber nen Ruck Läufer und kosten sparen bei der Masse.

Gesendet von meinem NexusHD2 mit der Hardwareluxx App
 
Du hast aber in dem anderen Thread deine Vorhaben geschrieben.

Und ich bezweifel, dass dein PC 8h am Tag unter Volllast läuft, sodass du überhaupt einen Mehrverbrauch feststellen würdest. Davon ab heißt 6 + 8 Pin nicht automatisch, dass die Karte mehr verbraucht als eine mit 2x 6 Pin. Aber nun gut, entscheidet jeder selbst. Ich bleibe aber dabei, dass der Stromverbrauch bei einer HighEnd Karte das dümmste (nicht persönlich nehmen!) Argument ist. :)


P.s. Glückwunsch zum Abschluss.
Gesendet von meinem GT-I9100 mit der Hardwareluxx App

Natürlich nicht 8h unter Vollast, da musste ich entweder mal ein größeres File vom Uni Server laden, oder ich hab was größeres gepackt bzw. encrypted/decrypted und zwischendurch halt immer mal was nachgeschaut. Ab und zu wenn ich keine Lust zu lernen oder zu trainieren hatte saß ich auch mal wirklich 6h oder mehr vorm PC wo eben mal gebencht wird, dann Youtube, dann Foren, paar Fotos etc etc :fresse:

Was die 8h betrifft, kann mans nicht Idle nennen aber eben sehr milde CPU/GPU Beanspruchung.

Zwar war meine Rechnung mit den 50W auf die hier geltenden Stromkonditionen korrekt, jedoch muss ich mich nach Entdeckung dieses Graphen in der Non Referenz / Referenz Diskussion doch geschlagen geben:):
Die Referenz GTX 680 frisst im Idle also mit nem Standardtakt von 1.005MHZ um die 16W.
Was mich da noch besonders verblüfft ist, dass die 670 TOP sogar weniger verbraucht als die Referenz, wobei das Argument eines vorigen Posters aufgeht, dass das weitaus besser entwickelte Power Delivery System der Non Ref Karten auch im entgegengesetzten Bereich zum Vorteil werden kann.
D01%20Power%20Idle.png


Und Dankeschön, bin grad auf der Suche nach nem Diplom Rahmen auf ebay, was die heutzutage für nen Rahmen verlangen :eek:
 
Siehst du, es ist nunmal so, dass die sich 1. Im Idle alle sehr wenig unterscheiden (generell aktuelle Karten) und 2. Im normalen Betrieb es auch nur wenig Unterschied gibt. Das die übertaktet eben mehr brauchen ist auch klar...

Hängt man sich sowas in die Bude? Ich würde mir ja eher einen job suchen, bei dem dann das Diplom ja auch was gebracht hat ;)

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Was glaubt ihr mit welcher Karte man eher die 1.3GHZ erreichen würde?

Die GTX 680 DCII Top oder die GTX 680 Lightning.

Von den Reveiws her sind die ja beide ca. gleich auf und kosten tun sie ja auch fast gleich viel.

Die Lightning hätte ja Features wie Triple Overvoltage, wobei die DCII Top das von ASUS offiziell angekündigte GPU Binning mitbringt.
 
Was glaubt ihr mit welcher Karte man eher die 1.3GHZ erreichen würde?

Die GTX 680 DCII Top oder die GTX 680 Lightning.

Von den Reveiws her sind die ja beide ca. gleich auf und kosten tun sie ja auch fast gleich viel.

Die Lightning hätte ja Features wie Triple Overvoltage, wobei die DCII Top das von ASUS offiziell angekündigte GPU Binning mitbringt.

crossover alle spiele? mit keiner von beiden.. ;-)

btw,
schon fast lächerlich, bestimmte OC-takte vorauszusetzen. freu dich, wenn sie überall 24/7 auf 1202MHz "boostet". welche GTX auch immer.


(..)

mfg
tobi
 
@theGooch12

Du gibst auch gerne das Marketing-Opfer - gebinnt wurden von Asus die ersten Karten die an die Reviewer raus sind.

Untermauert wird diese Vermutung durch die Tatsache das einige der zuletzt verkauften DC2T den max Boost nicht packen.

Du kannst auch eine Lightning erwischen die mit 1.175 nur 1250 macht.

Anders als bei anderen Karten hast Du aber bei einer Lightning die Möglichkeit via Software die VID auch noch über 1.21 zu erhöhen.

Einfacher als bei einer Lightning geht das mit keiner anderen Karte am Markt.

Der einzige Hersteller der meiner Ansicht nach noch GTX680 GPUs binnt ist POV für die TGT Karten.
 
Mit Wakü? Dann:
Nach dem was andere berichten sollte es mit beiden möglich sein, wobei die Asus es bei mir nur knapp geschafft hat!
Die Lightning habe ich nur als Radeon 7970 und wenn die GTX 680 auch so geht wie die, sollte es kein Problem darstellen wenn das Umfeld stimmt!
Andererseits habe ich auch schon mit der Gainward Phantom 1,3 Ghz und mehr mit Wakü erreicht, mit anderen des selben Typs wieder nicht!

Garantieren kann dir das niemand und ich gebe auch nicht mehr viel auf Berichte anderer angeblicher Übertaktungserfolge. Photoshop scheint überraschend weit verbreitet zu sein :d
Da spielen zuviele andere Faktoren eine Rolle, um sagen zu können "Das schafft Karte XY locker!"

---------- Post added at 14:16 ---------- Previous post was at 14:07 ----------

Ergänzung:

Stimmt die Point of View Karten der TGT Reihe sollen tatsächlich Handverlesen sein, zumindest die Beast Versionen! Zudem passt bei deren Custom PCB der Kühler von Aquacomputer!
Naja und dann bleibt noch die EVGA Classified. Für die gibt es jetzt auch ein Mod Bios, um den Verlust des EV-Bot Anschlusses bei den neueren Karten zumindest etwas zu relativieren ;)
 
ihr seid so geil, alle! hab tierisch langeweile weil ich auf den kollegen warten muss und dieser thread war echt ein netter zeitvertreib.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh