EVGA GeForce GTX 780 Ti Classified K|NGP|N Edition nähert sich der 2.100-MHz-Marke

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.017
<p><img src="/images/stories/logos-2013/evga.jpg" width="100" height="100" alt="evga" style="margin: 10px; float: left;" />Offenbar hatten die besten Overclocker der Welt inzwischen einige Zeit Erfahrungen mit der Hardware zu sammeln und stellen nun reihenweise neue Rekorde auf. <a href="index.php/news/hardware/grafikkarten/31775-neuer-3dmark-fire-strike-weltrekord-durch-forennutzer-dancop.html" target="_self">Zunächst macht unser Forennutzer Dancop auf sich aufmerksam</a>, der erst vor wenigen Wochen zwei neue Weltrekorde aufstellte. Er verwendete dazu allerdings eine ASUS GeForce GTX 780 Ti Matrix Platinum Edition und erreichte einen GPU-Takt von 1.929 MHz und einen Speichertakt von 2.100 MHz. Das Ergebnis waren <a...<br /><br /><a href="/index.php/news/hardware/grafikkarten/31956-evga-geforce-gtx-780-ti-classified-kngpn-edition-kratzt-an-der-2100-mhz-marke.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und, wen interessiert das? Dragster-Rennen sind m.M.n auch kein Motorsport und so sinnvoll wie die hier erwähnte Freizeitbeschäftigung.
 
Wenn es dich nicht interessiert dann überlies es doch aber unterlass die sinnfreien kommentare.
 
Is doch witzig ^^
Nein, eigentlich ist es tatsächlich uninteressant, aber es gibt ja auch Leute die sich für Dragster-Rennen interssieren. Oder für alten nicht mehr schmeckenden Wein. Oder für holländische Wassertomaten. Alles im Endeffekt sinnlose Beschäftigungen... Aber immerhin Beschäftigungen :d
 
Nachdem meine Frage letztes mal schon unbeantwortet geblieben ist:
Wird hier ohne Bildfehler übertaktet oder muss der 3D Mark nur durchlaufen (also mit Bildfehlern usw. - wie bei den meisten Benchkiddies)?
 
Ob bei diesem Bench Bildfehler auftraten kann ich dir nicht sagen, aber ich kann dir sagen, das es auf das ergebniss ankommt - nicht auf die Schönheit. Die Hardware muss den kompletten Bench durchlaufen, im Grenzbereich kommt es meist zu Bildfehlern , dabei darf es aber keine merkwürdigen FPS geben, das Ergebniss muss in Relation zu den Taktraten liegen. Wenn es in einem Run zu FPS Bugs kommt, fällt das meist im Ergebniss auf.

Hier zb. mal ein rekord video von 8pack im firestrike bench, so ab 1:40min legt der bench los, fällt dir was auf? ;-)
 
Zuletzt bearbeitet:
Wenn du extrem Sportler bist, dann läufst du die letzten Meter AUCH mit schnappatmung und so ist das auch mit der Hardware, die auf der letzten Rille ist
 
Irgendwie macht das diese Tests doch inkonsistent.. Ich meine Grafikfehler bedeuten ja dass sich die Recheneinheit, tja.. verrechnet hat (und das vielfach). Wie kann man dann behaupten dass die Grafikeinheit tatsächlich diese "Leistung" (Punkte) erbracht hat?

Hoffe wenigstens bei CPUs bencht man nur mit Korektheit, sonst kann man solche Tests doch in die Tonne kloppen...
 
Und was bringt das für den wirklichen Nutzen? NIX! Nen 24h Rennen auf der Nordschleife hat wenigstens noch einen Restsinn für die Entwicklung von Fahrzeugen. Aber dieses sinnlose Gepose? Glaubt Ihr nicht, die Entwickler kennen die Grenzen ihrer Produkte nicht genau, dass Amateure und Semiprofis diese ausloten müssen. Da geht es doch nur um Verdummung von Käufern, damit Leute motiviert werden überteuerte Produkte zu kaufen die keinen Mehrwert haben.
 
Zuletzt bearbeitet:
Also ist das ganze nonsens, weil mit Bildfehlern ist die Karte schon lange am Ende und man bekommt am ende sogar noch mehr Punkte, weil verrechnen am ende schneller geht.....
Wenn dann sollte die Karte zumindest den Test ohne Fehler durchhalten (keiner erwartet dabei 24/7).
Aber so, da kann ich ja auch gleich Photoshop hernehmen, ist ja auch machbar mit meiner Hardware und das sogar noch ohne Rechenfehler.

@DragonTear: Bei den meisten CPU Benches muss die CPU zumindest bis zum ende Fehlerfrei rechnen (zumindest bei SuperPi usw.) - 24/7 stabil ist man dort dann aber oft auch nicht, ist aber immer noch besser als das hier dann (da man hier dann den Bench halt 10 mal anschmeist und hofft das er einmal durchläuft - ich kenne das von meiner Karte, die läuft da mit richtig bösen Bildfehlern auch noch durch (da werden dann ganze Frames nur in Grün zB dargestellt) und am ende kommen auch noch mehr Punkte raus....).
 
Die Anzeigefehler bei diesen Benchmarks kommen nicht vom "verrechnen" der GPU, genau, dann würde das Ergebniss nichtmehr hinhauen und die FPS inkonsisten werden..

Die Anzeigefehler kommen von den Tiefen Temperaturen bei denen dann Zeitweise die Bildwandler in der GPU nichtmehr richtig funktionieren, bzw. ihren Coldbug schon erreicht haben während die GPU noch weiter rechnet wie gehabt.

Richtige Bildfehler und artefakte kann man während so eines runs kurzzeitig mit tieferen Temperaturen abfangen, sprich "Ahh Bildfehler!" - "gut ich kipp noch bisschen Stickstoff nach" aber das funktioniert nicht auf dauer da man irgendwann nichtmehr tiefer gehen darf mit den Temperaturen.

Wenn es wirklich am Ende ist freezt das system oder der Grafiktreiber setzt sich zurück.

Es gibt jedoch auch ein paar ältere Benchmarks denen es egal ist wie die Frames aussehen solange die Anzahl der Frames passt.
 
Und was bringt das für den wirklichen Nutzen? NIX! Nen 24h Rennen auf der Nordschleife hat wenigstens noch einen Restsinn für die Entwicklung von Fahrzeugen. Aber dieses sinnlose Gepose? Glaubt Ihr nicht, die Entwickler kennen die Grenzen ihrer Produkte nicht genau, dass Amateure und Semiprofis diese ausloten müssen. Da geht es doch nur um Verdummung von Käufern, damit Leute motiviert werden überteuerte Produkte zu kaufen die keinen Mehrwert haben.

Ist das dein ernst ? Also ist jeglicher Rekord in egal welchem Bereich für dich Verdummung von Menschen. Wieso laufen Menschen um die Wette auf 100m ? Das hat doch keinerlei Sinn für den normalen Menschen und das Marketing lässt es so einfach aussehen als ob das jeder könnte. Diese Schweine ! Die Ärzte wissen doch genau was so ein Mensch aushält oder maximal schafft wieso laufen die bloß um die Wette. :stupid:

Es ist einfach so das man egal in welchem Bereich versucht immer das maximal Mögliche auszuloten. Ob es jetzt Dragrennen sind wo man mit massig viel PS versucht auch noch das letzte Zehntel rauszuquetschen, Wettrennen auf Strecke oder sonstige sportliche Leistungen sind wo man Jahre für die letzte Zehntelsekunde trainiert oder so ein Benchcontest sind. Alle haben ihre Daseinsberechtigung.
 
Zuletzt bearbeitet:
Wow endlich mal ein paaar kritische Worte hier.
Und dazu noch die Wahrheit.
Die Benchmark Ergebnisse sind schön anzusehen - und das auch nur optimistisch ausgedrückt.
 
EVGA GeForce GTX 780 Ti Classified K|NGP|N Edition nähert sich der 2.100-MHz-...

Das Leute - die sowas einfach nicht interessiert - das kritisch sehen, verwundert mich jetzt aber total. ;)
Natürlich hat sogar das einen Nutzen, wie viele Hobby-Bencher könnten ihr Hobby schon zum Beruf machen... Hardware verbessern, Enthusiasten-Hardware schaffen.. etc.
Wenn es jemanden nicht interessiert, wäre die beste Idee: Klappe halten, weitergehen.
 
Ich bin ehrlich dankbar für jeden neuen Rekord der mit GPUs erzielt wird. Der Sinn von OC ist es die Nadel ganz bewusst in den Roten Bereich zu schieben und dort zu halten (möglichst schadlos). Was bei GPUs heute nur mit Stickstoffkühlung möglich ist, wird irgendwann mit Wasser- oder Luftkühlung möglich sein (siehe CPUs). Für alle die trotzdem nichts von OC halten, betrachtet es einfach als einen Blick in die nähere Zukunft. Es gibt Branchen in denen die Kenntnis der Leistung zukünftiger CPUs/GPUs notwendig ist. Nehmt einfach mal die Spieleentwickler oder Rechenzentren als Beispiel, die in die Zukunft hinein projektieren. Das Beste was sie haben sind OC Rekorde. Spätestens jetzt dürfte sich der Sinn erschließen.
 
mit Bildfehlern is das ganze in meinen Augen nichts.
 
Ich sehe das auch so, dass es nur sinnvoll wäre, wenn die Benchmarks fehlerfrei liefen.

Mit Sportlern etc kann man das nicht vergleichen, denn diese schaffen ja etwas tatsächlich.
Man könnte es höchstens mit Sportlern vergleichen die dopen oder Hilfsmittel verwenden.
Wenn ein Schwimmer mit Schwimmflossen einen neuen Rekord aufstellt wird das auch nicht gefeiert.

Und mir erschließt sich auch der Sinn nicht bzgl Spieleentwicklern etc, wenn die Hardware mehr als das doppelte (hier GPU-Takt) "leistet" jedoch mit Fehlern.

Ich bin bisher immer davon ausgegangen, dass solche Rekorde fehlerfrei ablaufen müssen, aber so...
 
Bin ich blind oder wo steht da was von Bildfehlern??
 
Ich bezog mich hier auf die Aussagen, z.B. von moebius, dass es wohl zu Bildfehlern kommt.
Wenn dem so sein sollte stehe ich zu meinem oben geschriebenen Kommentar.
 
Wenn es jemanden nicht interessiert, wäre die beste Idee: Klappe halten, weitergehen.
Immer dieses Totschlagargument!
Wenn sich alle an das halten würden, gäbe es keinerlei Kritik mehr auf der Welt und die Welt wäre nur noch voll mit Schwachsinn :d

@kabauterman: Okey, ich akzeptiere das mal. Aber für mich zählt zu einer Grafikkarte bzw. zu einem Grafikchip, auch die Bildausgabe...

EDIT: @Dober: Ähm, hast du irgendwo eine Quelle die belegt dass man durch extremes übertakten der jetztigen Chips auf die Leistungsdaten der zukünftigen schließen kann? :confused:
Ich finde das hat nichts miteinander zutun.
Klar, ursprünglich war das extrem-Übertakten dafür verantwortlich dass die Hersteller angefangen haben OC-Tools auch für die breite Masse im Treiber einzubauen (anfangs musste man vollständig selbst basteln). Aber davon abgesehen ist das ganze natürlich nur Marketing.
 
Zuletzt bearbeitet:
Also wie gesagt, ich kann den Firestrike Test mit 1275 MHz durchlaufen lassen, das geht gerade noch so. Stabil ist meine Karte aber nur bis 1165 MHz, darüber gibt es Bildfehler (und nein, das kommt nicht von der Temperatur, selten so einen Schwachsinn gelesen).
Ich bekomme aber TROTZ massiver Bildfehler noch sehr viel mehr Punkte, weil dem Benchmark scheiß egal ist, ob richtig gerechnet wurde, das Programm darf nur nicht abstürzen.

Und vergleiche mit Sport hinken extrem, weil einem Sportler, dem die Puste ausgeht, wird ja auch nicht schneller, nein er wird langsamer. Wenn der Sportler "Bildfehler" hat, macht er Fehler und für die gibt es dann in der Regel einen Punktabzug (zB in der Akrobatik), bzw. er verliert (bekommt zB beim Boxen eine auf die Fresse).
Das Argument beweist doch nur, das nicht sauber gebenched wird.

Genauso wenig hat das was mit ans Limit zu gehen zu tun, da das Limit ja wohl schon überschritten wurde und hier nur noch sinnlos für ein paar Punkte mehr, getrixt wird. Für mich ist das das selbe, als ob man mit Photoshop nach hilft oder an der Systemuhr rumspielt (wenn dann zb eine Sekunde auf einmal 1,2 Sekunden lang ist - ist ja auf anderen Planeten auch so....).
Selbst bei Geschwindigkeitsrekorden für Autos, muss das Auto eine bestimmte Strecke FEHLERFREI durchhalten, hat es Fehler, hat es WENIGER "Rekord" und nicht mehr.....

Und für die Forschung von neuen Chips, bringt dieser Kindergarten auch nichts. Gott das hier ist ja nur noch E-Penis pur .....

PS: Ich bin extrem OC begeisterst und genau deswegen rege ich mich über diese Sinnlosigkeit auf. Also spart euch das Argument endlich und zurück in den Sandkasten ;).

PS2: Heutzutage wäre es auch kein Problem, ein Video des Runs mit zu veröffentlichen, um die Fehlerfreiheit zu beweisen.
 
Zuletzt bearbeitet:
Evtl. Rechenfehler oder Darstellungsfehler kann man verschmerzen, wenn man bedenkt das die Komponenten i.d.R. weit jenseits der Spezifikation laufen. Da nehmen sich CPUs und GPUs gar nichts. Dreht die Uhr einfach ein paar Monate/Jahre weiter und es läuft stabil und fehlerfrei bei der Frequenz. Jetzt darauf herumzureiten weil die technologische Basis noch nicht ausgereift ist, das wirkt mehr als albern. Beim OC gehts doch ganz klar um das Vordringen in (und Überschreiten von) Grenzbereiche(n).

@Dragon
Dazu gibt es keine Quelle soweit ich weiß. Worum es bei OC Benchmarks geht, ist das sie eine Vorschau dafür liefern, was demnächst oder später mal mainstream wird. Das war beim Pentium und der 4Ghz Schwelle damals so und heute kräht kein Hahn mehr danach, weil es fast jeder Intel Prozessor packt. Nicht mit einem, sondern 4 oder 6 Kernen.

Die bekannten Hersteller haben einen Teufel zur Verbreitung von OC Tools beigetragen. Innovationen gingen und gehen immer noch von der OC Community aus. Nimm einfach mal den Einfluss von Kingpin auf EVGAs Image. EVGA war vorher mit Abstand der konservativste Hersteller der mir untergekommen war und jetzt haben sie Produkte am Start, die ohne ihren zugekauften OC Guru niemals entstanden wären. Die Frage nach dem Huhn und dem Ei stellt sich erst gar nicht.
 
Zuletzt bearbeitet:
Beim OC geht es eigentlich darum, deine Komponente an ihr individuelles LIMIT zu bringen und nicht darüber ;) (sonst wären die ganzen Tutorials zum stabilisieren ja komplett nutzlos und ich könnte meine Grafikkarte dann hier im Marktplatz auch damit anbieten, was sie gerade noch so durchläuft im Benchmark???). Ich kann meine CPU auch mit 5 GHz booten und so lange ich nur den Windows Desktop betrachte, hält sie den Takt auch über Tage .... Nutzen????
Man sollte dann wenigstens dazu schreiben: Neuer Rekord MIT Fehlern, so viel Ehrlichkeit kann man doch verlangen oder?
 
Zuletzt bearbeitet:
Evtl. Rechenfehler oder Darstellungsfehler kann man verschmerzen, wenn man bedenkt das die Komponenten i.d.R. weit jenseits der Spezifikation laufen. Da nehmen sich CPUs und GPUs gar nichts. Dreht die Uhr einfach ein paar Monate/Jahre weiter und es läuft stabil und fehlerfrei bei der Frequenz. Jetzt darauf herumzureiten weil die technologische Basis noch nicht ausgereift ist, das wirkt mehr als albern. Beim OC gehts doch ganz klar um das Vordringen in (und Überschreiten von) Grenzbereiche(n).
In den letzten jahren ist der Takt kaum angestiegen bei Grafikkarten und bei CPUs auch nur noch sehr langsam.
Davon abgesehen ist doch Takt nicht alles... eine 1000Mhz Karte von heute ist viel stärke als eine bei gleichem Takt von vor 3 Jahren.
Vorallem bei Grafikkarten (im Gegensatz zu CPUs) wird der CHip ja sehr "breit" entwickelt und erlangt ihre Leistung durch mehr Shader- und Textureinheiten, etc. nicht durch Takt.
Wann es 2Ghz Grakas im normalen Markt geben wird, lässt sich meiner Meinung nach nicht im Entferntesten aus solch einem Test ableiten.

@Dragon
Die bekannten Hersteller haben einen Teufel zur Verbreitung von OC Tools beigetragen. Innovationen gingen und gehen immer noch von der OC Community aus. Nimm einfach mal den Einfluss von Kingpin auf EVGAs Image. EVGA war vorher mit Abstand der konservativste Hersteller der mir untergekommen war und jetzt haben sie Produkte am Start, die ohne ihren zugekauften OC Guru niemals entstanden wären. Die Frage nach dem Huhn und dem Ei stellt sich erst gar nicht.
Ja, klar, Kingpin hat ganz alleine Mainboards und Grka-PCBs entwickelt und sie EVGA zur Produktion gegeben >_>

Denke wir beide meinen das gleiche: Dadurch dass es extrem-OCer gibt, haben sich die Hersteller angepasst und bieten gewisse Features auch für den "normalen" Enthusiastenbereich an.


Ich finde man sollte vieleicht für beides Weltrekorde etablieren: "Höchster Takt" und "höchster Takt mit korektem Ergebnis".
Wäre beides gleichermaßen reizvoll wobei letzteres wohl für die OCer noch schwieriger bzw. langwieriger (und damit teurer wegen LN2) wäre. Dies dürfte wohl der Grund sein wieso es das nicht gibt.
 
Zuletzt bearbeitet:
"darüber gibt es Bildfehler (und nein, das kommt nicht von der Temperatur, selten so einen Schwachsinn gelesen)."

Ah ja, ich habe auch selten so einen Schwachsinn gelesen. Dann brauchst ja keine Wasserkühlung, da es ja egal ist welche Temp anliegt ;)

Aber meine Frage wegen der Bildfehler nehme ich zurück. Hatte den Post von Moebius nicht gesehen, weil ich über die News Seite gepostet habe.
 
Zuletzt bearbeitet:
@Zucksi: Wer lesen kann ist klar im Vorteil. Es wurde behauptet, das die Bildfehler KEINE Rechenfehler sind und nur deswegen entstehen, weil der Chip so kalt ist.
Also Reis hier nicht zeug aus dem Zusammenhang .... oder hast du auch schon Rechenfehler???
 
Zuletzt bearbeitet:
Habe in deinem Post nichts von Rechenfehler gelesen. Ich dachte das bezog sich auf Bildfehler...

Ich für meine Seite meinte es so:

Wenn der GPU Chip 80 °C warm ist dann schafft das Teil 1080 MHz und wenn der 50 °C warm ist schafft er 1140 MHz ohne Bildfehler.

und so habe ich dann deinen Post verstanden:

Das Teil schafft bei 80 °C 1140 MHz mit Bildfehler, dann schafft es bei 50 °C auch 1140 MHz mit Bildfehler, da es ja egal ist wie heiß/kalt das Teil ist
 
Zuletzt bearbeitet:
Man Zucksi du offenbarst hier ja eine Weltneuheit ...... Das musst du eventuell im Computer Bild Forum erklären aber nicht hier -.- und erst recht nicht Leuten, mit mehren 100 Posts und komplett übertakteter Hardware und Wasserkühlung. Ich bleib dabei, lerne lesen .....
 
Zweiteres lieber nicht xD

Scheint wohl an der Sonne hier zu liegen, falls ich Blödsinn schreibe ;)

Auf jeden Fall sind ~ 12 GFlops schonmal ne beachtliche Leistung.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh