EVGA GeForce GTX 780 Ti Classified im Test

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Von welchen Benches sprichst du, wenn du sagst, die Karte bricht wegen fehlendem VRAM ein? Und vor allem, von welchen sprichst du mit der Aussage: "Selbst bei 1600p sind massiv Verluste zu vermelden und sie kommt gefährlich nahe an die doch für 450 Euro deutlich günstigere Referenz vom AMD R9 290X heran."

Es ist schon ein Trend zu sehen, das die 3 GB VRAM mit zunehmender Auflösung öfters an der Performance zehrt.
Beispiel ist Crysis 3.
EVGA GeForce GTX 780 Ti Classified im Test
Natürlich ist das nicht bei allen Spielen so, weil eben nicht alle Spiele unbedingt 3 GB VRAM verbrauchen.

Nur so als Hinweis: im keinem der Luxx Werte ist die hierige EVGA Karte nicht wenigstens ein paar Prozente überhalb der Ref. 780TI bzw. der 290(X) im Uebermode. Ein einigen sogar massiv! drüber...

Das habe ich auch nie behauptet, das sie langsamer ist als die GTX 780Ti(Ref) oder eben die R9 290X.
Nur man sieht eben, das die 3 GB VRAM zu einem Flaschenhals werden können und das ist bei einer Karte, für die 745 EURO(lieferbar) verlangt wird, echt ein Mangel, den NVIDIA sich gefallen lassen muss.
NVIDIA will doch die Beste und schnellste Karte auf den Markt bringen. Warum bemessen sie ihre Karten immer so knapp mit dem VRAM ? Kostenersparnis bei einer fast 1000 Euro teuren Karte ?

Auch ist eine Titan mit doppeltem VRAM aber etwas weniger Rohpower in keinem der Messungen überhalb der hierigen EVGA Karte. -> Ergo der VRAM limitiert hier in den Benches kein Stück!
PS: ich habe bis jetzt einen Titel gefunden, der die TI mit 3GB VRAM ins VRAM Limit treibt. -> das ist Gothic 3 mit 3840x2160er Downsampling auf FullHD + 8xSGSSAA über 10C1er Bits. :wink:

Die Titan kränkelt es eben nicht an VRAM, sondern massiv an Bandbreite. Es ist schon regelrecht erschreckend zu sehen, wie die 1000 Euro Karte bei Crysis 3 immer mehr absackt, je höher die Anforderungen werden ! Offenbar ein Flaschenhals, den man mit 384Bit SI kaum Herr wird. AMD hat nicht ohne Grund auf ein 512 Bit SI gesetzt und das kann nur von Vorteil für die Zukunft sein. Ein Refresh von Hawaii hat wieder ein 512 Bit-SI und eventuell VRAM mit höherer Taktrate. Sicherlich, die nächste Generation macht alles besser, aber AMD setzt jetzt schon Grundsteine für die Zukunft, während NVIDIA offensichtlich nur ihre Altmodelle teuer verkaufen möchte.

Das kann sich in zukünfigten Titeln ändern, keine Frage. Aber ob dann allein die 33% mehr VRAM bei AMD den Unterschied zwischen spielbar und unspielbar machen, steht auf einem ganz anderen Blatt. Anders sah das noch mit der 680 aus. Gerade im SLI (690) -> da landente man schon deutlich öfters im VRAM Limit, wie ich leidlich feststellen musste, obwohl (gerade im SLI) die Rohpower vorhanden war.

Das ist ja das Hauptproblem mit den GK110. Nicht das er schlecht wäre. Mit Nichten ! Die Spiele halten aber noch gerade so eben das Limit ein, bis auf ein paar Ausnahmen. Aber was dann ?
Es gibt keine Reserven. The Witcher III, Star citizen ect. erscheinen und schon gibt es vielleicht ein Problem mit der gerade für 750 Euro teuren gekauften Hardware. Das kann doch nicht wirklich so kurzsichtig gesehen werden. Klar, die Hardware entwickelt sich weiter und wenn sie nicht ausreicht, dann muss man eben aufrüsten. Aber von einer so teuren Karte sollte man schon erwarten können, das sie für die Zukunft etwas mehr Spielraum besitzt als gerade einmal das jetzig Nötige. AMD kann das ja auch und mit Verlaub gesagt, dies deutlich günstiger.
Wenn man sieht, was ein Flaschenhals, wie die mangelte Bandbreite bei der GTX Titan, anrichten kann(siehe Crysis 3), so glaube ich, dass AMD genau dort alles richtig gemacht hat.

Fassen wir es doch einmal zusammen.
AMD setzt mit dem breiten SI, den mehr an VRAM und dem vollen Support von DX 11.2, was ja auch der Texturenauflösungfähigkeit zugute kommt, eine solide Basis um auch die Spiele von Morgen nicht gegen ein Limit laufen zu lassen. Was macht NVIDIA ? Rein gar nichts, außer das Hier und Jetzt zu pushen. NVIDIA hätte den GK110 ebenfalls wie AMD den Tahiti komplett überarbeiten sollen. Kostet aber offenbar zu viel Geld. Wozu auch, wenn sich alle auf die Altware stürzen ?

Also, wer sich jetzt und Heute das schnellste und teuerste zulegen will, der kauft sich eine GTX 780Ti.
Wer in Zukunft sicher sein möchte und sich dann nicht gleich "wieder" eine neue Grafikkarte kaufen will, der sollte jetzt eher zu einer AMD greifen.

- - - Updated - - -

Bleib mal entspannt Pickebuh .... Sharif darf ich das vor den Latz knallen. :bigok:

Sorry, Hab ich wohl missverstanden. Tut mir leid !
 
Zuletzt bearbeitet:
Es ist schon ein Trend zu sehen, das die 3 GB VRAM mit zunehmender Auflösung öfters an der Performance zehrt.
Beispiel ist Crysis 3.
EVGA GeForce GTX 780 Ti Classified im Test
Natürlich ist das nicht bei allen Spielen so, weil eben nicht alle Spiele unbedingt 3 GB VRAM verbrauchen.
Da sieht man gelinde gesagt gar nichts ;) Siehe die GTX 690. Die mit nutzbaren "nur" 2GB am Ende immernoch die Nase vorn hat. Und mit steigender Auflösung in dem Test sogar etwas Boden gewinnt...
Theorie = widerlegt

Die Titan kränkelt es eben nicht an VRAM, sondern massiv an Bandbreite. Es ist schon regelrecht erschreckend zu sehen, wie die 1000 Euro Karte bei Crysis 3 immer mehr absackt, je höher die Anforderungen werden ! Offenbar ein Flaschenhals, den man mit 384Bit SI kaum Herr wird. AMD hat nicht ohne Grund auf ein 512 Bit SI gesetzt und das kann nur von Vorteil für die Zukunft sein. Ein Refresh von Hawaii hat wieder ein 512 Bit-SI und eventuell VRAM mit höherer Taktrate. Sicherlich, die nächste Generation macht alles besser, aber AMD setzt jetzt schon Grundsteine für die Zukunft, während NVIDIA offensichtlich nur ihre Altmodelle teuer verkaufen möchte.
Titan kränkelt auch nicht an der Bandbreite... Woher hast du denn diese (sorry) Märchen? Wenn Titan an der Bandbreite kränkeln würde, müsste das die 780TI ebenso. Denn der Chip ist eben um mehr wie 15% schneller, was die Rohpower angeht. Er hat aber nur ~15% mehr Bandbreite durch den leicht gesteigerten VRAM Takt.
Wie ich oben schon ansprach, wäre ein VRAM Limit in den Benches zu sehen, müsste Titan massiv Boden gut machen. VRAM Limit heist idR massiver FPS Verlust bis in Unspielbarkeitsregionen (wenn er richtig stark überbucht ist) Das Resultiert dann in FPS Raten von 10-20FPS und ist unspielbar, wärend der gleiche Chip (bzw. ein Chip auf einem ähnlichen Leistungslevel) mit dem doppelten VRAM spielend deutlich im spielbarkeitsbereich liegen würde -> haben wir das hier?

NVIDIA hätte den GK110 ebenfalls wie AMD den Tahiti komplett überarbeiten sollen. Kostet aber offenbar zu viel Geld. Wozu auch, wenn sich alle auf die Altware stürzen ?
GK110 ist die überarbeitete Version ;)
Und hält sich stand heute sehr gut... Er ist teuer, keine Frage. Zumindest als Ref. Layout der 780TI. Wer in derartigen Leistungsklassen mehr auf das P/L schaut, kauft auch eher die 780 non TI. Womöglich als Custom Modell mit OC und minimalem Aufpreis. Oder halt eben eine 290/290X. Letztere in ähnlichen Preisregionen, wenn verfügbar. Aber nicht den Fehler begehen und hier die Preise von irgendwelchen "OC" Überkarten der Boardpartner als Basis ranziehen... Das macht gelinde gesagt nämlich keinen Sinn. Preislich liegt die 780TI irgendwo im Bereich 600-610€ aktuell. Als Ref. Layout. Das sind grob 150€ weniger als dieses EVGA Modell... Das wenn man den Berichten hier und in anderen Foren traut, seinen Aufpreis aber ebenso nicht wert ist. Nämlich weil es dort, wofür es geschaffen ist, nicht wirklich überzeugt. (gegen andere Modelle, ja sogar die Ref. Platinen) Aber da hat alles weder was mit DX11.x zu tun, noch mit dem VRAM. :wink:
 
Schöner Test! Ich frage mich allerdings, warum auf einem PCIE 2.0 System getestet wird. Angesichts der teils extremen Auflösungen und Diskussionen um Bandbreite könnte das ein beeinflussender Faktor sein. Gerade für Karten mit weniger Speicher.
 
Schöner Test! Ich frage mich allerdings, warum auf einem PCIE 2.0 System getestet wird. Angesichts der teils extremen Auflösungen und Diskussionen um Bandbreite könnte das ein beeinflussender Faktor sein. Gerade für Karten mit weniger Speicher.

Also wenn du den Kollegen gerne die 500-1000€ für die CPU zur verfügung stellen willst, damit mit dem S2011 System sauber PCie 3.0 für alle GPUs geht, immer her damit ;)
 
Da sieht man gelinde gesagt gar nichts ;)

Dann mach doch mal deine Augen auf.
Ausgehend der GTX780Ti von EVGA und der R9 290X Ref.

1.920x1.080 1xAA 1xAF = GTX 780Ti 83,7 FPS : R9 290X(Über) 65,7 FPS die Differenz ist 18 FPS.
1.920x1.080 4xMSAA 16xAF = GTX 780Ti 57,9 FPS : R9 290X(Über) 50,8 FPS die Differenz beträgt 7,1 FPS

Nun man könnte glauben, das AA und AF bei AMD besser skaliert. Dann schauen wir mal bei einer höheren Auflösung nach.

2.560x1.600 1xAA 1xAF = GTX 780Ti 49,9 FPS : R9 290X(Über) 46,8 FPS Differenz 3,1 FPS !!!

Unterm Strich verliert die GTX 780Ti satte 33,8 FPS, während die R9 290X mit nur 18,9 FPS Verlust zu rechnen hat. Beide Karten haben fast identische GFLOPs-Rechenleistung und fast gleiche Speicherbandbreite. Was glaubst du limitiert nun hier die GTX 780Ti ?

Willst du jetzt immer noch behaupten, das man da nichts erkennt ? :rolleyes:

Siehe die GTX 690. Die mit nutzbaren "nur" 2GB am Ende immernoch die Nase vorn hat. Und mit steigender Auflösung in dem Test sogar etwas Boden gewinnt...
Theorie = widerlegt

Nein, die ist absolut nicht widerlegt ! Da machst du einen Denkfehler. ;)
Bei der GTX690 handelt es sich um eine, wohl auch dir bekannte, Dual-Karte. Die kann man nicht so einfach mit den Beschränkungen einer Singlekarte vergleichen !
Grund liegt hierbei an der physikalisch vorhandenen Verdoppelung der Speicherbandbreite, sowie des doppelten VRAMs. Zwar ist im SLI nicht generell eine Verdoppelung vorhanden, da beide GPUs die selben Daten verarbeiten müssen, aber sie können sich die Aufgabe aufteilen, was eine Singlekarte nicht kann.

Im AFR(Alternate Frame Rendering) werden, wohl wiederum auch dir bekannt, jeweils die geraden und ungeraden Frames der jeweiligen GPUs zugeordnet. Sprich, 2 GPUs arbeiten parallel an 2 Frames. Das kann eine Singlekarte mit nur einer GPU nicht machen und ist genau deshalb deutlich abhängiger von Speicherbandbreiten und VRAM-Größen, die dann zu einer schnelleren Limitierung(Flaschenhals) führen können.

Zusammengefasst leidet eine Dual-Karte dank der Kraft ihrer zwei Herzen weniger an Limitierungen, als eine Singlekarte, da zwei GPUs einen Flaschenhals besser kompensieren können und trotzdem höherer Frameraten liefern, als eine überlastete GPU.

Titan kränkelt auch nicht an der Bandbreite... Woher hast du denn diese (sorry) Märchen? Wenn Titan an der Bandbreite kränkeln würde, müsste das die 780TI ebenso. Denn der Chip ist eben um mehr wie 15% schneller, was die Rohpower angeht. Er hat aber nur ~15% mehr Bandbreite durch den leicht gesteigerten VRAM Takt.
Wie ich oben schon ansprach, wäre ein VRAM Limit in den Benches zu sehen, müsste Titan massiv Boden gut machen. VRAM Limit heist idR massiver FPS Verlust bis in Unspielbarkeitsregionen (wenn er richtig stark überbucht ist) Das Resultiert dann in FPS Raten von 10-20FPS und ist unspielbar, wärend der gleiche Chip (bzw. ein Chip auf einem ähnlichen Leistungslevel) mit dem doppelten VRAM spielend deutlich im spielbarkeitsbereich liegen würde -> haben wir das hier?

Du vergisst dabei, das VRAM nichts wert ist, wenn die Speicherbandbreite limitiert ? Selbst 10GB VRAM nützen da rein gar nichts. Das Erfolgsrezept liegt in der Symbiose aus den zwei folgenden Werten:
1. VRAM-Menge
2. Speicherbandbreite

Alles ist voneinander abhängig und kränkelt nur ein Teil davon, zieht es den Rest mit sich herunter. Was nun stärker ins Gewicht fällt ist anwendungsabhängig.
Die Titan kränkel nicht an VRAM, sondern an ihrer Bandbreite. Die GTX780Ti hat eine größere Bandbreite und deutlich mehr Rohpower. Das führt eben zu einer besseren Leistung. Ist der VRAM kein limitierender Faktor, so überflügelt sie locker die Titan.

GK110 ist die überarbeitete Version ;)

Überarbeitet seit wann ?
Es ist der selbe Chip ohne Änderungen außer im Stepping B1 welcher nur zur besseren Ausbeute gemacht wurde, was in erster Linie NVIDIA zugute kommt und dann zweitrangig dem Endkunden etwas bringt durch bessere OC-Möglichkeiten. Für die Zukunft, ist dieser Chip(GPU) hoffnungslos veraltet. Er bietet keine Möglichkeit den VRAM wirtschafftlich zu vergrößern. Es müssen dann gleich 6GB sein, obwohl es mit weniger auch getan wäre und dadurch die Karte nochmals teurer macht. Dann ist es quasi völlig ausgeschlossen das die Speicherbandbreite ebenfalls wirtschaftlich sinnvoll erhöht werden kann. AMD braucht z.B. nur bessere Speicherbausteine von Samsung ect. zu verbauen und kann damit die Bandbreite signifikant erhöhen. Und schlussendlich der fehlende Support für DirectX11.2, der wenn überhaupt nur leistungsfressend emuliert werden kann, wenn dies überhaupt möglich ist.

Da von einer "Überarbeitung" zu reden, ist wohl reine Schönrederei.

Und hält sich stand heute sehr gut... Er ist teuer, keine Frage. Zumindest als Ref. Layout der 780TI. Wer in derartigen Leistungsklassen mehr auf das P/L schaut, kauft auch eher die 780 non TI. Womöglich als Custom Modell mit OC und minimalem Aufpreis. Oder halt eben eine 290/290X. Letztere in ähnlichen Preisregionen, wenn verfügbar. Aber nicht den Fehler begehen und hier die Preise von irgendwelchen "OC" Überkarten der Boardpartner als Basis ranziehen... Das macht gelinde gesagt nämlich keinen Sinn. Preislich liegt die 780TI irgendwo im Bereich 600-610€ aktuell. Als Ref. Layout. Das sind grob 150€ weniger als dieses EVGA Modell... Das wenn man den Berichten hier und in anderen Foren traut, seinen Aufpreis aber ebenso nicht wert ist. Nämlich weil es dort, wofür es geschaffen ist, nicht wirklich überzeugt. (gegen andere Modelle, ja sogar die Ref. Platinen) Aber da hat alles weder was mit DX11.x zu tun, noch mit dem VRAM. :wink:

Hier geht es aber primär um das EVGA-Model, welches maßlos überteuert ist und die Schwächen nicht angeht. Sprich, einfach nur abkassieren soll.
Das es natürlich auch günstigere Refs gibt, ist klar, aber das gilt auch für die AMD-Karten, die ja hier im Test sogar als direkten Vergleich herangezogen werden. So gesehen, ein ungleicher Kampf.

Was die Zukunft bringt, wird sich noch zeigen, aber mit weniger ist die Zukunft bestimmt nicht zufrieden. ;)
 
Zuletzt bearbeitet:
Man darf nicht vergessen, dass die Classifieds sich in erster Linie immer an die Extreme-Bencher richten - mehr Phasen und 1.5v kann eine Ref nun mal nicht.
Das ist der Grund warum die Karte teurer ist, geringe Stückzahl, Custom PCB. Sicherlich hat EVGA noch einen Extra-Aufschlag, aber wer es sich leisten kann, macht das meist auch. Zumal EVGA auch nicht all zu viel subventionieren kann, ganz anders Asus z.B..
Was aktuell an dieser Classified (alle zuvor waren Eliten unter ihren Referenz-Kollegen) nicht stimmt, sie lässt sich nur schwer bis gar nicht takten. Warum wissen wir noch nicht, aber das kriegen wir auch noch raus.
Und - zu guter letzt hat sie im Hwbot auch die Krone auf. Knapp 2000 MHz gehen wohl eher nur mit ner Classified oder Lightning, das darf man bei dem reinen Preisvergleich nicht vergessen. Also irgendwie geht das mit dem OC dann doch. :d
Mir - so auch den meisten anderen Käufern - ist bewusst, dass wir wenig bis gar nicht die Reserven der Classified ausschöpfen, aber in den USA darf man auch nur 110km/h fahren und findet Porsche trotzdem toll und kauft sich einen. ;)
Und dann soll er gefälligst die 0-100 km/h auch unter 5 Sekunden packen,.. analog zu 1.300 MHz Boost Gamestable. ;)

Ich finde die AMD Leistung auch nicht schlecht, die haben einiges in letzter Zeit richtig gemacht, nur den Kühler der Referenzkarte nicht. Aber jeder haut mal irgendwo daneben, kein Grund für mich da etwas zu generalisieren.
 
Zuletzt bearbeitet:
Was aktuell an dieser Classified (alle zuvor waren Eliten unter ihren Referenz-Kollegen) nicht stimmt, sie lässt sich nur schwer bis gar nicht takten. Warum wissen wir noch nicht, aber das kriegen wir auch noch raus.

Habe ich das richtig verstanden ?
Diese Classified macht Probleme beim OC ??
 
Ja, bisher laufen fast alle Classified mit weniger Mhz als die Referenzkarten, zumindest wenn man bei humanen Spannungen unter 1,21V bleibt.

Gute Referenzkarten schaffen mitunter 1300 Mhz @ 1,1V, Classifieds machen grade so 1250 Mhz mit 1,21V.

Böse Zungen behaupten, EVGA hätte die selektierten Chips mit den unselektierten vertauscht :d

Nachzulesen in den letzten 20-50 Seiten des Sammlers:
http://www.hardwareluxx.de/communit...thread-faq-bei-fragen-erste-seite-988143.html
 
Zuletzt bearbeitet:
Wieder ein Fall von selektierten Pressesamples um den Verkauf zu pushen... :shake:
 
Noch mehr das die guten Chips auf die "Uber"-Elite-Overclocker-Porn-Kingpin Karte gewandert sind. We'll see after RMA :hail:
 
und wenn man sieht, wie diese Karte bei höheren Auflösungen wegen dem fehlenden VRAM einbricht, so sollte man sich mit ihr keine 4K Auflösung zulegen wollen.

Das mag ja ein Argumentationspunkt sein, die meisten werden sich die Karte aber trotzdem nicht für diese Settings holen, ist ja auch meistens eher unspielbar.

Selbst bei 1600p sind massiv Verluste zu vermelden und sie kommt gefährlich nahe an die doch für 450 Euro deutlich günstigere Referenz vom AMD R9 290X heran.

Da stimme ich zu. Wer wirklich höher als Full HD fahren will, der kommt bei 2560x1440p oder x1600p an und da ist eine Stock 290x nur minimalst hinter einer 780 Ti. 0 bis 5%

Zuwenig VRAM und kein vollen DX11.2 Support deklassiert sie doch wieder zu einem alten Eisen, welches für die Zukunft, nur sehr eingeschränkt zu empfehlen ist bzw. wer sich diese Karte kauft, der muss sich im klaren sein, das er viel Geld ausgibt und nicht lange mit diesem Produkt auskommen kann.

Sehe ich nicht so. Der V-ram dürfte zumindest für Full HD und 1440p noch ausreichend sein und die Direct X Unterstützung ist ja jetzt auch nicht so schlecht.

Pickebuh schrieb:
Nun man könnte glauben, das AA und AF bei AMD besser skaliert. Dann schauen wir mal bei einer höheren Auflösung nach.

2.560x1.600 1xAA 1xAF = GTX 780Ti 49,9 FPS : R9 290X(Über) 46,8 FPS Differenz 3,1 FPS !!!

Unterm Strich verliert die GTX 780Ti satte 33,8 FPS, während die R9 290X mit nur 18,9 FPS Verlust zu rechnen hat. Beide Karten haben fast identische GFLOPs-Rechenleistung und fast gleiche Speicherbandbreite. Was glaubst du limitiert nun hier die GTX 780Ti ?

Willst du jetzt immer noch behaupten, das man da nichts erkennt ?

fdsonne hat recht, da sieht man blos, dass MSAA besser skaliert als bei Nvidia.
Keine Spur von V-ram Limit, ich hab bei Crysis 3 auch nur etwa 1,8 bis 2Gb Verbrauch @ 2560x1440p

Die Titan kränkel nicht an VRAM, sondern an ihrer Bandbreite. Die GTX780Ti hat eine größere Bandbreite und deutlich mehr Rohpower. Das führt eben zu einer besseren Leistung. Ist der VRAM kein limitierender Faktor, so überflügelt sie locker die Titan.

Soviel Unterschied ist da auch nicht. Sry, aber da redest du Nvidia einfach nur unnötig schlecht.
 
Zuletzt bearbeitet:
Falsch, man (sollte) kann alle Classifieds Mainboard damit steuern, also Spannung, auch SR2

Was willst Du damit sagen? Cold sagt nur, dass der EVbot eben nicht nur Grafikkarten ansteuern kann. Wieso ist das falsch? Irgendwie willst Du ja auch das Gleiche aussagen.
 
Die sagen, dass das nicht normal ist, wir bekommen neue Karten und werden sehen was dann ist.
 
Zuletzt bearbeitet:
Da stimme ich zu. Wer wirklich höher als Full HD fahren will, der kommt bei 2560x1440p oder x1600p an und da ist eine Stock 290x nur minimalst hinter einer 780 Ti. 0 bis 5%

Sehe ich nicht so. Der V-ram dürfte zumindest für Full HD und 1440p noch ausreichend sein und die Direct X Unterstützung ist ja jetzt auch nicht so schlecht.

Wie erklärt man sich solche beiden Widersprüchlichen Aussagen in einem Text ?
Ich kann es jedenfalls nicht erklären. ;)

fdsonne hat recht, da sieht man blos, dass MSAA besser skaliert als bei Nvidia.
Keine Spur von V-ram Limit, ich hab bei Crysis 3 auch nur etwa 1,8 bis 2Gb Verbrauch @ 2560x1440p

Deshalb ja auch der "direkte" Vergleich mit der 1440p Auflösung ohne MSAA und genau da sackt die GTX780Ti noch mehr ein. Aber lassen wir das einfach sein, dieses Herumgezanke bringt absolut nichts.

Die sagen, dass das nicht normal ist, wir bekommen neue Karten und werden sehen was dann ist.

Soweit ich gelesen haben, hat doch Naennon seine beiden Karten ersetzt bekommen und ist offenbar mit noch schlechteren Karten abgespeist worden. Da hat wohl EVGA einen guten Riecher bewiesen und ihm vermutlich die schon in der RMA von anderen Kunden liegenden sau schlechten Modelle einfach untergejubelt.

Wenn das alles nur ein Ausreißer ist, dann sollte doch auch mal etwas besseres in den Feedbacks erscheinen. Das Pressesample hier scheint die absolute Creme de la Creme zu sein.
 
Dann sollen die doch die Pressesample auch an die Leute schicken die dafür 749€ bezahlen das kann doch nicht sein.
 
Willst du jetzt immer noch behaupten, das man da nichts erkennt ? :rolleyes:
ja, man erkennt, das in C3 bei steigender Auflösung/AA Settings der Vorsprung schrumpft. Warum das so ist? Nicht erkennbar...
Gegenbeispiel einfach ins Blaue geraten (und das sogar ein Titeln, der maßgeblich mit AMD zusammen entwickelt wurde)

BF4
1080p, no AA / no AF = 118,6 zu 102,5 = +15,7%
1440p, no AA / no AF = 73,3 zu 67,2 = +9,0%

1080p, 4xMSAA / 16xAF = 85,4 zu 70,7 = +20,8%
1440p, 4xMSAA / 16xAF = 52,6 zu 45,1 = +16,6%

Komplett das Gegenteil von Crysis 3... Was ist nun mit deiner Theorie?
Und sag jetzt nicht, das das zuschalten von AA weniger VRAM usage bedeutet ;)

Nein, die ist absolut nicht widerlegt ! Da machst du einen Denkfehler. ;)
Bei der GTX690 handelt es sich um eine, wohl auch dir bekannte, Dual-Karte. Die kann man nicht so einfach mit den Beschränkungen einer Singlekarte vergleichen !
Grund liegt hierbei an der physikalisch vorhandenen Verdoppelung der Speicherbandbreite, sowie des doppelten VRAMs. Zwar ist im SLI nicht generell eine Verdoppelung vorhanden, da beide GPUs die selben Daten verarbeiten müssen, aber sie können sich die Aufgabe aufteilen, was eine Singlekarte nicht kann.

Im AFR(Alternate Frame Rendering) werden, wohl wiederum auch dir bekannt, jeweils die geraden und ungeraden Frames der jeweiligen GPUs zugeordnet. Sprich, 2 GPUs arbeiten parallel an 2 Frames. Das kann eine Singlekarte mit nur einer GPU nicht machen und ist genau deshalb deutlich abhängiger von Speicherbandbreiten und VRAM-Größen, die dann zu einer schnelleren Limitierung(Flaschenhals) führen können.

Der Denkfehler liegt hier nicht bei mir ;)
Siehe folgendes Beispiel:
690 -> GPU A = Frame 1 = abhängig von VRAM Größe und Bandbreite von GPU A, GPU B = Frame 2 = abhängig von VRAM Größe und Bandbreite von GPU B, GPU A = Frame 3 = abhängig...
780TI -> GPU = Frame 1 = abhängig von VRAM Größe und Bandbreite dieser GPU, GPU = Frame 2 = abhängig von VRAM Größe und Bandbreite dieser GPU, GPU = Frame 3 = abhängig...

Wie man unschwer erkennen kann (das bezieht sich eben genau auf AFR) ist das ein insich quasi geschlossenes System. Die Frames kommen idR immer im Wechsel von GPU A und B beim Dual GPU System. Wärend die Single Karte logisch alles sequenziell hintereinander abarbeiten muss. Nur ist es eben vollkommen wurscht, wie viele GPUs im AFR Mode die Frame am Ende berechnen, denn pro Frame bezieht sich die Abhängigkeit IMMER! auf die GPU, die das Frame berechnet. Folglich auch auf die VRAM Größe und die Bandbreite von genau dieser besagten GPU. Die Abhängigkeit der Bandbreite wird weder mehr noch weniger... Kann auch gar nicht, schon logisch nicht. Denn auch dei Dual GPU Geschichte arbeitet sequenziell nur Frames ab. Nämlich jedes 2. pro GPU ;) Die Single GPU macht halt jedes "einte pro GPU", wenn du es so willst.
Im SFR Mode ist das unter Umständen anders. Aber SFR ist selten bis nie im Einsatz, weil es einfach nicht nennenswert skaliert, vor allem nicht bei Effekten, die im Vollbild dynamisch über die zusammengeschusterten Bildteile hinweg berechnet werden müssen...

PS: und ich sag dir sogar nochwas, was deine Aussage widerlegt.
Schau dir mal die Rohdaten der GPUs an. Sprich die der 690 vs. die hierige EVGA 780TI mit GPU OC.
bei ersterer steht es 2x 1536 ALUs x 915MHz Basis / 1019MHz Boosttakt = 2811 - 3130 GFlop/s pro GPU
die 780TI hier erreicht 1x 2880 ALUs x 1,020MHz Basis / 1085 Boosttakt = 5875 - 6250 GFlop/s...
bei ersterer steht es 2x 1502MHz x 256Bit = 192GB/sec pro GPU
die 780TI hier erreicht 1750MHz x 384Bit = 336GB/sec

Die nutzbare Speicherbandbreite steigt absolut um 75% (default ohne händischem OC) pro Frame und die Leistung der GPU pro Frame um 109 im Basis respektive ca. 100% im Boosttakt. Auch sagt man dem GK110 nach, das er nicht so Bandbreitenhungrig ist, wie GK104 und bringt dies direkt mit den deutlich größeren Caches in Verbindung. Denn GK110 skaliert nachweislich sehr anständig auch über 1000MHz GPU Takt drüber hinaus. Selbst mit 1300MHz+ legst du noch massiv zu. Bei GK104 ist hier lange schon das Bandbreitenlimit akut... Die 192GB/sec drücken ja sogar schon im default Takt der 680 (also um die 1050MHz) auf die Bremse ;) Mit 1200-1300MHz skaliert der mehr GPU Takt nur noch im Faktor 2:1 in der Performance, wärend der Faktor bei GK110 deutlich drüber liegt.
Irgendwo in deiner Logik muss sich also ein Denkfehler befinden, denn die Zahlen sprechen absolut vom Gegenteil deiner Aussage. Denn selbst 2x (also 100% SLI Skalierung) die FPS von GK104 im Bandbreitenlimit mit OC ist immernoch weniger als 1x saubere Skalierung ;) -> das SLI nicht 100% skaliert, sondern eher im Bereich ~80-85% real brauch ich dazu wohl nicht erwähnen.
Drück nun noch etwas OC auf die VRAMs und du bist bei ner Steigerung von knappen 100% mehr Bandbreite zum GK104... :wink: (mich wundert sowieso, das man bei diesen über OC Modellen die Speichertaktraten nicht angezogen hat -> denn da ist noch einiges Luft nach oben)

Die Titan kränkel nicht an VRAM, sondern an ihrer Bandbreite. Die GTX780Ti hat eine größere Bandbreite und deutlich mehr Rohpower. Das führt eben zu einer besseren Leistung. Ist der VRAM kein limitierender Faktor, so überflügelt sie locker die Titan.
Aber genau das habe doch ich oben gesagt... :confused: Wieso schriebst du oben, das ein VRAM Limit vorliegen würde? Das widerspricht sich...

Überarbeitet seit wann ?
Es ist der selbe Chip ohne Änderungen außer im Stepping B1 welcher nur zur besseren Ausbeute gemacht wurde, was in erster Linie NVIDIA zugute kommt und dann zweitrangig dem Endkunden etwas bringt durch bessere OC-Möglichkeiten.
Gerüchten zur Folge gab es mal einen GK100... Der aber nie das Licht der Endkundenwelt erblickt hat. Warum und Wieso? Ist ziemlich egal... Fakt ist, aus Endkundensicht ist GK104 der erste Kepler Chip. GK110 ist die Überarbeitung eines GK100 -> den es jedoch nie öffentlich gab. Den Bruch im Namensschema des für den Endkunden unwichtigen Chipkürzels muss also irgend einen Grund haben. Du wolltest doch einen Überarbeitung -> da hast du sie.

PS: wenn du es so eng siehst, ist Hawaii auch nur ein Tahiti mit mehr Einheiten. Wobei, stimmt nicht ganz, vom inneren Aufbau her gleicht Hawaii eher einem PitCairn -> nur doppelt so groß und das ist quasi jeder hinsicht + einem zusätzlichen Shaderblock.
 
Zuletzt bearbeitet:
Mensch fdsonne wegen dir brauche ich noch ein 30 Zöller deine Beiträge werden immer länger :d
 
Reicht ein 850W Netzteil für 2x Classified ?
 
stock ja, viel OC mit OV nein
 
1k mit guter Qualität reicht. Kommt aber drauf an, was Du vor hast?
Luft oder Wasserkühlung?
 
Ok, wenn Du dann noch benchen willst, mit 1,4v auf den Karten machen auch 1200W Sinn. ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh