NVIDIA GeForce GTX 780 Ti im Test

In nahen Zukunft wird auch keine Ti geben mit 6Gb EVGA hat bestätigt.
Somit ist der Ti ein no go



Dann sind die Bilder mit 12GB Ti Black nur Fake und entspricht nicht der Wahrheit.

Was steht denn dort genau? Das es vermutlich keine 6GB 780Ti Classified geben wird oder!? Schließt das jetzt eine normale 6GB 780Ti aus? Nö!
Dort wurde nach einer Classified gefragt, nicht mehr und nicht weniger.
Die BE-Editionen sind nach wie vor nicht wiederlegt/bestätigt.

Ich bleibe auch bei meinen beiden EVGA GTX780 SC ACX die machen mit stock v core 1.162 1200/3500Mhz for what Ti. Wenn ich jetzt meine Karte Verkaufe müsste muss ich 100€ weniger verlangen von Neupreis + 200€ drauflegen damit ich eine Ti Kaufen kann und für SLi macht das dann 600€ mehr :eek:

Ja dann habe ich 600€ mehr Kosten + 20% mehr Performance die Rechnung geht voll auf :lol:
Wer SLI System hat GTX780 und wegen der Ti Auflösen möchte den kann der Lieber Gott auch nicht mehr Helfen sorry aber das musste raus. :bigok:

Wer hat gesagt das du von einer normalen 780 auf die Ti wechseln sollst?
Das es sich für dich nicht lohnt interessiert hier keine Sau.
Ich frage mich echt manchmal was in deinem Kopf vor geht...solch dümmliche Posts die du hier teilweise niederschreibst :stupid:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was daran "falsch" ist? Keiner kann riechen, dass du die Kühlung meinst, wenn du von Verbrauch redest. Ich kann dir auch einen PC nur mit einer Haswell-CPU aufheizen, verbraucht nicht viel Strom und schafft viel Abwärme. :d Hättest du von Kühlung gesprochen, hättest du auch keine Stromkosten-Antworten bekommen. ;)


Tja, eure Kommentare kamen, NACHDEM ich erläutert hatte, dass es mir nicht um die Stromrechnung geht sondern um die Kühlbarkeit ;)

Hier wird immer zu viel reininterpretiert in das was irgend wer schreibt. Die meisten die hier im GraKa Forum aktiv sind vermuten hinter jedem Kommentar zuerst mal folgendes:

1. Jemand der null Ahnung hat
2. Dieser Jemand MUSS auch Fanboy sein (Grün, Rot, Rosa, egal was)
3. Dieser Jemand hat immer solche Ansprüche wie der Schreiberling, der ihn für einen Fanboy hält

Wenn die Leute hier versuchen würden, bei Usern die NICHT klar als Fanboy erkennbar sind (da gibts ein paar ...) auf Teufel-komm-raus selbiges rein zu interpretieren wäre der Umgangston sicher etwas angenehmer

Und mit den 80W von nem Haswell bekommst du nicht so arg viel aufgeheizt, selbst wenn er mit Prime bei 100°C geknechtet wird. 80W ist einfach ein Witz. Früher hatte ne normale Wohnzimmer-Glühbirne mehr Abwärme :shot:
 
Bitte was? Wenn Meine Karte 300W "verbraucht", die zu .. wieviel? über 95% in Abwärme gehen (oder doch 99%? Ich weiß es einfach nicht), dann wird sie schwieriger zu kühlen sein auf leisem Niveau als eine mit 250W. Die Temperatur ist da völlig egal.

Je mehr die Karte sich genehmigt, desto mehr Abwärme kommt hinten raus. Was ist daran bitte falsch? :hmm:

Die 20% Mehrverbrauch wird die Wakü auch noch schaffen bei gleicher Lautstärke, die GPU hat anstatt 60° Grad eben 72°. Die Abwärme kannst du Steuern und Beeinflußen mit Hilfe von Powertarget oder FPS-Limiter.

Die Frage ist doch: Wieviel Leistung kommt bei 250W bzw 300W in deinem Anwendungsszenario hinten raus. D
 
Zuletzt bearbeitet:
Die Frage ist doch: Wieviel Leistung kommt bei 250W bzw 300W in deinem Anwendungsszenario hinten raus. D

Hmm also wenn ich da mal... um auf einen ähnlichen Lastverbrauch der 290x im "Über Mode" zu kommen mit einer 780TI z.b., kann ich letztere um gut 25,3-/14,4 % GPU/Ram übertakten wenn ich den HWLuxx Test so sehe.
Für manche auch ein Argument ;)

1. Jemand der null Ahnung hat
2. Dieser Jemand MUSS auch Fanboy sein (Grün, Rot, Rosa, egal was)
3. Dieser Jemand hat immer solche Ansprüche wie der Schreiberling, der ihn für einen Fanboy hält

Ja das passiert einem sogar wenn man Karten aus beiden Lagern besitzt.. und das dazu schreibt!
Kritik geht gar nicht.. manchmal glaubt man die Leute kriege ihre Karten vom Fanclub finanziert *g*
 
Zuletzt bearbeitet:
Na wa. Wenn ich einer HW-Seite zutraue, anständige Messungen zur Leistungsaufnahme zu machen, dann HT4U!

Und was steht da zu buche?

200W GTX 780 (etwa so viel wie meine HD5870/OC) gegen 290W R9 290 oder 305W R9 290X

Klar, Muster 1 der R9 290 lag bei nicht ganz 240W, aber die aktuelle Realität sieht eine etwa um 50% erhöhte Leistungsaufnahme der GraKas.

Wenn man mit kleiner Kühlfläche das ganze so kühlen will dass man Nachts nichts vom PC hört wenn man Luftlinie 50cm davon weg sitzt - auf Kopfhöhe - dann sind diese 100W Unterschied bei MIR genau das Zünglein an der Waage das dafur sorgen würde, dass ich meine WaKü vergrößern müsste.

Wie ich es gleich in meinem ersten Posting hier geschrieben habe: Für MICH bietet die GTX780 derzeit das beste Gesamtpaket.

Und jetzt kommt nicht mit DX11.2 und verneint im gleichen Atemzug, dass PhysX irgend ne Bedeutung haben könnte. Ich habe kein Win8 und werde es auch so schnell nicht nutzen. Und warum ist die 290er Zukunftssicherer? Wie gesagt, für Downsampling bei aktuellen Spielen sind ALLE Einzelkarten zu langsam. SLI/CF ist bei mir keine Option und ich habe nur einen FullHD Monitor (etwas mehr, okay ... meiner hat 16:10 Seitenverhältnis) den ich auch nicht ersetzen werde. 3GB reichen. Bis die 3GB ohne DS nicht mehr ausreichen sind die aktuellen karten ohnehin schon 3 Jahre alt und die nächste Generation steht für mich an ;)
 
Die ganzen posts von wegen mit wakü läuft es viel besser sind recht irrelevant da die karten ja eh schon hart am power Limit sind können die einfach nicht viel mehr oc werden...

Ich hab ne titan mir nur 1100mhz, modbios auf 350w und wakü
Und die schafft es in bestimmten szenarien am powerlimit uu scheitern

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Wie kannst Du davon ausgehen, dass Mantle KEIN Argument ist oder weisst Du schon handfestes darüber?

Genau deswegen ist es kein Argument. Mantle ist momentan ein Luftschloss von AMD, wie kann man das als Pro-Argument werten? Wir wissen bis dato im Prinzip nichts, wir kennen nicht einmal frisierte Charts von AMD.
 
Wenn die Leute hier versuchen würden, bei Usern die NICHT klar als Fanboy erkennbar sind (da gibts ein paar ...) auf Teufel-komm-raus selbiges rein zu interpretieren wäre der Umgangston sicher etwas angenehmer

Und mit den 80W von nem Haswell bekommst du nicht so arg viel aufgeheizt, selbst wenn er mit Prime bei 100°C geknechtet wird. 80W ist einfach ein Witz. Früher hatte ne normale Wohnzimmer-Glühbirne mehr Abwärme :shot:

Vertrau mir ich wollte dich weder als Fanboy noch als Ahnungslos hinstellen. ;) Nur der Verbrauch egal ob man ihn jetzt auf Stromkosten oder Abwärme münzt ist nicht riesig in der Differenz und die 290 dürfte ja mit guter Kühlung sogar noch sparsamer werden. Das ist halt ein hohes Leistungs- und Verbrauchs-Level, egal welche Firma du dir ins System steckst. ;) Und auf Physxs muss man hinweisen, weil viele das anführen, aber es wenige Spiele gibt. Ich hab bisher eins gespielt, dass das bei meiner GTX benutzt hat. :d

- - - Updated - - -

Genau deswegen ist es kein Argument. Mantle ist momentan ein Luftschloss von AMD, wie kann man das als Pro-Argument werten? Wir wissen bis dato im Prinzip nichts, wir kennen nicht einmal frisierte Charts von AMD.

Schaffe89 benutzt Mantle trotzdem als Kaufargument in der GPU-Kaufberatung... :fresse:
 
Stimmt natürlich. Die R9 mit nem Kühler der die GPU Temp auf ~60°C bringt spart die Karte 30W ein. hier z.B.. Allerdings rennt die GTX780 bei HT4U unter Last bei 80°C rum. Wenn man die ebenso auf 60°C runter drückt, wie viel spart man da ein? Bestimmt auch nochmal 10W ...

Der Unterschied verringert sich vermutlich bei sinkender Temperatur, die 290er wird aber immer ein gutes Stück mehr Verbrauchen respektive Abwärme Produzieren.
 
Das merkwürdige ist ja wieder:
Bei Computerbase, Tomshardware und co ist die GTX780 Ti ne ganze ecke schneller wie die R9 290X...
Des weiteren untersucht Tomshardware gerade warum das Testsample ihrer R9 290X so übel anging und die regulär erworbenen Karten über im zweistelligen Prozentbereich langsamer sind...

Wenns ne GTX780 im von EVGA oder MSI gibt die problemlos 24/7 ihre 1200MHz halten kann verticker ich meine GTX780 wieder.
 
Zuletzt bearbeitet:
Stimmt natürlich. Die R9 mit nem Kühler der die GPU Temp auf ~60°C bringt spart die Karte 30W ein. hier z.B.. Allerdings rennt die GTX780 bei HT4U unter Last bei 80°C rum. Wenn man die ebenso auf 60°C runter drückt, wie viel spart man da ein? Bestimmt auch nochmal 10W ...

Der Unterschied verringert sich vermutlich bei sinkender Temperatur, die 290er wird aber immer ein gutes Stück mehr Verbrauchen respektive Abwärme Produzieren.

Deine Gedankegänge sind ja auch legitim, man darf halt nur die Dimensionen nicht vergessen. Der Kühlbedarfsuntershcied von sagen wir mal HD 7850 zu GTX 780 wäre da meiner Meinung nach kritischer. ;) Und man sollte eine WAKÜ nicht unerschätzen, wenn man sich mal anguckt, was die All-In-One-WAKÜs schon schlucken. ;)
 
Das merkwürdige ist ja wieder:
Bei Computerbase, Tomshardware und co ist die GTX780 Ti ne ganze ecke schneller wie die R9 290X...

Ganz einfache Kiste: Es kommt auf den Testaufbau an!
Wenn man in einem offenen Aufbau testet, drosselt sich die R290X nicht so schnell runter wie in einem geschlossenen System.
Das kann man in manchen Tests sogar nachlesen ;)
 
Zuletzt bearbeitet:
Die bei Tomshardware sind ja auch nicht blöd die nehmen ein und das selbe Testsystem.
Es wird sich bewahrheiten das AMD da ganz stark selektiert hat um mit aller Gewalt an der Titan vorbei zu kommen.
 
Du willst doch ernsthaft nicht behaupten das NVIDIA-Karten der Porsche unter den Luxusgütern sei ?
Nein, ich habe nur gesagt das Hardware für mich in dieser Preisregion als Luxus angesehen werden kann.
Beim Porschebeispiel ging es mir nur darum, dass wenn jemand viel Geld ausgibt (von mir aus auch
R9 290 ->R9 290X, ist ja eigentlich auch egal) um an auch nur ein bisschen "Mehrleistung" zu kommen,
warum soll er das nicht dürfen?
Nur weil NVIDIA teuer ist, heißt das noch lange nicht, das sie Luxus sind. ! :hmm:
Hab ich auch niemals behauptet, ich habe nur gesagt, wie du auch richtig zitiert hast
"bei Luxusgütern (in meinen Augen ist Hardware in diesen Preisregionen Luxus)". Hardware.
Zu Hardware zählt im gröberen Sinne nicht nur nvidia Grafikkarten. Zumindest bei mir nicht.
Und durch diesen Satz habe ich das Wort "Luxus" für meinen Beitrag eigentlich auch schon definiert.
Wenn VW plötzlich doppelt so viel für ihren Golf haben wollen, so ist ein Golf plötzlich auch Luxus ?
Beim VW Beispiel ging es mir eigentlich um das Zitat in dem auf die Mehrleistung von 780->780TI
eingegangen wird. Dazu brachte ich nun das Beispiel Golf -> Golf GTI.
Und für mich ist ein Auto auch ein Luxusgegenstand, also bräuchten sie ihn nicht vertäuern damit es luxus wird.
NVIDIA ist sicher kein Porsche sondern eher ein BMW und AMD wäre dann AUDI.
Das ist mir völlig egal, ein Autobeispiel lässt sich sowieso nicht gut anwenden (wie man hier u.A. sieht) und
auch nicht gut erweitern. Von mir aus könnens auch Opel und VW sein, ist doch völlig wurst.
Wie gesagt, ich hab nirgends auch nur ein Wort gesagt das nvidia besser sei, ich bin nur auf das Zitat in meinem
Text eingegangen bzw. die evtl. Beweggründe, das sollte man nicht vergessen :)

Grüße
 
Stimmt natürlich. Die R9 mit nem Kühler der die GPU Temp auf ~60°C bringt spart die Karte 30W ein. hier z.B.. Allerdings rennt die GTX780 bei HT4U unter Last bei 80°C rum. Wenn man die ebenso auf 60°C runter drückt, wie viel spart man da ein? Bestimmt auch nochmal 10W ...

Das ist doch nur eine Frage der genutzten Vergleichskarten.
Nimmst du Ref. Layout gegen Ref. Layout, zieht die AMD Karte wohl klar den kürzeren...
Genau so könnte man aber Custom 290(X) gegen Ref. 780 vergleichen -> da ist der Unterschied nun nicht mehr so riesig.
Unterm Strich muss man sich aber auf eine Vergleichsbasis einigen, sonst machen alle Quervergleiche keinen Sinn.

Aus meiner Sicht kann das faktisch nur über den Preis geschehen...
Wenn die AMD inkl. Customkühler immer noch günstiger ist, wäre diese Option durchaus eine Überlegung wert. Wärend bei der 780er die geänderte Kühlung (oder Custom Modelle) ggf. mit Aufpreis verbunden sind. Kann, muss nicht...

Seit es diese Boostverfahren flächendeckend gibt, gibts nicht mehr diesen einen Vergleich der immer gilt. Sondern es muss dediziert in Kombination mit den Gegebenheiten betrachtet werden...
 
Die bei Tomshardware sind ja auch nicht blöd die nehmen ein und das selbe Testsystem.
Es wird sich bewahrheiten das AMD da ganz stark selektiert hat um mit aller Gewalt an der Titan vorbei zu kommen.

Das meine ich ja.. sprich in einem geschlossenen System kann es passieren das die 290X runtertaktet, selbst @stock!
Das erklärt dann auch warum die Karte bei Tests in geschlossenen Systemen schlechter abschneidet als bei Seiten die in einem offenen Aufbau testen!
Was Praxisgerechter ist überlasse ich gern der Fantasy der Leute die die Tests lesen ;)

Edit: Da muss nicht mal was selektiert worden sein, um das noch anzumerken.
 
Zuletzt bearbeitet:
Ja der Boost verfälscht schon ganz schön die Ergebnisse.
Was aber wiederum unfair ist das bei den AMD Karten das Uber Bios (welches nur gute benchwerte erzielt bis die Karte heiß ist) mit gebencht wird aber die NV Karten im Boost beschnitten werden.
Da müsste man alle Kepler auch frei Boosten lassen.



Und weiter geht's mit der Schummelei :fresse:

http://www.computerbase.de/news/2013-11/neue-lueftersteuerung-aendert-leistung-der-r9-290-x/

Lüfterdrehzahl hoch, noch lauter das ding damit sie besser gehen^^
 
Zuletzt bearbeitet:
Das meine ich ja.. sprich in einem geschlossenen System kann es passieren das die 290X runtertaktet, selbst @stock!
Das erklärt dann auch warum die Karte bei Tests in geschlossenen Systemen schlechter abschneidet als bei Seiten die in einem offenen Aufbau testen!
Was Praxisgerechter ist überlasse ich gern der Fantasy der Leute die die Tests lesen ;)

Wieso eigentlich runtertakten?
Die Karten haben einen Boost angegeben, es gibt bei Hawaii faktisch keinen Baseclock mehr.
Bei NV hingegen schon. Spielt aber ebenso keine Rolle...

Wenn die Kühlung des Systems nicht passt, gibts schlechtere Werte. Das sollte nun hinlänglich bekannt sein :wink:
Und gilt freilich für beide Hersteller.
PCGH hatten seinerzeit zu Titan Release mal ~10-12% gemessen, wenn man im Stockzustand (also ohne Reglerverdrehen) den Titan mit gekühlter Luft umgibt (ich glaube das waren ~22°C) und diese Werte verglichen mit 28°C vorgeheizter Luft, wie es im Sommer unter Umständen im Case keine Seltenheit sein muss.
 
Deshalb sollte so eine große Testseite einen Raum mit Klimaanlage verwenden um konstante Temperaturen zu haben ;)
 
Zuletzt bearbeitet:
Das merkwürdige ist ja wieder:
Bei Computerbase, Tomshardware und co ist die GTX780 Ti ne ganze ecke schneller wie die R9 290X...
Des weiteren untersucht Tomshardware gerade warum das Testsample ihrer R9 290X so übel anging und die regulär erworbenen Karten über im zweistelligen Prozentbereich langsamer sind...

Ich hab grad mal direkt den Spielevergleich gemacht. BF3, Crysis3, Bioshock Infinite. HWLuxx gegen CB. Die Unterschiede bei identischen Settings sind vergleichbar. Was mir aber im ganzen auffällt ist, dass HWLuxx teilweise extrem viel mehr FPS auf dem Tacho stehen hat als CB. Zumindest in den 3 genannten Spielen die CB genauso in der Liste hat wie HWLuxx decken sich aber die Relationen von 780, 780Ti, 290 und 290X ganz gut. Der Rest sind Messungenauigkeiten. Beispielsweise ist bei CB die 290X Uber schneller als die 780Ti, bei HWLuxx andersrum. Und doch nochmal: Die Absoluten FPS Zahlen bei HWLuxx sind in einigen Spielen DEUTLICH höher als bei CB! Warum ist das so?

Bioshock (nur 780Ti als Vergleich, FullHD, erst CB dann HWL) passt mit 102 zu 108Fps
BF3 läuft aus dem Ruder mit 112 zu 140
Crysis 3 ist absurd mit 39 zu 52


Deine Gedankegänge sind ja auch legitim, man darf halt nur die Dimensionen nicht vergessen. Der Kühlbedarfsuntershcied von sagen wir mal HD 7850 zu GTX 780 wäre da meiner Meinung nach kritischer. ;) Und man sollte eine WAKÜ nicht unerschätzen, wenn man sich mal anguckt, was die All-In-One-WAKÜs schon schlucken. ;)

Ich unterschätze meine WaKü absolut nicht. Aktuell hab ich sogar nur die Kühlfläche einer AIO und es langt für den Silent Betrieb bei meinem aktuellen System und guten Temps inklusive OC ...
Dennoch Will ich nicht wegen 50€ Ersparnis 70-100W (wie viel genau kann mir vermutlich nie einer sagen) mehr Abführen müssen, das Treibt meinen Systemverbrauch von derzeit vielleicht max 400 im Worst Case auf 500W. Dass dann das NT noch wärmer wird und potentiell lauter steht ganz wo anders geschrieben ;)

Das ist doch nur eine Frage der genutzten Vergleichskarten.
Nimmst du Ref. Layout gegen Ref. Layout, zieht die AMD Karte wohl klar den kürzeren...
Genau so könnte man aber Custom 290(X) gegen Ref. 780 vergleichen -> da ist der Unterschied nun nicht mehr so riesig.
Unterm Strich muss man sich aber auf eine Vergleichsbasis einigen, sonst machen alle Quervergleiche keinen Sinn.

Aus meiner Sicht kann das faktisch nur über den Preis geschehen...
Wenn die AMD inkl. Customkühler immer noch günstiger ist, wäre diese Option durchaus eine Überlegung wert. Wärend bei der 780er die geänderte Kühlung (oder Custom Modelle) ggf. mit Aufpreis verbunden sind. Kann, muss nicht...

Seit es diese Boostverfahren flächendeckend gibt, gibts nicht mehr diesen einen Vergleich der immer gilt. Sondern es muss dediziert in Kombination mit den Gegebenheiten betrachtet werden...

Klar sind vergleiche sau schwer geworden. Ich versuche nur, mir einen für mich relevanten Vergleich zurecht zu legen. Und der sagt, dass bei Referenzkarten die mit gleicher Temperatur betrieben werden die 290 und die 780 FPS technisch auf Augenhöhe sind, die 290er jedoch mit Sicherheit mindestens 60, eher 70-80W mehr verbraucht (Siehe Mk-26/Accelero Tests von HT4U), was aber gleichzeitig in der Anschaffung 50€ unterschied ausmacht.
 
Wenn die Kühlung des Systems nicht passt, gibts schlechtere Werte. Das sollte nun hinlänglich bekannt sein :wink:
Und gilt freilich für beide Hersteller.

Es ging um die Frage warum die 290X im Vergleich zu Titan/780(Ti) in einigen Tests besser abschneiden als in anderen. Natürlich gilt für beide Hersteller das ihre Leistung von der Kühlung abhängt. Aber das beweist ja nur wieder das AMD beim Referenzkühler nicht grad eine Glanzleistung abgeliefert hat!

Mit runtertakten meine ich das die 290X den Takt den sie zu Beginn hatte nicht sehr lange aufrecht erhalten kann.
Jedenfalls hat meine Praxiserfahrung das gezeigt = sobald sich das Gehäuse aufheizt gehen die Taktraten in die Knie.

Aber ich höre an diesem Punkt lieber auf, weil solche Diskussionen eh ins leere führen und ich da absolut keine Lust drauf habe wieder als Fan gedöns bezeichnet zu werden. Ich hab die 290X und bin angetan, aber sie ist nicht der große Wurf den ich erwartet habe!
Besonders angesichts dessen das der GK110 schon einige Zeit auf dem Buckel hat und Nvidia noch immer Luft nach oben hat, leider auch was die Preise angeht ;)
 
Zuletzt bearbeitet:
Ich hab grad mal direkt den Spielevergleich gemacht. BF3, Crysis3, Bioshock Infinite. HWLuxx gegen CB. Die Unterschiede bei identischen Settings sind vergleichbar. Was mir aber im ganzen auffällt ist, dass HWLuxx teilweise extrem viel mehr FPS auf dem Tacho stehen hat als CB. Zumindest in den 3 genannten Spielen die CB genauso in der Liste hat wie HWLuxx decken sich aber die Relationen von 780, 780Ti, 290 und 290X ganz gut. Der Rest sind Messungenauigkeiten. Beispielsweise ist bei CB die 290X Uber schneller als die 780Ti, bei HWLuxx andersrum. Und doch nochmal: Die Absoluten FPS Zahlen bei HWLuxx sind in einigen Spielen DEUTLICH höher als bei CB! Warum ist das so?

Bioshock (nur 780Ti als Vergleich, FullHD, erst CB dann HWL) passt mit 102 zu 108Fps
BF3 läuft aus dem Ruder mit 112 zu 140
Crysis 3 ist absurd mit 39 zu 52

Also entweder wars bei Hardwareluxx 10°C kälter im Raum als bei CB oder sie hatten ne Karte mit deutlich weniger Volt oder besserer Kühlung.
 
Aber ich höre an diesem Punkt lieber auf, weil solche Diskussionen eh ins leere führen und ich da absolut keine Lust drauf habe wieder als Fan gedöns bezeichnet zu werden. Ich hab die 290X und bin angetan, aber sie ist nicht der große Wurf den ich erwartet habe!
Besonders angesichts dessen das der GK110 schon einige Zeit auf dem Buckel hat und Nvidia noch immer Luft nach oben hat, leider auch was die Preise angeht ;)

Fan-Gedöns! :d Ich glaube bei der 290x muss man auch berücksichtigen, dass die so bestimmt nicht geplant war. Das ist eine Notlösung um nach oben hin nicht immer mehr an Luft zu verlieren. Unter anderen Umständen hätten wir die 290er wahrscheinlich erst in 20nm gesehen. ;)
 
Und doch nochmal: Die Absoluten FPS Zahlen bei HWLuxx sind in einigen Spielen DEUTLICH höher als bei CB! Warum ist das so?

Bioshock (nur 780Ti als Vergleich, FullHD, erst CB dann HWL) passt mit 102 zu 108Fps
BF3 läuft aus dem Ruder mit 112 zu 140
Crysis 3 ist absurd mit 39 zu 52

Wenn ich mich recht entsinne benutzt CB eine Sockel 1150 Quadcore Plattform und HWluxx eine 2011er mit 6 Kernen, das macht in manchen Titeln auch etwas aus ;)
 
Also entweder wars bei Hardwareluxx 10°C kälter im Raum als bei CB oder sie hatten ne Karte mit deutlich weniger Volt oder besserer Kühlung.

Die 780Ti ist bei HWL bei 38°C, die 290 bei 33°C. Bei CB hat die 780Ti nur 32°C die 290 dafür unfassbare 41°C Ich glaube nicht, dass der Raum 10°C unterschied hat. Der Hund liegt woanders begraben. Soweit ich weiß testen beide die Standardkarten mit Standardtakt und Standardkühlung im geschlossenen Gehäuse. Die Last-Temps sagen garnix, weil die Ti und die 290er alle an ihrem Temp-Limit hängen.

Wenn ich mich recht entsinne benutzt CB eine Sockel 1150 Quadcore Plattform und HWluxx eine 2011er mit 6 Kernen, das macht in manchen Titeln auch etwas aus ;)

Ja, CB hat nen 4770k auf 4,4GHz getaktet mit 8GB Ram, HWL hat nen 3960X auf 4,2GHz mit 8GB Ram. Da aber oft schon gezeigt wurde, dass mehr als 4 Threads kaum bis garkeine Auswirkung auf die Performance in Spielen haben, kann das eigentlich keine 30% Unterschied ausmachen, oder?
Ist es möglich dass der RAM Limitiert bei den modernen Spielen? Sind 8GB evtl etwas knapp und das kann durch den Plattform bei HWL (Quad-Channel) aufgefangen werden?

Wie auch immer. Man kann die tests absolut nicht vergleichen, egal was man macht ...
 
Die 780Ti ist bei HWL bei 38°C, die 290 bei 33°C. Bei CB hat die 780Ti nur 32°C die 290 dafür unfassbare 41°C Ich glaube nicht, dass der Raum 10°C unterschied hat. Der Hund liegt woanders begraben.

Der Hund liegt womöglich in der Vcore begraben.

Der Referenzkühler ist ein Witz, damit lässt sich die mögliche Leistung und Wärmeabgabe des Chips und der Platine schlecht beurteilen. AMD ist für den Quark verantwortlich. Die Firma hätte gleich mit Customlösungen kommen müssen, vermutlich waren sie wie immer zu spät dran.

Meiner Einschätzung nach hat Hawaii XT die nahezu identische Performance wie GK110, nur ist ersterer günstiger.
 
Zuletzt bearbeitet:
Ja, CB hat nen 4770k auf 4,4GHz getaktet mit 8GB Ram, HWL hat nen 3960X auf 4,2GHz mit 8GB Ram. Da aber oft schon gezeigt wurde, dass mehr als 4 Threads kaum bis garkeine Auswirkung auf die Performance in Spielen haben, kann das eigentlich keine 30% Unterschied ausmachen, oder?
Ist es möglich dass der RAM Limitiert bei den modernen Spielen? Sind 8GB evtl etwas knapp und das kann durch den Plattform bei HWL (Quad-Channel) aufgefangen werden?

Wie auch immer. Man kann die tests absolut nicht vergleichen, egal was man macht ...

Naja das ist aber auch 22nm vs 32nm. ;) Das der RAM limitiert glaube ich ehrlich gesagt nicht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh