Weitere Benchmarks zur NVIDIA GeForce GTX 780 Ti

Stegan

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
16.12.2005
Beiträge
16.288
Ort
Augsburg
<p><img src="/images/stories/logos/nvidia.gif" width="100" height="100" alt="nvidia" style="margin: 10px; float: left;" />Am kommenden Donnerstag wird <a href="index.php/news/hardware/grafikkarten/28406-nvidia-geforce-gtx-780-ti-kommt-am-7-november-fuer-699-usd.html">NVIDIAs neue GeForce GTX 780 Ti für empfohlene 699 US-Dollar</a> in den Handel kommen. So viel hat die kalifornische Grafikschmiede bereits verraten. Nach den <a href="index.php/news/hardware/grafikkarten/28463-erste-bestaetigung-nvidia-geforce-gtx-780-ti-hat-2880-cuda-kerne.html">zahlreichen Spekulationen</a> und <a href="index.php/news/hardware/grafikkarten/28493-nvidia-geforce-gtx-780-ti-angetestet.html">den ersten Benchmarks</a> am Wochenende, zeichnet sich ab, dass die Ti-Version der GeForce GTX 780 die <a...<br /><br /><a href="/index.php/news/hardware/grafikkarten/28501-weitere-benchmarks-zur-nvidia-geforce-gtx-780-ti.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das sieht doch gut aus, was da kommt...erst wartet man ewigkeiten auf was neues und dann kommen jede Woche neue Karten!
Sehr schön!
 
Seltsam das die 290X im Quiet Modus lief und nicht um Ultra...klar das dann die Unterschiede größer sind. Dazu wäre aber auch ein Vergleich des Stromverbrauchs nützlich...fast 500 Watt ist langsam doch etwas zu viel des guten, obwohl ich nicht wirklich auf den Verbrauch gucke.

Was kommt dann bald? 1000 Watt damit man nochmal 10% mehr Leistung hat?
 
Abzuwarten ist dann bis ende November wenn die R9 290X ein ordentliches Kühldesign durch Asus, Gigabyte usw. bekommt denn dann laufen die Karten bestimmt leise und schaffen mehr Leistung als aktuell im Übermodus (weil stabile 1000MHz)...


Und interessant das Nvidia jetzt den selben weg geht wie AMD: mehr Strom egal, Hauptsache mehr Leistung... (mich persönlich stört es in dem Segment aber nicht)
 
Auf solche Hersteller-Benchmarks lege ich null Wert. Jeder möchte sein Produkt immer im besten Licht darstellen.
 
Echt mal gespannt ob die "black Edition" kommt.
Wenn diese sich wirklich so bombastisch Oc´n lässt, gepaart mit 6Gb Vram (12Gb sind absolut unnötig) wäre diese Karte schon verdammt reizvoll :d
 
Echt Interessant was man hier für Fakes sehen tut.
Auf anderen Internetportalen ist die Titan und die GFTX 780/Ti extrem weit hinter der 290X und die 290 no X ist nur ein kleines Stück langsamer als die Titan oder GTX780/Ti .
Wenn man nun die paar 100 Euro preisspanne von AMD und Nvidia Karten vergleicht, ist es fraglich und sehr logisch das Nvidia wie schon vor 10 J. / 5 J. / und vor fast 2 Jahren bei der GTX680 zur 7970 Schmiergelder gezahlt haben muss, das solche Benchmarks hier überhaupt in Internet auftauchen.
Nvidia lernt nicht aus ihren Fehlern. Das Konzern wurde schon paar mal wie Intel zu Geldstrafen verdonnert wegen Wettbewerb ****** und mit falschen Produkttest die Leute zu täuschen.
Das wie hier kann man nur mit den Kopf schütteln.
Da sieht man das Geld die Welt Regiert und die Menschen nur Blind durch die Welt gehen und alle lügen glauben was ihnen gesagt und gezeigt wird.
Das wie hier schon erwähnt wurde die 290X nur auf Energie Sparmodus(nicht auf Standard oder MAX MHz) lief möchte keiner für wahr haben.
Einfach nur Nvidia Fanboys die hier alles schön schreiben und ins Netz stellen.
Weitere Vorteile möchte ich hier nun auch nicht weiter erwähnen-doch was die AMD Karten für später haben und Nvidia Fanboys sehen es nicht, dass die Karten ohne hohen DX lvl schon jetzt Out sind ist mit Einführung von DX11.1 / DX11.2 bald aber Realität.
Ich bin kein Fanboy von AMD ,aber ich kaufe mir auch Produkte die Preislich angemessen sind und welche ich nicht jedes Jahr erneuern muss.
Und das ist von den besten Eigenschaften was auch in 1-3 Jahren perfekt genutzt werden kann leider nicht immer Intel oder Nvidia.
Die Realität ist für viele nicht erkenntbar.
 
Ich glaube Deine Schmiegeldvorfürfe sind ziemlich an den Haaren herbei gezogen.
Sicher die 290X ist im Ubermode schneller als im Quietmode. Aber das ist kein energiesparmodus sondern, wenn man die Karte mit Referenzlüfter benutzt, eigentlich der Alltagsmodus. Der Ubermode ist aufgrund der Lautstärke kaum zu benutzen. Zudem wird meines Wissens nach die 290x auch im Quietmode ausgeliefert. Dann hätte man die default Einstellungen getestet.

Du hast recht die Nvidia Karten unterstützen nicht alle Spezifikationen von DirectX 11.1 und 11.2 gar nicht. Da ist man etwas altbacken. Aber auf der anderen Seite setzt es auch voraus, dass man zumindest bei DirectX 11.2 auch auf windows 8 bzw. 8.1 setzt. Mit windows 7, was von der übwerwiegenden Mehrheit noch genutzt wird,nützt eine Karte, die DirectX 11.2 unterstützt gar nichts.
 
Krass dann bekommt man für 699€? eine Grafikkarte die wesentlich schneller als eine Titan ist.
Eventuell bekommt man dann eine Geforce Titan für 450€ ???
 
[/ironie on]
Blöder Benchmark ... da sind gar keine Gamer-Settings (FullHD) gewählt.
[/Ironie off]

:lol:


Ich freu mich auf die TI und hoffe auf sinkende Preise der 780er, damit ich den Zweitrechner aufrüsten kann.
 
Alle für den Zocker wichtigen Features von DX11.1 werden von Nvidia unterstützt. Und ob 11.2 jemals einen bedeutenden Vorteil in Spielen bringt, bleibt abzuwarten.
 
Interessant: Bei der AMD Karte wurde ständig wegen den paar extra Watt geheult, die sich erst nach einem Jahrzehnt bemerkbar gemacht hätten (auf Grund des besseren Preises), auch über die paar extra DB wird geheult. Das diese Karte hier nur in den vom Hersteller ausgewählten Benches etwas schneller läuft für massiv mehr Watt, ist jetzt wohl egal????? Die Kühlung dürfte bei dem massiven Mehrverbrauch auch nicht leiser sein als eine 290x im Übermodus ..... Aber das ist wohl jetzt auch wieder egal?? Könnt ihr euch mal bitte entscheiden was nun wichtig ist, oder ist es einfach nur besser weil nVidia drauf steht????

Mal ganz davon abgesehen, das bei billigeren Mainboards der PCI-E Stecker beschädigt werden könnte (da hier weit über dem Standard Strom gesaugt wird). Aber das ist wohl auch egal, weil steht ja nVidia drauf ..... Wie wäre es mal mit etwas Objektivität bitte ....

@Buffo: Natürlich wird DX 11.2 wichtig, weil die beiden großen neuen Konsolen das auch können und die Hersteller werden diese Features nur wegen dir und nVidia nicht jedes mal wieder komplett ausbauen für den PC Port ..... Es wird jedenfalls sehr viel mehr Bedeutung haben, als nVidias PhysX oder CUDA ;).
 
Zuletzt bearbeitet:
Interessant: Bei der AMD Karte wurde ständig wegen den paar extra Watt geheult, die sich erst nach einem Jahrzehnt bemerkbar gemacht hätten (auf Grund des besseren Preises), auch über die paar extra DB wird geheult. Das diese Karte hier nur in den vom Hersteller ausgewählten Benches etwas schneller läuft für massiv mehr Watt, ist jetzt wohl egal????? Die Kühlung dürfte bei dem massiven Mehrverbrauch auch nicht leiser sein als eine 290x im Übermodus ..... Aber das ist wohl jetzt auch wieder egal?? Könnt ihr euch mal bitte entscheiden was nun wichtig ist, oder ist es einfach nur besser weil nVidia drauf steht????

Wieviel Watt am Ende benötigt werden wird sich noch zeigen. Es gibt weder zu den Leistungsergebnisse noch zur Stromaufnahme belastbare Zahlen. Das was da im Augenblick im Internet herumschwirrt ist an den Haaren herbeigezogen. Da gibt es dann plötzlich eine Seite bei der die 290x weniger verbraucht als die 780 oder Titan. Komischerweise hat das keine andere Seite so festgestellt. Am Ende wird es sowieso auf den Kühler ankommen. Hier kann man aber zu Recht insofern optimistisch sein, dass Nvidia den Teil besser umsetzen wird als AMD und das bleibt dann eben im Fazit auch hängen. Es hat niemand AMD davon abhehalten so einen unzureichenden Kühler zu verbauchen und es hat AMD auch niemald davon abgehalten das Versprechen im Vorfeld nach einer deutlichen Verbesserung im Bereich der Kühlung lieber gar nicht erst zu machen. Insofern müssen sie mit der Rechnung die ihnen wahrscheinlich (sofern Nvidia das besser macht) präsentiert wird leben.


@Buffo: Natürlich wird DX 11.2 wichtig, weil die beiden großen neuen Konsolen das auch können und die Hersteller werden diese Features nur wegen dir und nVidia nicht jedes mal wieder komplett ausbauen für den PC Port ..... Es wird jedenfalls sehr viel mehr Bedeutung haben, als nVidias PhysX oder CUDA ;).

Vergiss es. Bis das relevant wird sind wir schon minimum eine Generation weiter, Konsolen hin oder her. Nvidia kontrolliert den PC Add-In GPU Markt mit über 60% Marktanteil. An denen kommt die Masse der Entwickler nicht vorbei und im professionellen Segment kommt die Masse derzeit auch an Cuda nicht vorbei, wenn sie optimale Ergebnisse erzielen will.
 
Zuletzt bearbeitet:
nVidia unterstützt 11.2. Microsoft hat alle drei Demos auf Kepler-Karten gezeigt.
 
wo steht den bitte das die Karte 500 Watt braucht?
Vorallem wie soll sie diese bekomen selbst mit 2x 8 pin Stecker sinds doch 2 x 150 + 75 pci e also insgesamt 375 Watt am limit oder hab ich was verpasst?
 
@Buffo: Natürlich wird DX 11.2 wichtig, weil die beiden großen neuen Konsolen das auch können und die Hersteller werden diese Features nur wegen dir und nVidia nicht jedes mal wieder komplett ausbauen für den PC Port ..... Es wird jedenfalls sehr viel mehr Bedeutung haben, als nVidias PhysX oder CUDA ;).

Wieso wegen mir? Wegen mir können sie DX11.2 sofort unterstützen. Nur ist die Feature-Liste von 11.2 ein Witz, kann man alles auch in 11.0 umsetzen. Und ich bezweifle auch nicht, dass mit den neuen Konsolen viele Spiele 11.2 unterstützen werden, nur, dass man bei diesen Spielen mit einer 11.0-Karte einen Nachteil hat. Die Bedeutung von Physx ist gering, aber die Bedeutung von 11.2 gleich null. Und was CUDA mit dem Gamingsektor und mir der Diskussion hier zu tun hat, hätte ich gern mal erklärt bekommen.
 
CUDA steht halt auf Platz zwei der Anti-Nvidia-Todschlagargumente...
 
Richthofen schrieb:
Wieviel Watt am Ende benötigt werden wird sich noch zeigen. Es gibt weder zu den Leistungsergebnisse noch zur Stromaufnahme belastbare Zahlen. Das was da im Augenblick im Internet herumschwirrt ist an den Haaren herbeigezogen. Da gibt es dann plötzlich eine Seite bei der die 290x weniger verbraucht als die 780 oder Titan. Komischerweise hat das keine andere Seite so festgestellt.

Leaks sind für Stromaufnahmemessungen nie sonderlich relevant, ich warte vor allem auf HT4U, welche den Stromverbrauch am PCie Slot messen, tendenziell kann man aber den Verbrauch Nvidiaintern recht gut vergleichen, das sind ca 20 bis 30 Watt mehr als bei Titan, das ordnet sich dann wohl performancemäßig 10% über 290x/Titan ein.

Es gibt schon andere Seiten die weniger Verbrauch bei der 290x messen, je nach Szene kann das passieren, selbst beim Durchschnittsverbrauch siehts gar nicht so schlecht aus für die 290x ( siehe Tomshardware ) erst bei den Peakwerten wirds etwas mehr.

Vergiss es. Bis das relevant wird sind wir schon minimum eine Generation weiter, Konsolen hin oder her. Nvidia kontrolliert den PC Add-In GPU Markt mit über 60% Marktanteil. An denen kommt die Masse der Entwickler nicht vorbei und im professionellen Segment kommt die Masse derzeit auch an Cuda nicht vorbei, wenn sie optimale Ergebnisse erzielen will.

Die nächste Generation kommt wohl mitte 2014, ob es relevant wird oder nicht, würde ich abwarten.

@ Richthofen

Nvidia kontrolliert nicht den Markt, lass doch solche Spitzen mal weg.
Wenn Nvidia den Markt kontrollieren würde, dann gäbe es wohl auch keine Entwickler die Mantle unterstützen.

( Eidos, Crytek, EA mit Frostbite und noch weitere ).

und im professionellen Segment kommt die Masse derzeit auch an Cuda nicht vorbei, wenn sie optimale Ergebnisse erzielen will.

Das hat jetzt was mit Directx 11.2 zu tun?

An denen kommt die Masse der Entwickler nicht vorbei

Muss man zum Teil auch gar nicht, Nvidia muss nur etwas Unterstützung liefern, dann werden sicherlich auch ein paar IF Anweisungen geschrieben um Nvidias Funktionen die unter directx 11.0 schon optional waren auch einzubinden.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh