nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
@fdsonne:
Nein es ist nicht wurscht. Wir diskutieren hier nämlich über absolute Performance. Wie du die Karte betreibst und dann bewertest, ist hier irrelevant und hat mit der Diskussion nichts zu tun.

3. Die Marge der Boardpartner ist irrelevant hier. Wir sprechen vom Kühlerpreis vs. Kartenverkaufspreis. Der Kühler kostet bei einer 899 Euro Karte sicher prozentual weniger als bei einer 499 Euro Karte. Das ist nur logisch. Bernis "Argument" klappt bei viel günstigeren Karten vielleicht noch halbwegs, aber bei so einem Boliden kann das Ding auch 350W verbrauchen - der Einfluss auf den Preis wäre marginal.
4. Bei Fermi wurde der Verbrauch nicht in Kauf genommen, der Spitzname Thermi hat sich ja nicht selbst erfunden. Die 7970 GE braucht halt sehr viel Strom, das ist kein Seitenhieb, das ist Fakt. Ob AMD das deutlich drücken kann, bleibt eben abzuwarten.
5. Dann nutzt K20 seine TDP eben nicht ganz aus, K20X schon. Dein Einwand entkräftet das Argument nicht zwingend. Im Profisegment kann man nicht einfach so über die TDP gehen wegen Kühlung und Zuverlässigkeit. Ich denke daher schon, dass sie eingehalten wird.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Februar wäre jawohl etwas früh ohne jegliche Infos?! Also frühestens März, davon wird man mal ausgehen können. Cebit oder später...
 
@fdsonne:
Nein es ist nicht wurscht. Wir diskutieren hier nämlich über absolute Performance. Wie du die Karte betreibst und dann bewertest, ist hier irrelevant und hat mit der Diskussion nichts zu tun.

3. Die Marge der Boardpartner ist irrelevant hier. Wir sprechen vom Kühlerpreis vs. Kartenverkaufspreis. Der Kühler kostet bei einer 899 Euro Karte sicher prozentual weniger als bei einer 499 Euro Karte. Das ist nur logisch. Bernis "Argument" klappt bei viel günstigeren Karten vielleicht noch halbwegs, aber bei so einem Boliden kann das Ding auch 350W verbrauchen - der Einfluss auf den Preis wäre marginal.
4. Bei Fermi wurde der Verbrauch nicht in Kauf genommen, der Spitzname Thermi hat sich ja nicht selbst erfunden. Die 7970 GE braucht halt sehr viel Strom, das ist kein Seitenhieb, das ist Fakt. Ob AMD das deutlich drücken kann, bleibt eben abzuwarten.
5. Dann nutzt K20 seine TDP eben nicht ganz aus, K20X schon. Dein Einwand entkräftet das Argument nicht zwingend. Im Profisegment kann man nicht einfach so über die TDP gehen wegen Kühlung und Zuverlässigkeit. Ich denke daher schon, dass sie eingehalten wird.

"Absolute Performance" misst sich aber dennoch an gängigen Auflösungen. Und das ist stand heute schlicht FullHD und nicht 1440p/1600p oder gar 4k Auflösung sowie TrippleScreen Setups. Für ein paar wenige darf bzw. sollte sowas natürlich in den Reviews nicht fehlen. ;) Deswegen bleiben die heutigen Standards aber immernoch die heutigen Standards.
Und auch SGSSAA, sogut es auch ist, ist schlicht kein Allerweltsfeature, da es idR eben A) mit händischem Aufwand verbunden ist, B) nicht in jedem Game funktioniert und C) idR nichtmal ansatzweise als default Optionen in Games/Benches angeboten wird.
PS: schaut man sich im geizhalz mal um, so gibts genau 20 Screens mit ner Auflösung von mindestens 1440p im Bereich bis 1000€!
Wärend wir bei 820 FullHD Screens im Preisbereich bis 1000€ sind. -> ich denke es ist klar, wo der aktuelle Standard liegt.

3. -> neja, der Boardpartner hat nen Einkaufspreis für die Komponenten. Da zählt der Kühlkörper mit rein. Bei 30% Marge (angenommen, ausgehend von 899$ oder Euro Verkaufspreis) wären 691,50 Boardpartnertechnisch zu entrichten.
Der Kühler kostet angenommen (zur einfachen Rechnung) 34,50 $ bzw. Euro. Das sind ca. 5% vom Einkaufspreis. Verdoppelt sich nun dessen Preis auf 69 $ bzw. Euro, schrumpft die Marge von 30% auf ~23,8%.
Wenn die Unternehmensvorgabe aber 30% Marge sind, wird der Preis natürlich drauf geschlagen... Und da wärst du schlicht schon bei 943,80. ;)
Es macht also schon nen recht gewaltigen Unterschied... (Preise, Marge usw. natürlich frei Erfunden für dieses Beispiel)
4. -> der Spitzname kam aber bei weitem nicht von den Leuten, die die Karten kauften ;)
Das Fermi sowie ne GHz Edition heute viel Strom brauchen, streitet auch niemand ab. Mir gings nur um die auffallend oft rangezogene Verbrauchsargumentation bei AMD aktuell. Gerade von den Leuten, die seinerzeit Fermi im Einsatz hatten fällt sowas für eine objektive Bewertung "negativ" auf.
5. -> das kann natürlich sein. Entweder K20 oder K20X sind zu großzügig oder zu knapp eingestuft. Zugunsten von NV habe ich für diverse Rechnungen auch immer den K20X rangezogen, weil dieser rein ausgehend von den Werten her der Effizientere sein muss. Und deswegen sage ich auch, das es mit der Geforce Version da nicht unbedingt noch deutlich nach oben gehen muss. Man kocht schließlich auch nur mit Wasser.

Februar wäre jawohl etwas früh ohne jegliche Infos?! Also frühestens März, davon wird man mal ausgehen können. Cebit oder später...

Nicht zwingend, da GK110 in seinen Features und Einheiten vollends schon bekannt ist. Was aktuell fehlt ist schlicht die Anzahl der aktiven SMX sowie der letztendliche GPU Takt.
Der Takt kann noch vergelichsweise wenige Tagen vor Auslieferung an die Händler angepasst werden. Da gabs doch sogar schonmal Modelle, die als Samples an die Redaktionen rausgingen, wo der Takt bzw. die ALU Anzahl nicht passte mit dem Retail Modell... ;)
 
Zuletzt bearbeitet:
@fdsonne

Willst du einen CPU oder nen GPU Benchmark,aus dem ersichtlich wird,was die Karte kann,oder wie gut der Intel/AMD Prozessor das ganze händelt

Warum ist man bei CPU Benchmarks in unrealistischen Auflösungsbereichen um dessen Leistung einzuschätzen?
Dein Full HD Szenario ist mit kommenden CPU Klassen vielleicht schon wieder Schall u Rauch

Das ist das Dilemma was sich nun auch schon in ansonsten gängige Auflösungen einschleicht
 
Zuletzt bearbeitet:
scully, was ich will, ist doch völlig wurscht ;)
Ich behaupte, ich kann klar differenzieren. Die Breite Masse muss dies nicht unbedingt können. Da zählt Balkenlänge weit mehr als andere Wertevergleiche.
Und einerseits ist es unsinn aus Reviewer Sicht ein Review zu erstellen, was gänzlich an aktuellen Standards vorbei agiert (1440p/1600p only, TrippleScreen only oder 4k only) genau so wie es unsinn ist, nur auf FullHD zu setzen...

Beispiel: was interessiert die Breite Masse, das der Vorsprung von einer GHz Edition HD7970 zur GTX 680 bzw. beide jeweils im Dual GPU Setup zwischen 1600p und 3x1600p jeweils von
ca. 13% auf 21% anwächst? -> es ist und bleibt für die meisten uninteressant...

Deswegen behaupte ich, die meisten Leute wird primär FullHD interessieren. Einfach weil es der gängige Standard ist.
 
Zuletzt bearbeitet:
@fdsonne

Full HD verfälscht für die Kiddis aber nunmal das Leistungspotential.
Das du aus diesen Werten für dich andere Infos ziehst ist hoffentlich nur logisch

Aber gerade aus dem Blickwinkel der Balkenlänge bringt es dem nicht so bewanderten Leser rein gar nix,diese in Full HD zu betrachten,weil das eben zu einen gewissen Prozentsatz bereits nur von der CPU diktiert wird

Das müsste man demnächst mit anführen finde ich,um nicht zum falschen Fazit zu kommen,so wie das bei CPUs auch schon Gang u Gäbe ist

Es sei denn,Intel haut mit Haswell jetzt die "Über CPU" raus,die das Full HD Limit aushebelt mit solchen Monsterkarten,wovon ich aber zu 99,9% nicht überzeugt bin:)
 
Zuletzt bearbeitet:
"Absolute Performance" misst sich aber dennoch an gängigen Auflösungen. Und das ist stand heute schlicht FullHD und nicht 1440p/1600p oder gar 4k Auflösung sowie TrippleScreen Setups. Für ein paar wenige darf bzw. sollte sowas natürlich in den Reviews nicht fehlen. ;) Deswegen bleiben die heutigen Standards aber immernoch die heutigen Standards.
Und auch SGSSAA, sogut es auch ist, ist schlicht kein Allerweltsfeature, da es idR eben A) mit händischem Aufwand verbunden ist, B) nicht in jedem Game funktioniert und C) idR nichtmal ansatzweise als default Optionen in Games/Benches angeboten wird.
PS: schaut man sich im geizhalz mal um, so gibts genau 20 Screens mit ner Auflösung von mindestens 1440p im Bereich bis 1000€!
Wärend wir bei 820 FullHD Screens im Preisbereich bis 1000€ sind. -> ich denke es ist klar, wo der aktuelle Standard liegt.

Nö, damit misst du dann nur die Auslastung der GPU. Als nächstes testen wir dann auch SLI/CF in 1080p, am besten noch mit vielen Spielen, die nur FXAA erlauben. Nur weil die Tests diese Auflösung noch mitnehmen, heißt das nicht, dass dies der Karte gerecht wird und das wahre Potential offenlegen. Also jetzt Schluss mit diesem Unsinn. Du versuchst hier krampfhaft, schnellere Karten schlechtzurechnen mit Kindergartensettings, nur damit dann deine konservativen Prognosen stimmen.

Und auch die Kühlerdiskussion lass bitte sein. Ob die 50 Dollar jetzt auf den Preis aufgeschlagen werden oder nicht - die Karte ist so oder so sehr teuer. Die Korrelation, die Berni hier in den Raum wirft, existiert eben nicht:
ebenso wird auch der Verbrauch und vor Allem die Wärmeentwicklung bei der Neuen Karte, sprich Monsterkarte steigen und somit auch viel Teurer machen als es die GTX 670 / 680 derzeit ist
50 Dollar, drauf geschissen. Das ist bei den Preisregionen nicht "viel teurer", das ist Fliegenschiss. Was die Karte maßgeblich so teuer macht sind zwei Dinge: Gier und vermutlich geringe Verfügbarkeit. Da müssen wir keine drei Seiten füllen und vom Thema abweichen, um das festzustellen.

Warum diskutierst du mit mir jetzt da rum? So langsam bekomme ich den Eindruck, dass du immer das letzte Wort haben willst bzw. nur um des Diskutieren willens diskutierst. Ich schätze deine Postings sonst sehr, aber so langsam gehst du mir auf den Senkel mit diesem ziellosen Rumreden.
 
Zuletzt bearbeitet:
scully sieh es andersrum und versetze dich in den potentiellen Käufer.
Wenn die Breite Masse schlicht FullHD Monitore hat, was kann er dann mit den Balken für 1440/1600p oder TrippleScreensetups anfangen? -> es verfälscht ihm das Bild und suggeriert im einen möglicherweise riesigen Vorsprung, den er nicht haben wird. Und genau das ist der Punkt.
Was meinst du wie groß der Aufschrei wieder ist, wenn die Reviewer in realitätsfernen Settings benchen?
 
Die breite Masse ist nicht die Zielgruppe für eine 899-Dollar Karte...
Abgesehen davon ist die ganze Diskussion eh für die Katze (haha, Witz komm raus ;)). Denn es wird sowieso in 1080p, 1440p und 3x1080p gebencht. Das Potential der Karte wird aber eben bei fordernderen Settings beurteilt, nicht im CPU-Limit. Problem gelöst, alle sind happy.
 
Zuletzt bearbeitet:
nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread] (1. Seite lesen!)

aber ich ;)
 
scully sieh es andersrum
Was meinst du wie groß der Aufschrei wieder ist, wenn die Reviewer in realitätsfernen Settings benchen?

Natürlich werden da wieder einige rumheulen,hat ja auch schließlich lange gebraucht bis der letzte verstanden hat,warum es zweckdienlicher ist CPUs in minimalster Auflösung zu benchen,um andere Faktoren außen vor zu lassen

Man kauft sich CPUs/GPUs ja nicht fürs jetzt u hier,unsere Gilde jetzt mal außen vor gelassen:)

Der Normalo will denke ich auch für längere Zeit planen u da sollte es schon wichtig sein zu wissen was für Potential hat die Karte
 
Zuletzt bearbeitet:
Wobei man schon sagen muss, dass 1080p samt den maximalen AA-Settings ingame das Minimum in den Reviews sein sollten - 2560, DS oder Surround-Tests kommen natürlich dieser Leistungsklasse noch mehr entgegen oder SGSSAA wie CB mittestet, wenn auch nicht in 8x, nun ja PCGH bringt sicher etwas. :)
 
Zuletzt bearbeitet:
Nö, damit misst du dann nur die Auslastung der GPU. Als nächstes testen wir dann auch SLI/CF in 1080p, am besten noch mit vielen Spielen, die nur FXAA erlauben. Nur weil die Tests diese Auflösung noch mitnehmen, heißt das nicht, dass dies der Karte gerecht wird und das wahre Potential offenlegen. Also jetzt Schluss mit diesem Unsinn. Du versuchst hier krampfhaft, schnellere Karten schlechtzurechnen mit Kindergartensettings.

Und auch die Kühlerdiskussion lass bitte sein. Ob die 50 Dollar jetzt auf den Preis aufgeschlagen werden oder nicht - die Karte ist so oder so sehr teuer. Die Korrelation, die Berni hier in den Raum wirft, existiert eben nicht:
50 Dollar, drauf geschissen. Das ist bei den Preisregionen nicht "viel teurer", das ist Fliegenschiss. Was die Karte maßgeblich so teuer macht sind zwei Dinge: Gier und vermutlich geringe Verfügbarkeit. Da müssen wir keine drei Seiten füllen und vom Thema abweichen, um das festzustellen.

Warum diskutierst du mit mir jetzt da rum? So langsam bekomme ich den Eindruck, dass du immer das letzte Wort haben willst bzw. nur um des Diskutieren willens diskutierst. Ich schätze deine Postings sonst sehr, aber so langsam gehst du mir auf den Senkel mit diesem ziellosen Rumreden.

Ich diskutiere genau dann, wenn ich der Meinung bin, das ich mit dem geschriebenen Argumenten nicht konform gehe... So macht man das für gewöhnlich in einem offentlichen Forum ;)
Das hat auch nix mit letztem Wort usw. zu tun. Warum soll ich plötzlich aufhören zu argumentieren, wenn ich immer mehr der Meinung bin, das du meinen Standpunkt nichtmal akzeptierst?
Und wieso ich der Meinung bin, kann ich dir auch sagen. Die Auflösungsdiskusion ist aus meiner Sicht quatsch. Einfach weil niemandem geholfen ist, das Szenario künstlich dorthin zu pushen, wo man die Karte am besten hätte. Das ist nicht! objektiv. Für einen objektiven Reviewer kann es nur eins geben. Und das ist das Teil zu nehmen wie es kommt. Und wenn es in gängigen Settings/Auflösungen/Systemen nur 30%+ erreicht, dann ist das nunmal einfach so. Nüchtern betrachtet wäre das absolut kein Problem. Die jenigen die es interessiert (nämlich die 1440/1600p Besitzer, die TrippleScreenbesitzer oder vllt schon die 4k Monitorbesitzer, die dürfen dann gern eine Seite weiter blättern und diese Balken betrachten)

PS: ich möchte dich dazu noch bitten, mir hier nix zu unterstellen. Ich rede bei weitem nichts schlecht... Sondern ich betrachte nüchtern den aktuellen Markt und die aktuelle Monitor/Auflösungsverbreitung.
Warum ist das nicht akzeptabel für dich?

Das Potential der Karte wird aber eben bei fordernderen Settings beurteilt, nicht im CPU-Limit. Problem gelöst, alle sind happy.

Das hat von Anfang an niemand abgestritten ;)
Dennoch muss die Karte auch zeigen, was sie in "Kindergartensettings" zu leisten im Stande ist... Und wenn es halt was weniger ist, ist das eben so...
 
Sowas geht ja garnicht, dass man noch anfängt den Testparcours jeweils so abzuändern, dass eine Karte XY auch in möglichst guten Licht darsteht. 1080p 4xMSAA wird im Laufe der Zeit auch irgendwann mal rausfallen, aber man muss natürlich zu jeder Zeit die verbreitesten Setups berücksichtigen.
 
Sowas geht ja garnicht, dass man noch anfängt den Testparcours jeweils so abzuändern, dass eine Karte XY auch in möglichst guten Licht darsteht. .


Dazu brauchst du nichts abändern,nur in Zukunft weiterhin auf Full HD setzen,bei den Testparcours

Dann sind wir nämlich eines guten Tages an dem Punkt angelangt,wo alle Karten die selbe Balkenlänge projizieren

Bei den Highendmodellen kommt dieser kritische Bereich bereits jetzt schon zum tragen!

Da sich der CPU Part,nicht syncron zum GPU Bereich entwickelt,wird der Spalt immer größer
 
Zuletzt bearbeitet:
Also in Full HD wird mehr als 1Karte kaum noch sinn machen für 2 Karten sind hohe Auflösungen oder mehrere Monitore Pflicht.
Mann kann nur hoffen das Haswell 15% flotter rechnet bei selben Takt wie der IVy und das deutlich mehr OC geht .
 
Leute. Die 85% kommen nur von einem run im 3D-Mark11. Dessen Aussagekraft könnt ihr euch selber ausmalen. Es war nicht mal das Extreme-preset sondern nur Performance. Also immer locker durch die Hose atmen.
@edge: Dein fake ist nicht pixelgenau ;)
 
Warum deine Meinung nicht akzeptabel ist für mich? Weil du grundlegende Fehler machst und das nichtmal merkst.

Du schreibst von "gängigen Auflösungen" und "Monitorverbreitung", ignorierst dabei aber völlig, dass an einer solchen Karte nichts "gängig" ist. So eine Karte ist primär für entsprechend fordernde Settings gedacht, sonst würde man sie nicht kaufen. Es ist auch niemandem geholfen, sich 1080p anzuschauen und zu sagen "die Karte ist nur 30% schneller". In 1080p und heute vielleicht. Das interessiert aber doch absolut niemanden, weil die wenigsten die Karte so betreiben würden. Den primären Einsatzzweck von solcher Hardware zu betrachten ist auch nicht "künstlich" irgendwas zu "pushen", sondern das ist normal in dieser Leistungsklasse. Schade, dass du das nicht sehen kannst oder willst.

Und ja, dein Beharren darauf, die Performance auch mit angezogener Handbremse zu beurteilen, ist schlechtreden. Das werde ich dir auch solange unterstellen, bis du damit aufhörst.

@Hübie:
Performance Preset? Das wäre "etwas" bescheuert, so zu messen. Das wäre 30% flotter als die 680, da können die sich das Ding für 899 zehnmal an die Backe schmieren.
 
Zuletzt bearbeitet:
Also ganz ehrlich, für den preis sollte die 780 "Titan" schneller sein als eine GTX 690, falls nicht würde ich eher 2x GTX 680 im SLI kaufen, das wär güsntiger und mehr Leistung.


Grüße
Sharie
 
Zuletzt bearbeitet:
@boxleitnerb

Du bist unobjektiv, selektiv u. intolerant. Deine pers. Meinung besitz keine Allgemeingültigkeit, auch wenn du das offensichtlich als Selbstverständlichkeit siehst. Die Karte wird selbstverständlich so getestet werden wie andere auch u. jeder kann sich die Ergebnisse rausziehen die ihn interessieren.
 
Wieso ist boxleitnerb unobjektiv?

Weil er sich Gedanken über eine Aufrechterhaltung von aussagekräftigen Benchmarks macht?

Das selbe Gequatsche was damals bei CPUs gewesen ist,trift den GPU Sektor auch im zunehmenden Maße

Einfach mal Hirn einschalten,dann würde dir sowas auch auffallen,das man sich hier in ne Sackgasse verrennt

Oder was soll das bringen,wenn zukünftig alle Leistungsklassen,das selbe Ergebniss präsentieren?

Meine 760 ist genauso schnell wie die 790er laut "Test"

Genau auf sowas läufts irgendwann raus wenn das Testszenario nicht angepasst wird

Kannst du selber probieren selbst mit alter Gammelhardware bench mal in 640x480

Oder frag dich mal warum älterre "SchnullerMarks" mittlerweile nur noch gute CPU Testprogramme sind,obwohl sie ursprünglich mal Highendgrafikkarten auslasten sollten
 
Zuletzt bearbeitet:
GTX680: ~9.000 Punkte, GK110 ~13.000+ und GTX690 etwa 15.500 Punkte. Daher rühren die blöden 85%. Allein durchs VRAM-Limit wird man einige male Szenarien kreieren können in denen GTX690 & GK110 gleich auf liegen.

Edit: Tut euch selber eine gefallen und lasst diese beschissenen Balkenlängen aussen vor. Abseits dieser Bnchmarks gibt es etlich Faktoren die viel wichtiger sind. Framelatenz, Lastverteilung und Bildqualität z.B.
Man kann auch an Rohdaten die ungefähre Zukunftstauglichkeit erkennen. Mehr Aufschluss geben low-res benches doch auch nicht. Designfehler mal aussen vorgelassen ;)
 
Zuletzt bearbeitet:
Du schreibst von "gängigen Auflösungen" und "Monitorverbreitung", ignorierst dabei aber völlig, dass an einer solchen Karte nichts "gängig" ist. So eine Karte ist primär für entsprechend fordernde Settings gedacht, sonst würde man sie nicht kaufen. Es ist auch niemandem geholfen, sich 1080p anzuschauen und zu sagen "die Karte ist nur 30% schneller". In 1080p und heute vielleicht. Das interessiert aber doch absolut niemanden, weil die wenigsten die Karte so betreiben würden. Den primären Einsatzzweck von solcher Hardware zu betrachten ist auch nicht "künstlich" irgendwas zu "pushen", sondern das ist normal in dieser Leistungsklasse. Schade, dass du das nicht sehen kannst oder willst.

Das behauptest du... Schau dir doch einfach mal gängige Hardwareumfragen an.
Die Steamumfrage bescheinigt beispielsweise Stand Dez. 2012 ca. 0,8% 1440p Auflösungen, knapp 0,2% für 1600p vs. ca. 28% FullHD. Also in Summe ca. 1% vs. 28%.
Auch bescheinigt Steam 0,81% GTX 680 Karten, 1,07% GTX 670 Karten. Die 690er fällt aus dem Rating, weil unter 0,5%. Es sind also weit mehr HighEnd GPUs im Umlauf, als 1440/1600p Auflösungen genutzt werden. TrippleScreensetups reißen das Ruder dabei auch nicht um... Denn die bewegen sich im Bereich 0,0x%...
Käufer von AMD Produkten ganz außen vor gelassen...

Und du willst mir jetzt erzählen, das diese Leute, die potentiell 500€ oder mehr für eine GPU (oder mehrere) ausgeben, sich zwingend nur auf Auflösungen größer FullHD einlassen?


Und ja, dein Beharren darauf, die Performance auch mit angezogener Handbremse zu beurteilen, ist schlechtreden. Das werde ich dir auch solange unterstellen, bis du damit aufhörst.
Lies bitte nochmal meine Beiträge, hier beharrt niemand darauf, die Karte zwingend nur! mit angezogener Handbremse zu beurteilen. Sondern ich sage, solche Ergebnise dürfen nicht unter den Tisch gekehrt werden, weil diese Settings stand heute schlicht Standard sind.
Wenn es dich nicht interessiert, überließ doch einfach diese eine Reviewseite, kann doch nicht so schwer sein...

Du darfst mich natürlich gern eines besseren Belehren, sprich, das man derartige Hardware nur! in Verbindung mit mindestens 1440/1600p oder höher einsetzt. Mir würde sogar schon reichen, wenn du ne statistisch halbwegs korrekte und nachvollziehbare Aussage darlegen würdest, welche bescheinigt, das größer FullHD in dieser Leistungsklasse mehr Einsatz findet als FullHD selbst. Und ich bin ruhig ;)
 
Zuletzt bearbeitet:
Wäre für 900€ aber eher lächerlich, übertaktet reicht meine 7970 schon über die 12K. Muss jeder selber wissen.

Applaus. Du hast aber schon gelesen was ich weiter oben schrieb??? ;) Und es sind 899 $ nicht Euro die MwSt. kommt ja nicht von nVidia ;)
 
Zuletzt bearbeitet:
Einfach mal Hirn einschalten,dann würde dir sowas auch auffallen,das man sich hier in ne Sackgasse verrennt

Oder was soll das bringen,wenn zukünftig alle Leistungsklassen,das selbe Ergebniss präsentieren?

Es sagt genau das aus, was der Balken suggeriert. Nämlich das in diesen Settings die Mehrperformance nichts bringt. Punkt aus Micki Maus ;) Objektiv betrachtet ist das eine Aussage, die jeder Mensch verstehen kann...
Ein potentieller Käufer bekommt also vermittelt, das die Mehrleistung in Verbindung mit dem Mehrpreis für diese Settings eben sich nicht ausgeht.
Hätte man 1440/1600p und mehr only Tests, wüsste die breite Masse schlicht nicht, wo die Karte eingeordnet ist für ihre Monitore... Welchen Sinn sollen also solche Vergleiche haben?

PS: dein CPU Benchvergleich hinkt übrigens. Gängigerweise wird zu einem LowRes Bench auch ein HighRes (idR FullHD) gemacht. Im ersten sieht man das Potential, im anderen die aktuelle Aufstellung. -> alle Seiten sich glücklich.
Warum darf bzw. sollte man dies deiner Meinung also nicht bei GPUs machen?
 
Es sagt genau das aus, was der Balken suggeriert. Nämlich das in diesen Settings die Mehrperformance nichts bringt. Punkt aus Micki Maus ;)

In Verbindung mit CPU XY

Und genau das will man eben nicht für eine möglichst verlustfreie Einschätzung der Lage muss die CPU weitestgehend außen vor bleiben

Oder was erzählst du dem werten Käufer,wenn er plötzlich feststellt das Grafikkarte A ja im Endeffekt doch schneller zu Werke geht,wie Grafikkarte B beim immer noch selben Full HD Test,nur durch den Austausch der CPU

Benchen im CPU Limit ist Kundennepp weil es die Ergebnisse von der CPU abhängig macht

Wieviele Bulldozer Besitzer haben nur durch den CPU Austausch in Full HD mit ansonsten selber Grafikhardware schon das AHA Erlebniss hier gehabt,und mussten sich eingestehen das mit der Karte selbst doch noch mehr möglich ist?
 
Zuletzt bearbeitet:
und damit zeigst du 1A das potential der Karte, schrammst aber vollkommen am aktuellem Markt vorbei... Zumindest wenn man aktuelle Standards nicht berücksichtig.

Das ist wie aktuelle CPUs nur und ausschließlich nur in absolut Multithreaded Software zu benchen. Es suggeriert dem Anwender einen extremen Mehrwert durch mehr Cores... Wo sind diese in der Praxis?
Gerade Games werden häufig für CPU Benches rangezogen (neben Anwendungen), einfach weil es eins der Hauptaugenmerke ist, die eine CPU im privaten Umfeld abfrühstücken muss. Und genau darum gehts doch...

Künstlich erzeugte Settings, die vergleichsweise wenige in der Praxis überhaupt nutzen können/wollen sind zwar good to know. Genau so zeigen sie einen Ausblick für die Zukunft, aber es hilft Stand Releasezeitpunkt beispielsweise eben nicht, nur das Zukunftspotential zu wissen.

Oder noch ein Beispiel. Du streubst dich doch genau so, VRAM überlaufende Benches/Settings allein für einen Vergleich ranzuziehen. Siehe diverse Diskusionen von damals.
Das zeigt genau so ein Potential für die Zukunft... Interessiert aber Stand heute dich zumindest nicht, weil läuft ja stand heute ;)
 
Die Graka wird doch net über 800€ kosten, wie die völlig überteuert 690GTX? Oder über was wird hier gelabert?
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh