nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Das ist Marketing. Denn nur ein CPU Kern füttert die GPU zur gleichen Zeit. ;) Man kann auch alle 16 gleichzeitig zugreifen lassen. Damit es aber etwas wirksamer herüberkommt hat mans aber eben so gemacht.
Dies kommt auch dem Spiele-/Windows-Alltag näher.

@fdsonne: Das ist wie sontin schon sagt eher TDP-Sache. Mir wurden wie gesagt 280 gemessene Watt gesteckt (wahrscheinlich 14 SMX). Damit man aber die 225er-Marke nicht überschreitet musst du also überlegen: Chips-selektieren, wenig Spannung anlegen und heruntertakten oder einfach ein Cluster mehr deaktivieren. ;)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hauptsache für den Gamer Markt kommt die Karte nicht in 2 steps so wie damals GTX480 und ca 6 Monate später die GTX 580
 
@Grinsemann

Ich brauche ne 2GB Karte gar nicht erst zu kaufen um mit reden zu können ob es nachlade Ruckler gibt oder nicht wenn die Settings stimmen und es eigentlich Spielbar wäre es aber wegen zu wenig Ram zu einem hässlichen Nebenefekt kommt bei so
teurer Hardware.

Habe genug negative Erfahrungen mit meinem GTX580SLI dies bezüglich gesamelt .
.

Doch das solltest du,denn ansonsten betreibst du hier nur mal wieder Vram Hysterie

Mit einem 1,5GB 580GTx SLI Setup (vermutlich auf PCIe 2.0 Basis),"sammelst du also Erfahrungen",die dir "belegen können",das eine 2GB Karte auf einem aktuellen Highendmotherboard,zur unspielbaren Ruckelorgie mutiert.

Neulich war es noch ein "Bildchen von der Vram Auslastung" der dir als Beleg diente,kam genauso nicht gut,denn das Resultat kam ja auf dem Fuß.

Der Verweiß auf 1,5Gb 580er ist noch beschämender,da in keinster Weiße auch nur annähernd,das Setup erreicht wird,was mit X79 und einer 2GB Karte möglich ist

Wieviel indiskutable Belege für die Bekehrung zum oversize Vramhinduismus,willst du denn eigentlich noch in unzählige nvidia Threads posten?

Das einzige verwertbare Beispiel für deine Torschlusspanik(wenn du schon was nutzen möchtest)ist Hisn,aber dieser setzt auch 3x30" !! Displays ein,um das System zum Crash zu zwingen

Ein Setup,was zugegebener Maßen,nicht jeder Honk nutzt,und auch bisher in keinem Review je auftauchte,geschweige denn getestet wurde

Downsampling bis zur Vramkotzgrenze ist ebenso nicht der Nabel der Welt.

Was bleibt sind zu 99% die herkömmlichen Methoden um ein Spiel zu spielen und bei denen ist das Vram Geheule Schall und Rauch

Ps:
Das war auch teilweiße Ironie gepaart mit Sarkassmus wer es findet darfs behalten:banana:
 
Das ist Marketing. Denn nur ein CPU Kern füttert die GPU zur gleichen Zeit. ;) Man kann auch alle 16 gleichzeitig zugreifen lassen. Damit es aber etwas wirksamer herüberkommt hat mans aber eben so gemacht.
Dies kommt auch dem Spiele-/Windows-Alltag näher.

Lesen -> Verstehen: Unleash Legacy MPI Codes With Kepler
BigK unterstützt bis zu 32 queues im Gegensatz zu der einen von Fermi. Das wird dort sogar noch als Bild und in Textform beschrieben:

In the current Fermi architecture, the CWD has a single connection to the host CPU and work from different MPI processes is merged into this single queue. This serialization could easily lead to false dependencies among work from different MPI processes, limiting the amount of work that can be executed concurrently on the GPU. This often results in an underutilized GPU.
 
@scully1234
Ich kann nichts da für das deine Bedürfnisse beim zocken so niedrig gesteckt sind und das dir die Ram Bestückung auf deinen Karten aus reicht.
Bin aber nicht du wie viele andere auch.
Willst du etwa behaupten das fdsonne und Grinnsemann Gerüchte streuen und ich der einzig user hier im Forum bin der der Meinung ist das 2GB nicht reichen für SLI.
Ich glaube nicht das die GTX 680 aus Spass auch mit mehr als 2GB erhältlich ist.
Inzwischen sind es 15 GTX680 Karten im Geizhals die mit 4GB gelistet sind selbst für die 670 bietet man mehr Ram an.

Allein das endkräftigt schon deine Argumente die auch nicht wirklich welche sind.
Es erinert mich ehr an jemanden der kurz vor dem ertrinken ist und dieser Hände ringend nach etwas zum greifen sucht da mit er sich retten kann.
 
Zuletzt bearbeitet:
@scully1234
.
Willst du etwa behaupten das fdsonne und Grinnsemann Gerüchte streuen und ich der einzig user hier im Forum bin der der Meinung ist das 2GB nicht reichen für SLI.

.

1. welche Plattform nutzt Grinsemann bezüglich der Anbindung der Karten?

2. sagt er genau Zitat "ab und zu ein Nachladerucker" und das 3xFull HD. Welch Wunder das kommt vor selbst bei einer 3 bzw 4GB Karte

da steht also nichts von unspielbar,und dabei hat er nichtmal die volle Bandbreite von Pcie 3.0x16

Ab und an mal nicht mehr reininterpretieren wie der genaue Wortlaut ist


Und jetzt lass lieber gut sein bevor der "Ertrinkende" wieder du bist
 
Zuletzt bearbeitet:
Wer es will soll sich da mit zu frieden geben.
Ich behalte meinen Standpunkt bei da kannste tippen bis dir die Finger ab fallen.
 
Zuletzt bearbeitet:
Dann sollte man aber auch so neutral sein und differenzieren und nicht immer pauschal behaupten, es würde nicht reichen. Das suggeriert nämlich, dass das öfters der Fall ist als es tatsächlich so ist.
 
Alter Schwede ich habe immer wieder betont das es mir zum ((((Downsampeln))))) nicht reicht soll ich das 1000 mal schreiben.
Und beim Downsampeln sind nachlade ruckler nicht selten der Fall.
Selbst wenn das nur bei 5 Spielen so ist das aktzeptiere ich bei Rund 900 Euro nicht wer das will soll es tun .

Und das wissen alle die hier gerade mit lesen ich habe doch keine Schalplatte gefressen.
Der scully weis das ich es auf Downsampeln beziehe auch du Boxer und der ganze Rest aus dem Forum das wissen eigentlich alle wir schreiben hier nicht zum ersten mal mit einander über das Thema..

Ich habe das jetzt mal in meine Signatur eingefügt so das Missverständisse aus geschlossen werden können.
MFG
 
Zuletzt bearbeitet:
*grins* ... ceep cool alter. Tief durchatmen und nicht aufregen^^ :d
 
Und beim Downsampeln sind nachlade ruckler nicht selten der Fall.
.
MFG

Und selbst diese Aussage entspricht zu 80% nicht der Realität,solange man es nicht übertreibt und DS in extreme Exzesse auswuchert

Da kannst du mit hausieren gehen wie du willst

Das Problem an der Sache ist,das du das Thema immer wieder von neuen in ne Richtung zu lenken versuchst,mit Extremen die so nicht gegeben sind

Wenn ich es drauf anlegen will mach ich mit Downsampling und Texturmods auch ne 6GB Karte platt,und stell mich dann hin und behaupte alle Downsampler benötigen 8GB Karten

Ist das sinnvoll?

Alter Schwede ich habe immer wieder betont das es mir zum ((((Downsampeln))))) nicht reicht soll ich das 1000 mal schreiben.

MFG

Nein sollst du nicht und einmal auf dich bezogen hätte schon genügt.Statt dessen gehts damit über Stock und Stein in jedem Thread von vorne los ohne Bezug zu nehmen auf deine persönlichen Vorlieben
 
Zuletzt bearbeitet:
Ich habe es oft genug auf mich bezogen.
 
Dann erklär uns mal diesen Absatz

Das ist nicht auf euch beide bezogen Grinsemann und fdsonne ihr sagt wenigsten wie es ist auch wenn ihr die Hardware besitzt nicht so wie manche die noch extrem grün hinter den Ohren sind

Das soll doch dann nur suggerieren das alle die nicht damit konform gehen absolut keine Ahnung haben oder klarer ausgedrückt Fanboys sind

Soviel zu dem

Ich habe es oft genug auf mich bezogen

Lass diese Stigmatisierung doch einfach mal bleiben
 
Zuletzt bearbeitet:
Kreativ bist du keine Frage.
Lass diese Stigmatisierung doch einfach mal bleiben
Das solltest du dir defenetiv zu Herzen nehemen und versuchen mal um zu setzten.
Wurden gestern Abend nicht ein paar Posts von dir gelöscht?
Du solltest mal lieber schauen wie du dich im Forum verhältst bevor du anderen etwas unterstellst.

Ich erinnere dich an diesen Moderator Gestern Abend.

Es gibt KEINE Legitimation für dein Offtopic Spam, auch nicht, wenn andere es evtl. getan haben. Dass du gerne die Leute aufziehst ist hinlänglich bekannt.
Und ich wiederhole mich (wir haben nun schon etlichen Zeilen in dieser Richtung getätigt) auf diesen Kindergarten hat hier KEINER Lust.
(und auch "aber schau mal, der hat das auch gemacht" ist Kindergarten, aber sowas erkennt man natürlich nicht, wenn man in der Grabbelgruppe sitzt)

Wenn du es für nötig hälst Offtopic zu schreiben, dann geh in den OT-Bereich. Da kannste dir nen Thread aussuchen, wo es passen könnte. Aber da wäre ja nicht der Spaß so groß hier die Leute anzuheizen, nicht?
Ein Beispiel wenn man etwas aus einem Kontext reisst.

Bitte erspare mir weiter hin solche Komentarre werde erst mal mit dir selber 1.
Da mit ist für mich die Diskusion mit dir auch beendet da das ganze extrem ins lächerliche rutscht und OT wird hoffe ein Mod pinselt hier mal durch habe keine Lust mehr da rauf mir so einen Kindergarten scheiss durch lesen zu müssen und mich weiter von deiner Art belästigen zu lassen den deine Art wie du mit den Leuten schreibst ist mehr wie hart an der Grenze.
 
Zuletzt bearbeitet:
Jungs, Jungs, JUNGS; seid friedlich, das lohnt doch nicht, wer Recht hat werdet ihr schon noch früh genug erfahren. Oder laßt uns teilhaben. Zeit, Ort und Wahl der Waffen vorher hier posten :asthanos:

Btw. gab es eingentlich schon mal ein Gerücht zum Preis (nein, nicht zum K20 ;) )
 
Zuletzt bearbeitet:
Wenn man sieht wo der Preis bei der GTX680 liegt denke ich mal das mindestens ca.600Euro fällig werden zu mal die Ausbeute vielleicht auch nicht all zu gross sein wird zu beginn.
Von einem Gerücht zum Preis selbst habe ich auch noch nichts gehört denke das ist noch zu früh da für..
 
Zuletzt bearbeitet:
Ich erinnere dich an diesen Moderator Gestern Abend.

.


Ich erinnere dich mal an Kommentare anderer User zum Moderatorbeitrag

was ich zu dem thema schreiben könnte, wäre nur kritik und die legt man hier ja als fanboygebashe aus. AFAIR sogar mit unterstützung seitens der moderation.. *gg*
Nichts Bildstörung ...hier hat sich nur jemand auf den Schlips getreten gefühlt^^

Also lass mal schön stecken den Pfusch zumal "Moderatorchen" auch noch in einer Weiße versucht hat die User zu beleidigen,die mal so gar nicht angebracht ist

Aber mal ganz ab davon,was hat das mit dem hier zu tun?

Gehen dir die Argumente aus,und du wurdest wieder mal kalt erwischt,zu dem hier Gesagten,das du auf die andere Schiene ausweichst?
 
Zuletzt bearbeitet:
Lesen -> Verstehen: Unleash Legacy MPI Codes With Kepler
BigK unterstützt bis zu 32 queues im Gegensatz zu der einen von Fermi. Das wird dort sogar noch als Bild und in Textform beschrieben:

Glaub wir haben uns missverstanden: diese Gegenüberstellung ist wieder Markteting. Ich weiß allerdings auch gar nicht ob diese Molekülsimulation Praxisrelevant ist. Ich finde nur immer diese Graphen- oder Balkengegenüberstellung so aberwitzig. nVidia hat zugegebenermaßen ein effektives Markteing. Denn was manchmal am Ende hinten raus kommt ist oft nicht das 2,5-fache wie vorher suggeriert. ;)
Das technische hab ich schon verstanden - denk ich doch. So stelle ich mir das schematisch vor:



Edit: Die Abstände hab ich mal gelassen sonst wärs ja ein einziger Balken :d

Ich bin immer noch hinter der Frage her ob HyperQ und dynamic paralism auf GK110-Desktop Einzug erhalten und ob es Vorteile ohne großartige Anpassungen geben wird. Auch was per Software (Treiber/compiler) und was per Hardware erledigt werden muss ist noch voll im Dunkeln. Werds wohl auch erst nach release wissen :(

Edit: Zur VRAM-Diskussion: Bitte klärt das woanders. Ihr zieht etwas am Niveau :P Ich wünsche mir dauernd mehr als 1,5GB VRAM!
 
Zuletzt bearbeitet:
Edit: Zur VRAM-Diskussion: Bitte klärt das woanders. Ihr zieht etwas am Niveau :P Ich wünsche mir dauernd mehr als 1,5GB VRAM!

Zur Vram Diskussion das war schon längst und ausgiebig geklärt,nur anscheinend will man es nicht dabei belassen.

Selbst "Box" das Kürzel gefällt :fresse: hat oben sein Statement dazu zum wiederholten Male abgegeben,Blaire im übrigen auch;)

Und wenn man dann als "Downsamplingverblendeter" auch noch so antwortet

Das ist nicht auf euch beide bezogen Grinsemann und fdsonne ihr sagt wenigsten wie es ist auch wenn ihr die Hardware besitzt nicht so wie manche die noch extrem grün hinter den Ohren sind

Ist der entsprechende Tenor eben nicht weit weg

Ich habe bis jetzt erst ein vernünftiges Beispiel gesehen,das kam von Hisn wo die 2GB in eine Sackgasse führten.

Allerdings ist dessen Setup weit ab dessen, was die Mehrzahl benutzen wird und kann.Denn 3 IPS Panel in 30"@ 3000Euro wird wohl im einstelligen Prozentbereich aller 690er User liegen
 
Zuletzt bearbeitet:
Ich freue mich zu mindest sehr auf die neuen Karten vor allem über das mehr an Ram dann kann ich wenigstens ohne Einschränkungen Downsampeln.
 
Zuletzt bearbeitet:
Glaub wir haben uns missverstanden: diese Gegenüberstellung ist wieder Markteting. Ich weiß allerdings auch gar nicht ob diese Molekülsimulation Praxisrelevant ist. Ich finde nur immer diese Graphen- oder Balkengegenüberstellung so aberwitzig. nVidia hat zugegebenermaßen ein effektives Markteing. Denn was manchmal am Ende hinten raus kommt ist oft nicht das 2,5-fache wie vorher suggeriert. ;)
Das technische hab ich schon verstanden - denk ich doch. So stelle ich mir das schematisch vor:



Edit: Die Abstände hab ich mal gelassen sonst wärs ja ein einziger Balken :d

Fermi kann nur ein Queue verarbeiten. Was hilft es dir also, wenn mehrere CPUs gleichzeitig bzw. laufzeitgleich Daten senden?
Um mehrere Anfragen zu verarbeiten, müssen diese bei Fermi alle in eine Single-Queue verpackt werden.

BigK ist nun in der Lage zu jederzeit maximal 32 Queues verarbeiten zu können, vollkommen unabhängig zu welchem Zeitpunkt man sich befindet.

Das hat nichts mit falschen Marketing zu tun, sondern ist einfach nur die Darlegung einer technischen Funktion.
 
Fermi kann nur ein Queue verarbeiten. Was hilft es dir also, wenn mehrere CPUs gleichzeitig bzw. laufzeitgleich Daten senden?
Um mehrere Anfragen zu verarbeiten, müssen diese bei Fermi alle in eine Single-Queue verpackt werden.

BigK ist nun in der Lage zu jederzeit maximal 32 Queues verarbeiten zu können, vollkommen unabhängig zu welchem Zeitpunkt man sich befindet.

Das hat nichts mit falschen Marketing zu tun, sondern ist einfach nur die Darlegung einer technischen Funktion.

Der Queue ist ne Spalte. Hätte wohl beschriften sollen. Habe nur 4 Threads genommen weil ich keine 32 Zeilen vollknallen wollte.

Nochmal: Die Art und Weise wie dir etwas verkauft und das herausheben eine Sache ist nun mal Marketing. Punkt. Welchen nutzen dass am Ende hat wissen wir noch gar nicht. Mich interessiert ja die Spieleleistung. Das feature kann ne Menge bringen - muss aber nicht der Praxis entsprechen. Jetzt verstanden? Herrje, dass man alles so breit treten muss. :rolleyes:
 
Zuletzt bearbeitet:
Ich habe bis jetzt erst ein vernünftiges Beispiel gesehen,das kam von Hisn wo die 2GB in eine Sackgasse führten.

Allerdings ist dessen Setup weit ab dessen, was die Mehrzahl benutzen wird und kann.Denn 3 IPS Panel in 30"@ 3000Euro wird wohl im einstelligen Prozentbereich aller 690er User liegen

Leider kommt aber von der pro VRAM Fraktion genau so wenig an belegbaren Fakten wie von der Contra VRAM Fraktion. Es sollten sich also beide mal hinsetzen und was bringen ;) Ich hatte vor ner Weile mal ein Skyrim Screen gepostet, welches die 2GB der 680er so überfüllt haben, das man beim betreten sowie verlassen von Häusern massive Nachladerruckler hatte. Und die Settings waren weit ab von HisNs Beispiel mit nem stino FullHD TV und popligen 4xSGSSAA + minimales Downsampling (weil damals der Rot Bug bei DS noch deutlich zeitiger einsetzte bei Kepler als jetzt)


Aber um es nochmals abschließend zu sagen, es geht hier in keinster Weise darum, zu belegen, das 2GB reichen oder das 2GB total überfordert sind. Der kleine aber feine Unterschied, den die meisten hier wohl nicht verstehen ist einfach die Tatsache, das wir hier über HighEnd reden, wir zahlen HighEnd Preise und wir haben HighEnd Wertverfall von den Teilen. Dennoch muss ich mich als Kunde, welcher diesen Aufwand erbracht hat mit 2GB zufrieden geben und kann mich nicht ausleben, wie ich lustig bin.
Spiele ich Spiele in stino Settings ohne DS, ohne groß AA oder ohne sonstige Optiksteigernde Maßnahmen (Texturpacks, Mods usw.) dann werde ich auch nen Teufel tun, und den Herstellern 1000€+ in die Tasche stecken. Sondern begnüge mich mit vllt einer einzigen 660TI oder ggf. auch 570/580er (um mal bei NV zu bleiben)

Scully, dein Totschlagargument, was du immer wieder bringst, die benannten Settings hier (massivstes Downsampling usw.) die nicht massentauglich wären, gehen einher mit der Tatsache, das die Produkte, welche zum Vergleich rangezogen werden, es mindestens genau so nicht sind...
Wir sprechen hier schließlich nicht über Mainstream oder Einsteigergamingprodukte. Da ist es vollkommen nachvollziehbar, das man preislich spart und möglichst höchste P/L Effizienz erzielt. Genau so ist es vollkommen nachvollziehbar, das man Kompromisse eingeht.
Nur was haben Kompromisse im HighEnd Preisbereich zu suchen? Ganz ehrlich, sowas gibts eigentlich nicht. Wenn es technisch nicht möglich ist, OK, aber nicht, wenn der Hersteller einem vorzuschreiben meint, was gut für den Kunden ist. -> dafür habe ich absolut kein Verständnis. Genau so wenig habe ich verständnis dafür, was sich einige hier so für einen Hersteller einsetzen können. Was habt ihr davon? Was spricht wirklich objektiv gesehen dagegen, das NV im Beispiel per default hätte 4GB verbaut, zumindest bei der 680er. Nennt mir doch mal ein Argument, was trivial genug ist, den Verzicht des doppelten VRAMs zu rechtfertigen. Und nein, der Preis/die Kosten sind kein triviales Argument dafür, denn das P/L ist so oder so extremst schlecht... Also, was spricht dafür hier zu "sparen"!?
 
Na ja Full HD mit 4xSGSSAA + DS ja schon sehr sehr heftig^^
Ich wollte vor ner Woche mal wieder BFBC2 mit 8xSGSSAA spielen, das läuft gerade so mit 50 FPS, hätte ich nicht gedacht das die alte Engine mit 8xSGSSAA so das GTX580 SLI gespann in die Knie zwingen.
 
Zuletzt bearbeitet:
Auch bei Highend wird immer über Kosten/Nutzen gedacht. Da den meisten Nutzern 2GB reichen und die Karte von der Leistung her eher weniger "High End" ist, find ich die 2GB schon verständlich. Natürlich ist es ein Kostenfaktor. Würdest du einem Mittelklassewagen 250PS verpassen, nur weil ein paar mal gerne damit rasen würden, aber die meisten auch mit 175PS zufrieden sind? Dann würde das PLV eben noch schlechter und das kann ja auch nicht der Sinn der Sache sein. Wenn es jetzt gar keine Karten mit 4GB geben würde, würde ich die Aufregung verstehen - aber die gibt es, also sehe ich da nicht wirklich ein Problem. Wer meint, mehr als 2GB zu brauchen kauft sich die 4GB Variante und der Rest eben die 2GB Variante. Alle sind happy. :)
 
Der Test war damals mit einer 680er, und es lief. Mit zwei 680er kommst du mit den Settings auf 60FPS+ im Schnitt. Das ist alles andere als heftig... Da musst du sogar eher aufpassen, das du nicht im CPU Limit landest :fresse:

Wie gesagt, es war ein Beispiel, was recht praxisnah kommt, einfach aus dem Grund, weil es spielbar ist. Es ist also alles andere als eine "Orgie" von Settings, welche nur draufgedrückt wurden um die Karte in die Knie zu zwingen. Ich mit meiner 40" Grotze sehe bei humanen Sitzabstand damit immernoch Treppchen ;) Es ist also für mich nichtmal genug :fresse:

Mittlerweile scheint aber Skyrim ziemlich gut zu laufen. Da man nun SGSSAA nicht via Inspektor erzwingen muss, sondern die Settings erweitern kann. Und man muss nun nicht mehr die Bits nutzen -> Vorteil, es spart massiv am VRAM. Das muss ich mir mal die Tage anschauen, seit dem damaligen ernüchternden Tests in Skyrim hab ich es nicht wieder angefasst ;)
Bei anderen Games schaut das aber weit schlechter aus.
 
Ich bin immer nich der meinung: für alles über 4xSGSSAA in aktuellen Titeln müssen der Hersteller erst mal passende Hardware bauen ;)
Da hängt es nicht immer am V-Ram sondern mehr an der mangelnden GPU performance.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh