[Sammelthread] Grafikkarten - Technikdiskussion

Leute...bleibt beim Thema! Fsdonne hat das glaube ich schon deutlich gesagt!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
bin ich eigentlich der einzige alte hase der seit der G80 iergentwie nie wieder die dringlichkeit des aufrüstens verspürt hat ? (abgesehen von so Ego Shooter monstern wie BF3)

früher zu geforce 1-5 zeiten war das gefühlt viel nötiger.

heute kann ich mit einer geforce 8 noch richtig viele aktuelle titel spielen. die kam 2006 raus. wir haben fast 2013. ist schon erstaunlich.

hätte man damals zur geforce 7 zeit mit einer geforce 256 (1) versucht die aktuellen titel zu spielen, hätte man es knicken können.

ich meine Kepler ist schon die 8chte generation nach der Geforce 8.

das ist so als würde man eine Geforce 8800Ultra mit einer Geforce 1 vergleichen.

mir geht es nicht um die geschnwindigkeit in relation zur entwicklung, sondern darum, das die notigkeit von mehr speed, wohl nachgelassen hat.

ich zocke zz nur eve online, und da schlafen sowohl CPU als auch GPU trotz max settings bei mir. ich könnte das spiel wohl noch mit einer alten HD3870 aus em jahre 2007 Flüssig auf max zocken.

das ist schon erstaunlich finde ich. besonders im vergleich zu damals.
 
Zuletzt bearbeitet:
Flaschenhals bleibt da halt die Entwicklung für diverse Plattformen statt nur für den PC. Außerdem steigen die Kosten der Entwicklung wenn man die Grafik auf feinschliff bringt. Nicht um sonst wird oft nur eine Engine lizensiert und nur feinfühlig angepasst.

Des weiteren steigt seit mehrern Jahren die Auflösung, dank LCD-Monitoren, nicht mehr wirklich an. Würde man heute noch CRTs einsetzen, unabhängig von deren anderen Nachteilen, müssten die GPUs wohl schon wesentlich früher mit Auflösungen jenseuts von Full HD umgehen können können. Im Moment gibt es ja bis auf die Möglichkeit des Downsampling keinen bedarf das die GPUs das handeln müssen. Für Spieler interessant Monitore mit hohen Auflösungen gibt es nur wenige und dann sind sie noch recht teuer.

Damals stiegen die Auflösungen noch an und forderten die GPUs zusätzlich zu den eigentlichen Effekten des Spiels.
 
Wieso eigentlich acht Generationen nach den 8000er?
Es gab nach den 8000er einen Refresh auf die 9000er (G92, in mehreren Ausführungen)
Dann den G200 in zwei bzw. drei Ausführungen
Dann GF100/110 in zwei Ausführungen
Und heute GK104 als Topmodell.

Das sind genau vier Generationen.
Wäre also ne Geforce 4 ausgehend von den 8000ern.
Also irgendwo ~4,5 Jahre.

Auch ist die Leistung damals massiv schneller gestiegen.
Eine Geforce 8800 Ultra ist rein theoretisch schon über 30x so schnell, wie eine Geforce 4 TI 4600.
Dazu kommt, seit DX9.0c hat sich der Berechnungsschwerpunkt massiv in Richtung aufwändigen Shadercode verschoben. ATI hat das damals erkannt und konnte mit den X1900er Karten massiv vor den G70/71 punkten.

Vergleicht man das mal so weiter, die 8800 Ultra bringt es auf ~580GFlop/s theoretisch (MADD+MUL). Praktisch eher auf ~387GFlop/s (MADD only)
GK104 in der GTX 680 schafft ~3,2TFlop/s.
Ausgehend vom theoretischen Maximum wären das nichtmal 6x so viel. Vom Praktischen immernoch nichtmal 10x so viel. Und das bei ner Zeit von ~5,5 Jahren (Q2 2007 -> Ende 2012)


Wobei ich aber sagen muss, bei mir war das eher andersrum. Ich habe damals eine stark übertaktete Geforce 2 GTS besessen. Die hat Taktraten der Ultra gemacht und lief 1A. Mit der Karte habe ich spielend die Geforce 3 sowie 4 Reihe überdauert. Weil der Leistungsgewinn gerade bei den kleineren Karten des Top GPU Ablegers daraufhin recht gering war. Und der Vorteil von DX7 only kam noch hinzu... Erst mit der FX5800 habe ich gewechselt und dann gleich weiter zur 9800Pro ;)
Wobei das auch nur ~2,5 Jahre Zeit waren. Der Leistungsunterschied zwischen Geforce 2 und 9800pro war enorm. Mehr als doppelt so schnell und das innerhalb der "kurzen" Zeitspanne.

Heute läuft das irgendwie anders. Mit einer HighEnd GPU kann man nichtmal mehr alle aktuellen Titel mit für mich ansprechende Settings zum laufen bringen ;) Und die Entwicklung zögert sich immer weiter raus, weil die Fertigung immer langsamer auf ansprechende Ergebnise kommt.


Blicken wir noch etwas in die Zukunft. Ich behaupte, das Problem wird sich nicht nur durch die Fertigung weiter aufbauen. Sondern auch durch die Monitorindustrie. Heute kauft doch fast niemand mehr nen FullHD TFT, einfach weil quasi jeder schon einen hat ;) die aktuelle Steamumfrage bescheinigt, fast 1/3 aller Steamuser nutzt FullHD.
Gehen wir nun weiter auf 4k Auflösungen oder noch höher, sprich viermal so viele Bildpunkte, steigt die Anforderung an die GPU nochmals enorm ;)
Im Schnitt sind das ca. 50% Leistungsverlust bei 100% mehr Bildpunkte, wenn ich mich recht entsinne. Heist also anstatt mit heute zwei 680er gerade so auszukommen, wären schon vier nötig :fresse: Und deutlich mehr wie 2GB VRAM wären auch Pflicht.

Mal schauen, was die Konsolen bringen, die irgendwann in den nächsten Monaten/Jahren das Licht der Welt erblicken. Zumindest die PS4 soll ja mit 4k Material umgehen können. Wird aber wohl Games wiederum nativ in kleinerer Auflösung berechnen und dann hochskalieren.
Eventuell werden die Entwickler mit den neuen Monitoren endlich mal wieder gezwungen, ihre Software zu optimieren anstatt für unsinnige Effekte heiden Rechenleistung zu verblasen ;)

@Nighteye
was soll ein Online Spiel auch stark für Anforderungen stellen!?
Das ganze Geschäftsmodell des Spiels basiert darauf, möglichst mit jeglicher Hardware da ansehnliche Qualität zu erreichen... Die Anforderungen sind äußerst gering. Das als Vergleich ranzuziehen ist ziemlicher quatsch. Noch dazu, wenn der Wiki Artikel stimmt, wäre Eve ein Game aus 2003 ;)
Auf die schnelle finde ich auch nur News über ein Engine update für DX10/Vista... Das ist sowas von Altbacken, wenn man so will... ;)
Noch dazu ist ein Weltraumspiel alles andere als Repräsentativ. Da eben viel leerer Raum existiert, wo wenig zu berechnen ist.

Aber hier gehts ja nicht um Games, sondern um Grafikhardware ;)
Heist also, Eve Online als vertreter eignet sich absolut gar nicht um die Leistungsfähigkeit von Grafikkarten zu beurteilen, schon gar nicht, wenn man damit das Entwicklungspotential über mehrere Jahre verdeutlichen will.
 
Zuletzt bearbeitet:
Amen :hail:

Gesendet von meinem HTC One V mit der Hardwareluxx App
 
Heist also anstatt mit heute zwei 680er gerade so auszukommen, wären schon vier nötig Und deutlich mehr wie 2GB VRAM wären auch Pflicht.

Bei den Grafikkarten und der reinen Coreleistung ist das richtig,beim Vram nur bedingt

Wenn ich z.B ein 4K Setup in 3d fahre,habe ich gar nicht mehr den Bedarf bzw die Möglichkeit,noch weitere Filtermethoden aufzuschalten,da selbst 4 Cores der aktuellen Generation,an der Kotzgrenze arbeiten.

Angesichts der hohen Auflösung von 4k und mehr wäre sowieso noch zu klären,braucht es bei solcher Pixeldichte überhaupt noch Unmengen an vorgeschalteten Filtern,oder ist es eher eine Machbarkeitsstudie nach dem Motto"seht her wíe weit ich das Limit ausdehnen kann" ohne dabei einen wirklich einschlagenden Effekt zu erzielen

Ich könnte meinen Hintern verwetten,wenn man hier zwei Screens posten würde einen nativen 4K ohne Filter,sowie das selbe 4 oder auch 8 mal gesampelt 80% den Unterschied gar nicht realisieren würden
 
Zuletzt bearbeitet:
Man bräuchte mal wieder Monitore die einem mal wirklich Spielraum bei der Auflösung lassen. Vielleicht bringt ja die Lasertechnik wieder mehr Möglichkeiten.
 
@scully, wie schon oft von mir erwähnt, ich spiele aktuell Skyrim. Und die 2GB reichen gerade so aus für meine Settings ;)
Downsampling von popligen 2560x1440 auf FullHD runter bricht den 2GB Wall und lässt die Kiste mit Nachladerucklern ersticken...

Der Grund sind haufenweise HighRes Texturmods, erhöhte Sichtweite usw.

Aber wie immer scheiden sich hier die Geister, wenn ich 1000€ für Grafikhardware ausgebe, will ich auch ohne zu überlegen da alles reinknallen was geht. Dort am VRAM zu sparen ist für mich der flasche Weg.

Ob man im Beispiel Skyrim schon ohne AA zocken kann, wenn man 4k Auflösungen fährt bei gleicher Bilddiagonale, wage ich aber zu bezweifeln. Am (SGSS)AA ist ja nicht nur die Glättung das Gute, sondern auch das sichtbar deutlich ruhigere Bild. Das schafft man mit höherer Pixeldichte einfach nicht. Wohl eher sogar das Gegenteil ist der Fall. ;)
Und ich verwende in Skyrim kein Override und erkaufe mir den gesparten VRAM an der Stelle durch nicht vollständig geglättetes Bild (Schlossknacken, Bücherlesen, ...)

Auch ist 3D eine andere Baustelle. Ob es zeitnah 3D mit voller 4k Auflösung geben wird, weis ich nicht. Zumindest auf Monitorbasis.
Und dann dürfte der Leistungsbedarf im Vergleich zu nem non 3D FullHD Monitor schon um ca. das vierfache steigen ;)

PS:
meine Settings sind weit entfernt von, ""seht her wíe weit ich das Limit ausdehnen kann" ohne dabei einen wirklich einschlagenden Effekt zu erzielen"
Wie schon oft erwähnt spiele ich an einem 40" TV mit FullHD Auflösung aktuell. Und sitze dabei 1-1,5m entfernt. Man sieht schlicht und einfach den Unterschied zwischen 4xAA zu 8xAA massivst. ;)
Mit 4k Auflösungen, sofern es denn irgendwann mal Monitore mit ähnlichen Dimensionen geben wird (mindestens wäre mir da ein 30-32") würde man zwar dem Treppcheneffekt gegenwirken, aber eben nicht der typischen Flimmerneigung. Da hilft nur SGSSAA oder irgendwelche Weichzeichner als PostProcessingeffekte. ;)
Dafür ist das Feeling bei 40" und geringem Sitzabstand aber ein deutlich anderes als bei nem popel 22" Monitor :fresse:
Man schaut auf den Schrim und sieht nur "Spiel", es fällt deutlich einfacher den Rest drumrum auszublenden.
 
@scully, wie schon oft von mir erwähnt, ich spiele aktuell Skyrim. Und die 2GB reichen gerade so aus für meine Settings ;)
Downsampling von popligen 2560x1440 auf FullHD runter bricht den 2GB Wall und lässt die Kiste mit Nachladerucklern ersticken...

Ich hab am Anfang auch gedacht, dass 2GiB zu wenig sein könnten. Hab dann ja auch ne GTX 680 bekommen und kann Skyrim ganz gut in 1,25x1,25 OGSSAA @1080p mit Hi-Res Texturen spielen (nutze aber auch nur erweitern;)) Allerdings: Wenn ich jetzt noch mehr Hi-Res Texturen nutzen will und noch höhere Auflösungen, dann werden die 2GiB auch zu wenig (sind jetzt teilweise schon voll), sehe das also auch so wie du.

Fakt ist, dass AMD das mit GCN und sofort 3GiB richtig gemacht hat. Damit wird man womöglich deutlich länger spielen können als mit GK104.
 
richtig, und mit 4k Auflösungen steigt der VRAM Bedarf nochmals etwas an. Zwar keinesfalls linear, das sollte klar sein, die große Preisfrage bleibt aber, was machen die Konsolen...
Eine neue Konsolengeneration auf "PC-Hardware" Basis und anständig dimensionierten Caches könnte da nen Ruck durch die Entwicklerabteilungen bringen.
Man könnte sich ggf. vom immer mehr fabrizierten Schlauchleveldesign entfernen und anständige Games mit enormer Sichtweite und ansprechenden Texturen (2k-4k) fabrizieren.
Sprich den Bedarf, den heute die Modder mit HighRes Texturen nachschieben, sofern möglich gibts dann out of the box... ;)

Und ne Konsole nativ mit FullHD Berechnung wäre schonmal ein Schritt in die richtige Richtung. Man muss sich ja nurmal anschauen, was PS3 und Co. heute auf den Schirm fabrizieren. Das wirkt verglichen zu anständigen PC Texturen alles ziemlich matsche und verwaschen.

PS: auch kann ich immernoch nicht nachvollziehen, warum mehr VRAM nicht gut zu sein scheint, für so manche hier :fresse:
Am Hubraum beim Auto spart man idR auch nicht :fresse2:
 
PS: auch kann ich immernoch nicht nachvollziehen, warum mehr VRAM nicht gut zu sein scheint, für so manche hier :fresse:
Klar, 2GiB reichen jetzt für sogut wie alles meistens aus, aber zu viel ist doch nicht schlechter:) Was man hat, hat man dann aber auch und über Nachladeruckler muss man sich dann auch keine Gedanken machen. Zuviel Vram bietet ja keine Nachteile (vllt etwas mehr Verbrauch)
 
Ist jetzt aber auch nicht ganz korrekt.

So viel ich mich erinnere ist z.B. die GTX 670 mit 4GiB etwas langsamer als die mit 2GiB.

Zwar keineswegs in gravierenden bereich, aber messbar. Was dann wohl den Latenzen geschuldet sein wird.
 
Zwar keineswegs in gravierenden bereich, aber messbar. Was dann wohl den Latenzen geschuldet sein wird.

Gut hasste recht. Allerdings reden wir hier meistens von Bereichen, die meistens unter 1% liegen, also auch Mess(un)genauigkeit sein können. Fakt ist aber, dass diese 1% weniger Fps deutlich weniger subejktiv ausmachen, als mal ein störender Nachladeruckler, der einem online um die ecke bringen kann :/
 
Gut hasste recht. Allerdings reden wir hier meistens von Bereichen, die meistens unter 1% liegen, also auch Mess(un)genauigkeit sein können. Fakt ist aber, dass diese 1% weniger Fps deutlich weniger subejktiv ausmachen, als mal ein störender Nachladeruckler, der einem online um die ecke bringen kann :/

genau das ist der Punkt ;)
Lieber zu viel, als zu wenig...
Und 2GB sind stand heute für einige Games ohne groß Umwege schon hart am Limit. Und wir reden über das hier und jetzt. Nicht das, was möglicherweise in 1-2 Jahren noch mal kommt. Das prädige ich ja schon seit Monaten :fresse:
Meine Prognose, die GK104 GPUs mit default 2GB Austattung werden früher oder später zum VRAM Krüppel werden. Vllt nicht ganz so massiv, wie heute eine 9800GX2 oder GTX 295. Aber die Richtung zeigt schon wohin es geht ;)
 
genau das ist der Punkt ;)
Lieber zu viel, als zu wenig...
Und 2GB sind stand heute für einige Games ohne groß Umwege schon hart am Limit. Und wir reden über das hier und jetzt. Nicht das, was möglicherweise in 1-2 Jahren noch mal kommt. Das prädige ich ja schon seit Monaten :fresse:
Meine Prognose, die GK104 GPUs mit default 2GB Austattung werden früher oder später zum VRAM Krüppel werden. Vllt nicht ganz so massiv, wie heute eine 9800GX2 oder GTX 295. Aber die Richtung zeigt schon wohin es geht ;)

Stimme dir da zu. Und vor allem bei der GTX 690 hätte ich mit 4GiB pro GPU gerechnet. Ich meine, man kauft sich schon ne 100€ Graka, dann will man ja nicht irgendwelche kompromisse eingehen xD
 
Ist immer ne Frage des brauchens

Wenn ich 3D Vision Surround als Zugpferd hab,brauche ich keine 4GB Vram pro Core,da der Chip bereits vorher dicht macht

Treibe ich mit Downsampling mein Unwesen,ist das wieder ne ganz andere Konstellation

Also kann ich nicht generell davon ausgehen,das 2GB für so ne Karte zu wenig sind

Und wer bei 3,4,5k meint noch filtern zu müssen,das die Schwarte kracht bitteschön,nur sind diesem Vorgehen nicht alle verfallen
 
Zuletzt bearbeitet:
Gut, aber wer sagt denn, dass ich bei einigen games nicht andere dinge machen will, als bei anderen? Ältere Games lassen sich wirklich schön mit DS + SGSSAA flüssig spielen, der VRAM macht da vorher dicht. Dennoch, wenn ich soviel Geld ausgebe, will ich dann aber keien Kompromisse machen, vor allem, wenn GPU-Leistung noch genug vorhanden wäre.
 
Ich hatte auch so gedacht.
Bevor ich zur 670 mit 2 GiB gegriffen habe , habe ich auch sehr stark mit der 7970 und 3 GiB geliebäugelt.

Jetzt kommt aber das große Problem, und zwar AMD und S3D was ja zumeist nur über TriDef sinnvoll ermöglicht wird und selbst so ein graus ist.

Das treibt einen dann zu NV und damit verbunden zu 3D Vision was aber auch mit vielen älteren Titeln funktioniert, die zumeist aber wiederum eher unter S3D + AA jeglicher Form zumeist eher an der Performance grenze stoßen als an zu vollen VRam.

Im Resume komme ich dann da raus, das ich in den aller meisten Fällen eher an der Leistungsgrenze statt VRam grenze bin.

Und so lasse ich mich persönlich dann lieber von nVidias 3D Vision "verwöhnen" statt mit der AMD Lösung in Form von TriDef.

Und in 1-2 Jahren, wo mehr VRam dann vll. durch die Bank weg nötig ist, muss ich mir - für meine Präferenzen - eh zumindest eine neue Karte kaufen.

Als Beispiel BF3 @ FHD und alles auf Ultra mit einer 670.
Ohne S3D komme ich mit 4x MSAA locker auf über 60fps im durchschnitt.
Unter S3D erreiche ist das nur wenn ich AA komplett unterm Tisch fallen lasse.

Da kommt dann aber wieder der andere Clou, und zwar das man unter S3D die Kantenglättung gar nicht mehr so dolle wahrnimmt.
Sei vll subjektiv... lässt sich aber in diversen Erfahrungsberichten auch so nach lesen.

Kurz um...

Momentan ist die persönliche Präferenz beim Graka kauf sehr wichtig.

Hab ich kein Faible für S3D, und möchte ich mir in 1-2 Jahren keine neue Graka kaufen und jetzt alle möglichen Mods nutzen. So bin ich sicher mit einer 7970 besser aufgestellt als mit GK104 @ 2GiB.
 
Zuletzt bearbeitet:
3D mit einer 670er? Da liegt mir dann wohl doch das schickere Bild im "2D" Modus... Und da reicht eine 680er eben heute schon nicht... ;) Zumindest nicht durch die Bank weg in meinen Settings.

@scully, es geht ja nicht darum, die Settings auf max. zu prügeln, nur weil es den Regler dazu gibt. Das was eingestellt ist, hat schon alles seinen Sinn. Zumindest bei mir.
Ich spiele in 8xSGSSAA, wenn es geht, weil man den Unterschied sieht bei ner 40" FullHD Glotze. Ich spiele mit Downsampling (wenn auch geringe Auflösungen), wenn AA so recht nicht will und nichts anderes hilft
Und ich spiele idR mit HighRes Texturemods, sofern es welche gibt, weil ich die verwaschenen Stinotexturen der Entwickler als "unschön" empfinde.

Das Problem ist ja wie so oft. Irgendwo hat man mal nen Screen aufgegabelt, sieht die "Schönheit" und denkt sich bei der nächsten Runde spielen, scheiße man, irgendwie sieht das bei mir mau aus...
Mit etwas Sucharbeit bekommt man die Settings dann raus und wird idR feststellen, Mist, das läuft nicht... Zumindest ging es mir seinerzeit noch so, als ich mich mit einem GPU Modell zufrieden gegeben habe ;)

Und seit ich MGPU fahre, bin ich über diesen Punkt drüber weg. Leider stellt sich mir hier und dort der VRAM eben in den Weg. Ein GK104 mit 4GB default wäre das Mittel bei mir gewesen. Ich denke, damit hätte sich sogar GK110 übersprungen ;) Die GPU Power selbst ist ziemlich enorm. Leider kann man sie eben nicht 100% ausfahren.
Ich hätte gern 8xSGSSAA in Skyrim -> läuft aber leider nicht. Ich hätte gern Downsampling in Skyrim, weil 8xSGSSAA nicht läuft -> läuft auch nicht.

Wenn du mal ehrlich bist, ob da nun 2 oder 4GB VRAM drauf wären, für NV wäre der reine Gewinn bei GK104 wohl dank der geringen Größe und der wohl recht günstigen Herstellungskosten immernoch mehr wie seinerzeit GF100 oder GF110 gebracht haben...
 
3D mit einer 670er? Da liegt mir dann wohl doch das schickere Bild im "2D" Modus... Und da reicht eine 680er eben heute schon nicht... ;) Zumindest nicht durch die Bank weg in meinen Settings.

Da ich das genauso sehe wie du, liegt die 2. 670 zwecks SLI schon auf der Post und wartet auf ihre Abholung ;)

es geht ja nicht darum, die Settings auf max. zu prügeln, nur weil es den Regler dazu gibt. Das was eingestellt ist, hat schon alles seinen Sinn. Zumindest bei mir.
Ich spiele in 8xSGSSAA, wenn es geht, weil man den Unterschied sieht bei ner 40" FullHD Glotze. Ich spiele mit Downsampling (wenn auch geringe Auflösungen), wenn AA so recht nicht will und nichts anderes hilft
Und ich spiele idR mit HighRes Texturemods, sofern es welche gibt, weil ich die verwaschenen Stinotexturen der Entwickler als "unschön" empfinde.

Und dem kann ich mich auch nur anschließen.

Scheine wohl Glück zu haben nicht so der Skyrim zocker zu sein :fresse:
 
Zuletzt bearbeitet:
Skyrim mit default Settings (max) Settings ohne erhöhte Sichtweite und ohne HighRes Texturen läuft auch mit 2GB schmerzfrei ;) Sogar mit 4xSGSSAA.
Nur wer will das schon ;)

Aber genug Abschweife, wir sollten wieder zur Technik kommen.
 
Hast recht, aber einen muss ich noch.
Hat sich eben per Zufall ergeben.

Hitman Absolution genehmigt sich auch unter 2x AA schon 2GiB Ram :fresse:

 
was es belegt und was es zwingend an Ressourcen braucht, um nicht mit Nachladerucklern zu kämpfen, sind ja zwei verschiedene paar Schuhe ;)

Damals waren die Zeiten das ganze genauer zu analysieren noch deutlich besser.
Da bestand noch die Möglichkeit den ausgelagerten Teil zu monitoren. Mit XP und dem Afterburner gab es local und non local VRAM.
Local VRAM war das direkt auf der Karte und non local VRAM das im Auslagerungsbereich des RAMs.
Man konnte genauestens sehen, wie viel da an Daten wo lagen.

Heute sieht man nur noch das, was local auf der Karte läuft. Der Rest ist völlig unklar. Zeigt die Karte also volle 2GB an, kann das heißen, das nahezu gar nix (vllt ein paar MB) im Auslagerungsbereich liegen, es kann aber genau so bedeuten, das mehrere 100 MB da liegen. In letzterem Fall wird das nämlich dann ziemlich rucklig ;) in ersterem wird man davon nicht viel spüren.

Ich für meinen Teil halte es so. Wenn ein Spiel direkt nach Spielstart die VRAM Größe der Karte schon erreicht, wird es idR so laufen, das Daten wärend der Spielzeit ausgelagert werden. Je nachdem, wie sich das Spiel/die Karte/der Treiber verhällt ist das zumindest ein 90% Indiz dafür, das Nachladeruckler (wie stark auch immer) auftreten werden.
Startet man hingegen ein Spiel und es belegt sagen wir gerade mal 50% des VRAMs, ist es eher unwarscheinlich, das im Spielverlauf da auf einmal der VRAM überläuft.

Bei Skyrim läuft das bei mir so, Spielstart irgendo in die Welt rein (nicht in ein Haus) = ~1600-1700MB Verbrauch. Bisschen rumlaufen, mal die Lokation wechseln usw. = 2GB voll. -> mit größter Warscheinlichkeit wird auch schon aus/umgelagert. Massiv spürbare Nachladeruckler gibts aber nicht.
Im Vergleich dazu. Selbe Settings + Downsampling von 2560x1440 auf FullHD ergeben direkt nach Spielstart brechvolle 2GB. Um die eigene Achse drehen = Nachladeruckler, ein Haus betreten = Nachladeruckler, das Haus wieder verlassen = Nachladeruckler ;) Bisschen rumlaufen geht. Ändert sich aber die Optik, sprich geht man von ner bewaldeten Landschaft irgendwohin, wo es Häuser gibt = Nachladeruckler usw.
 
Ich habe bei mir momentan 2x EVGA GTX680 mit 4GB Vram eingebaut da ich zuerst das Triple Monitoring wollte, jetzt frage ich mich ob sich das noch lohnt wo ich doch TripleMonitoring nicht umsetzen will ?

Macht es doch was aus bei Games mit SLI zu arbeiten auch wenn ein kein Triple gibt ? Was meint ihr ?
 
Hier gehts um Technik, nicht um Lauffähigkeit! Oder persönliche Empfehlungen für SLI oder nicht...

PS: es kommt auf deine Ansprüche an. 680er SLI bietet ~80% mehr Leistung als ne Single 680er. Dir bleiben also ~80% mehr Luft für diverse Spielereinen ala SGSSAA, Downsampling, diverse Mods blablubb...
 
Ich hab die unpassenden Beiträge mal ausgegliedert. Daher nochmals:
Dieser Thread ist NICHT für KAUFBERATUNGEN gedacht. Dieser Thread ist NICHT für ALLGEMEINE Fragen gedacht. Hier geht es um den TECHNISCHEN Hintergrund!
 
Nein noch nicht... Aktuell ist auch so wirklich nix bekannt. ;)
Zur gegebenen Zeit, sprich mit dem Aufkommen halbwegs diskutierbarer Infos, wird es sowas wohl auch hier wieder geben...
 
ist aber echt schon erschreckend langsam geworden mit den neuen gens.
die HD6000er gen gibts ja schon seit 2010
meine im Oktober 3 jahre alte 6870 wird in der effizienz von der vergleichbar starken 7850 was leistung pro watt angeht kaum übertrumpft. für mich ist diese entwicklung sehr erschreckend.
Radeon HD 6870 Pixelfüllrate 28,8 Texelfüllrate 50,4 verbrauch 145W
Radeon HD 7850 Pixelfüllrate 27,5 Texelfüllrate 55 verbrauch 144W
 
irgendwie guckst du schief ;)

Die HD7850 liegt Leistungstechnisch in Games ca. auf HD6950-6970 Niveau. Das ist mal gute ~20-25%+ auf ne HD6870. Und verbraucht dazu noch weniger... -> was willst du mehr?
Noch dazu gibts die HD7850 "schon" seit gut einem Jahr. Die "echte" Folgegeneration wird wohl dann frühestens irgendwann gegen Anfang-Mitte 2014 mit 22/20nm kommen. Da der Prozess wohl nicht massentauglich nicht eher verfügbar sein wird.

Noch dazu ist auch hier zu erwähnen, das aktuell der Trend bei GPUs glücklicherweise mehr nach Effizienz als absolute Leistung geht. Da man am 300W Limit angekommen ist... Somit ist keine übliche Steigerung mehr drin, weil der Verbrauch nicht signifikant mehr steigerbar ist.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh