2 GB vs 4 GB Ich dreh noch durch

AMD krankt seit 20 jahren an lausiger software. auf meiner 7970 ist nichtmal der klonbetrieb anstndig nutzbar und der soll nichts machen, als auf drei gerten das selbe bild anzuzeigen.

Nicht immer so pauschal einfach was wegdrcken... Auch bei NV gibt/gab es teilweise massive Probleme, gerade im Multimonitoringbereich.

Ich hatte bis zum aktuellen WHQL Treiber beispielsweise massive Probleme mit meinen beiden Anzeigen. Und das wohl nur, weil ich als primres Gert ein HDMI TV verwende und als extended Gert den alten DVI TFT. Bis vor kurzem noch hat sich nach jedem Boot das Fokusdevice auf den zweiten TFT verschoben, was zur Folge hatte, das alle neuen Fenster immer auf dem Zweitschirm aufgingen.
Problem ist nur im SLI Betrieb nachstellbar. Und lsst sich nur lsen, wenn man den zweiten Schirm eben nicht mit an die primre Karte klemmt.
Dies fhrt aber dann wiederum dazu, das es im SLI eine dezente Auslastungsschieflage bekommt. Gerade wenn Windows Aero aktiv ist, geht das schnell mal auf 5-10% Unterschied in der Auslastung. Mit konsequentem Leistungsverlust ;)

Mittlerweile betriebe ich ne 470er als dritt Karte um dort den zweiten Monitor dran zu haben. Absolut overkill das ganze, aber es ist bis dato die einzige Lsung um dem ganzen Problem vollstndig aus dem Weg zu gehen ;)

danke für die info wie gesagt was halltet ihr von der 7950 CF alternative kostet fast gleich viel wie eine 680er 4 GB

Wäre ebenso eine Alternative, die Frage ist aber, ob du lieber NV oder lieber AMD nutzen möchtest. Auch wenn die Meinungen hier teils massiv abweichen, kann dir so 100% niemand da vorschreiben, was du machen sollst.

Ich würde aber beispielsweise noch die 670er (dann auch wohl als 4GB Modell) mit in Betracht ziehen. Kost dich effektiv ~450€ das Stück, vllt bisschen mehr je nach Shop. Und kommt Leistungstechnisch bis auf ca. 10% an die 680er ran. Mit OC sogar noch weniger Abstand.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
jupp.. ist wie mit tridef (kostet 50€ und die hälfte für AMD-kunden, die eine karte aus serie X gekauft haben) - das ist der preis, den man zahlt, wenn man beliebige drittanbieter-brillen nutzen will.

denn darum geht es: otto normal kauft sich im geizmarkt einen LCD-TV mit 3D-funktion und will jetzt darauf spielen.. also muss er eine schnittstelle zwischen spiel und seinem neuerwerb haben.

ich schreibe auch nicht eine zeile code für lau.

AFAIR gibt es bei 3dtvplay genau wie bei tridef einen code, den man weiterverwenden kann.

was nicht geht, ist den ermäßigten AMD-kunden-key von tridef auf anderen grafikkarten (oder in verbindung mit anderen bildschirmen (falls die lizenz dabei lag | LG p.e.) zu verwenden.


(..)

mfg
tobi

Also ich habe einen dlp beamer! Den 5360bd und bei nv mit 3dtv play gabs echt viel probleme und bluescreens ohne ende!
Den code bekommt man keine frage nur kann man den nicht sehr oft verwenden! Bei einem syswechsel hat sichs mit dem code aber man kann ja auch virtuel das 3d vision pack anklemmen mit nem trick!
Triedef 3d hat da deutlich besser funktioniert am beamer allerdings wird man da auch vom server gekickt via punkbuster!
Dann kommt noch hinzu das triedef halt nicht jedes game so richtig unterstüzt das ist bei nv dann wieder besser!

Allerdings ist BF3 in 3D ein absoluter kracher mit AMD und NV gleichermaßen
 
@Powerplay
wie meinst du das mit man kann den Code nicht wiederverwenden?

Ich konnte das ganze Offline installieren. Zumindest die 14 Tage Demo. Wie soll da der Key gesperrt werden? Das bekommt NV doch gar nicht mit, wie oft man den verwendet.


PS: das mit den Bluescreens kann ich aber bestätigen. Das Teil läuft alles andere als sauber, zumindest meine damalige 275.xxer Version.
 
Also ich habe einen dlp beamer! Den 5360bd und bei nv mit 3dtv play gabs echt viel probleme und bluescreens ohne ende!
Den code bekommt man keine frage nur kann man den nicht sehr oft verwenden! Bei einem syswechsel hat sichs mit dem code aber man kann ja auch virtuel das 3d vision pack anklemmen mit nem trick!
Triedef 3d hat da deutlich besser funktioniert am beamer allerdings wird man da auch vom server gekickt via punkbuster!
Dann kommt noch hinzu das triedef halt nicht jedes game so richtig unterstüzt das ist bei nv dann wieder besser!

Allerdings ist BF3 in 3D ein absoluter kracher mit AMD und NV gleichermaßen


bei dem acer projektor brauchst du 3Dtvplay doch gar nicht. oder wolltest du die nvidia-brille sparen? das ist sparen am falschen ende und irgendwie auch ne milchmädchenrechnung.. 50euro für tridef, 30 euro für 3DTVplay nur um das dongle und die anständige brille zu sparen?

ja, bf3 in stereoskopisch ausgegeben ist sehr nice.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Habe was gelesen das wenn sich das system ändern man den key nicht nochmal verwenden kann genauso ist es beim triedef dreck

Ja also mit AMD geht doch eh nur 3D @ 720p weiß es nicht mehr genau ist schon etwas her!
Downsampling habe ich am beamer auch schon gemacht fand den effekt aber nunnnicht so gut wie am monitor deshalb habe ich das auf der nativen auflösung gelassen!
Ich habe das ganze ja auch nur mit einer gt240 1gb auf der nv seite getestet und dann mit der hd7970!
Für mich ist der beamer nur zum filme schauen und ab und an xbox360 zocken sonst zocke ich am monitor genau deswegen habe ich auch kein 3d vision weil wozu habe ja 5x DLP Brillen ;)

P.s. 1080p@120 hz (AMD) ist doch kein thema weil da kann ich mir einfach nen treiber bauen und dann sollte auch 2560x1440@120Hz gehen :d
 
Zuletzt bearbeitet:
Nicht immer so pauschal einfach was wegdrcken... Auch bei NV gibt/gab es teilweise massive Probleme, gerade im Multimonitoringbereich.

Ich hatte bis zum aktuellen WHQL Treiber beispielsweise massive Probleme mit meinen beiden Anzeigen. Und das wohl nur, weil ich als primres Gert ein HDMI TV verwende und als extended Gert den alten DVI TFT. Bis vor kurzem noch hat sich nach jedem Boot das Fokusdevice auf den zweiten TFT verschoben, was zur Folge hatte, das alle neuen Fenster immer auf dem Zweitschirm aufgingen.

das ist kein nvidia-problem, das ist ein windows-spielchen. genau wie bei der tastenkombo "win" + "p" gern mal projektor und TFT vertauscht werden. lösung ist simpel: konfiguriere alles im singlebetrieb und schalte die modi mit vorstehender tastenkombi durch. monitore anfügen nicht im NV CP, sondern im windows-panel. windows hat noch nicht geblickt, dass es leute gibt, die mehr als zwei bildschirmausgänge haben. mit win8 wird sich das (hoffentlich) bessern.


Für mich ist der beamer nur zum filme schauen und ab und an xbox360 zocken sonst zocke ich am monitor genau deswegen habe ich auch kein 3d vision weil wozu habe ja 5x DLP Brillen ;)

P.s. 1080p@120 hz (AMD) ist doch kein thema weil da kann ich mir einfach nen treiber bauen und dann sollte auch 2560x1440@120Hz gehen :d

verklopp zwei oder drei davon und hol dir eine mit dongle. mit NV-hardware kannst du ja DLP und 3DV parallel benutzen.

2560x1440@120Hz ? mach mal vor. ich kriege den acer über die GTX680 zu 2560x1440@85Hz und zu 2880x1800@60Hz bewegt; über die 7970 leider zu gar nichts.. :-(


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Hast du dich bei AMD schon mit downsamping befasst?
Du brauchst das AMD downsampling GUI und einen treiber der sagt das der beamer eine höhere auflösung kann..
Dann kannst du mit dem DS GUI die Auflösung und auch die Hz anpassen indem du die pixelclock anhebst und dazu dann die passende Hz im DS GUI eingibst. So konnte ich meinem ASUS VE278Q bewegen bei 82Hz zu laufen. Klar mit NV ist das ganze etwas einfach oder besser gemacht

Edit: ich habe das mit der AMD nicht getestet aber ich werde heute abend das mal angehen und den treiber dir dann zukommen lassen wenn du magst
 
Zuletzt bearbeitet:
das ist kein nvidia-problem, das ist ein windows-spielchen. genau wie bei der tastenkombo "win" + "p" gern mal projektor und TFT vertauscht werden. lösung ist simpel: konfiguriere alles im singlebetrieb und schalte die modi mit vorstehender tastenkombi durch. monitore anfügen nicht im NV CP, sondern im windows-panel. windows hat noch nicht geblickt, dass es leute gibt, die mehr als zwei bildschirmausgänge haben. mit win8 wird sich das (hoffentlich) bessern.

Die Konstellation funktioniert aber mit ner AMD Karte ;) Sogar mit CF (HD4870 X2, HD5870 CF)
Seit ich die zwei 470er hatte, gab es die Probleme...

PS: Und wie schon gesagt, es ist nur! bei aktivem SLI.
Das Problem ist, bei NV gibt es keine Möglichkeit die Fokusanzeige zu definieren. Man kann nur die primäre Anzeige definieren. Setzt man das Setup einmal sauber, geht auch alles, bis zum nächsten Boot, denn dann springt bei mir die Fokusanzeige bei aktivem SLI wieder auf den zweiten Schirm. (das Problem hab ich wie gesagt seit etwas über einem Jahr, also kein Kepler Problem)
Kurioserweise stimmt die Einstellung bei deaktiviertem SLI aber ;) Noch dazu kann man eben bei aktivem SLI den zweiten Schirm an der zweiten Karte auch ohne das Problem betreiben, kauft sich damit aber eine SLI Auslastungsschieflage ein. (so nutzte ich das ganze bis zum GK104 SLI) Ausweg aktuell, dritte Karte :fresse:
Und was noch viel mehr verwundert. Nutze ich anstelle von DVI für exakt den selben Zweitmonitor den VGA Anschluss (via Adapter an der ersten Karte), dann bleibt auch die Fokusanzeige auf dem primären Bild. -> das kann definitiv kein Microsoft Problem sein.

PPS: die Win+P Tastenkombi nutze ich nicht, weil ich immer alle angesteckten Monitore aktiv hab.
 
Hast du dich bei AMD schon mit downsamping befasst?
Du brauchst das AMD downsampling GUI und einen treiber der sagt das der beamer eine höhere auflösung kann..
Dann kannst du mit dem DS GUI die Auflösung und auch die Hz anpassen indem du die pixelclock anhebst und dazu dann die passende Hz im DS GUI eingibst. So konnte ich meinem ASUS VE278Q bewegen bei 82Hz zu laufen. Klar mit NV ist das ganze etwas einfach oder besser gemacht

ja, sicher habe ich das - ich mache das schon seit äonen..

@fdsonne
das was du beschreibst, hast du auch auf systemen mit aktiver IGP + dedizierter grafik. hersteller-unabhängig. ich würde meine geräte einfach an eine karte hängen und die anderen ohne display laufen lassen. spart dazu strom und macht das handling einfacher.

dass applikationen auf dem falschen panel aufgehen, ist mir seit bestimmt 18 monaten nicht mehr untergekommen; ich hatte aber auch kein SLi von den 400ern.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
@Tobi, nur bringt mich das nicht weiter, denn genau in dieser Konstallation (beide Anzeigegeräte an einer Karte) tritt das Problem auf.
Thema Stromsparen ist mir an der Stelle total wurscht, da die Priorität in erster Linie auf Funktion nicht auf Stromsparen liegt. Und im Moment hilft mir da die dritte Karte, auch wenn diese etwas überdimensioniert ist :fresse:

Wie gesagt, ich gehe davon aus, es liegt daran, das NV auf ihren Karten HDMI niedriger priorisiert als DVI, was die Anzeige angeht. Denn ich kann das Problem umgehen, wenn ich anstatt DVI eben den D-Sub nutze. Nur hilft mir das auch nicht wirklich weiter, weil das Bild sichtbar schlechter wird.
Auch ist es nur bei aktivem SLI. Meine Konstellation funktioniert soweit ich das getestet habe bis dato bei allen möglichen Konstellationen (auch unterschiedliche Hersteller) außer eben bei SLI.

Aber sei es drum, es sollte auch nur ein Beispiel sein, das nicht alles blendent läuft, sowohl bei AMD als auch bei NV nicht. Wäre es ein globales Windows Problem, hätte ich diese Konstellation entweder auch ohne SLI, oder auch mit anderen Karten, da dies nicht der Fall ist, liegt die Vermutung nahe, das es ein NV Problem zu sein scheint ;)
 
Zuletzt bearbeitet:
schalte in den SLi-modus und ziehe alle displays ab. dann steckst du das, welches du als hauptprimärsuperduperschirm nutzen willst wieder an und guckst was passiert.
falls nichts passiert drückst du den AUS-knopf an deinem rechner und wartest bist die möhre runtergefahren ist, steckst nichts um und bootest mit dem singlepanel. früher oder später solltest du ein bild bekommen. sollte dem nicht so sein, mach die andere karte zur masterkarte.

..

wenn das dann soweit ist, dockst du alle weiteren endgeräte im laufenden betrieb an; sie werden idR automatisch erkannt und das bleibt auch über einen neustart erhalten. wenn nicht alle geräter an einer karte hängen, ist ausser angefügtem desktop nichts anständig nutzbar.. das ist irgendwie total sinnlos.



(..)

mfg
tobi
 
Zuletzt bearbeitet:
@331BK

Du hattest mir ja eine PN geschickt darum antworte ich Dir mal hier im Thread:

Die Entscheidung kann ich Dir leider nicht abnehmen ;)

Für mich waren in der engeren Auswahl:

2x GTX690

* Preis, erschwert sehr den Wiederverkauf der Karte - dadurch hohe Verluste (schon bei einer "normalen" Karte muss man ja schon die Zähne zusammenbeissen).
* monstermäßige Leistung die sicherlich irgendwann/möglicherweise durch den VRAM Bedarf eingeschränkt wird (das war einer der Hauptgründe mich gegen die GTX690 zu entscheiden).
* Wärme wird teilweise ins Gehäuse abgegeben

MSI GTX 680 Lightning

* sehr interessante Karte, da z.B. sparsam im Multi-Monitor Betrieb
* angeblich eine der leisesten Karten (wobei ich da recht vorsichtig bin - ich kenne den TwinFrozrIII und weiß was der für einen Krach machen kann)
* leider nur 2GB
* finde den Lüfter ungeeignet für SLI oder 3-way-sli da die gesamte Wärme ins Gehäuse abgegeben wird

EVGA FTW+

* im Prinzip die ideale Karte
* 4GB RAM mehr als ausreichend für SLI
* Lüfter im Vapor Chamber Design
* OC-Karte um Geschwindigkeitsverlust 2GB/4GB auszugleichen

Ich hatte die zwei FTW+ per NN bestellt als die Nachricht kam das die Classifieds eine Woche später in Deutschland eintrudeln sollten, habe ich die Bestellung storniert.
Auslöser war die Info, daß die Classified eine deutlich bessere Kühlung haben, zudem konnte man im EVGA Forum lesen das die 4GB FTW schweinbar deutlich heißer wurden als normale 2GB Karten.

Bei der Summe von €1.200 die man für die FTW+ hingelegt hätte - macht der Aufpreis der Classified "auch nichts mehr aus".

Da heißt es Zähne zusammenbeissen und es einfach durchziehen. Die FTW+ hätten sicherlich auch gereicht...aber immer der Gedanke "hätte ich mal lieber die Classified genommen..."
 
Zuletzt bearbeitet:
Ha ha mir gehts gleich also nehm ich die classified :-)
 
Glaub mir die Luftkühlung ist der Hammer, da kommt die FTW+ niemals mit. Diese müsste schon deutlich schneller = lauter laufen um mithalten zu können.

Trotz dass ich jetzt drei Classified Karten verbaut habe, hab ich um rund 10 Grad bessere Temps unter Last als im GTX 680 2GB SLI (mit HighFlow Bracket!)

Auch war die oberste Karte im Idle fast 10 Grad wärmer. Jetzt beträgt die Temperatur Differenz gerade mal 6 Grad unterste und oberste Karte - bei drei Karten ( 29 / 33 / 35).

Ich denke mal, dass mein Gehäuse und die Grafikkartenlänge -zusätzlich - optimal harmonieren.


Ich empfinde es auch als Vorteil das die Classified ohne Backplate geliefert wird. Da sich die Speicherchips auf der Rückseite befinden ist davon auszugehen, daß diese noch heißer als üblich werden.
Früher hieß es ja mal die Backplate würde auch zur Kühlung beitragen - aber davon ist selbst Evga inzwischen zurückgetreten.
 
Zuletzt bearbeitet:
die backplate macht in erster linie eins: sie verringert den freien platz zwischen den karten.

die idlewerte sind doch völligst banane.. round-about 30°C hab und hatte ich mit den 680er (palit jetstream) GTXen auch immer..


(..)

mfg
tobi
 
Tenchi muyo hast du die karten auch direkt von evga?

Meine wird morgen bestellt. :-)
 
Zuletzt bearbeitet:
Ja, hab ich bei Evga direkt bestellt sonst gibt es ja keinen Anbieter.

Dann sieh zu das du die Karte vor 14 Uhr bestellst dann hast du evtl. Glück und die Karte geht noch am gleichen Tag raus.



Sent from my iPhone using Hardwareluxx app
 
Zuletzt bearbeitet:
[...]
(mit HighFlow Bracket!)
[...]

Bringt das temperaturmäßig wirklich was, oder sieht es nur besser aus? Ich hätt nämlich gerne eins (aber eigentlich nur, weil ich es hübscher finde als das normale), aber scheint auch irgendwie nicht so einfach zu sein, eins einzeln zu bekommen ..
 
Man darf jetzt sicherlich keine Wunder erwarten, aber von 3 Grad spricht man schon (im Evga-Forum).

Ein anderer Vorteil:

der Lüfter muss evtl. nicht mehr so hoch aufdrehen um die gleiche Temperatur zu erhalten.


Bei meinen letzten vier Karten hatte ich sowas montiert und würde es jederzeit wieder tun (egal ob SLI oder Single-Karte).
Eine Backplate ist dagegen NUR für die Optik.
 
Zuletzt bearbeitet:
So ist es vollbracht GTX680 Classi ist bestellt :)

bis im dezember kommt noch das board und der EVBot :)

Danke für eure Hilfe

lg
 
Zuletzt bearbeitet:
schalte in den SLi-modus und ziehe alle displays ab. dann steckst du das, welches du als hauptprimärsuperduperschirm nutzen willst wieder an und guckst was passiert.
falls nichts passiert drückst du den AUS-knopf an deinem rechner und wartest bist die möhre runtergefahren ist, steckst nichts um und bootest mit dem singlepanel. früher oder später solltest du ein bild bekommen. sollte dem nicht so sein, mach die andere karte zur masterkarte.

..

wenn das dann soweit ist, dockst du alle weiteren endgeräte im laufenden betrieb an; sie werden idR automatisch erkannt und das bleibt auch über einen neustart erhalten. wenn nicht alle geräter an einer karte hängen, ist ausser angefügtem desktop nichts anständig nutzbar.. das ist irgendwie total sinnlos.

Tobi, das bringt mich nicht weiter, egal ob ich wärend der Fahrt das zweite Display anstecke oder vorher, sobald ich die Kiste reboote, springt die Fokusanzeige auf den zweiten Schirm, sofern der TV (HDMI) und der TFT (DVI) an der ersten Karte stecken.
Wenn es so einfach wäre, wie du beschreibst, hätte ich das Problem schon gelöst und würde mir nicht ne dritte Karte in den PC stecken, welche sich Temperaturtechnisch nicht gerade gut auf das SLI auswirkt :(

Das Problem ist halt auch, ich bekomme nur auf einem der beiden DVI Ports Bild beim Boot, egal ob nun die 470er, oder egal welche der beiden 680er nun oben als Master stecken. Sobald an dem einen Port ein Schirm hängt, kommt dort Bild beim Boot. Das von dir beschriebene warten bis Bild kommt ist so nicht möglich. Denn es kommt nur auf einem Ausgang Bild. Stecken aber zwei Monitore dran, kommt auf dem primären Ausgang Bild beim Boot. Das scheint aber bei nahezu allen NV Karten so zu sein.
Würde ich nun die Anschlüsse vertauschen (was mein Ausgangsproblem leider in keinster Weise beeinflusst) hätte ich das Bootbild auf dem zweiten Schirm, aber sonst nix gekonnt :fresse:

Wie gesagt, ich hab bis dato vier Karten durch, zwei mal 470er, zwei mal 680er, in allen möglichen erdenklichen Konstellationen usw. durchprobiert. Es hiflt faktisch nichts außer eben den Schrim an die zweite Karte im SLI zu klemmen (Schieflage der GPU Auslastung bei Belastung) oder eben eine dritte Karte zu nutzen.


PS: wenn man nicht alle Monitore an der ersten Karte betreibt, soll es Probleme geben, davon hab ich auch schon gehört, wobei bei mir nur der extendet Desktop gewünscht ist. Und es auch nur um zwei permanent laufende Anzeigegeräte geht. Es ist also so viel Luft für Spielereien nicht ;)
 
du könntest alle karten bis auf eine rausziehen, an der alles anschliessen und konfigurieren und erst dann im anschluss die zweite karte für SLi stecken.

mein windows hat sich vorletzte woche auch verschluckt mit den displays, als ich die karten hier einzeln getestet habe und wollte partout das bild über die untere rausjagen, obwohl da gar kein panel mehr dran angeschlossen war. die displays an karte 0 blieben ignoriert. es liess sich aber lösen und danach war alles takko. die lösung war bastelarbeit. alle karten raus - bis auf eine.. und die erstmal mit den displays gangbar machen.

das letzte mal, dass ich den eindruck hatte, irgendwelche ausgänge sind priorisiert war mit den beiden 560ern; die haben immer angeschlossene analoge geräte als primär-display gesetzt. da war die lösung dann eher eine workaround: analoge verbindung vermeiden!

wenn dir das auf die nüsse geht - mir würde es auf die nüsse gehen - bau bis auf eine karte alles aus und fang bei null an mit der konfiguration. und lass die 470 weg.. die brauchst du nicht.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
schon probiert. Da die zweite 680er aktuell zwischen meinem PC und nem Server auf Arbeit hin und her wechselt, kann ich dir sagen, das auch das nichts hilft. Wie gesagt, die 470er ist aktuell die Notlösung.
 
ist schon irgendwie strange - aber naja.. vllt hassu montagskarten oder einfach kein glückliches händchen. *schulterzuck*

anyway.. das wetter ist zu schön für computer-crap - ich tue jetzt was für meinen körper.. hab am WE ein casting :-)


(..)

mfg
tobi
 
dachte ich auch erst, zumindest das mit den Montagskarten, aber es sind wie angesprochen mittlerweile zwei SLI Gespanne, mit vier GPUs, und es lässt sich reproduzieren. -> also eher unwarscheinlich.
Und zum glücklichen Händchen, dann wäre es nur bei NV SLI Gespannen unglücklich. -> also auch eher unwarscheinlich.

Neja wie gesagt, man arrangiert sich damit. Ist zwar unschön, aber was solls ;)
 
Der Threaderöffner schreibt:

> Lediglich Crysis 2 mit HD Texturen und alles auf Max hat gute 2,9 GB gebraucht bei 5760x1080 mit 3D Vision Surround bei einem SLI mit 2 GTX 580.


Ist es nicht so, dass bei solchen Settings so oder so keine spielbaren Frames möglich sind, sprich mit 3 oder 4 GB hat man dann zwar mehr Frames als mit 1,5 oder 2 GB, aber es bewegt sich bei so extremen Settings doch sicher ohnehin nicht in einem spielbaren Bereich?

Mit wie viel FPS läuft das denn bei erwähnten Settings mit 2 GTX 580 ?
 
Hy,

Also ich hatte mit 3d dennoch 28-35 fps je nach situation.
 
In welcher Auflösung, bei welchen Settings?
3D bezieht sich ja fast immer auf einen Monitor, wahrscheinlich 1920*1080. Das wären schonmal ein drittel weniger Auflösung als hier beschrieben, und was sind Deine übrigen Settings? Auch die HD Texturen und alles auf Max?
 
Also 5760 x 1080 alles max inkl. Hd texturen und 3d vision.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh