NVIDIA GeForce GTX 690 in der Redaktion eingetroffen

Status
Für weitere Antworten geschlossen.
die karten sind auch NICHT für euch gemacht.
also kauft eine radeon 7970 mit 6gb ram und stfu

quad sli und 70 texturmods, aber dann die dreißtigkeit besitzen sich über den ram einer Graka für den "massenmarkt" beschweren.
absolut anmaßend und lächerlich

Wir sind hier in einem Diskussionsforum. Jeder hat die "Dreistigkeit" seine Meinung hier kund zu tun, sofern sie nicht gegen die Forenregeln verstößt. Also mal den Ball flach halten.
Und TheRaven666 nutzt für seinen Einsatzzweck (Multimonitoring mit HD Texturen) bereits eine GTX 680 4 GB, deinen Seitenhieb kannst du dir also auch sparen. Er hätte sich vermutlich einfach eine platzsparendere SLI Lösung in Form einer Dual GPU Karte mit 4 GB VRAM gewünscht.
Daran finde ich nichts verwerfliches. Fakt ist, die Karte hat 2 GB VRAM und wird bis auf wenige Mod-Projekte jeden Gamer, ob ein oder drei Monitore, mit hübschen Pixelhaufen ohne VRAM-Nachladeruckler versorgen.

Enthusiasten greifen dann eben zu zwei GTX 680 4 GB als Custom Modelle oder warten auf die nächsten Veröffentlichungen (oder eben zum AMD Pendant in Form der 7970 mit 3 GB).


Irgendwie geht gar nichts vorran. Auf der einen Seite sitzen die Konsolen, auf der anderen die Grafikkarten die standardmäßig gar nicht so viel VRAM anbieten. Aber das standard-niveau pendelt sich bei den meisten Zockern langsam bei 1-2GB VRAM ein. Nur AMD zieht die Spieler langsam mal in die 3GB Region. Ich jedenfalls begrüße es. Auch wenn es für die heutigen Verhältnisse für die meisten Spieler toter Speicher ist.

Das ist nicht richtig. Der standardmäßig verbaute VRAM nimmt stetig zu. Wo vor einigen Jahren noch 320 bzw. 512 MB üblich waren, sind wir heute eigentlich bei immer mindestens 1 GB VRAM. Nvidia setzt nun bei der neueren Generation wohl auf 2 GB statt 1.25 GB und AMD auf 3 GB statt 2 GB.
Wir entwickeln uns hier also sehr deutlich weiter, nur für einige Wenige scheinbar nicht schnell genug. :wink:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja, 3x 1920x1080 sind geplant.

Da bin ich mal gespannt ob der "Vram Krüppel" da Schwächen zeigt:)

Außer in Russen Metro

Ein Bisschen SGSSAA 4/8Samples in gängiger Full HD Auflösung oder DS,wäre mit dem Monster zwar auch schön aber das sprengt sicher den Testrahmen und dein Wochenende mit:fresse:
 
Wir sind hier in einem Diskussionsforum. Jeder hat die "Dreistigkeit" seine Meinung hier kund zu tun, sofern sie nicht gegen die Forenregeln verstößt. Also mal den Ball flach halten

es kommt wohl immer darauf an, wie man seine meinung kund tut, oder?
ich bin der meinung, dass er ein intelligenzkrüppel ist. natürlich nicht einfach so (wo kämen wir da hin), sondern begründet aufgrund seiner aussagen.





ohh whait....
ich denke das widerum verstößt jetzt gegen die forenregeln und ich darf die meinung nicht haben.
right?
 
Jeder darf eine Meinung haben, aber nicht immer darf man diese auch kundtun, etwa wenn Andere damit in Mitleidenschaft gezogen werden. Also editiere deinen Beitrag. Danke für deine Mitarbeit.
 
Die Binärzahl auf der Holzkiste ergibt genau 690 :)

0b = Binärsystem
1010110010 = 690

BT-7080??
Und
G08-H86-A000???
 
Zuletzt bearbeitet:
REDFROG und cerubis haben genau das erkannt worum es mir ging - vermutlich habe ich mich einfach nicht klar genug ausgedrückt, von daher nochmal ein Dank an die beiden für die Richtigstellung. Mir ging es mit dem Wort "Speicherkrüppel" nicht darum die Karte mies zu machen, um Gottes Willen.

Selbst auch wenn es nur eine Handvoll von Spielen sind in denen ich das so extrem überhaupt betreiben kann, warum denn auch nicht? Es gibt Leute die kaufen sich neue CPUs weil sie dafür in Battlefield 3 ca. 5% mehr MinFPS haben. :)

Wenn sich die Boardpartner dazu durchringen können eine solche Karte mit 2x4GB VRAM rauszubringen und sich bewahrheitet, dass auch die MicroRuckler-Problematik weitere Verbesserungen erfahren hat: Wo muss ich unterschreiben?
 
Zuletzt bearbeitet:
REDFROG und cerubis haben genau das erkannt worum es mir ging - vermutlich habe ich mich einfach nicht klar genug ausgedrückt, von daher nochmal ein Dank an die beiden für die Richtigstellung. Mir ging es mit dem Wort "Speicherkrüppel" nicht darum die Karte mies zu machen, um Gottes Willen.

Selbst auch wenn es nur eine Handvoll von Spielen sind in denen ich das so extrem überhaupt betreiben kann, warum denn auch nicht? Es gibt Leute die kaufen sich neue CPUs weil sie dafür in Battlefield 3 ca. 5% mehr MinFPS haben. :)

Durchlesen und einfach mal auf sich einwirken lassen ist vielleicht besser als jedes mal gegen die "Vram Torschlusspanik" anzureden


Nvidia GeForce GTX 680 SLI vs. Radeon HD 7970 CrossFireX - Review @ HardOPC.com

Performance Fazit:

Die größte Frage in Bezug auf Performance und Gameplay-Erlebnis zu GeForce GTX 680 SLI war, ob bei Nvidia die 2GB VRAM pro GPU und weniger Speicherbandbreite im Vergleich zur Radeon HD 7970 ein Hindernis sein werden.
Unsere Tests beantworten die Frage eindeutig. In der Tat, in jedem Spiel, das wir getestet haben, bot GTX 680 SLI ein besseres Gameplay-Erlebnis im Vergleich zu Radeon HD 7970 CrossFireX. Wir haben uns speziell auf NV Surround und Eyefinity bei der maximalen Auflösung von 5760x1200 bei unserer Konfiguration getestet, um zu sehen, ob sich irgendwelche Engpässe ergeben werden. Wir finden, dass die neue Nvidia GeForce GTX 680 SLI die Leistung hat, wo es wirklich zählt.

In Mass Effect 3, die GeForce GTX 680 SLI erlaubten den höchsten Gameplay-Erlebnis möglich bei 5760x1200 und schneller durchgeführt als bei Radeon HD 7970 CFX. In Batman sahen wir eine der extremeren Fälle, in denen die GeForce GTX 680 SLI jener der Radeon HD 7970 CFX überlegen war. Wir konnten bei 5760x1200 mit hohen Tessellation und 4xAA oder hohen Tessellation und FXAA mit normaler PhysX spielen. Mit Radeon HD 7970 CFX mussten wir Tessellation vollständig zu deaktivieren, und selbst dann war 4x MSAA nie eine spielbare Option.

Battlefield 3 war ein weiteres Beispiel, wo die GeForce GTX 680 SLI bot eine bessere Erfahrung in dem Multiplayer
Teil des Spiels. Mit durchschnittlich 60-70 FPS bei 5760x1200 mit FXAA und Ultra In-Game-Einstellungen mit HBAO eingeschaltet. Das heißt, die höchste In-Game-Einstellungen wurden gedreht, und die durchschnittliche Framerate war sehr hoch. Wir sahen nie die minimale Framerate unter 50 FPS. Die Radeon HD 7970 CrossFireX auf der anderen Seite musste haben Ambient Occlusion abgelehnt zu SSAO, mit Bewegungsunschärfe deaktiviert und erst dann war es meistens akzeptabel. In einigen Fällen können Sie sogar feststellen, das Ausschalten von Ambient Occlusion bietet die bestmögliche Leistung.

In Skyrim haben wir auch erlebt eine höhere Antialiasing möglich mit GeForce GTX 680 SLI. Zu unserer Überraschung konnten wir auf 8X MSAA + FXAA + 4X Transparency Supersampling bei 5760x1600 einstellen und immer noch über 60 FPS im Durchschnitt bekommen. Mit Radeon HD 7970 CFX konnten wir mit 8x MSAA + FXAA spielen, aber wir konnten nicht ermöglichen AMDs adaptives Supersampling. In Deus Ex sahen wir wieder starke Leistung von GTX 680 SLI und übertraf Radeon HD 7970 CFX, besonders in den Tessellation Szenen.

Speicher-Kapazität und Bandbreite

Wir wissen genau was ihr denkt. Die Radeon HD7970 (384Bit) verfügt über 3GB VRAM, die GeForce GTX680 (256Bit) bietet 2GB VRAM, die Radeon HD 7970 hat 264GB/sec in der Speicherbandbreite während die GeForce GTX 680 über 192GB/sec in der Speicherbandbreite verfügt. Sie würden erwarten, dass die Radeon HD 7970 CrossFireX einfach die GeForce GTX 680 SLI unter 5760x1200 aus dem Wasser blasen würden. Die einfache Tatsache ist, das können sie nicht, und in der Tat bieten die GeForce GTX 680 SLI eine bessere Spielerfahrung mit einer besseren GesamtLeistung. Erstaunlich aber wahr. Offensichtlich müssen AMD's Treiber Ingenieure erst noch herausfinden, wie sie ihre Hardware effizienter nutzen können, denn im Moment schickt NVIDIA wieder AMD zurück in die Schule.

Es gibt ein interessantes Spiel auf jetzt suchen Grafikkarte Speichernutzung, und das ist Battlefield 3 Multiplayer. Es gibt einen großen Unterschied zwischen dem VRAM Einsatz in Einzel- und Mehrspieler Modus. Wenn wir dieses Spiel aufgedreht in einem 64-Spieler-Server auf dem höchsten In-Game-Einstellungen sahen wir sie bekommen in der Nähe zu 5 GB VRAM-Auslastung auf Radeon HD 7970 bei 4x AA bei 5760x1200. Dieses Spiel scheint durchaus in der Lage Maximierung VRAM-Auslastung auf Grafikkarten im Multiplayer in Surround NV oder Eyefinity Auflösungen. Es macht uns wirklich ausprobieren wollen, 4GB, oder höher Grafikkarten. Ein paar 4GB GTX 680 Grafikkarten werden suchen echte interessant für uns gerade jetzt in diesem Spiel, und von dem, was Gerüchte wir gehört haben, ist sehr wahrscheinlich, Galaxy, damit dies geschieht für uns.

SLI vs CrossFireX "smoothness" (Spielbarkeit)

Wir wissen nicht, welches andere besser beschreibende Wort zu benutzen als "Spielbarkeit", um den so gefühlen Unterschied zwischen SLI und CrossFireX den wir empfinden, wenn wir Games spielen zu beschreiben. Wir haben diesen Unterschied im Gameplay-Gefühl zwischen SLI und CrossFireX schon in der Vergangenheit zum Ausdruck gebracht, in anderen Auswertungen, und wir müssen ihn wieder hoch bringen, weil es doch sehr offensichtlich war während unseres Tests von 680 SLI im Vergleich zu 7970 CFX.

Wir können Euch "Spielbarkeit" nicht gut nur mit Roh-Frameraten und Grafiken beschreiben. Die Spielbarkeit, die Frame-Übergang, und Spiel Reaktionsfähigkeit ist eine Erfahrung, die Ihnen mitgeteilt wird, während Sie spielen. Vielleicht hat es mehr zu tun mit "FrameZeiten" als mit reinen "FrameRaten." Für uns scheint es, dass SLI "viel besser spielbar" auch auf niedrigere Frameraten ist, als CrossFireX. Zum Beispiel, wo wir vielleicht ein Spiel spielbar bei 40 FPS im Durchschnitt mit SLI zu finden, empfanden wir jene 40 FPS unter CrossFireX getestet, nicht so spielbar anfühlen und wir müssen eine höhere durchschnittliche Framerate erzielen, vielleicht 50 FPS, vielleicht 60 fps für CrossFireX, wie Framerate SLI von sich 40 FPS von NVIDIA anfühlen. Nur der realen Welt die Hände auf das Gameplay kann Ihnen dies zeigen, obwohl wir es nur in Worte Ihnen kommunizieren können. Obwohl es sich um eine sehr subjektive Erfahrungsempfinden bei der Überprüfung von GPUs gibt, ist es eineso, dass wir mit Ihnen dies sicherlich besprechen müssen.

Das Ergebnis, dass sich SLI in der realen Gameplay Welt "spielbarer und flüssiger" als CrossFireX anfühlt, konnten wir mit SLI mit niedriger FPS erreichen, während mit CFX wir ein wenig höher FPS brauchen, dass es sich für Sie als "spielbar" als Ziel angefühlt haben. Wir wissen, dass irgendeine Art von SLI-Treiber-Algorithmus, um spielbare SLI Frameraten helfen führt, und dies könnte sein, warum es so viel besser anfühlt. Was auch immer der Grund für uns, fühlt sich SLI spielbarer an als CrossFireX.

Persönlich gesprochen hier, wenn ich zwischen GeForce GTX 680 SLI und Radeon HD 7970 CrossFireX spielte, fühlte ich GTX 680 SLI lieferte die bessere Erfahrung in jedem einzelnen Spiel. Ich will eine mutige und persönliche Aussage, ich würde es vorziehen, Spiele auf GTX 680 SLI spielen, als mit Radeon HD 7970 CrossFireX nach dem Testen und Verwendung der beiden. Für mich GTX 680 SLI bietet einfach eine flüssigeres Gameplay Erfahrung. Wenn ich eine neue Maschine mit Multi-Card im Hinterkopf aufbauen müsste, würde ich SLI in meinem Rechner anstatt CrossFireX verwenden. In der Tat, würde ich wahrscheinlich für die besonderen Galaxy 680 4GB-Karten aussuchen. Nach dem Gaming auf beiden Plattformen, bot GTX 680 SLI mir bessere Performance bei 5760x1200 im Vergleich zu 7970 CFX. Dies gilt nicht nur für Single-GPU-Grafikkarten sondern auch zwischen SLI und CrossFireX.

Unterm Strich - AblschussFazit

Es läuft alles auf die Preisgestaltung und Leistung, und Sie werden, dass sowohl auf Preis und Leistung GeForce GTX 680 SLI gewinnt zu finden. GeForce GTX 680 UVP liegt bei $ 499 und die Radeon HD 7970 ist 549 $. Wenn Sie zwei dieser Grafikkarten werfen in den Mix der Unterschied kommt zu 100 $. Zwei GeForce GTX 680 Karten kostet $ 1000 und zwei Radeon HD 7970-Karten kostet $ 1100. Wenn Sie so viel Geld auf einem Grafik-Lösung, die Sie wollen, dass jeder Dollar zu zählen, und diese Dollars, wo möglich zu retten.

In jedem Spiel, das wir getestet haben waren die GTX 680 SLI schneller, und haben bessere Gameplay-Optionen zur Verfügung gestellt, die die Radeon HD 7970 CFX nicht bieten konnten. Es gab überhaupt kein VRam Engpass mit GTX 680 SLI bei 5760x1200. In der Tat, in BF3 Multiplayer wurde die bessere Performance von GTX 680 SLI zur Verfügung gestellt , höhere In-Game Einstellungen und eine spielbarere Erfahrung, und dies in einem sehr sensiblem Speicherfresser Spiel. Wenn wir auf die Energieausnutzung schauen, waren die GeForce GTX 680 SLI effizienter in jedem einzelnen Spiel, mit weniger Stromverbrauch, aber höherer uns erbrachter Spieleleistung.

Mit GeForce GTX 680 SLI zahlen Sie mit weniger Geld für eine effizientere Lösung, immer mehr Leistung, überlegenes Gameplay-Erlebnis und ein flüssigeres "smoother" Gaming, als Sie es mit AMD Radeon HD 7970 CrossFireX fühlen.
 

Nochmal: Es geht mir nicht um Spiele im Auslieferungszustand mit ihren lustigen 0.5k Texturen, sondern um extremes Spielemodding welches ich mit Herzenslust betreibe wie andere Enthusiasten ihre CPU's mit LN2 quälen.

- Crysis 2 mit Maldo HD Textures
- Skyrim mit 70 Texturmods
- GTA 4 mit ICEhancer, SSAA und HD Texturen

Dafür reichen mir die 2 GB VRAM einfach nicht für ein optisches Genusserlebnis auf Enthusiast-Level. Was auch immer du mit dem HardOCP-Review beweisen willst, es geht vollkommen an meinem Szenario vorbei, in welchem mit 2 GB VRAM ausgestattete Karten einfach nicht ausreichen. Punkt.
 
Und ich hab dir für Skyrim schonmal gesagt das du da was vom Pferd erzählst,wenn du mit dem Texturepack nicht zurechtkommen willst

Für Crysis gilt denke ich das selbe,denn Cryteks Engine lädt auch kontinuierlich Texturen raus u rein

Bleibt also nur noch der verbuggte resourcenschlucker GTA4

Ist reichlich viel für was es sich lohnt auf 4GB zu setzen

Ps:Metro könntest du wohl noch als zweites gewichtetes Spiel in der "mannigfaltigen"Reihe mit aufnehmen
 
Zuletzt bearbeitet:
Und ich hab dir für Skyrim schonmal gesagt das du da was vom Pferd erzählst,wenn du mit dem Texturepack nicht zurechtkommen willst

Für Crysis gilt denke ich das selbe

Bleibt also nur noch der verbugte Resourcenschlucker GTA4

DEM Texturepack? Ich spreche nicht vom offiziellen Texturepack mit seinen 1k/2k Texturen. Ich spreche von etwa alleine 60 Texturmods mit 4k/8k Texturen die mich alleine in gepackter Form schon 4 GB Storage-Speicher kosten. Dazu Engine-Tweaks mit 11 zu ladenen uGrids anstatt den standardmäßigen 5 uGrids.

Letztlich finde ich die Diskussion mit dir langsam gelinde gesagt ermüdend, da du mir zu viel am heißen Brei vorbeiredest. Von daher sieh die Diskussion bitte als beendet an, ich werde nicht mehr weiter auf dich eingehen.

// Nachtrag: Von "mannigfaltig" hat doch niemand gesprochen! Zum letzten Mal: Ich spiele einige ausgewählte Bonbons mit extremsten Modifikationen im Bezug auf Texturen und was die Engines so hergeben, weil ich die Art von Eye Candy einfach entzückend finde. Mich interessieren keine Bencharks oder Reviews im Bezug auf Spiele im Auslieferungszustand, sondern was eine Karte bei visuell stark angepassten bzw. modifizierten Spielen zu leisten im Stande ist. Dafür reichen die 2 GB nicht aus - weder auf der HD 6970 von Sapphire, noch auf der GTX 680 von EVGA. Meinst du ich habe mir die Palit Jetstream 4 GB aus Jux und Dollerei gekauft und die EVGA wieder abgestoßen?
 
Zuletzt bearbeitet:
DEM Texturepack? Ich spreche nicht vom offiziellen Texturepack mit seinen 1k/2k Texturen. Ich spreche von etwa alleine 60 Texturmods mit 4k/8k Texturen die mich alleine in gepackter Form schon 4 GB Storage-Speicher kosten.
.

Überliest anscheinend gerne Dinge die nicht in das Texturpackweltbild passen darum hier nochmal das Fazit zu Skyrim

Ich hab ne Vram Auslastung (mit SGSSAA und Texturmods im Umfang von 3,8GB)von 1,87 Gb +\- ein paar Mb je nach Szene und die bleiben auch über einen längeren Spielverlauf relativ konstant

Deine. restlichen zusätzlichen 200Mb soweit das überhaupt Relevanz hat,können das System dann wohl nicht vor unlösbare Aufgaben gestellt haben

Aber hast recht ist ermüdend so ne Quark zu kommentieren
 
Zuletzt bearbeitet:

Jup, mit uGridsToLoad=5 und Standard-Sichtweite kam ich auch auf knapp unter 2 GB und alles lief fein. Mit uGridsToLoad=11 und gemax'ter Sichtweite ließ sich ein Savgame unter 6 GB RAM und 4 GB VRAM nichtmal mehr laden, mittlerweile habe ich sogar auf uGridsToLoad=13 aufgestockt - und jetzt ab auf dein Pferd.

Deinem Verwendungszweck reichen 2 GB VRAM, meinem eben nicht. Deal with it. :)
 
Zuletzt bearbeitet:
Jup, mit uGridsToLoad=5 und Standard-Sichtweite kam ich auch auf knapp unter 2 GB und alles lief fein. .

Danke das reicht schon

Sind es also letzten Endes deine größenwahnsinnigen Einstellungen die das "Problem" hervorrufen

Dann legen wir doch auf die 8K Texturen noch ein 16faches Sample Sparse Grid SSAA drauf

Ich würde mich schonmal nach ner 10Gb Karte Ausschau halten denn deine 4GB ist der absolute Vram Krüppel

Du siehst also Pauschalaussagen wie "der Karte mangelt es an Vram" sind letzen Endes auch für deine Karte möglich,wenn man es drauf anlegt

Fazit ist aber unter normalen u selbst Enthusiastenbedingungen tut die 2GB Karte genau das wofür sie gebaut ist
 
geiles stück hardware aber für 1000€ bekomme ich die nächsten 10 jahre 2 konsolengenerationen. der vergleich hinkt zwar aber irgendwie finde ich die preis und nutzzeitrelation bei pc karten langsam etwas gagga. eine 6990 oder 590 war vor 1 jahr auch geil aber nach 1 jahr sind die teile ja schon out. hätte gedacht das die die karte so mit 750 € aufschlägt
 
Zuletzt bearbeitet:
@Scully
Ich frag mich gerade wie Raven mit seinen "vollen" 4GB überhaupt noch spielbare FPS erzielt?
Bevor die 4GB voll sind, nippelt doch die GPU vor Leistungsschwäche ab^^
Zumindest ist das bei mir so und da sind nur rund 1,6GB V-Ram belegt...
 
Ich fang dann mal an.
 
Na dann lass es mal krachen.
Hoffentlich verwendest Settings und Auflösungen welche die Karte dann auch ausreizen können.
1920x1080 ist sicherlich zu schwach für diese Karte, auch mit SSAA.

Mindestens 2560x1600 INKL. SSAA oder Multi Monitor Settings, das wäre genial zum testen!
 
uvp 999$=eu 999€?

999$=750€ wäre schon was für "2x680".mal schauen wie es wird...
 
Da der US-Preis schon bekannt ist: Hierzulande gibt NVIDIA eine unverbindliche Preisempfehlung von 829 Euro zuzüglich MwSt. an. Man kann also von knapp unter 1000 Euro ausgehen.
 
Scully und Raven.

Es sind immer wieder sie selben nicht zielführenden Diskussionen. Das Schöne in der IT Welt ist doch, dass man hier mit einfachen Benches und Zahlen ganz klar seine Argumente untermauern kann. Da braucht keiner in das "ist so weil..." verfallen.

Einfach die Gameconfig, VRAM usage und FPS auf den Schirm bringen, nen Screenshot machen und hier posten, dann kann sich jeder von nakten Zahlen überzeugen lassen oder eben sehen, ey, passt doch nicht.

Don wird ja nun auch nicht in den Tests schreiben "ist schneller als, weil..." sondern er wird es, wie es in den Redaktionen dieser Welt üblich ist, entsprechende Zahlen auf den Bildschirm zaubern, dann kann jeder die nakte Wahrheit selbst sehen.

Weniger Gesabbelm, mehr Zahlen, dann kann man das sogar @home validieren. Dann endet so eine Diskussion auch nicht mit solchen Szenen.
Nur mal so als Anregung.
 
@don,schade wenn sie so kommt.das ist aber echt langsam nicht mehr feierlich,was die hersteller sich für preise vorstellen...
 
Eine GeForce GTX 690 soll kein Preis/Leistungs-Sieger werden. Wo lande ich im günstigen Fall mit einer GeForce GTX 680? 475 Euro? Da wäre ich mal zwei genommen ja schon bei 950 Euro.
 
hoffe das man der Karte im gegensatz zur GTX680 auch mehr spannung geben kann... ne GTX690@ Wakü und 1300-1400mhz GPU wäre schon extreeeem... Wenn das so kommen würde, würde ich sogar die 1000Euro blechen:love:
 
ist schon richtig,nur die 680 ist schon zu teuer u. wann hatten wir 999€ das erstmal für ne dualgpu? das sind sicherlich nicht nur performancemäßig neue regionen...
 
Zuletzt bearbeitet:
Standard-Benchmarks beendet, jetzt wird erst einmal der Grill angemacht ;)
 
Ich bin schon etwas raus aus der Materie, aber ich vermute sehr stark, du kannst doch auf den Grill verzichten und dein Fleisch direkt auf der Karte zubereiten. :)
 
grillwertung der karte 4-5,weil sie nicht genug einheizt.

grilllamellen note 1=feinrip

:fresse:
 
Zuletzt bearbeitet:
Ich bin schon etwas raus aus der Materie, aber ich vermute sehr stark, du kannst doch auf den Grill verzichten und dein Fleisch direkt auf der Karte zubereiten. :)

Ich schätze nicht das die GTX690 so übermässig heizt.... Denke die 590 hat da shcon ganz andere Massstäbe gesetzt:fresse: Aber das wissen wir denke ich erst am 03.05:heul:
 
Scully und Raven.

Es sind immer wieder sie selben nicht zielführenden Diskussionen. Das Schöne in der IT Welt ist doch, dass man hier mit einfachen Benches und Zahlen ganz klar seine Argumente untermauern kann. Da braucht keiner in das "ist so weil..." verfallen.

Einfach die Gameconfig, VRAM usage und FPS auf den Schirm bringen, nen Screenshot machen und hier posten, dann kann sich jeder von nakten Zahlen überzeugen lassen oder eben sehen, ey, passt doch nicht.

Don wird ja nun auch nicht in den Tests schreiben "ist schneller als, weil..." sondern er wird es, wie es in den Redaktionen dieser Welt üblich ist, entsprechende Zahlen auf den Bildschirm zaubern, dann kann jeder die nakte Wahrheit selbst sehen.

Das stimmt ja auch alles nur wenn jemand in den Thread kommt und einen Post verfasst mit pauschal"ich denke die Karte wird der klassische "Vram Krüppel" nachzulesen hier



muss jeder Nob der hier zufällig mitließt,zur Erläuchtung kommen,oh ich brauche dringend die 4GB Version und das ist schlicht und ergreifend unter normalen Nutzerverhalten totaler Unsinn!

Letzten Endes waren es ja auch seine "überdrehten" Konfigurationssetups die die Karte haben einbrechen lassen, wie man oben ja sehr gut erkennen konnte an den Ausführungen

Ich hatte CB angeführt,ich hatte Hard OCP angeführt und meine eigene Messung bezüglich Skyrim hier aufgezeigt das sollte als Beleg genügen!

Und ich bin mir sicher Andreas wird hier mit der triple Display Konfiguration zum selben Fazit kommen, wie die anderen Testredaktionen

@Scully
Ich frag mich gerade wie Raven mit seinen "vollen" 4GB überhaupt noch spielbare FPS erzielt?
Bevor die 4GB voll sind, nippelt doch die GPU vor Leistungsschwäche ab^^
Zumindest ist das bei mir so und da sind nur rund 1,6GB V-Ram belegt...

Jupp das ist die nächste Situation,die Games werden aufgrund von der reinen Gameengine(Physik,Tesselation,3D ec pp) schon so fordernd genug,ohne das ich den Vram überhaupt nur angetastet habe,das selbst solch eine Dualkarte gut zu tun hat
 
Zuletzt bearbeitet:
herzallerliebster Don:

wie sieht es aus mit Lärm und µRuckler?

mehr Info nicht benötigt

dein dich ewig liebender HwLuxx-User :d
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh