[Sammelthread] NVIDIA GeForce GTX 690 + FAQ (Dual GK104) - bei Fragen erste Seite lesen

NVIDIA GeForce GTX 690 + FAQ (Dual GK104) -Sammelthread


Impressionen der Karte:

gtx690-081-950x633tfanw.jpg
gtx690-091-950x633f2zbl.jpg


gtx690-131-950x633niln8.jpg
gtx690-181-950x633qnx5f.jpg


gtx690-211-950x633ouzr8.jpg
gtx690-271-950x633uwxg2.jpg



Technische Daten der GeForce GTX 690


  • Chip = Dual GK104
  • Fertigung = 28 nm (TSMC)
  • Transistoren = 2x 3,54 Milliarden
  • Die-Größe = 2x 294 mm²
  • Chiptakt = 915 MHz + Boost (1019 MHz)
  • Shadertakt = Chiptakt (915 MHz + Boost (1019 MHz))
  • Speichertakt = 1502 MHz
  • Speichergröße = 2x 2048 MB
  • Speichertyp = GDDR5 (Samsung)
  • Speicherinterface = 2x 256 Bit
  • Speicherbandbreite = 192,2 GB/Sek.
  • Shader Model = 5.1
  • DirectX = 11.1
  • Shader-Einheiten = 2x 1536 (1D)
  • Texture Mapping Units (TMUs) = 2x 128
  • Raster Operations (ROPs) = 2x 32
  • Rechenleistung Single Precision (SP) (MADD) = 2x 2,811 GFLOPs
  • Pixelfüllrate = 2x 29,280 MPix/s
  • Texelfüllrate = 2x 117,120 MTex/s
  • Leistungsaufnahme 3D (TDP) = 300 Watt
  • Leistungsaufnahme 2D = 15 Watt
  • Versorgung über zwei 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 3 x DVI (Dual-Link), 1 x mini-DisplayPort 1.2
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu vier Monitore gleichzeitig ansteuern, im 3D Modus maximal drei.
  • Hinweis: Je nach Taktraten können Rechenleistung SP und DP, Pixelfüllrate und Texelfüllrate sowie Stromverbrauch abweichen
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Reviews zur Karte:
Einzelkartentests - Non-Referenz-Design:
  • deutsch:
  • - im Moment keine
  • englisch:
  • - im Moment keine
Multi-GPU-Tests - Quad SLI:
  • deutsch:
  • - im Moment keine
  • englisch:
  • - im Moment keine


Geizhals Links:


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier

Aktuelle finale Treiber
Windows XP x86/x64, Windows Vista x86/x64 und Windows 7 x86/x64:
klick mich


Tools:
Grafikkarten Analyse Tool Gpu-Z hier

RivaTuner zum OC der Graka hier

AtiTool zum OC der Graka hier

MSI Afterburner hier

FurMark VGA Stress Test hier

EVGA Precision X 3.0.1 hier

NVIDIA Inspector hier


DX11 Benchmarks / Techdemos:


FAQ (Frequently Asked Questions):

Brauche ich nun unbedingt ein Mainboard mit PCI-E 3.0?

Laut dem Test von VR-Zone bringt der PCI-E 3.0 Slot bei einer Radeon 7970 keine Leistungssteigerung.
Auch die Messungen auf Hardwareluxx mit einer GTX 690 bestätigen dieses Ergebnis. Hardwareluxx - Seite 19: Sondertests: PCI-Express 3.0
Damit kann man die Messungen anderer Reviews der aktuellen Grafikkartengeneration, ob Single oder Dual GPU 1:1, an der Stelle übernehmen und muss für eine Grafikkarte nicht extra umrüsten. Tests zur Quad-SLI Performance sind aber noch nicht verfügbar.

Zumindest mit einer GeForce GTX 690 bringt PCI-E 3.0 im besten Fall in Benches einen absolut minimalen Vorteil, spürbar ist es keines Falls. Das womöglich dadurch gesparte Geld steckt man an der Stelle lieber in mehr CPU Power oder in bessere Kühlung um dann mit OC mehr Performance raus kitzeln zu können.

pcie1.jpg
pcie3.jpg



Wie laut ist die Karte?

"Die GeForce GTX 690 profitiert offenbar von der guten Effizienz der GPUs und auch beim Lüfter scheint NVIDIA einiges richtig gemacht zu haben. Mit 35,4 dB(A) liegen wir nur etwas über der GeForce GTX 680, sind aber bereits leiser als eine Radeon HD 7970. Auch der Vergleich zum SLI-System bestehend aus zwei GeForce GTX 680 kann sich sehen lassen.
...
Das Testfeld wird unter Last etwas durcheinandergewirbelt, aber grundsätzlich ändert sich an der hervorragenden Ausgangsposition der GeForce GTX 690 nichts. Sie bewegt sich auf Niveau der Single-GPU-Karten - ein Ergebnis, das wir so nicht erwartet hätten. Gerade der Vergleich zu den Multi-GPU-Systemen, bestehend aus GeForce GTX 680 und Radeon HD 7970 sowie zu den Vorgänger-Karten GeForce GTX 590 sowie Radeon HD 6990, fällt positiv aus."

mess563j9k.jpg
mess6x9jsa.jpg



Wie hoch sind die Temperaturen der Karte?

Die Temperaturen liegen im Idle Betrieb im sehr guten Bereich für eine Dual GPU Karte (~34°C) und bewegt sich unter Last mit ~77°C sogar unter der Single GK104 GTX 680 bzw. dem SLI Gespann aus zwei dieser Karten.

mess3d0k9p.jpg
mess4y6kht.jpg



Wie hoch ist der Stromverbrauch?

Hinweis: Die Verbrauchsmessungen (Karte only) stammen von HT4U -> klick

Die GeForce GTX 690 hat Dual GPU typisch mit einem höheren Idle-Stromverbrauch von ~25 Watt zu kämpfen. Die Konkurenz in Form der Top Single GPU Karten aktuell am Markt "schlucken" da ca. 10W weniger. AMDs GPUs dank Zero Core Technologie im abgeschalteten Zustand sogar unter 5W. Unter Spielelast nimmt die Karte (HT4U-Testmuster) mit Referenztaktraten ~ 290 Watt auf - in Furmark sind es ~325 Watt. Bemerkenswert sind die Lastverbrauchswerte im Vergleich zu den Dual GPU Karten der vergangenen Generation. Diese sprengten teilweise sogar die 400W Marke, wohingegen man die GTX 690 schon mit Furmark quälen muss, damit die 300W fallen.

Hier die Messungen (gesamtes System) von Hardwareluxx:

mess1bwjvj.jpg
mess2e4k19.jpg


Wichtiger Hinweis: Die Verbrauchsmessungen sind immer von den eingesetzten Komponenten, etwa dem Netzteil, abhängig und somit eher als Anhaltspunkt zu sehen!


Passt die Karte in mein Gehäuse?

Das PCB der NVIDIA GeForce GTX 690 misst in der Länge 28 cm.


Wie gut läßt sich die Karte übertakten?

Wie auch die Single GK104 Karte GTX 680 lässt sich bei der Dual GK104 GTX 690 der Takt von Speicher und GPU/Shader nicht mehr direkt absolut einstellen. Man arbeitet stattdessen über einen "Offset" zur Basistaktrate. Oben drauf gewährt NVIDIA dem Nutzer noch einen Turbo-Mode, welcher dem OC Ergebnissen mal mehr, mal weniger im Weg steht.
Der Höhe der Turbotaktrate wird vollständig durch die Hardware geregelt. Es halten aber Messwerte wie Temperatur und anliegende Last in der Ermittlung der Höhe mit Einzug. So schankt die Taktrate der GPUs um ganz paar MHz während der Anwendung.
Im Hardwareluxx Test ließ sich für die GPU ein Offset von 106MHz und für den Speicher ein Offset von 104MHz erreichen. Bei optimalen Turbobedingungen erreichen die GPUs damit Taktraten von ~1176MHz.
Die Spannung gibt NVIDIA mit 1,175V als Maximum an. Diese Spannung liegt bei optimalen Turbobedingungen ebenso an den GPUs an. Ein weiteres steigern der Spannung ist hingegen kontraproduktiv, obwohl manche Tools Veränderungen an der vGPU Spannung zulassen. (auch nach oben hin)

Overclocking im Test


Die Performance:

Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr im Hardwareluxx Artikel zur GeForce GTX 690!

Synthetische Benchmarks
3dmark2.jpg
3dmark3.jpg


3dmark1.jpg
luxmark.jpg


Game Benchmarks

bf4.jpg
bf6.jpg


skyrim4.jpg
skyrim6.jpg


cod2.jpg
cod3.jpg


SSAA Benchmarks

ssaa1.jpg
ssaa2.jpg


ssaa3.jpg



Andere Kühllösungen

aktuell noch keine am Markt (05.05.2012)


Erhältliche WaKü-Blocks für die GeForce GTX 690:

Koolance: VID-NX690 (GeForce GTX 690)


Allgemeine Hinweise

Dies ist ein Sammelthread für die Geforce GTX 690. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten (GTX 6x0 und Radeon HD 7xx0 uvm.) angemessen.

Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes gegen die Forenregeln den „Beitrag-melden“ - Button (http://www.abload.de/img/beitragmeldenz3p9c.png) zu benutzen!
Solche oder nicht themenbezogene Beiträge werden dann entfernt. Ggfls. können mehrmalig auffällige User auch aus dem Thread ausgeschlossen werden.

Gruß
Die Moderation des Grafikkarten-Unterforums
 
Zuletzt bearbeitet:
Weil wenn min fps da sind in dem moment auch die Gpu load niedrig ist und es in dem moment ein cpu limit ist Tobi und gerade da ist ärgerlich average Fps sind ja sehr gut bei der Karte nur min kannst du leider nicht voll nutzen da die cpu kapituliert und die graka sich langweilt.

ich hab zu bf3 grad nur ziemlich alte frapslogs, aber da ist nicht eine runde bei, die schlechte minframes hatte.

----------------------------------- BACK TO KARKAND ----------------------------
2012-09-13 00:55:05 - bf3
Frames: 54066 - Time: 490561ms - Avg: 110.213 - Min: 55 - Max: 195

2012-09-13 01:04:33 - bf3
Frames: 45546 - Time: 438425ms - Avg: 103.885 - Min: 57 - Max: 201

2012-09-13 01:14:29 - bf3
Frames: 48793 - Time: 438285ms - Avg: 111.327 - Min: 58 - Max: 200

2012-09-13 10:15:34 - bf3
Frames: 49864 - Time: 462340ms - Avg: 107.851 - Min: 51 - Max: 194


----------------------------------- KASPISCHE GRENZE ----------------------------
2012-09-13 12:30:12 - bf3
Frames: 47951 - Time: 384152ms - Avg: 124.823 - Min: 63 - Max: 201

2012-09-13 12:36:43 - bf3
Frames: 21659 - Time: 184628ms - Avg: 117.312 - Min: 71 - Max: 166


das läuft sowas von "normal sauber", dass ich noch nicht einmal über auslastung nachdenken musste.

edit:
wer da meckert hat langeweile.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Min FPS 55 sind der Cpu geschuldet ich merke diese krassen droop downs .
Du hast recht das die Karte nicht 100% Load muss.
100% zu mindest sollte man aber unter min fps haben max fps ist völlig egal .
Bei Average FPS kann man Limiter setzen.

Sonst kann man sich bei 51 FPS min ja auch fastne Single KARTE rein bauen gerade da will man ja möglichst hohe FPS in einem Multiplayer haben und nicht den Max.
Bei deinen Ergebnissen oben würde ich z.b bei 100FPS limitieren da verbrauchst dann auch weniger hast niedriger Temps usw..die 100% GPU Load sind für mich nur bis zu den Average Werten interessant alles darüber hinaus blende ich ich immer aus so vernünftig bin ich auch noch.
 
Zuletzt bearbeitet:
ich denke, dass jeder bf3-spieler weiss, dass die minframes im spawnmenu auftreten und wenn du dir die laufzeit meiner frapsmessungen anschaust, kommst du drauf, dass nur der average-wert entscheidend ist.

limiter sind für mädchen mit langsamen 60Hz-panels. bf3 teart und lagt kein stück seit GTX690 + VG278HR und braucht weder sync noch limiter; auch gibt es während des spielens keine drops in den minframebereich.

btw,
würde dieses spiel nur von leuten mit 5GHz intel-CPUs gespielt werden können, hätten wir ziemlich leere server. ihr lasst euch da zu sehr von 20 selbstdarstellern in foren beeinflussen; das verzerrt leicht die sichtweise.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
So niedrige Fps hatte ich nie im Spawnmenu.
Aber in gewissen Bereichen bei Weitsicht ging die Gpu Load schon mal bis auf 70% runter und 68 FPS auf vollen servern war der server leer hatte ich an der selben stelle dann gleich mal um die 100Fps bei 100% GPU Load.
Dieser Einbruch war so fort zu spüren auf 120 Hertz Pannel.
Ob es jetzt daran lag das es 2 HD7970er waren weis ich nicht .
Mit meinen GTX580ern hatte es sich damals auch nicht anders angefüllt.
Gut ich lasse mal das OT geht ja hier um die GTX 690.
 
im crossfire liegt die grenze zum mikroruckeln auch höher als bei NVs keplerkarten. wo du mit CF oder alten SLi immer schön über 50 minframes bleiben musst, damit es sich nicht zäh anfühlt, reicht beim kepler eine framerate von ca. 35-40fps.

btw,
CPU langweilt sich



(..)

mfg
tobi
 
Zuletzt bearbeitet:
Ihr seid ein haufen Quatschköpfe.

scully1234
shorty71
TobiWahnKenobi
MrBurnz

Ab in die Ecke !

Also meint Ihr das jimmy mit einer intel CPU ala i5 oder i7 besser bedient wäre ja ? Ich denke nicht wenn du CPU Temperatur 83°C beträgt.

hauptsache erstmal quatschen. Nichts in Frage stellen und blöd ( sorry ist nun mal so) quatschen. oh man...
 
Ihr seid ein haufen Quatschköpfe.

scully1234
shorty71
TobiWahnKenobi
MrBurnz

Ab in die Ecke !

Also meint Ihr das jimmy mit einer intel CPU ala i5 oder i7 besser bedient wäre ja ? Ich denke nicht wenn du CPU Temperatur 83°C beträgt.

hauptsache erstmal quatschen. Nichts in Frage stellen und blöd ( sorry ist nun mal so) quatschen. oh man...

und?

meiner verträgt bis zu 98°C bevor er throttelt..

unbenanntckf20.png


btw,
über 83°C "freue" ich mich regelrecht - zumindest wenn ich grad irgendwas mit 5+ GHz mache..
und nein(!) - auch für eine GTX690 sind 83°C nicht bedenklich - die läuft selbst mit über 90°C noch sauber.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
und?

meiner verträgt bis zu 98°C bevor er throttelt..

unbenanntckf20.png


btw,
über 83°C "freue" ich mich regelrecht - zumindest wenn ich grad irgendwas mit 5+ GHz mache..
und nein(!) - auch für eine GTX690 sind 83°C nicht bedenklich - die läuft selbst mit über 90°C noch sauber.


(..)

mfg
tobi


Die CPU...... :wall:

als wäre es gesund dafür. Das ändert nichts daran das seine cpu throttelt. Und dort der Fehler zu finden ist.
 
Zuletzt bearbeitet:
Nabend zusammen

Ich bin mir auch gerade am überlegen welche Grafikkarte ich mir leisten soll. Die 690 GTX hat es mir auch schon angetan aber
ich denke, da werde ich dann mit meinem System auch am CPU-Limit sein und ich eher zur 680/670 GTX greifen soll.

Mein System:

AMD Bulldozer FX-8150 (4.2 GHz Boost)
Gigabyte GA-990FXA-UD7
16 GB Corsair Vengeance DDR3-1600
Sapphire Radeon HD 6970
 
@maerub
Also bei dem Preis der GTX690 würde ich es zuerst mal mit dem vorhandenen System probieren.
Wenn es nicht reichen sollte kannst immer noch umrüsten, ich glaube aber nicht das ein wechsel notwendig wäre.
Es sei den du willst das letzte aus der GTX960 rausholen, dann würde ich aber eher richtung I7-3930K tendieren mit DDR3-1866.
Der 3820 ist wieder nur ein 4 Kerner und ohne PCIe 3.0. ;)
 
Ihr seid ein haufen Quatschköpfe.

scully1234
shorty71
TobiWahnKenobi
MrBurnz

Ab in die Ecke !

Also meint Ihr das jimmy mit einer intel CPU ala i5 oder i7 besser bedient wäre ja ? Ich denke nicht wenn du CPU Temperatur 83°C beträgt.

hauptsache erstmal quatschen. Nichts in Frage stellen und blöd ( sorry ist nun mal so) quatschen. oh man...

@Gussi: Schreib meinen Namen auch noch dabei, weil ich grade zu Faul bin die ganzen Namen aus dem Vishera-Thread hier aufzuschreiben, die nicht mal die 83° in Frage stellen ob es vllt. auch ein Auslesefehler sein könnte und btw, ihm einen FX8350 andrehen :bigok:
 
Ihr seid ein haufen Quatschköpfe.

scully1234
shorty71
TobiWahnKenobi
MrBurnz

Ab in die Ecke !

Also meint Ihr das jimmy mit einer intel CPU ala i5 oder i7 besser bedient wäre ja ? Ich denke nicht wenn du CPU Temperatur 83°C beträgt.

hauptsache erstmal quatschen. Nichts in Frage stellen und blöd ( sorry ist nun mal so) quatschen. oh man...

Was bist du denn für einer,kommst hier reingeschneit und unterstelltst anderen Ahnungslosigkeit,und das auch noch in einem Ton der sonst wie geartet ist!?!

Wenns dir nicht passt das der Bulldozer ein IPC Krüppel ist,ums mal deutlicher zu sagen,geh zurück in deine kleine Traumwelt,und glaub an was anderes,aber geh hier den Leuten nicht auf die Nüsse,die ihm aufzeigen das diese CPU die 690er im Multiplayer niemals komplett versorgen kann

Allein wie ihr den Typen drüben im Bulldozer Thread runter gemacht habt spricht Bände:hmm:

---------- Post added at 19:10 ---------- Previous post was at 18:52 ----------

@Gussi: Schreib meinen Namen auch noch dabei, weil ich grade zu Faul bin die ganzen Namen aus dem Vishera-Thread hier aufzuschreiben, die nicht mal die 83° in Frage stellen ob es vllt. auch ein Auslesefehler sein könnte und btw, ihm einen FX8350 andrehen :bigok:

Auf die paar Typen kommts doch nicht an,es ist hinlänglich bekannt,das der Multiplayer extremst an der CPU zerrt,und es diese Auslastungssituationen mit dem Bulldozer,schon mehrfach zu bestaunen gab,für spezielles Szenario:)

Nö Compuchecker egal ob Sandy Ivy oder E Zeug für die Höllen Karten bräuchte man um die 5,5GHZ + um in jedem Spiel in Full HD die Max Load durchgehend zu erzeugen

Mein 2600k@4,8Ghz konnte eine GTX690 in BF3 nicht auf 99% halten

Das ist wohl richtig selbst der Sandy E auf 4,5GHZ gebracht,schafft es nicht konstant gewisse Konfigurationen zu füttern im Multiplayer,und dieser spielt leistungtechnisch schon in einer ganz anderen Riege

alles Aussagen von Leuten die das Spiel spielen bzw gespielt haben,sind natürlich alles "Quatschköpfe"
 
Zuletzt bearbeitet:
ich denke, da werde ich dann mit meinem System auch am CPU-Limit sein

Das hängt nicht unbedingt von der Kombination von CPU+GPU ab, sondern von Deiner Software, Deinen Settings, und ganz besonders von Deinen Erwartungen.

Wenn Deine CPU in Game XYZ straff 60 FPS vsync schafft, und Du gar nicht mehr willst: Wenn interessiert es da dass Deine CPU 250 und eine Intel mit 5Ghz 500 FPS aus der Maschine Quetschen könnte? Ich nenne das immer: Unnötige Gedanken um ungelegte Eier machen.
Man bekommt seine Graka klein. IMMER. LOCKER. Das rumgeeumel um den letzten FPS kann ich echt nicht mehr sehen.
Wie hier oben die letzten Beiträge: Ich bin froh das meine Graka nicht immer 99% Leistung bringt (vsync ist an). Spart Strom.
Auf der anderen Seite bin ich froh das meine Graka die Leistung bringen kann, die sie bringt. Dann wenn es nötig ist.
Und ein CPU-Benchmark hab ich nicht nötig (auch wenn ich es doch ab und zu gerne mache), denn ich zocke in 6.5Mpx mit so viel Bildqualität wie möglich und hoffentlich noch etwas überhalb der MR-Grenze. Da interessiert die CPU kein Schwein. Den bei den allermeisten Games reicht eine "normale" CPU für 60 FPS, und bei den paar wo das nicht der Fall ist:
a) hab ich die überhaupt?
b) reicht mir das was die CPU bringt?
c) ist mir die Differenz zwischen "was bringt die CPU und was hätte ich gerne" Geld für eine neue Wert.

Beispiel: Die 690 schafft in meinen Settings in BF3 28 MIN-FPS wenns richtig zur Sache geht.
Meine CPU schafft dagegen etwa 120 FPS.
Da siehste mal wie lahm die Graka eigentlich ist.


Aber so hat halt jeder seine Ansichten und Vorlieben. Ich würde mich an Deiner Stelle erst mal hinsetzen und mir drüber klarwerden was Du eigentlich willst.
 
Zuletzt bearbeitet:
Den bei den allermeisten Games reicht eine "normale" CPU für 60 FPS, und bei den paar wo das nicht der Fall ist:
a) hab ich die überhaupt?
b) reicht mir das was die CPU bringt?
c) ist mir die Differenz zwischen "was bringt die CPU und was hätte ich gerne" Geld für eine neue Wert.

.

Mag ja sein aber in dem speziellen Fall ging es um BF3 ums genau zu nehmen um den Multiplayer

Der "Junge" war unzufrieden mit der Auslastung seiner 690

Und auf diesen speziellen Fall woillte er ne Antwort.Und jeder der die Möglichkeit hat das einzuschätzen/nachzustellen ec pp,wird unweigerlich die CPU als Übeltäter brandmarken

Daran gibts auch nichts zu deuten,das steht fest u wurde schon unzählige male nachgestellt,das die Integer Leistung zu gering ist,für dieses spezielle Szenario
 
Zuletzt bearbeitet:
hat maerub noch mehr Beiträge hier geschrieben? Ich sehe nur einen, und da steht nix von BF3, und auch nicht das er eine 690 hat? Nur auf seinen Beitrag ist meiner geziehlt, deshalb hab ich ihn auch gequotet.
 
Ach das ist ja wieder ein anderer sorry

Wenn er seine Lage nun natürlich auch auf BF3 projeziert gillt da natürlich das selbe

Aber er hat sich seine Antwort ja eigentlich schon selber gegeben


dann mit meinem System auch am CPU-Limit sein und ich eher zur 680/670 GTX greifen soll.
 
Zuletzt bearbeitet:
Ja, aber aus der Annahme heraus, dass eine 690 ohne 5,5Ghz-Intel sowieso keinen Sinn macht, was im Regelfall einfach falsch ist.
 
Ja, aber aus der Annahme heraus, dass eine 690 ohne 5,5Ghz-Intel sowieso keinen Sinn macht, was im Regelfall einfach falsch ist.

Der Regelfall ist meisten Full HD u da er ja auf die BF3 Disskusion eingestiegen ist,gehe ich auch beim ihm erstmal grundsätzlich davon aus:)

Nicht jeder fährt Auflösungen, in denen sich das ganze etwas zum Vorteil der Grafikkartenauslastung entwickelt,so wie Kollege direkt über mir:d

Hohe Frames wie es gewünscht ist bei so nem Egoshooter,bei solchen Settings,kannst du eben knicken mit nem Bulldozer

Auch wenn er jetzt bereit wäre,noch weitere 2000Euro in entsprechende Displays zu investieren,bleibt die Grundversorgung mit solch einer CPU selbst dann fraglich
 
Zuletzt bearbeitet:
Sind die Dinger echt so kacke?
Wenn maerub jetzt ausreichend FPS durch seine CPU in Games hat (wovon ich ausgehe, sonst würde er sich ja ne neue CPU kaufen wollen und keine neue Graka), dann kann man doch eigentlich nix falsch machen (außer zu heulen, wenn die Graka nicht ständig 100% läuft, was in meinen Augen halt ein bisschen ..... daneben ist^^^).

Und auch FullHD ist kein so großes Hinderniss, wenn man die BQ vor die FPS stellt. Nicht umsonst kann doch Nvidia die ganzen tollen AA-Filter-Modi, auf die man mit schwachen Grakas verzichten muss. Da rennt man doch dann eher in das VRAM-Limit der 690er. DA würde ich heulen :-)
 
Zuletzt bearbeitet:
Sind die Dinger echt so kacke?

Die sind nicht Kacke nur eben nicht mehr angepasst für das was sie hier versorgen sollen

Und bei Shootern ist es den meisten eben wichtig,hohe Frameraten zu haben.Da bringts im Endeffekt auch nichts die BQ hochzuschrauben für eine Placeboauslastung der GPUs,die aber das Grundproblem nicht lößt.

Die Frameraten u indirekt damit ebenso die Auslastung,wird er daher nur mit potenterer CPU in den Griff bekommen

---------- Post added at 10:38 ---------- Previous post was at 10:34 ----------

VRAM-Limit der 690er. DA würde ich heulen :-)

ich werds mal anmelden für das Unwort 2012:fresse:
 
Zuletzt bearbeitet:
Sind die Dinger echt so kacke?
Wenn maerub jetzt ausreichend FPS durch seine CPU in Games hat (wovon ich ausgehe, sonst würde er sich ja ne neue CPU kaufen wollen und keine neue Graka), dann kann man doch eigentlich nix falsch machen (außer zu heulen, wenn die Graka nicht ständig 100% läuft, was in meinen Augen halt ein bisschen ..... daneben ist^^^).

Und auch FullHD ist kein so großes Hinderniss, wenn man die BQ vor die FPS stellt. Nicht umsonst kann doch Nvidia die ganzen tollen AA-Filter-Modi, auf die man mit schwachen Grakas verzichten muss. Da rennt man doch dann eher in das VRAM-Limit der 690er. DA würde ich heulen :-)
Nö so gaga sind die nicht, bei Jimmy war das Problem das er ein alten 700 Chipsatz hatte.
Mit denn 900 sollte das aber kein Problem sein, meine 2x HD7970 laufen auch bombe bei BF3 (50FPS minimum, 70FPS im Schnitt mit standard Einstellungen)

Was die GPU Auslastung angeht, die schwankt immer ein bischen. Immer 100% Load ist ein Mythos und wird auch nicht benötigt für ein sauberes Spielgefühl.

MfG
 
Nö so gaga sind die nicht, bei Jimmy war das Problem das er ein alten 700 Chipsatz hatte.
Mit denn 900 sollte das aber kein Problem sein, meine 2x HD7970 laufen auch bombe bei BF3 (50FPS minimum, 70FPS im Schnitt mit standard Einstellungen)

Was die GPU Auslastung angeht, die schwankt immer ein bischen. Immer 100% Load ist ein Mythos und wird auch nicht benötigt für ein sauberes Spielgefühl.

MfG

Ich stell einfach mal nen Multiplayer CPU Skallierungsbenchmark gegen diese Behauptung

b3%20ac%20proz%2064.png

http://forums.anandtech.com/showthread.php?t=2270271

Jeder der lesen kann dürfte erkennen wie es um die Leistung bestellt ist auf nem 64er Server,wenn dort noch 2x7970er oder 680er an der CPU zerren

Aproppos wars nicht gestern noch die "Überhitzung" die das ganze Disaster erklärt hat

Ihr seid ein haufen Quatschköpfe.

scully1234
shorty71
TobiWahnKenobi
MrBurnz

Ab in die Ecke !

Also meint Ihr das jimmy mit einer intel CPU ala i5 oder i7 besser bedient wäre ja ? Ich denke nicht wenn du CPU Temperatur 83°C beträgt.

hauptsache erstmal quatschen. Nichts in Frage stellen und blöd ( sorry ist nun mal so) quatschen. oh man...
 
Zuletzt bearbeitet:
Ne besonders CPU-fressende Stelle haben die sich für den Bench aber nicht ausgesucht^^


Wobei ich 51 FPS als immer noch durchaus Spielbar betrachte, und der Meinung bin, das man eine GTX690 durch "künstliches" Anheben der Settings in FullHD auch in diese Regionen optimieren kann.
 
Zuletzt bearbeitet:
Nein, kein Fraps oder Afterburner (das ich gar nicht habe). Es ist ein bisschen schade, dass es diese Probleme mit BF3 gibt. Ich habe es ganz gerne gespielt, aber jetzt habe ich es deinstalliert. MOHW hat ja dieselbe Engine, hier läuft es aber glatt. Vielleicht gibt es bald ja einen Patch, ich hoffe darauf, wo die Bugs weder bei der Graka noch bei Frostbite 2 liegen.

Ist dass Problem mittlerweile aus der Welt geschafft worden ?
Was war die Ursache ?
 
Mahlzeit. Garnichts mehr los hier?!

Gesendet von meinem LT18i mit der Hardwareluxx App
 
Zuletzt bearbeitet:
Keine Angst, nicht alle...

Gesendet von meinem LT18i mit der Hardwareluxx App
 
Hat ein User mit WaKü auf der GTX ein ModBios mit höher freigeschaltete Voltage ausprobiert - wenn das gibt? Wenn ausreichend Kühlung gewährleistet ist, könnte das doch Vorteile beim OC'n geben - wie bei den Singlekarten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh