Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen 4

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Oh doch und weißt warum, früher war CF und SLi mehr dazu gedacht anspruchsvolle Games in spielbare Bereiche zu retten. Aktuelle Karten sind aber bei den uns vorliegenden Games durchaus in der Lage das allein zu bewältigen. So das man relativ selten auf dein CF oder SLi zurück greifen müsste im sich in spielbare Regionen zu retten. Verstehst du was ich meine?

Es sei den, es kommen Freaks wie wir die alle Möglichkeiten ausschöpfen wollen aber wir sollten mal realistisch bleiben und nicht vergessen wie klein unser Anteil gegenüber dem üblichen Nerd auf den Straßen ist.


Aus dem Blickwinkel haste natürlich auch recht.
Jetzt laß uns hier aufhören sonst flippt uns Olli noch aus :d
 
@zuppi
daß ausgerechnet du ausgerechnet vom Oli befürchtest, daß er ausflippt...Sachen gibts...:fresse:
 
Man hört blos mit dem gehetze auf, hat er nen 30Zoll Monitor? Ich glaube nicht , somit wird die X2 mehr als genügend Frames liefern das er sich um MR überhaupt keine Sorgen machen muss. Da er in die Region von 30-40 Frames relativ selten kommen wird.

Und hört auf es als unspielbar hinzustellen, genau diese Aussage zeigt mir das ihr gar nicht wisst was wirklich MR sind.

Finde es traurig das solch Panik um Thema gemacht wird und es nicht realistisch betrachtet wird.
wie gesagt ich hatte 2 4850 und weiß des wegen sehr wohl was mikroruckler sind ;)
außerdem hast du wohl gar nicht gelesen was ich geschrieben habe.
noch mal. er wollte wissen ob er die gtx 280 gegen eine x2 austauschen soll.

nun nenn mir doch mal die vorteile der x2?
mal angenommen er hat ein kleinen moni (hast ja selbst gesagt er hat kein 30").
Beispiel:
er hat dann statt 60fps (gtx 280) ganze 80fps (x2). ist doch beides flüssig oder nicht?
nun spielt er ein spiel (die es schon gibt auch ohne 30"moni) die nun mit statt 30fps (gtx 280) auf 40fps (x2) laufen

also nach meiner multi gpu erfahrung weiß ich womit ich mehr spaß beim zocken hatte ;)
aber um das beurteilen zu können muss man das schon selber gesehen haben. des wegen noch mal meine empfehlung:
überzeug dich lieber aber erstmal selbst von den mikroruckler
 
Zuletzt bearbeitet:
Kann ich nur zustimmen und auch ich habe nix anders als meine Erfahrung gesagt, aber es gibt eben Leute, die alles besser wissen müssen. Sachen gibt's... :-[
 
Hallo,

auf der einen Seite wird hier andauernd davon gesprochen, dass das jeder anders bzw mehr oder weniger schlimm empfindet (was ja auch richtig ist). Auf der anderen Seite kommen aber MultiGPU-Gegner irgendwie nicht damit klar, wenn jemand mit MR keine Probleme hat. Jedenfalls hab ich diesen Eindruck.
Mir persönlich fallen sie im Spielgeschehen glücklicherweise nicht auf.
Von daher sehe ich gewisse Aussagen der Gegner auch als übertrieben an.
Ich fürchte aber den Tag, an dem ich mich auch daran störe. Weil dann ist MultiGPU in der aktuellen Form auch für mich nicht mehr zu gebrauchen.
MultiGPU für 80 statt 40 fps, oder bei nur 1280x1024 ist für mich persönlich sinnfrei.

zum G200b oder Big Bang 2 gibts ja leider nichts neues, oder?

ciao Tom
 
Zuletzt bearbeitet:
Jetzt laß uns hier aufhören sonst flippt uns Olli noch aus :d

Dass ich nicht lache, das sagt ja der Richtige ... :shot:

@zuppi
daß ausgerechnet du ausgerechnet vom Oli befürchtest, daß er ausflippt...Sachen gibts...:fresse:

:lol: :lol:


Ich hab ja gesagt lad mich zum Kaffee ein und dann basteln wir :hwluxx:

*gg*, ... nee, werd ich wohl nicht machen, die Temps sind super bei mir!

Aber Kaffee wäre nicht verkehrt. ;)
 
Zuletzt bearbeitet:
hallo wollt mal fragen wie bzw man den shader takt der karte einstellt/ entkoppelt. hab gelesen das dann das oc'n der karte besser funktionieren soll.

des weitern wollt ich fragen wie manche von euch die spannung der karte ändern.

und ist das normal das bei atitool das find mx cor/mem nicht funktioniert?
das hab ich bei miener alten ati karte immer genutzt um schnell mal nen rihctwert zu finden von dem aus ich dann weiter spiele.


und bezüglich des zirpens wollt ich nochmals fragen ob es außer den vorschlägen eines neuen netzteiles und den tipp mit dem vertikal sync noch irgendwas gibt was man machen kann

vertical sync hab ich auf automatisch ein gestellt. jedoch hör ich ein leichtes zirpen der karte noch immer.
neues netzteil will ich mir nicht zulegen da ich eh ein gutes und ausreichendes habe (BeQuiet Dark Power Pro7 550W).
 
Zuletzt bearbeitet:
1. Kannst du im RT einschalten
2. Nur im Bios ( flashen )
3. atiiool kannst du bei der gtx2XX vergessen
4. andere Karte, oder anderes NT ( andere Möglichkeiten gibt es nicht )
 
Tja ... da jetzt Stalker Clear-Sky draussen ist haben wir noch was über das wir reden können.

Ich komme in 2560x1600 gerade auf 10 FPS mit einer OC-GTX (das Game läuft nur auf einem Core). Watt haben da die SLI-Jungens auf der Pfanne?

Ich hab jetzt die Möglichkeit in 1280x1024 mit DX10-Gibihm zu zocken und 30 FPS hinzubekommen (für mich völlig ausreichend) oder DX9. Da gehen 2560x1600 mit 30 FPS^^

(Ich beziehe mich da auf die FPS im Start-Lager von Clear Sky, in der Pampa wird es besser).
 
Zuletzt bearbeitet:
1. Kannst du im RT einschalten
2. Nur im Bios ( flashen )
3. atiiool kannst du bei der gtx2XX vergessen
4. andere Karte, oder anderes NT ( andere Möglichkeiten gibt es nicht )

danke für die schnelle aw.
in dem fall werd ich wohl das zirpen akzeptieren.

wenn ich das richtig versteh sollte man die karte mit rivertuner oc'n oder?
gibts dazu irgendwo eine anleitung? hab keinen plan in dem programm...
 
Tja ... da jetzt Stalker Clear-Sky draussen ist haben wir noch was über das wir reden können.

Ich komme in 2560x1600 gerade auf 10 FPS mit einer OC-GTX (das Game läuft nur auf einem Core). Watt haben da die SLI-Jungens auf der Pfanne?

Ich hab jetzt die Möglichkeit in 1280x1024 mit DX10-Gibihm zu zocken und 30 FPS hinzubekommen (für mich völlig ausreichend) oder DX9. Da gehen 2560x1600 mit 30 FPS^^

(Ich beziehe mich da auf die FPS im Start-Lager von Clear Sky, in der Pampa wird es besser).



:lol:
 
LOL, zuppi, man muss als GTX 280 Besitzer doch echt glücklich sein oder nicht? :fresse: Auf jedenfall haben wir ein Spiel, was noch fordernder als Crysis ist! :shot:
 
LOL, zuppi, man muss als GTX 280 Besitzer doch echt glücklich sein oder nicht? :fresse: Auf jedenfall haben wir ein Spiel, was noch fordernder als Crysis ist! :shot:
nene das hat nix mit den Karten zutun ,das ist einfach Schrott was die da verkauft haben.
 
Zuletzt bearbeitet:
vorallem schaut euch die Bildgrößen an ,was die da für einen Schrott zusammen geprogt haben...nicht mehr feierlich sowas...so langsam versteh ich die Leute die in den Tauschbörsen einkaufen gehen.
 
schaltet mal auf statische beleuchtung da habe ich mit der gts aa voll aufgewurzelt 16 af 1650x1024 über 160 frames im startlager

sicher ein bug mit der erweiterten ....dynamischen beleuchtung ---> mit dynamischer bel. hatte ich 2,6 fps
 
Zuletzt bearbeitet:
Da kann ich auch gleich Tetris spielen für 40 Ocken :d

Achtung alles in Deckung..


wenn man es so verkauft gehört es in die Grabbelkiste für 99cent aus dem Jahre 1980....
 
Zuletzt bearbeitet:
LOL, zuppi, man muss als GTX 280 Besitzer doch echt glücklich sein oder nicht? :fresse: Auf jedenfall haben wir ein Spiel, was noch fordernder als Crysis ist! :shot:

Hihi, vielleicht ziehen sich dann alle an Clear Sky hoch und nicht mehr an Crysis. Wäre ein willkommene Abwechselung in den Hardwareforen. Nicht mehr das ewige "welche Graka für Crysis soll ich kaufen" :-)
 
Vorallem sieht man mal schön ,wer was kann und wer nicht...
In ein paar Tagen sehen wir wieder den Unterschied.
 
Aber erstmal kein fotokino bis die den bug fixxen-> wie gesagt mit dyn. beleuchtung 2,6 -5 fps egal ob mit oder ohne aa
 
Zuletzt bearbeitet:
so hab jetzt enlich gefunden wo man im river tuner die takte einstellen kann. jedoch kapier ich nicht was ich drücken muss damit die karte die eingestellten werte übernimmt...
hier bin ich ja richtig oder?
 
so hab jetzt enlich gefunden wo man im river tuner die takte einstellen kann. jedoch kapier ich nicht was ich drücken muss damit die karte die eingestellten werte übernimmt...
hier bin ich ja richtig oder?

haste unter Vista nett datt Knöppje ,wird so übernommen ,einfach auf save und fertig.
 
mußte in größeren Schritten nach rechts ziehen ,speichern kannste auf der Diskette.
Ein 2D Profil kannste mit den Karten nicht erstellen ,die fällt immer auf den eingestellten 2D Wert im Bios zurück.

Warum nimmste nicht das eVGA Tool das ist viel einfacher um mit dem Riva "ladende Profile" zu erstellen ,brauchste zig Schritte.

http://www.evga.com/precision/

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=427987
Der Herr Dargo hats nett so mit dem engl.

deutsche Sprachdatei für den Riva
http://www.computerbase.de/downloads/software/systemprogramme/grafikkarten/rivatuner/
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh