Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen 3

Status
Für weitere Antworten geschlossen.
Hast du getestet, ...

zu warm?

Ich hab noch nichts in Sachen vMod bei der GTX280 gemacht!

Dural hatte mal getestet und kam mit 1,18 (1,24v real) auf ca. 760, mit 1,35v real, knapp über 800.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hmmm, ... 177.84, ...
Der Treiber ist vom 07/28/2008

Der 177.89 ist vom 08/12/2008

hat nix zu sagen ,NV hat 4 Enwicklerteams die völlig unabhängig von einander entwickeln.

Der inf Eintrag ist falsch ,von dem `85 auch der just aufgetaucht ist.
 
Zuletzt bearbeitet:
Hast du getestet, ...

zu warm?

Ich hab noch nichts in Sachen vMod bei der GTX280 gemacht!

Dural hatte mal getestet und kam mit 1,18 (1,24v real) auf ca. 760, mit 1,35v real, knapp über 800.
Also zu warm mit Sicherheit nicht, denn wir kühlen mit LN2....
Wir sind bei 1,45V auf ca. 930 gekommen, aber ich habe nun auch gelesen, dass viele andere mit weniger Spannung an die 1GHz rangekommen sind.

Testen kann ich das erst am WE, wollte mich nur nochmal schlau machen, ob es ein bekanntes Problem ist.

Hätte ja sein können, dass viele schon von solchen Problemem ab 1,4V oder so berichtet haben. Dass die karte dann unabhängig von der temperatur instabil wird. mal abwarten und dann am WE testen :wink:
 
Also zu warm mit Sicherheit nicht, denn wir kühlen mit LN2....
Wir sind bei 1,45V auf ca. 930 gekommen, aber ich habe nun auch gelesen, dass viele andere mit weniger Spannung an die 1GHz rangekommen sind.

Testen kann ich das erst am WE, wollte mich nur nochmal schlau machen, ob es ein bekanntes Problem ist.

Hätte ja sein können, dass viele schon von solchen Problemem ab 1,4V oder so berichtet haben. Dass die karte dann unabhängig von der temperatur instabil wird. mal abwarten und dann am WE testen :wink:

Also ich weis nur, dass einige mit LN2 auch mit Standardspannung über 1GHz kamen.
Könnte höchstens sein, dass deine recht schlecht läuft, musste einfach mal vergleichen, default vs. 1.4+v

Edit:
Welche Loadtemps hattet ihr?
 
Loadtemps waren so bei -70 GRad.... weiter runter hat nix mehr bei den Taktraten gebracht. Wir testen einfach nochmal mit weniger Spannung, ich hoffe das es daran gelegen hat. Aber mit Standardspannung sind wir nicht so weit gekommen, das weiss ich. Also einfach mal die 1,3-1,35V probieren, wird schon schief gehen :)

DANKE
 
Loadtemps waren so bei -70 GRad.... weiter runter hat nix mehr bei den Taktraten gebracht. Wir testen einfach nochmal mit weniger Spannung, ich hoffe das es daran gelegen hat. Aber mit Standardspannung sind wir nicht so weit gekommen, das weiss ich. Also einfach mal die 1,3-1,35V probieren, wird schon schief gehen :)

DANKE

so jetzt mal Butter bei die Fische!
wenn ich auf 1.3 bis max 1.34 gehen will was brauch ich da für einen Podi!
 
GTX 280 und Asus P5E3 Premium passen?

Wegen der Hülle in der Nähe vom DVI:

gtx260_02feq.jpg


Hat die Kombi jemand am laufen?

ja past da gibts keine probleme
 
weist du was man für einen Podi brauch für 1.3 bis 1.34
Auch nochmal für alle anderen:
bau nen 100 Ohm Poti ein und du kannst alle Spannungen einstellen... bis die temps zu hoch werden oder die Karte abschaltet.... 1,7V haben wir schon kurz getestet (ACHTUNG: nicht nachmachen, es sei denn ihr kühlt mit LN2!!!), da kam noch keine OVP... also in sachen Spannung ist die Karte echt gutmütig. Ist eben nur die Frage, ob entsprechende Spannungserhöhungen etwas bringen.

Aber da wissen wir am WE mehr :)

Was ich praktisch finde, die Karte hat integrierten 3D Sound.... kaum schmeißt man einen Bench an und die Karte schaltet auf die 3D Spannungen, geht ein Pfeifkonzert der Extraklasse los... einfach wahnsinn. Die Geräuschkulisse is mir persönlich beim benchen egal, solange die Ergebnisse stimmen. Aber wenn ich mir so ein teil in den Heimrechner eingebaut hätte und die würde mich so dermaßen vollquatschen, wie schwer sie doch in meinem Spiel zu kämpfen hat, wäre sie schon im hohen Bogen ausm Fenster geflogen....
 
Zuletzt bearbeitet:
Ja ja viel geduld brauchte ich gestern nacht bis ich die drei dinger zum laufen gebracht habe:wall::wall::banana:

Der treiber akzeptierte zuerst die 3 grakas nicht egal was ich machte sobald alle 3 aktiviert waren blieb der bildschirm dunkel.

Bis ich dann nach langen langen grübeln mitten in der nacht nen geistesblitz hatte:fresse:

Ich ging in den abgesicherten modus von vista u deaktivierte dort erstmal alle grakas bis auf die oberste.Dann startete ich vista normal ging in die systemsteuerung u schaltete nach u nach alle grakas aktiv u siehe da:bigok:

Nun lies ich noch schnell den vantage einmal durchrauschen mit diesem ergebniss:


Jetzt legte ich mich schlafen um dann unsanft von meinen wecker nach ner knappen stunde zur arbeit gerufen zu werden:heul::stupid::shot:
 
jo das kenn ich ,aber was bringt mir das beim Zocken was den Mehrpreis rechtfertigen würde ,mal ehrlich?
Du kannst ja alles in Rente schicken....und gleich kaufen..die ersten Boards...oha wenn ich da zb. an Gigabyte denke....
Hinzugefügter Post:
Ja ja viel geduld brauchte ich gestern nacht bis ich die drei dinger zum laufen gebracht habe:wall::wall::banana:

Der treiber akzeptierte zuerst die 3 grakas nicht egal was ich machte sobald alle 3 aktiviert waren blieb der bildschirm dunkel.

Bis ich dann nach langen langen grübeln mitten in der nacht nen geistesblitz hatte:fresse:

Ich ging in den abgesicherten modus von vista u deaktivierte dort erstmal alle grakas bis auf die oberste.Dann startete ich vista normal ging in die systemsteuerung u schaltete nach u nach alle grakas aktiv u siehe da:bigok:

Nun lies ich noch schnell den vantage einmal durchrauschen mit diesem ergebniss:


Jetzt legte ich mich schlafen um dann unsanft von meinen wecker nach ner knappen stunde zur arbeit gerufen zu werden:heul::stupid::shot:

hihi :d
hier mach mal mit den 3 Dingern!
4x4 SSAA 16 AF HQ


sind 15 FPS den Rest hat Fraps beim Drucken verschluckt als es knallte.
 
Zuletzt bearbeitet:
Die Benchmarks sind für 3 x GTX ganz schön schwach. Da hatte ich wirklich mehr erwartet. 13.000 macht ja schon eine Karte alleine mit einem schnell DualCore. Die FPS beim GPU Benchmark sind auch nicht sooo weit von einer X2 entfernt, etwa 10 FPS, mehr nicht.
 
Die Benchmarks sind für 3 x GTX ganz schön schwach. Da hatte ich wirklich mehr erwartet. 13.000 macht ja schon eine Karte alleine mit einem schnell DualCore. Die FPS beim GPU Benchmark sind auch nicht sooo weit von einer X2 entfernt, etwa 10 FPS, mehr nicht.


Um die power der 3 gtxen auszuschöpfen ist die heutige prozessorgeneration einfach noch nicht schnell genug(waiting for nehalem:teufel:).Ich denke bei 4GHZ cpu takt sieht das ganze schon anders aus:)
War ja auch erst der erste durchlauf von vantage,mitten in der nacht,wo ich bald vor müdigkeit auf die tischplatte geknallt wäre:d
 
Zuletzt bearbeitet:
aja ich frag mich was ihr euch erwartet ist doch klar das die heutigen prozessoren zu schwach sind die bremsen ja noch einzelkarten dieses schlags aus ;)
 
Um die power der 3 gtxen auszuschöpfen ist die heutige prozessorgeneration einfach noch nicht schnell genug(waiting for nehalem:teufel:).Ich denke bei 4GHZ cpu takt sieht das ganze schon anders aus:)
War ja auch erst der erste durchlauf von vantage,mitten in der nacht,wo ich bald vor müdigkeit auf die tischplatte geknallt wäre:d

Teste mal Crysis :)
 
Achso, ich dachte Du hättest mit den Angaben in der Signatur gemessen. Quad auf 4 GHz wäre nämlich wirklich mehr als mau gewesen bei den Werten. Aber wenn es default war, ist es auch kein Wunder.
 
@OliverM84
im Vergleich zu der Ergebnissen vom scully1234 lieg ich doch ziemlich gut.;) Oder anders gesagt: die Auflösung bei Performance ist einfach zu mickrig.

Hier fehlt einfach der richtige Monitor. Da liefs bei mir anders.
Zuerst hatte ich eine 8800 GTX. Die hat sich mit dem 17"-Tft nur gelangweilt.
Also musste ein 24"-Breitbild-Monitor her. Da hatte sie schon mehr zu tun. Hatte aber immer noch keine Probs. Dann hab ich für mich die Vorzeuge von AA entdeckt. Immer noch keine Probleme. Dann kam Crysis und nun war die 8800 GTX überfordert. Aber zum Glück hat das ganze ja jetzt mit den GTX 280ern ein HappyEnd gefunden.

wieder etwas mehr zum topic.
Wenn der G200b so spät kommt, fänd ichs schlecht. Früher wär mir lieber. Dann hätte es vielleich eine Möglichkeit für mich gegeben im StepUp von Evga auf die neuen Karten zu wechseln.
Aber wenn die Leistungskrone dieses Jahr zurück zu Nvidia soll, dann wirds wohl nur eine Dual-Karte tun. Von daher muss der Verbrauch runter und bei einer SingleGPU-Karte die Taktraten deutlich rauf.
Kann man nichts machen.

Ciao Tom
 
Zuletzt bearbeitet:
Ps:schick mir mal deinen monitor zum benchen vorbei:lol:
Du wirst lachen. Ich hatte gestern oder heute morgen geschaut, wo Du wohnst.:d

Was ich mir auch schon überlegt hatte, als ich die neuen Grakas testhalber im Rechner von meinem Vater mit 17"-TFT hatte.
Wenn man die Inf vom Monitor modifizert, müsste man den Bench doch auch mit mehr Auflösung laufen lassen können? Dem Rechner müssts ja wurscht sein obs der Monitor kann bzw ob überhaupt einer dran hängt, oder?
Die Idee kam mir, als der Rechner die maximale Auflösung vom Monitor falsch erkannt hatte (analog angesteckt).

ciao Tom
 
@OliverM84
im Vergleich zu der Ergebnissen vom scully1234 lieg ich doch ziemlich gut.;) Oder anders gesagt: die Auflösung bei Performance ist einfach zu mickrig.

Auflösung hin oder her, .. du müssest einfach mehr Punkte auch unter Performance haben. ich hab da mit fast gleichen Einstellungen gute 2000 Punkte mehr in Vantage, die müssen ja irgendwo herkommen?!

Kannst du mal ohne die zusätzliche Karte als PhysX GPU testen?
 
Du wirst lachen. Ich hatte gestern oder heute morgen geschaut, wo Du wohnst.:d

Was ich mir auch schon überlegt hatte, als ich die neuen Grakas testhalber im Rechner von meinem Vater mit 17"-TFT hatte.
Wenn man die Inf vom Monitor modifizert, müsste man den Bench doch auch mit mehr Auflösung laufen lassen können? Dem Rechner müssts ja wurscht sein obs der Monitor kann bzw ob überhaupt einer dran hängt, oder?
Die Idee kam mir, als der Rechner die maximale Auflösung vom Monitor falsch erkannt hatte (analog angesteckt).

ciao Tom
Das wäre sicherlich machbar aber wer ist kompetent genug da rumzubasteln:d
 
es ist mittlerweile schon bekannt das der nehalem im bereich gaming keinen deutlich spürbaren performancegewinn gegenüber dem penryn haben wird ;)

Das kann ich mir ehrlich gesagt nicht so ganz vorstellen,zuverlässige benches wird es erst geben wenn die cpu auf dem"freien" Markt zur verfügung steht;)Auf vorzeitige wahrsagereien sollte man sich aus erfahrung schon nicht verlassen:bigok:



So hier wie versprochen mal der erste Benchmark von crysis mit den karten in very high u alles an:bigok:




 
Zuletzt bearbeitet:
Ich bekomm die Pics net angezeigt/vergrößert.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh