Geforce GTX 280 mit GT200B aufgetaucht

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
shit...
Ache auf mein Haupt.
Mein Fehler, kleiner Zahlendreher beim Abschreiben, hast natürlich recht sind 263,9W

Aber 3DMark06 mit 4xAA/16xAF@2,6GHz lastet schon zu 100% aus.
Merkt man daran, das die SM2 und SM3 Punkte nicht weiter steigen, wenn man die CPU übertaktet.
 
Zuletzt bearbeitet:
Und warum steigt die GPU Temp beim Furmark um einiges mehr?
 
Zuletzt bearbeitet:
€dit. ein wenig zu spät, aber er hat vollkommen recht.
dann starte mal furmark. :lol: dieses tool lastet aus mister 3x klug. auch bie 3dmark werden nicht alle bereiche des chips voll ausgelastet. Was meinste, warum ati den treiber beschnitten hat, damit die karten im furmark niocht mehr abrauchen. wegen der tdp, schau du mal nach. aus der dose zieht die ne x2 350w.
 
Zuletzt bearbeitet:
Es interessiert aber keinen was die X2 aus der Dose zieht, es geht darum was eine Grafikkarte an Strom verbraucht.
Wie gesagt, der Wirkungsgrad vom NT und andere Faktoren verfälschen das Bild.

Für den Endkunden ist natürlich die Messung hinter dem NT ausschlaggebend, weil er das was dort gemessen wird, auch bezahlen muss, aber darum gehts ja nicht.

und wegen 3DMark und nicht auslasten, ich habe gerade mal bei mir im 3DMark06 die SM3 Tests gemacht, einmal mit 2400MHz (und im Taskmanager erzwungenen einen Kern) und einmal mit 3330MHz (und wieder mit einem Kern für 3DMark)
Das ganze mit 1680x1050, 4xAA/16xAF. Beide Test brachten bis auf die Kommastellen die gleichen Ergebnisse. Und ihr wollt erzählen, das 3DMark nicht richtig auslastet... Wenn das der Fall wäre, dann würde mit mehr CPU Takt auch mehr FPS rauskommen.

Klar hab ich nur ne HD4870@820MHz, aber das sollte dem kein Abbruch tun.

Und warum in Furmark mehr GPU Temp zusammen kommt, ganz einfach, weil Furmark im Stande ist die GPU immer dauerhaft und voll zu belasten. 3DMark hingegen belastet nur für die Tests, für die Ladephasen wird wieder ins 2D Profil geschalten, was die GPU Temp merklich senkt. Somit wird man nie auf die Temp kommen wie es beim zocken oder beim furmark'en anzeigen wird. (ist aber auch logisch)
 
das war nur, um dir das mit der tdp nahe zu legen, die auch ziemlich exakt ausgereizt wird. und wegen furmark. die karte läuft mit neuen treibern auf sparflamme. was meinste, warum der score niedriger ist mit neuem treiber. da helfen auch keine 6500 post und ellenlange texte. man man man... :rolleyes:
 
ich versteh noch net so richtig was du mit furmark willst?

Tut das irgendwas zur Sache, das die X2 mit neueren Treibern auf Sparflamme läuft oder was auch immer?
Es ging doch um den Stromverbrauch gemessen von xbitlabs.com
In nem 3DMark06 run mit 4xAA/16xAF und 1600x1200 (was zum Vollauslasten der Karte reichen sollte, wie ich ja oben schon versucht habe zu beweisen) und mit Releasetreibern, welche mit Sicherheit nicht auf Sparflamme getrimmt waren.


Das ich gerne viel schreibe tut wohl auch nix zur Sache, und das ich 6500 Posts habe, sagt auch nix aus.

Aber so ganz 100% verstehe ich net was du mir versuchst zu sagen, aber eventuell könntest mir das ja erklären...

EDIT:
Die haben übrigens bei dem Test den Sampletreiber der X2 genommen, ist äußerst unwarscheinlich das AMD die Karte schon mit dem ersten offiziellen Treiber mit angezogener Handbremse fahren lässt.
 
Zuletzt bearbeitet:
Und warum in Furmark mehr GPU Temp zusammen kommt, ganz einfach, weil Furmark im Stande ist die GPU immer dauerhaft und voll zu belasten. 3DMark hingegen belastet nur für die Tests, für die Ladephasen wird wieder ins 2D Profil geschalten, was die GPU Temp merklich senkt. Somit wird man nie auf die Temp kommen wie es beim zocken oder beim furmark'en anzeigen wird. (ist aber auch logisch)
Das ist es eben nicht. da werde areale deaktiviert. gabs irgendwo mal offiziell zu lesen.

Das ich gerne viel schreibe tut wohl auch nix zur Sache, und das ich 6500 Posts habe, sagt auch nix aus.

Aber so ganz 100% verstehe ich net was du mir versuchst zu sagen, aber eventuell könntest mir das ja erklären...

jep. postzahl sagt über die qualität des inhalts eines posts nichts aus. es ist nur, dass hier einige so viel schreiben und sachen als tatsache hinstellen, was in wirklichkeit garnicht so ist. früher haben auch alle gesagt, die welt sei ne scheibe. alle anderen wurden als ketzer bezeichnet. Dann bin ich wohl der KETZER...
 
Zuletzt bearbeitet:
nochmal, ob bei der X2 irgendwas beim furmark durchlauf deaktiviert wurde spielt doch keine Rolle, im allgemeinen ist die Erklärung für die höhere Temp in Games sowie in Furmark aber, das eine dauerhaft hohe Last anliegt, beim 3DMark hingegen wird durch das laden des nächsten Tests die Last unterbrochen und die Karte kann sich abkühlen...
Ob da nun die X2 ne Ausnahme spielt, weil dort irgendwas in Furmark nicht so läuft wie mit den ersten Treibern, ändert aber nix an der Tatsache wie ich sie schrieb. Oder etwa doch?

Und das ich irgendwas behaupte, was ich nicht beweisen kann, wirst du von mir auch nicht finden, wenn ich was sage, was ich nicht genau weis, dann schrieb ich das dazu, das es eine Vermutung ist oder das ich es glaube mal gelesen zu haben oder wie auch immer.
Und wenn wiedererwartend doch was falsch ist, dann sehe ich den Fehler ein, solange er mir berichtigt wird, siehe oben mit dem Verbrauch, war ein Zahlendreher beim abschreiben.
es ist nur, dass hier einige so viel schreiben und sachen als tatsache hinstellen, was in wirklichkeit garnicht so ist.

richtig, ich versuche Dinge klarzustellen, welche andere als richtig bzw. zutreffend schreiben, wenn mir sowas auffällt und ich weis das es falsch ist.
Aber hab ich hier irgendwas geschrieben was nicht stimmt?
 
Zuletzt bearbeitet:
@fdsonne
bei einem GTX280 SLI-System limitiert aber bei 1920x1200 mit 4xAA und 16xAF die CPU:
Q9650@3,6 GHz: 18101
Q9650@4,05 GHz: 19584
Von daher kann wohl nicht allgemein gültig sagen, der 3dmark06 lastet zu 100 Prozent aus.

Für mich kommt der G200b leider zu spät. Das Stepup meiner beiden Karten läuft in spätestens 2 Wochen aus. Das wäre der einzige Grund für
mich gewesen, zu wechseln. So warte ich wohl lieber, bis eine einzelne SingleGPU-Karte meine beiden GTXen ersetzen kann.


ciao Tom
 
Zuletzt bearbeitet:

das schon klar, ging ja ursprünglich allgemein um den Stromverbrauch und nicht um eine AMD Karte

@fdsonne
bei einem GTX280 SLI-System limitiert aber bei 1920x1200 mit 4xAA und 16xAF die CPU:
Q9650@3,6 GHz: 18101
Q9650@4,05 GHz: 19584
Von daher kann wohl nicht allgemein gültig sagen, der 3dmark06 lastet zu 100 Prozent aus.

Es ist ja auch nicht die Rede von nem 280GTX SLI...
Klar wird mit steigender Grafikperformance irgendwann die CPU limitieren.

In dem Fall der Leistungsklasse einer 280GTX bzw. einer übertakteten HD4870 bringt reicht es noch aus. Wie ich ja oben geschrieben habe, spielt es keine Rolle ob ich mit 2400MHz oder mit 3330MHz benche, es kommen die gleichen Werte raus.
Eventuell sollte die bei xbitlabs mal ihr Testsystem für den Stromverbrauch upgraden um dem vorzubeugen. Ansonsten sollten die Verbrauchsdaten der derzeitigen Karten aber dennoch hinhauen.

kannst du mal mit 8xAA testen, wie viel unterschied dann noch bleibt?
 
Zuletzt bearbeitet:
das war nur, um dir das mit der tdp nahe zu legen, die auch ziemlich exakt ausgereizt wird. und wegen furmark. die karte läuft mit neuen treibern auf sparflamme. was meinste, warum der score niedriger ist mit neuem treiber. da helfen auch keine 6500 post und ellenlange texte. man man man... :rolleyes:

Der Score ist ja auch deutlich höher bei der HD4870 als bei der GTX280, die war zu schnell ^^

Eine OC 280er schafft keine 5K

Und eine OC 4870 (non X2) 7K
 
Du solltest nicht so tief in die Flasche guggen :d
Und mußt nett weinen, ich hab auch gelacht als ich mit der 280er in 1920 in Stalker CS mit 10 FPS in der Gegend stand...

brauchst nur die sonnensntrahlen aus machen .... den rest kannst auf max stellen sogar volumetrischen rauch und nasse oberflächen ( DX10 features ) dann haste anstatt 10 fps 40 fps auch mit einer 8800GTX :shot:

Siberian Tiger hat schon recht das hab auch ich gelesen .... Als die 280GTX hattest war die das beste auf der Welt und wie du geschwärmt hast mit 100erten screenshots .... Die X2 wurde als scheiße bezeichnet .... vorallem über die min fps wurde abgelästert , über microruckler , heiß und laut ..... nun haste eine und suchst die schwächen der 280GTX auf und lästerst darüber

aber :btt:
 
Zuletzt bearbeitet:
brauchst nur die sonnensntrahlen aus machen .... den rest kannst auf max stellen sogar volumetrischen rauch und nasse oberflächen ( DX10 features ) dann haste anstatt 10 fps 40 fps auch mit einer 8800GTX :shot:

Siberian Tiger hat schon recht das hab auch ich gelesen .... Als die 280GTX hattest war die das beste auf der Welt und wie du geschwärmt hast mit 100erten screenshots .... Die X2 wurde als scheiße bezeichnet .... vorallem über die min fps wurde abgelästert , über microruckler , heiß und laut ..... nun haste eine und suchst die schwächen der 280GTX auf und lästerst darüber

aber :btt:
Nochmal dummes Zeug!
Lesen lernen, aber mir auch egal, spinnt euch euern Kram weiter zusammen.
Und klar kann ich dies und das ausschalten...ich kanns auch ganz ausmachen und Fernseh gugge.
 
Weiß man schon was zur Shaderzahl der GT200b Karten?

Die GTX270 eher 192 oder 216?
 
Danke das Ihr wieder zum Thema kommt :d

Nur ein Dieshrink und wohl keine Superwaffe gegen ATI.Endlich müssen sich die Grünen mal bewegen.Nur gut für uns alle.Das senkt die Preise.
 
Danke das Ihr wieder zum Thema kommt :d

Nur ein Dieshrink und wohl keine Superwaffe gegen ATI.Endlich müssen sich die Grünen mal bewegen.Nur gut für uns alle.Das senkt die Preise.

sehe ich genauso. stagnation bei nvidia kennen wir ja jetz schon wieder 1-2 jahre lang... was daraus geworden ist, sieht man ja auch!

ATI an die MACHT :fresse:
 

Gut, danke, aber ich denke mal mit 8xAA und der Auflösung sollte sozusagen der zweite SM3 Test nicht mehr CPU limitiert sein, und somit die Graka idR voll auslasten...
Deine beiden Ergebnisse zeigen da nun Unterschied von 0,xx FPS.

Aber gut, ich hoffe doch das die Leute bei xbitlabs.com da soweit mitdenken und die kommenden Karten dann mit härteren Settings testen um wirklich das Limit rauszubekommen.
 
Na toll... "late" November :(

Ich sollte mir das ganz aufsparen und warten, bis Nehalem komplett eingeführt und erschwinglich ist. Dann mal schauen, wer so die Nasen vorne hat. :motz:
 
das ist aber der ganz neue Chip, bzw der, der erst Mitte nächsten Jahres kommen soll...
 
Ich glaube in dem Post von Webwilli stand "Mitte". Bin aber nicht sicher.

"They are expected to make 40nm chips available in the second half of June next year. "
 
Zuletzt bearbeitet:
Und somit schiebt sich die 350 GTX ja dermaßen ins Abseits. Das kann sich NVIDIA eigentlich nicht leisten denke ich :teufel:
 
Nunja, ich hoffe einfach mal darauf, dass die Refreshs in 55nm im Nov. anklopfen.

Im Singlegpubereich haben sie die Krone, sollte von Ati nichts mehr kommen dann sowieso. Die 280 GTX ist ja bisher schon die schnellste. Die GX2 wenn sie denn kommt wird wohl mind. so schnell wie die 4870X2, ansonsten wäre es Schwachsinn das Teil überhaupt zu bringen.
Ich denke, dass Nvidia nun über den Preis kommen wird, bzw. hoffe ich es, da es ja v.a. ein preislicher Vorteil ist, der Shrink auf 55nm.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh