Geforce GTX 280 mit GT200B aufgetaucht [Part 2]

Status
Für weitere Antworten geschlossen.
Ich hoffe, dass das durch Treiber etc. behoben wird.

Was soll ein Treiber an der Architektur verändern können?
Die Karte ist identisch zur alten 260GTX, da wird sich Performance mäßig nix tun.

Und an Berni...
zu tief in die Glaskugel geschaut? Klar kommt der 55nm Chip zu spät, aber als schlecht würde ich in net ansehen. Die Leistungsaufnahme ist gut gesunken und das nicht wenig.

Gruß
CeeS
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das meinte ich ja auch...Die Karte verbraucht laut dem ersten Test nur im "idle" weniger...

Deshalb meinte ich, evtl kann man da noch etwas durch den Treiber machen...

Ich verstehe nicht so recht warum es keine Berichte zu den Karten gibt. Wenn sie doch sogar schon hier (im Forum) einige Leute haben...
 
Ich verstehe nicht so recht warum es keine Berichte zu den Karten gibt. Wenn sie doch sogar schon hier (im Forum) einige Leute haben...

Neja die Leute wissen wohl gar nicht, ob sie eine 55nm Karte haben oder nicht...
Schließlich werden 00% der User nicht erstmal den Luffi runter reißen oder die Karte mit diversen Auslesetools checken...
 
Neja die Leute wissen wohl gar nicht, ob sie eine 55nm Karte haben oder nicht...
Schließlich werden 00% der User nicht erstmal den Luffi runter reißen oder die Karte mit diversen Auslesetools checken...

man erkennt ne gtx260 55nm doch schon daran das hinten aufem pcb keine speicherchips vorhanden sin
 
Neja die Leute wissen wohl gar nicht, ob sie eine 55nm Karte haben oder nicht...
Schließlich werden 00% der User nicht erstmal den Luffi runter reißen oder die Karte mit diversen Auslesetools checken...

Das sollte ma ja im PCB sehen.

Ich verstehe nicht so recht warum es keine Berichte zu den Karten gibt. Wenn sie doch sogar schon hier (im Forum) einige Leute haben...

Ich weis nur von dem einen bei CB, ...
 
kann mir mal einer erklären warum die 55nm mehr verbraucht und zudem auch noch wärmer ist.
Nur weil der Kühler ein bisschen kleiner geworden ist?
Könnte es vlt auch an einem mangelhaften Treiber liegen?
 
kann mir mal einer erklären warum die 55nm mehr verbraucht und zudem auch noch wärmer ist.
Nur weil der Kühler ein bisschen kleiner geworden ist?
Könnte es vlt auch an einem mangelhaften Treiber liegen?

Nee, aber warten wir doch einfach mal noch etwas ab.
Höhere Temp kann am kleineren Kühler liegen.

Mehr Verbauch könnte am PCB Design liegen, wobei nV sicher nicht in die flasche Richtung entwickelt.
Möglich dass die Karten unterschiedliche Spannungen hatten, warten wirs ab.
 
hmm dadruch das die karte hinten net zu is, kann man ja ganz einfach nen anderen kühler drauf hauen un kühl is das ding ^^
 
Verbrauch ist doch volt bedingt, ich glaube kaum das die Dinger wie die "alten" mit 1.06 daherkommen, von daher völlig normal, mehr Leistung mehr Verbrauch.
Meine zwei laufen auch nicht mit 1.06 und meinem OC + zigxAA, wie auch.
 
um die paar grad würde ich mir keine Gedanken machen, aber die getestete GTX 260 bei Expreview sieht schon extrem billig aus. Vielleicht hat die noname firma da irgendwelche Abfallchips von nv bekommen, die nicht für evga und co. taugen ;)

Abwarten, tsmc muss erstmal den Dreh beim 55er prozess mit nv chips rauskriegen, dann geht der shit ab...
 
Ist eventuell gleiches phenomen wie bei der GTX260 aufgetreten und es hat jemand ne GTX280 in 55nm bekommen :confused:

:wink:
 
um die paar grad würde ich mir keine Gedanken machen, aber die getestete GTX 260 bei Expreview sieht schon extrem billig aus. Vielleicht hat die noname firma da irgendwelche Abfallchips von nv bekommen, die nicht für evga und co. taugen ;)

Abwarten, tsmc muss erstmal den Dreh beim 55er prozess mit nv chips rauskriegen, dann geht der shit ab...

ich hoffe so sehr dass es wirklich der Fall ist , sonst bin ich echt schokiert dass es nvidia nicht in den Griff bekommt.
und mehr Leistung führt nicht unbedingt zur mehr Verbrauch.

@All Redaktionen scheisst NDA endlich vom tisch und lifert uns ein paar gute reviews.SOnst gehen wir alle zur ATI ... :)
 
Ich finde das schon irgendwie krass...

Dann kommt bis Juni (müsste der letzte Monat des 2ten Quartals sein, oder?) schon wieder ein Shrink der High-end Karten.

D.h. wohl die G2xx er Reihe in 40nm...
Und ein weiteres halbes Jahr später kommt schon die G3xxer Architektur.
 
Ja, falls alles gut und optimal läuft, sah man ja schon am 55um Verfahren dass dies nicht der Fall war. Da ist ATI der Konkurrenz einen großen Schritt voraus, RV740 kommt wahrscheinlich Mitte Februar-Ende Februar daher, und der RV770 Refresh/ fall überhaupt noch,- oder aber DUAL RV740 März 09.
 
Verbrauch ist doch volt bedingt, ich glaube kaum das die Dinger wie die "alten" mit 1.06 daherkommen, von daher völlig normal, mehr Leistung mehr Verbrauch.
Meine zwei laufen auch nicht mit 1.06 und meinem OC + zigxAA, wie auch.

2D 1,05v
3D 1,05v
Extra (3D) 1,12v

Das erklärt den Mehrverbrauch.
Aber keine Ahnung warum die Spannungen so hoch angesetzt sind.
Naja, ist besser so.
 
gibts denn bei der GTX280 auch des das es shcon 55NM gibt aber unter dem normalen namen wie die GTX260??
 
@henniheine: gibs auf

@the dude above me: warum den mund voll nehmen und überhaupt mit was?

da mit dx11 (paul thurrott meint das nur eine beta (januar 2009) und nur eine RC von windows 7 geplant sind (dann sollte es von rtm zu oem so ca. anfang 2010 klappen))) bis q4/09 locker zu warten ist und man sich die anderen quartale sowieso nur mit allerelei mainstream, lowcost und "was solls noch werden?" hardware im graphic sektor rumschlagen wird ist das thema für mich (bis auf den gt212 eventuell) gestorben.

weiß auch gar nicht was ich sagen will...auch besser so.

die wollen bis ende juni wieder en refresh bringen (wenn sie es beim 55nm schon nicht einhalten konnten wegen iwelchen probs frag ich mich ob die das diesma einhalten) und bis ende september wieder 3 verschiedene karten und dann 3monate später ne komplett neue architektur.
das meine ich mit mund etwas vollnehmen, könnte mir vorstellen das der gt300 dann wieder etwas auf sich warten lässt
 
die wollen bis ende juni wieder en refresh bringen (wenn sie es beim 55nm schon nicht einhalten konnten wegen iwelchen probs frag ich mich ob die das diesma einhalten) und bis ende september wieder 3 verschiedene karten und dann 3monate später ne komplett neue architektur.
das meine ich mit mund etwas vollnehmen, könnte mir vorstellen das der gt300 dann wieder etwas auf sich warten lässt

Im Prinzip hast du da Recht, das ist schon alles ziemlich viel, aber man muss auch anmerken, dass die Entwicklungen ja nicht aufeinander aufbauen, dass die nächste Karte erst geamcht wird, wenn die eine fertig ist.
Das läuft ja alles parallel, so sin djetzt z.B. GT214 in 40nm sicher schon längst in der Mache, auch wenn noch nichmal 55nm auf dem Markt ist.
 
Auf CB gibt es einen Test mit einer simulierten 285 GTX.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/vorschau_nvidia_geforce_gtx_285/

Wurde mit einer hochgetakteten 280 GTX gemacht.

Sollten die angenommenen Taktraten so stimmen, kann man von ziemlich genau 10 % Leistungsgewinn ausgehen.

Jap, es sind dann 11,3% mehr Takt, was auch ca. 10 - 11% mehr Leistung beudeutet bei der Architektur.
Das würde auch meinen Erfahrungen entsprechen, dass das ca. 1:1 skaliert, sprich 20% mehr Takt = 20% mehr Leistung, 30% mehr Takt = 30% mehr Leistung, 35% mehr Takt = 35% mehr Leistung, ....
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh