Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen 3

Status
Für weitere Antworten geschlossen.
"NVIDIA GTX 350
GT300 core
55nm technology
576mm
512bit
DDR5 2GB memory, doubled GTX280
480SP doubled GTX280
Grating operation units are 64 the same with GTX280
216G bandwidth
Default 830/2075/3360MHZ
Pixel filling 36.3G pixels/s
Texture filling 84.4Gpixels/s
Cannot support D10.1 .10.0/SM4.0"
ist doch eh Quark...wieviel Watt soll die fressen und der "b" ist nen ordinäre Shrink sonst nix.....günster zu bauen...paar Takte mehr und das wars..wer kaufen will soll sich die G90 Shrinkerei ansehen,dann weis er was er kauft.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mal schauen, welche Infos zum GT200b noch durchsickern werden. Vielleicht stimmt das ja mit den mehr Shadereinheiten, aber wenn das dann so wirklich sein sollte, denke ich kaum, dass der Chip kleiner wird als der GT200 in 65nm, denn schließlich müssen ja die zusätzlichen Shader irgendwo untergebracht werden, oder sehe ich das falsch?
 
Mal schauen, welche Infos zum GT200b noch durchsickern werden. Vielleicht stimmt das ja mit den mehr Shadereinheiten, aber wenn das dann so wirklich sein sollte, denke ich kaum, dass der Chip kleiner wird als der GT200 in 65nm, denn schließlich müssen ja die zusätzlichen Shader irgendwo untergebracht werden, oder sehe ich das falsch?

glaub ich kaum das die mehr shader bekommt, die wird einen höheren takt haben und das wars schon.

und zur GT300,ich mein spekulieren ist ja lustig wenn es kurz bevor launch ist aber 6 monate vorher,naja:eek:
ps. von den spekulierten werten der gt300 halt ich gar nichts,alles quak.
 
Zuletzt bearbeitet:
daß der Preis stark fallen würde, war ja nun wirklich abzusehen (Performance + Preis der Konkurrenz). Die 8800GTX hatte keine Konkurrenz, deshalb ihre Preisstabilität. Nie hat das schöne Wort "Deppenaufschlag" so gut gepasst wie zum Release der GTX280 :d

wer nicht in den usa wohnt und geld zurück bekommt der zahlt halt den deppenaufschlag. noch dümmer sind die, die ihre 8800 gts mit einer 9800 gtx ersetzt haben (mehrnutzen: + 25 mhz takt)
 
Zuletzt bearbeitet:
Hallo,

meiner Meinung nach gibts in nächster Zeit (dieses Jahr) von Nvidia nur eine Verdopplung der Shadereinheiten durch eine Dual-GPU Karte. Alles andere dauert imho noch bis nächstes Jahr.

aber zurück zum Thema:
Meine GTX 280 von EVGA ist heute gekommen.:banana: Aufgrund des noch fehlenden Wasserkühlers kann ich sie vorerst nur im Rechner von meinem Vater ausprobieren (ich hab wegen der Wakü auf dem Board keinen Platz für einen Doppelslot-Kühler). Zum Glück hab ich noch mein altes Lukü-Netzteil aufgehoben. Das im Rechner von meinem Vater würde wohl nicht reichen.

Ciao Tom
 
ich schätze die gtx 350 mit 2 gig ddr5 könnte eine gx2 sein oder werden, und die 512 mb si evtl. 2x 256 bit si

edit:
gtx300 256mb si und 1 gig ddr5 ram und gtx 350 ebend das doppelte.
ist zwar nur speku aber so würde es sinn ergeben.
 
Zuletzt bearbeitet:
bei den Performancezuwächsen (komisches Wort :)) kommen die Games garnicht mehr nach, die die Leistung auch ordentlich abrufen, hab ich den Eindruck. Ok, wenn man 55xAAQSTAFFF zuschaltet und einen Monitor in Kinogröße vor die Birne stellt.:-[
 
bei den Performancezuwächsen (komisches Wort :)) kommen die Games garnicht mehr nach, die die Leistung auch ordentlich abrufen, hab ich den Eindruck.

Finde ich auch, aber dafür kann ich nun eben wieder an der Bildqualität schrauben, wo vorher bei 4xFSAA und 16xAF die Grenze erreicht war. Das ist dann eben auch das letzte Tüpfelchen auf dem i, wofür man einen gewissen Preis bezahlen muß, wenn man denn möchte.

Wenn ich mir z.B. bei Grid die Nachtrennen in der Innenstadt von Tokio anschaue, dass sieht einfach super aus in maximaler Qualität, mit den ganzen Reflexionen und dem nassen Ashphalt.
 
Spekuliere beim 350 mal stark mit einer 2 Kern Karte/ entweder gx2 like oder sogar 2 Kerne auf einem Die, dafür sprechen meiner Meinung nach die 2 GB Ram und 480 SP, durch 2 ist das für mich schon realistischer mit Gddr5
 
ich denke da gibt es genug Beispiele. Und wer so viel Geld in eine high end Karte investiert, aber seine Glupscherchen mit einer 1280x1024er Auflösung vergewaltigt gehört sowieso :shot:

Irgendwer unter den 280er Besitzern hier der Arma hat?
 
habe Arma, aber noch keine 280 (heute vormittag bestellt per Vorkasse, dauert also noch n Weilchen). Ich hab mich schon doofgegoogelt, um rauszukriegen, wie Arma mit HD48XX bzw GTX2x0 laufen. Fehlanzeige. Wäre echt mal interessant, weil Arma2 ne ähnliche Engine benutzt.
Hinzugefügter Post:
Ich sag nur Crysis...da ist keine Karte zu schnell... :lol:
ist ein gutes Game, aber für mich kein ausschlaggebender Grund, mir so ne Karte zu kaufen. Wie wird nochmal Warhead beworben: NOCH mehr Explosionen & Action. Na schön´Dank auch.
 
Zuletzt bearbeitet:
Hmmm... ArmA ist auf jeden Fall ein guter Test um das VRAM der 280er zu füllen. Ich hab ja auf der 880GTX schon über 700MB hinbekommen.
 
Crysis is einfach scheiße programmiert, Warhead wird warscheinlich genau so gut aussehen, wenn nich sogar besser und vor allem wird es flüssiger laufen.
 
hast du das wirklich geglaubt?

steht nun der releasetermin für den gt200b?
wenn ja wann?

diese geheimnistuerei geht ein aufn sack...

Angeblich September, aber so genau weiß das keiner, außer Nvidia und deren Partner halt...

Warhead soll angeblich auch ne bessere Performance haben als Crysis. Hoffen wir es mal. Hoffen wir, dass so bald kein Spiel kommt, dass mehr Hardware frisst als Crysis...
 
Zuletzt bearbeitet:
Ich hoffe bei der 55nm Version wirds auch ne Single GPU Version mit höherem Takt geben, alla GTX 290 Ultra
 
Was die Entwickler versprechen und was dabei herauskommt hat man an Crysis gesehen. Irgendwann muss man doch mal seine Naivität ablegen.
 
ist ja nicht PC only..von daher wird wohl auch mit ner 4200ti laufen :d
 
Hallo,

die Temperaturen von meiner GTX 280 scheinen schon mal zu passen.
Die Absenkung des Taktes und der Spannung scheinen durch den Treiber gesteuert zu werden. Jedenfalls sinkt der Stromverbrauch des PCs erst nach dem Laden von Windows von ca 125 auf ca 85 Watt (Idle).
Der Rechner hat sonst Onboardgrafik (Intel G33 Chipsatz). Mit diesem warens vorher im Idle 43 - 50 W. Ich weiß zwar jetzt nicht, ob und wieviel die Northbridge mit deaktivierter Onboardgrafik weniger braucht, aber der Verbrauch im Idle scheint ja so doch recht gut mit den Angaben von Nvidia überein zu stimmen.
Während dem 3DMark Vantage hab ich so 240 Watt abgelesen.
Das Netzteil (Thermaltake Toughpower 600 W, combined 48 Ampere für die 12V) scheint aber trotzdem recht gut beschäftigt zu sein. Jedenfalls fiept es ziemlich stark. Ich hab zuerst befürchtet, es wär die neue Graka. Aber das Geräusch kommt vom Netzteil.

Ciao Tom
 
Das werden in naher Zukunft noch einige Verwechseln,die Karte streßt ältere Netzteile kräftig wenn sie am Schalten ist.
 
Jungs wie isn eine Luftgekühlte und nicht übertaktete GTX 280 denn so Temperaturmäßig und auch Stromverbrauchsmäßig einzuordnen.
Will demnächst komplett neuen Computer zulegen.
Habe auf die HD4870 gewartet aber die scheint ja der Reinfall zu sein weil nicht so Tempstabil und eh um einiges langsamer als die GTX 280.
Und ich will kein SLI oder irgendwelche X2 Lösungen haben. Also welches sind die besten Hersteller für die GTX 280?
Danke für die Antworten dann im voraus.
 
Das mit dem Fiepen beim Umschalten habe ich auch bemerkt, besonders dann wenn sie stark übertaktet ist, im Spiel ist es dann weg....
 
HisN die Ati sind auch nicht viel heißer nur bringen sie halt 30% weniger Leistung und dass isn Haufen und auf Crossfire oder X2 wie gesagt keinen Bock.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh