Geforce GTX 280 mit GT200B aufgetaucht

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ALSO ICH WEISS NICHT WAS DAS SOLL !
Das hier ist der Geforce GTX 280 mit GT200B aufgetaucht Thead !
Was hat hier GTA4 zu suchen ?

mal wieder bäcktotropik :-)

es soll doch noch eine 290 rauskommen oder weil man liest nur noch von der 295 ??

Vielleicht nennt nvidia die 55nm Karten ja einfach GTX 265 und GTX285 und dan passt wieder alles.
 
ok hoffe du hast recht
und hoffen tuhe ich auch noch das die high end also 285 noch in diesem monat rauskommt !

mfg
 
Hoffen können wir auch, dass nvidia uns mit den neuen Karten überrascht, denn wer hätte gedacht, dass die Dual-GPU-Karte nicht GTX260 GX2 heißen würde? Evtl. wird ja für die Single-GPU Karen doch noch was an der Taktschraube gedreht?
 
na das wäre ja ein traum, niedrigere spannungen und höherer takt :d

aber im grunde wäre die takterhöhung für leute wie uns egal da sie eh übertaktet wird ^^

genau das meine ich auch! Aber wenn die karten ala GTX280 55nm nun nicht min 800Mhz core packen lohnt das für mich überhaupt nicht da sonst zwei 9800GTX + mit 1024MB im SLI die 55nm GTX total vernichten würde was sie aber auch selbst bei 800Core der GTX280 locker machen sollten!!
Ok das betrifft nun aber nur leute die ein SLI board haben!
Der GT200 hat einfach zu wenig textur einheiten und zur zeit sind zwei 9800GTX + mit 1024MB günstiger und um welten schneller als eine voll getaktete 280GTX da fast immer die textureinheiten fehlen ;)
 
Zuletzt bearbeitet:
musst aber die Microruckler in kauf nehmen und das Problem noch dazu, dass nicht alle Spiele SLI unterstützen. Wie z.B GTA4
 
Es kam bisher zu jeden Spiel ein Treiber raus, wo das nötige Profil integriert war. Siehe Far Cry 2 o.ä.
Das wird in GTA ganz sicher auch so sein. Zumal das ja ein "Toptitel" ist, von der Bekanntheit.

Und Microruckler ? Wenn man mit so einer Karte in solche Framebereiche kommt, wo Microruckler überhaupt erstmal "deutlich" werden ist Hopfen und Malz sowieso verloren. (<30 fps)

Ich merke bei meiner X2 nichts davon.
 
Zuletzt bearbeitet:
genau das meine ich auch! Aber wenn die karten ala GTX280 55nm nun nicht min 800Mhz core packen lohnt das für mich überhaupt nicht da sonst zwei 9800GTX + mit 1024MB im SLI die 55nm GTX total vernichten würde was sie aber auch selbst bei 800Core der GTX280 locker machen sollten!!
Ok das betrifft nun aber nur leute die ein SLI board haben!
Der GT200 hat einfach zu wenig textur einheiten und zur zeit sind zwei 9800GTX + mit 1024MB günstiger und um welten schneller als eine voll getaktete 280GTX da fast immer die textureinheiten fehlen ;)

Wie bitte? Wie kommst du denn auf das schmale Brett? :hmm:
 
Ganz einfach weil ich zwei 8800GTS @ 738/1825/1053 eingebaut hatte und um welten mehr FPS hatte als mein Kumpel mit seiner GTX280 AMP@ max was er rausholen konnte! Dann kenne ich noch wenn der bei einer Hardware zeitschrift arbeitet und sein part sind da die Grafikkarten und er meinte die 216shader und mehr sind schwachsinn und werden kaum genutzt anders siehst bei den taxturen aus die bei den karten eigentlich unterdemensioniert sind!!

Also ich zocke zur zeit mit einer 8800GTS @ 780/1890/1053 und mein kumpel hat eine GTX260 (216) @720/1550/1150 und ist nicht deutlich schneller in den games! Er hat seine GTX260 nun auch schon verkauft ;) und will sich nun eine 9800GTX+ 55nm 1024MB kaufen da die teilweise mit wakü an die 900Core drückt und dann 100% gleich bzw schneller ist als seine GTX260 aber weniger verbraucht!

P.s. sage aber lieber nicht zu viel zu verbrauch im sli da sonst keiner mehr die GTX280 kauft und ich keine 9800GTX+ 1024MB ab bekomme! OK, sag nur das die im SLI im idle sowie unter last weniger schlucken als eine GTX280 ohne OC ;)
 
Zuletzt bearbeitet:
Auf DX 9 oder DX 10 ??

Getestet mit Vista 64 + neustes DX (welches deutlichst performence gebracht hat) @ COD4, COD5, Farcry2, Tombraider Underworld und Fallout3 halt games die wir zocken!

Kann jedes Game in 2048x1536 zocken und das mit einer karte bei Tombraider sogar dabei noch 4xAA an und das troz einer 8800GTS mit nur 512MB!

Danke nochmal an Navigator für den geilen tipp mit dem D3D 11 link!!!

EDIT: Also das ist jetzt mal meine theorie und wie jede theorie muß das hier nicht stimm was ich nun vermute!
viele leute haben ja ihre GTX260 bzw. GTX280 von der voltage auf 1.03V runter geflasht ohne dabei weniger OC potenzial zu erhalten, allerdings glaube ich nicht das NV aus spaß nur einfach mal so viel zu viel volt gegeben hat! Ich denke das die 1,03V nicht ausreichen um die karte dann noch mit OC absolut stabil zu betreiben aber man einfach nicht richtig testen kann ob nun die karte 100% stabil ist da man die 216 und mehr shader nicht 100% auslasten kann! kann mir einfach nicht vorstellen das die von NV so verblödet sind und einfach so viel volt geben! Habe mich aber auch mit meinem kumpel ,der für eine Tschechische harwarezeitung arbeitet, in dieser hinsicht unterhalten und er sieht das ähnlich.
Ein Quadcore rennt ja auch tage durch auch wenn zu wenig spannung drauf ist aber nur zwei threads genutzt werden soweit zu meiner theorie das steinigen möge beginnen :shot:
 
Zuletzt bearbeitet:
Ganz einfach weil ich zwei 8800GTS @ 738/1825/1053 eingebaut hatte und um welten mehr FPS hatte als mein Kumpel mit seiner GTX280 AMP@ max was er rausholen konnte! Dann kenne ich noch wenn der bei einer Hardware zeitschrift arbeitet und sein part sind da die Grafikkarten und er meinte die 216shader und mehr sind schwachsinn und werden kaum genutzt anders siehst bei den taxturen aus die bei den karten eigentlich unterdemensioniert sind!!

Also ich zocke zur zeit mit einer 8800GTS @ 780/1890/1053 und mein kumpel hat eine GTX260 (216) @720/1550/1150 und ist nicht deutlich schneller in den games! Er hat seine GTX260 nun auch schon verkauft ;) und will sich nun eine 9800GTX+ 55nm 1024MB kaufen da die teilweise mit wakü an die 900Core drückt und dann 100% gleich bzw schneller ist als seine GTX260 aber weniger verbraucht!

P.s. sage aber lieber nicht zu viel zu verbrauch im sli da sonst keiner mehr die GTX280 kauft und ich keine 9800GTX+ 1024MB ab bekomme! OK, sag nur das die im SLI im idle sowie unter last weniger schlucken als eine GTX280 ohne OC ;)

Möchte dann nicht wissen, was das für eine Zeitschrift ist. Ich habe vor ein paar Monaten meine 8800 GTS 512 @ 750/1950/2100 gegen eine GTX260 @ 702/1404/1188 gebencht und bin zu dem Entschluss gekommen, dass die GTS immer noch sehr schnell ist, aber ihr deutlich schneller die Puste ausgeht. Crysis z.B. ist mit einer geocten GTS auf 1680x1050 mit AA nicht spielbar, mit der GTX hingegen schon, dasselbe Spiel wird nun immer mehr sichtbar. Gut, wer keinen Wert auf AA legt, der kann auch mit einer GTS noch glücklich werden.

Mal zu den Preisen, eine 9800 GTX+ mit 1024 MB kostet günstigst knappe 180€. Zwei davon kosten also 360€, dafür bekommt man schon locker eine GTX280, die weitaus sinniger, keine Mikroruckler, dauerhaft Performance, keine SLI Profile und weitaus niedriger im Stromverbrauch sowohl im Idle als auch unter Last. Wie du darauf kommst, dass eine GTX+ im SLI weniger im Idle und unter Last verbraucht ist mir ein Rätsel! Oder war das wieder dein Freund von der Zeitschrift?
 
Zuletzt bearbeitet:
Ganz einfach die neuen 9800GTX+ haben genauso wie die GTX260 und 280 einen 2D takt bekommen und geben im 2D weniger spannung sie liegen im idel etwa bei höhe einer 9600GT und bei last haben die neuen grade mal 76Watt Peak soviel dazu und das eine GTX260 schneller als eine 8800GTS ist ist auch klar da die GTS weniger shader + texturen hat! Da braucht man bei der GTS schon deutlich höhere taktraten!
P.s. gibt genug tests mit der neuen GTX+ 55nm wo das bewiesen wird ;)
 
Eine GTX+ mit 1.024 MiB hat ziemlich wenig Bandbreite, da nur 900 MHz VRAM. Und die G92er sind ohnehin mit höheren Settings gerne mal Bandbreiten limitiert. Dann noch µRuckler und Input-Lag ... ne 260² OC ist das klar bessere Paket.

@ Powerplay

Dann lass doch mal so ein GTX+-BIOS sehen.

cYa
 
Ach, die sind auch noch vom Speicher her limitiert? Na dann prost mahlzeit!
 
Das ist doch n Witz, die Karte hat nur 256-bit SI und das mit GDDR3 ^^. Da kann da so ein Sli-Gespann mit 2 x 9800+ nicht wirklich an einer Karte mit 512-Bit in hohen Auflösungen mit AA und AF vorbeiziehen!?!? :hmm:
 
powerplay, du bist fürn 1.april ein wenig zu früh.
 
...Ich denke das die 1,03V nicht ausreichen um die karte dann noch mit OC absolut stabil zu betreiben aber man einfach nicht richtig testen kann ob nun die karte 100% stabil ist da man die 216 und mehr shader nicht 100% auslasten kann!
mit dem Furmark bringst Du die 100%-Auslastung ziemlich leicht hin, würde ich mal sagen.
Sieht man dann auch an dem extremen Verbrauch und den Temperaturen.
Und im Luxx gibts genügend Leute, die ihre Karten damit testen.

Die Sache mit der Spannung hat meiner Meinung nach einen anderen Grund.
Ich hab damals mit den Karten, bevor ich sie auf Wakü umgebaut habe, auch etwas mit der Lukü experimentiert.
Übertaktung mit 1,03 V: Bei Temperaturen über 65 °C sind die Karten abgestürzt
Übertaktung mit Standardspannung: die Karte wurde deutlich wärmer als 65 °C und sind trotzdem nicht abgestürzt.
Um die Karte unter 65 °C zu halten, musste ich den Lüfter auf 100 Prozent stellen und wer mag schon andauernd diesen Krach aushalten?

ein Posting von mir von damals

ciao Tom
 
Zuletzt bearbeitet:
GTX295 sowas kauft sich eh kein mensch der eien GTX260 oder 280 hatt, die leute warten bis wenw as wirklich neues kommt der G300 oder so! Alles andre ist mist!
 
Ich bin jetzt wirklich gespannt, wann die ersten Reviews im XS auftauchen.. so lange sollte es nichtmehr dauern.. ;)
 
Eine GTX+ mit 1.024 MiB hat ziemlich wenig Bandbreite, da nur 900 MHz VRAM. Und die G92er sind ohnehin mit höheren Settings gerne mal Bandbreiten limitiert. Dann noch µRuckler und Input-Lag ... ne 260² OC ist das klar bessere Paket.

@ Powerplay

Dann lass doch mal so ein GTX+-BIOS sehen.

cYa

Frag doch mal im 9800GTX sammelthread da sind schon ein paar leute mit diesen karten am start! Die leute haben das auch getestet und der verbrauch ist deutlich besser geworden!
Zur bandbreiten limitierung also es spielt bei mir keine rolle ob ich nun bei COD5 oder z.B. Tombraider Underworld meinen VRAM auf 900Mhz takte oder 1100Mhz ist absolut egal bringt grade mal 3-5FPS unterschied bei 2048x1536 also was solls und glaube mir zwei 9800GT 1024MB würden sogar schon eine GTX260² so nieder rechnen da kannste die GTX260 takten wie du willst!

Ich bin auch auf die 55nm G200er gespannt interessiert mich schon ob die dann vieleicht auch unter 200€ zu haben sein werden
 
Zuletzt bearbeitet:
Ich meine auch nicht die MHz-Zahl bzw. Taktung. Die Bandbreite findest du nicht in der Taktung, sondern beim Interface (SI). Bei hohen Auflösungen kommt es auf das Speicher-Interface an. 256-Bit ist da doch sehr wenig für GDDR3. Da hat die 8800GTX ja mehr (384 Bit) Und genau das war immernoch ein Vorteil der 8800GTX. Hohe Auflösung und AA +AF da brach die 9800 GTX oft schneller ein wegen dem kleineren SI.
 
Ich meine auch nicht die MHz-Zahl bzw. Taktung. Die Bandbreite findest du nicht in der Taktung, sondern beim Interface (SI). Bei hohen Auflösungen kommt es auf das Speicher-Interface an. 256-Bit ist da doch sehr wenig für GDDR3. Da hat die 8800GTX ja mehr (384 Bit) Und genau das war immernoch ein Vorteil der 8800GTX. Hohe Auflösung und AA +AF da brach die 9800 GTX oft schneller ein wegen dem kleineren SI.

Recht hast du, aber die Beschreibung ist nicht ganz richtig.
Die Bandbreite ergibt sich aus SI und Speichertakt.
 
Ja okay, ist schon recht :fresse:

So müsste es eigentlich lauten:

Ich meine auch nicht nur die MHz-Zahl bzw. Taktung. Die Bandbreite findest du nicht "nur" in der Taktung, sondern "auch" beim Interface (SI).

Ich wollte halt explizit darauf hinweisen, dass die 9800 eben nur die Hälfte an SI hat. (zur GTX 280). Leistungstechnisch kann sie also in den hohen Auflösungen nun nicht der Überflieger sein, dennoch ein klarer Preis-Leistungs-Tip!
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh