Geforce GTX 280 mit GT200B aufgetaucht

Status
Für weitere Antworten geschlossen.
Neja mit 2xDVI ist die Blende hinten voll, also kein Platz mehr für HDMI, neja vllt doch, wenn man den SVideo Port weg lässt, den brauchen wohl sowieso nur die wenigsten ;)

hmm die hd4870 Palit/XpertVision von meinem bruder hat hinten nen dvi-, vga-, hdmi- und displayportausgang
^^
allerdings kann man dann die luft nicht mehr hinten rausdrücken, jedenfalls nicht so gut.

aber am besten wäre es wenn nvidia einfach ein dvi-hdmi adapter beilegen würde dann sin auch die zufrieden die hdmi für ihren tv brauchen ;)

aber bei den neuen brauch man für hdmi doch immernoch ein spdif-kabel um ton durch einen dvi ausgang zu ziehen oder?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
von mir aus könnte man den SVideo Port auch mit ner zusätzlichen Slotblende und nem Flachbandkabel nachliefern, falls da jemand rumheulen sollte :fresse:
 
hmm die hd4870 Palit/XpertVision von meinem bruder hat hinten nen dvi-, vga-, hdmi- und displayportausgang
^^
allerdings kann man dann die luft nicht mehr hinten rausdrücken, jedenfalls nicht so gut.

aber am besten wäre es wenn nvidia einfach ein dvi-hdmi adapter beilegen würde dann sin auch die zufrieden die hdmi für ihren tv brauchen ;)

aber bei den neuen brauch man für hdmi doch immernoch ein spdif-kabel um ton durch einen dvi ausgang zu ziehen oder?

Bei NV zumindest, weil die Karten kein Sound erzeugen können und daher intern ne Verbindung zur Soundkarte brauchen.
Leider ist diese Verbindung wohl nicht ganz HDCP konform und es könnte da irgendwann mal zu Problemen kommen...

Funktioniert mit einer GTX295 und GTX285 wohl Triple SLI oder eher nicht, weil die Karten hardwaremäßig nicht gleich ausgestastet sind?

Denke mal das wird so einfach nicht freigegeben...

Technisch wohl kein Problem denke ich mal, da sollte es keine Probleme geben, schließlich ging damals CF auch mit ner 256 und ner 512er SI R600. Irgendwann wurde das mal durch den Treiber blockiert, soweit ich weis.

Ging denn ne 9800GX2 mit ner 9800GTX oder 8800GTS G92?
 
Zuletzt bearbeitet:
@fdsonne

was is nich ganz hdcp konform?
das die graka den sound selber erstellt oder das man den vom mainboard oder soundkarte nimmt?
 
Die 295 wird doch genau so wieder an ihren 896MB Speicher Mangel leiden wie die 9800GX2 mit ihren 512MB, gerade in Aktuellen und kommenden Games...

Gerade Quad SLI wird doch Brutal unter den 896MB leiden, natürlich nur mit AA...
 
Die 295 wird doch genau so wieder an ihren 896MB Speicher Mangel leiden wie die 9800GX2 mit ihren 512MB, gerade in Aktuellen und kommenden Games...

Gerade Quad SLI wird doch Brutal unter den 896MB leiden, natürlich nur mit AA...

Das denke ich auch, dass 896 MB im Grunde für so eine Karte viel zu wenig ist, da sollte nvidia gleich das Doppelte nehmen.
 
bin auf das O´clocking-Potential gespannt. Oliver, wirst du dir eine zulegen? Wäre doch eigentlich schade um deine jetzige, wo die so gut geht.
 
Du wirst zwar nicht mich meinen, aber ich glaube ich bin mir sicher, dass ich mir eine was auch immer 55nm GTX2xx zulegen werden (aber nicht die 295). Die alte GTX260 wandert dann demnächst in den MP. Eine Ersatzkarte für die Übergangszeit ist schon geordert.
 
@fdsonne

was is nich ganz hdcp konform?
das die graka den sound selber erstellt oder das man den vom mainboard oder soundkarte nimmt?

Die Verbindung von Sound zur Grafikkarte ist unverschlüsselt.

Aber das komplette signal muss eigentlich von der Quelle zum Ziel HDCP Verschlüsselt übertragen werden. Was halt in dem Fall nicht so wäre.
Im Moment ist das wohl noch kein Problem, aber kommende BR/HD DVD Disks werden irgendwann mal das Abspielen auf solchen Lösungen verhindern ;)

Man könnte nämlich in dem Fall verlustfrei das Signal abgreifen und den Ton mitschneiden und sowas beispielsweise soll die HDCP Verschlüsselung mit unter verhindern.

Du wirst zwar nicht mich meinen, aber ich glaube ich bin mir sicher, dass ich mir eine was auch immer 55nm GTX2xx zulegen werden (aber nicht die 295). Die alte GTX260 wandert dann demnächst in den MP. Eine Ersatzkarte für die Übergangszeit ist schon geordert.

Mach mir mal nen Preis für das Teil, Kumpel sucht wie gesagt noch sowas in der Leistungsklasse...
Vllt kann ich ihn davon überzeugen, wenn der Preis stimmt ;)
 
Zuletzt bearbeitet:
Schneller und Effizienter ist nicht das gleiche! Hardware-Infor nennt auch 10% an Performancezuwachs.



Die Geforce GTX 285 soll zusammen mit der neu auflegten Geforce GTX 260 (216) sowie der Geforce GTX 295 am 8. Januar 2009 im Rahmen der Consumer Electronics Show (CES) offiziell vorgestellt werden.

Wobei das hier eigentlich der (für mich) interessante Teil ist: Also wird es wohl eine unveränderte GTX260 geben, dann schon die zweite!
 
Zuletzt bearbeitet:
Die 40% ist natürlich eine etwas billige Rechung aus 30% weniger Verbrauch + 10% mehr Leistung, aus so was kann man natürlich nicht gleich sagen das die GPU 40% Effizienter ist...
 
Die 40% ist natürlich eine etwas billige Rechung aus 30% weniger Verbrauch + 10% mehr Leistung...
da wäre ich mir nicht so sicher.

wenn man den Kerntakt in Relation zur TDP setzt und das dann für beide Karten vergleicht, dann ist dieses Verhältnis (kann man wohl ohne Probleme Effizienz nennen) bei der neuen Karte bezogen auf den Wert der alten Karte um ca. 40 Prozent besser.

G200: 600/236 = 2,54 MHz/Watt
G206: 650/183 = 3,55 MHz/Watt

Steigerung = (3,55-2,54)/2,54 * 100 = 39,7 %

Wenn man für die Effizienz den Shadertakt heranzieht, dann schauts noch besser aus: 48,8 %
Aber ja, bei Prozentrechnungen von anderen bin ich auch immer erstmal skeptisch.

Nichtsdestotrotz bleibe ich beim G200 (sagt mir jedenfalls die Vernunft).

ciao Tom
 
Zuletzt bearbeitet:
Ja ich denke ist nichts wo man jetzt zwangsläufig wechseln müsste, dann lieber auf die nächste Gen warten und schauen was die Dualkarte bringt.
 
Bei Wikipedia steht was ganz interessantes zur TDP:


Durch die vermehrte Beachtung der TDP wird diese jedoch verstärkt auch ein Marketinginstrument der Hersteller. So gibt z. B. NVIDIA für die Grafikkarte Geforce 8800 Ultra eine geringere TDP an als für eine Geforce 8800 GTX, obwohl auf der 8800 Ultra der gleiche Grafikprozessor mit einer höheren Spannung und höheren Taktraten eingesetzt wird und – bei einer Überprüfung der Leistungsaufnahme – erwartungsgemäß einen höheren Wert erbrachte. Die niedrigere Angabe als bei der 8800 GTX war möglich, weil man dieser einen unnötig hohen TDP-Wert gegeben hatte.


Die aktuelle TDP der GTX280 ist meiner Meinung nach nämlich viel zu hoch angegeben.
 
da wäre ich mir nicht so sicher.

wenn man den Kerntakt in Relation zur TDP setzt und das dann für beide Karten vergleicht, dann ist dieses Verhältnis (kann man wohl ohne Probleme Effizienz nennen) bei der neuen Karte bezogen auf den Wert der alten Karte um ca. 40 Prozent besser.

G200: 600/236 = 2,54 MHz/Watt
G206: 650/183 = 3,55 MHz/Watt

Steigerung = (3,55-2,54)/2,54 * 100 = 39,7 %

Wenn man für die Effizienz den Shadertakt heranzieht, dann schauts noch besser aus: 48,8 %
Aber ja, bei Prozentrechnungen von anderen bin ich auch immer erstmal skeptisch.

Nichtsdestotrotz bleibe ich beim G200 (sagt mir jedenfalls die Vernunft).

ciao Tom

Nö kann man nicht, es ist aus den zwei Zahlen her schlicht unmöglich auf die Effizient der GPU zuschliessen!

Erstens gibt die TDP Angabe nicht den Tatsächlichen Verbrauch der Karte an und zweites weis man nicht ob noch sonstige Bauteile auf der Karte geändert wurden nur als Beispiel könnte der Speicher Effizienter (wie auch immer) auf der 285 sein als noch auf der 280 usw.

Ihr wisst schon das die 40% eine kleine Sensation wäre? Hätte keiner für möglich gehalten und sind es wohl auch nicht...
 
Zuletzt bearbeitet:
Hmm... GTX285 10% schneller als GTX280 bei weniger Stromverbrauch?
Waaahnsinn... 15% Takterhöhung sind da bei fast jeder Karte drin bei gleichzeitiger Senkung der Spannung auf 1,03v... dafür braucht man keine 55nm..
 
@Dural
das die Berechnung auf wackeligen Beinen steht, ist mir auch klar.
Es ging mir mehr um Deine Feststellung, der Ersteller der Nachricht hätte keine Ahnung von Prozentrechnung und hat einfach zwei Prozentwerte addiert.
Bei den 40 Prozent wird hoffentlich niemand denken, es würden dann auch 40 Prozent mehr fps bei rum kommen.

ciao Tom
 
geforcegtx2952dk7.jpg


geforcegtx2953su2.jpg


http://vr-zone.com/articles/more-geforce-gtx-295-card-shots/6274.html?doc=6274
 
Zuletzt bearbeitet:
Hmm... GTX285 10% schneller als GTX280 bei weniger Stromverbrauch?
Waaahnsinn... 15% Takterhöhung sind da bei fast jeder Karte drin bei gleichzeitiger Senkung der Spannung auf 1,03v... dafür braucht man keine 55nm..

würde mit dem neuen chip in 55nm aber keine taktsteigerung möglich sein, hätte nv das nich gemacht,
und da bei der gtx280 noch soviel (nennen wirs sicherheits abstand) zum max war wirds bei der gtx285 sicher net anders sein dh das du da noch ma mehr rausholen kannst wenn du oc'st
ist aber sicherlich net soo extrem das man unbedingt umsteigen muss
 
Zum Umsteigen reichts vielen sicher nicht, und selbst bei Erstkauf ist die Frage, ob die älteren Karten nicht preislich deutlich attraktiver werden. Zudem haben sich die meisten aus der Highend-Zielgruppe doch eh schon ne X2 bzw 280/260 zugelegt. Trotzdem wirds natürlich Leute geben (Freaks, Overclocking-Fanatiker, Neukäufer, die hohen Wert auf geringen STromverbrauch legen), die die kaufen.
 
Zuletzt bearbeitet:
Zum Umsteigen reichts vielen sicher nicht, und selbst bei Erstkauf ist die Frage, ob die älteren Karten nicht preislich deutlich attraktiver werden. Zudem haben sich die meisten aus der Highend-Zielgruppe doch eh schon ne X2 bzw 280/260 zugelegt. Trotzdem wirds natürlich Leute geben (Freaks, Overclocking-Fanatiker, Neukäufer, die hohen Wert auf geringen STromverbrauch legen), die die kaufen.

wird glaube ich immer leute geben die zb jetzt umsteigen wollen wie ich zb.

aber ich denke das die gtx260 in 55nm billiger wird wegen den preisen von ati können die sich eig keine höheren preise leisten
 
ich kanns garnicht erwarten bis zum 8 !
wann wird die hier in germany lieferbar sein ?!
ende Jan ?

MFG
 
Ihr wisst schon das die 40% eine kleine Sensation wäre? Hätte keiner für möglich gehalten und sind es wohl auch nicht...

Neja so besonders find ich das jetzt nicht...
Man schaue auf R600 zu RV670. Gleiche Leistung bei nur 50% der Leistungsaufnahme unter Volllast. Und nur 26% des Idle Verbrauchs...

Das nenn ich dann eher was besonderes ;)
 
Hmm... GTX285 10% schneller als GTX280 bei weniger Stromverbrauch?
Waaahnsinn... 15% Takterhöhung sind da bei fast jeder Karte drin bei gleichzeitiger Senkung der Spannung auf 1,03v... dafür braucht man keine 55nm..

Und? Dann kannste jetzt die Frequenze auch wieder steigern und die Spannung sicherlich auch.

Zum Umsteigen reichts vielen sicher nicht, und selbst bei Erstkauf ist die Frage, ob die älteren Karten nicht preislich deutlich attraktiver werden. Zudem haben sich die meisten aus der Highend-Zielgruppe doch eh schon ne X2 bzw 280/260 zugelegt. Trotzdem wirds natürlich Leute geben (Freaks, Overclocking-Fanatiker, Neukäufer, die hohen Wert auf geringen STromverbrauch legen), die die kaufen.

Yepp, mich z.B.! ;)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh