Geforce GTX 280 mit GT200B aufgetaucht

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zuletzt bearbeitet:
Den Witz kenne ich schon aus meinem Suche-Thread :hmm:

Da war nämlich einer sehr vorwitzig :wall:
 
Wenn die GTX285 kommt, sollten doch die Preise für die GTX280 sinken oder nicht?
 
Naja, wer seine Frage blöd formuliert, bekommt auch blöde Antworten! ;)
 
Die 285 soll also bis zu 10% mehr Leistung als die 280 haben und das bei nur 183Watt, das hört sich doch gut an!

Der G200b scheint ja ein kleines Sparwunder zu sein! :eek:

Vieleicht werden wir ja die geplanten G200 Taktraten von 650/1500MHz bei der neuen 285 endlich sehen ;)
 
Zuletzt bearbeitet:
Hier die News dazu, ...

http://en.expreview.com/2008/12/11/55nm-gtx285-climbs-to-head-of-single-gpu-cards.html

Dass die Karte nicht viel schneller ist, ist klar, ... aber mit 55nm sollte man da noch einiges anstellen können.

10% mehr Leistung könnte ca. 656/1448/2200 bedeuten.

Und mal abwarten, was die GPU an overclocking zulässt, dann sind vielleicht noch ein paar Prozent mehr drin :d

Was mich allerdings echt total nervt ist das da:
with dual DVI and S-Video output.

Warum keinen HDMI-Ausgang? :stupid:

Echt blöd. Mein Moni hat HDMI. Das wäre doch ne astreine Sache. Kleinere Stecker etc.
 
jo das ist echt schon schade das es kein hdmi gibt !

was vermutet ihr was die karte kosten wir d?!

MFG
 
@peepee: Dann nimm doch einfach ein Kabel mit DVI und HDMI! Aber unverständlich ist es schon, dass nvidia da nicht mit auf den Zug aufspringt. Die Gainward HD4870GS hat sogar einen Displayport Anschluss.
 
Referenz Karten haben doch nie einen HDMI, ausser die 9800GX2 und jetzt die 295, sonst kenne ich keine Karte die das hat.
 
Wie dem auch sei, wird Zeit, dass mal wieder was zur neuen GTX260 kommt.
 
Ähem :hmm: "PB" und nicht "PP"... soviel Achtung muss sein ;)


Ja das habe ich ja auch schon. Aber es wäre halt zeitgemäß und schön gewesen, wenn es einen solchen Anschluss nun gegeben hätte. :)

Sorry, soll nicht wieder vorkomme! peepee, peepee, peepee, peepee...ich glaub, jetzt habe ich es! ;)
 
für was brauch man bitte nen HDMI Anschluss?

Die überwiegende Masse der TFTs derzeit hat wenn überhaupt nen DVI Port, sehr viele kleinere 17-19" TFTs sogar nur VGA, also warum sollte man nen HDMI Port drauf bauen...
Nur weil der ein oder andere TFT nen HDMI Port hat? Ne das muss nicht sein. Zumahl HDMI eigentlich noch nichtmal nen Vorteil gegenüber DVI bringt, außer das vllt der Stecker kleiner wird, dafür bietet der HDMI Anschluss keine Möglichkeit mehr analoge Geräte anzustecken.

DVI ist also quasi der beste Kompromiss um keinen auszuschließen ;)


@Dural
eine Std. 280GTX brauch doch jetzt auch schon knapp 180W? bei 10% Mehrleistung und identischem Stromverbrauch steigt die Effizienz gerade mal um 10%, so viel ist das nicht ;)
 
für was brauch man bitte nen HDMI Anschluss?

Um den PC vielleicht mal an den großen Fernseher anzuschließen? Mein LCD-TV hat z.B. kein DVI Eingang, dafür aber 2x HDMI. Von daher wäre ein HDMI Anschluss schon nicht schlecht, aber dafür gibt es ja auch entsprechenden Kabel, von daher ist es kein Beinbruch.
 
@Dural
eine Std. 280GTX brauch doch jetzt auch schon knapp 180W? bei 10% Mehrleistung und identischem Stromverbrauch steigt die Effizienz gerade mal um 10%, so viel ist das nicht ;)

TDP der GTX 280 ist 236Watt! Also ganze 50Watt mehr!

Bei der 285 sind wir dann wohl bei einem realen Verbrauch von ca. 140-150Watt und das ist schon der Hammer!
 
Zuletzt bearbeitet:
TDP der GTX 280 ist 236Watt! Also ganze 50Watt mehr!

Bei der 285 sind wir dann wohl bei einem realen Verbrauch von ca. 140-150Watt und das ist schon der Hammer!

Und da ist wohl noch viel viel weniger drin, mit gesenkter Spannung.

Wie gesagt, selbst der G200 braucht in Form der GTX280 ca. 105W bei 1,03v ...
 
Jep, die neue 285 wird real wohl fast (vieleicht 5-20Watt mehr) an den Verbrauch der 4870 ran kommen und das mit ca. 10-30% mehr Leistung und einem viel grösserem DIE und 450Mio. mehr Transistoren!

Da sieht man was der RV770 / 4870 eigentlich für ein Strom fresser ist und das Wahrscheinlich nur wegen dem GDDR5...
 
Zuletzt bearbeitet:
eben GDDR5, NV ging wohl mit 512Bit und GDDR3 doch den richtigen Weg ;)
 
Um den PC vielleicht mal an den großen Fernseher anzuschließen? Mein LCD-TV hat z.B. kein DVI Eingang, dafür aber 2x HDMI. Von daher wäre ein HDMI Anschluss schon nicht schlecht, aber dafür gibt es ja auch entsprechenden Kabel, von daher ist es kein Beinbruch.

Neja wie du schon sagst, gibts dafür Adapter oder DVI to HDMI Kabel... Welche 1A funktionieren und der Ton auch mit durch geht. Von daher brauch HDMI an der Graka eigentlich kein Mensch.

Und solange sowieso nur 2 Ausgabegeräte gleichzeitig pro Graka verwendet werden können, lohnt es auch nicht wirklich Platz hinten an der Graka zu sparen, für was auch?
Und wie gesagt, mit DVI ist man am flexibelsten, mit HDMI hingegen schließt man alle Analog TFT/CRT Betreiber aus. (hab selbst noch nen 19" TFT analog als zweit TFT im erweiterten Desktop)

@Dural
dann schreib das doch dazu mensch ;)
kann doch keiner Riechen das du TDP meinst.
 
TDP der GTX 280 ist 236Watt! Also ganze 50Watt mehr!

Bei der 285 sind wir dann wohl bei einem realen Verbrauch von ca. 140-150Watt und das ist schon der Hammer!

Ist aber auch die Frage, wieweit sie die Spannung runterdrehen und ob man dann selber auch noch Spielraum hat, da was zu ändern. Eine GTX280 mit 1,03V liegt ja auch schon so in der Nähe.
 
@fdsonne: Ich meinte auch nicht HDMI only, sondern einen optional nutzbaren Port. Sicher sollen die beiden DVI für die Standards erhalten bleiben.
 
Neja mit 2xDVI ist die Blende hinten voll, also kein Platz mehr für HDMI, neja vllt doch, wenn man den SVideo Port weg lässt, den brauchen wohl sowieso nur die wenigsten ;)
 
Die 295 ist eh Müll, dann lieber gleich zwei 285 und man hat was rechtes!
 
da brauchst wieder ein SLI MoBo, gut du hättest eins, aber die Masse hat wohl keins...

Und ich denk mal die 295er macht nen recht guten Eindruck, im Gegensatz zur 9800GX2, welche dank des G92 Chips und dem kleinen Speicher wie ich finde nicht der bringer war.
Die 7950GX2 war ja auch nicht ganz ohne ;)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh