Geforce GTX 280 mit GT200B aufgetaucht

Status
Für weitere Antworten geschlossen.
wie schon gesagt, es sind ja schon Pics von Karten mit 14 Speicherchips hier rumgegangen, heist das kann eigentlich nur ne 260 oder 265GTX in 55nm sein... Die 280/285er GTX hat 16 Speicherchips und die 295er GTX hat 2x14 Speicherchips.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Eben, das sag ich ja, Produktionskostentechnisch sollten sich die 216 Shader Version und die 240 Shader Version eigentlich nur minimal unterscheiden, wenn also die kleine für ~250€ Endkundenpreis machbar ist, das wäre das auch die Große... (bei ähnlichem Gewinn)

Und somit wäre AMD wieder mal mächtig in der Klemme, zumindest solange, bis sie was neuen bringen. Ob nun wirklich ein Refresh seitens AMD kommt ist ja immernoch sehr ungewiss

Genaus das denke ich mir eigentlich auch immer. In der Produktion dürften die Chips doch nicht teurer sein, da sie ja eigentlich identisch sind und sich nur durch deaktivierte Hardwareeinheiten unterscheiden, PCB und Kühler sind meines Wissens auch gleich, also lässt sich nvidia die paar % Performanceunterschied ganz schön vergolden.

Und meine Vermutung ist halt, dass das im Moment recht viele schnallen und der Umsatz der 280 nicht den Erwartungen nvidias entspricht. Also muss ein Anreiz für Käufer geboten werden, entweder durch den Preis, durch Leistung oder durch beides zusammen oder aber man lässt das günstigere Modell weg.

Jetzt wo ich aber wieder das Bild der Karte sehe, kann ich es mir kaum vorstellen, dass da was entwickelt wird und dann nicht auf dem Markt gebracht wird oder aber die 285 wird so günstig, dass kein Platz mehr für die 260 ist. Wenns so wäre kann ich auch damit leben! ;)
 
Ich werde es für mich recht einfach machen. Sollte die 285 GTX (gegen meine Erwartung) recht günstig sein wird die gekauft.

Wenn NV aber auch noch eine 265 GTX bringt wird die sicherlich im 200er Preissegment liegen und die 285 GTX im 300er Bereich.
 
jo, wobei ich nicht denke, das die 55nm 216 Shader Version für 200€ kommt, die wird sicher 220+ kosten. Die 285er pendelt sich wohl wie die 280er bei 330-360€ ein. So meine Vermutung, wenn beide Karten kommen.

Wenn nur die große kommt, dann wird diese denke ich so im Bereich 250-280€ liegen, würd ich meinen.

Für mich aber beides uninteressant, wenn dann hol ich mir ne 295er GTX. Die Mehrleistung der beiden kleineren Modelle ist im Gegensatz zur HD4870 einfach zu gering, das es den Preis rechtfertigen würde...
 
Naja, ne 4870 mit 1Gb kostet auch noch mindestens 200€ oder so ?

Wenn die 265GTX ca. 200-250€ kosten würde kommt das finde ich schon hin.

Die Mehrleistung dürfte sicherlich ca. 20 % betragen.
 
Zuletzt bearbeitet:
jo, wobei ich nicht denke, das die 55nm 216 Shader Version für 200€ kommt, die wird sicher 220+ kosten. Die 285er pendelt sich wohl wie die 280er bei 330-360€ ein. So meine Vermutung, wenn beide Karten kommen.

Wenn nur die große kommt, dann wird diese denke ich so im Bereich 250-280€ liegen, würd ich meinen.

Wenn das wirklich so sein sollte, dann kann man dem ganzen Gelassen entgegen sehen, denn preislich gesehen ist beides attraktiv! Wobei ich wohl eine 285 für 250-280€ bevorzugen würde.
 
Naja, ne 4870 mit 1Gb kostet auch noch mindestens 200€ oder so ?

Wenn die 265GTX ca. 200-250€ kosten würde kommt das finde ich schon hin.

Die Mehrleistung dürfte sicherlich ca. 20 % betragen.

Neja, die 1GB HD4870 liegt so zwischen 205-245€ derzeit... Und ob ne 55nm 216er Karte schneller wird als die derzeitige 260GTX² bleibt abzuwarten. Aber 20% schneller als ne HD4870 wird wohl nix, das wäre ja schon fast wieder 280GTX Niveau. Aber mal abwarten
 
Naja, Ati scheint ohnehin etwas fixer mit den kleineren Strukturbreiten zu sein. Die sind schon seit der 3850 in 55nm dabei und nvidia führt das jetzt erst bei den High-End Karten ein.
 
Ja finde ich etwas schade...

Da der Stromverbrauch doch deutlich sinkt mit kleinerem Fertigungsverfahren.

Sieht man ja an der Umstellung von 65nm auf 55nm bei NV. Wieviel war da im Gespräch 40% ?! (Wenn man an der 65nm nichts tweakt)

Ganz nebenbei ist dann auch weniger Abwärme vorhanden und der Kühler könnte leiser agieren.
 
Naja, Ati scheint ohnehin etwas fixer mit den kleineren Strukturbreiten zu sein. Die sind schon seit der 3850 in 55nm dabei und nvidia führt das jetzt erst bei den High-End Karten ein.

könnte daran liegen, das NV die teils deutlich komplexeren Chips baut und umso komplexer die GPU, desto schwieriger wird es in nem neuen kleineren Herstellungsprozess, dort auch brauchbare Produkte zu erhalten. Vllt haben sie desshalb erstmal die 55nm gemieden.

Ja finde ich etwas schade...

Da der Stromverbrauch doch deutlich sinkt mit kleinerem Fertigungsverfahren.

Sieht man ja an der Umstellung von 65nm auf 55nm bei NV. Wieviel war da im Gespräch 40% ?! (Wenn man an der 65nm nichts tweakt)

Ganz nebenbei ist dann auch weniger Abwärme vorhanden und der Kühler könnte leiser agieren.

das liegt aber nicht an dem Herstellungsprozess primär, sondern an der für gleichen Takt benötigten niedrigeren Spannung.

Wie schon weiter oben mal erwähnt, ein Transistor in 65nm verbraucht ähnlich viel Strom wie einer in 55nm, wenn die gegebenheiten ähnlich sind und die angelegte Spannung die gleiche ist. Senkt man hingegen die Spannung bei 55nm dann wird auch der Verbrauch deutlich geringer ;)
 
Zuletzt bearbeitet:
*edit*

Alles klar, danke ;)
Wenn man sieht wieviel Strom man durch getweake bei den momentanen Karten sparen kann, lässt das ja dann auch noch auf die 55nm Karten hoffen. Evtl lässt sich da auch nochmal so viel rausholen ?

Zu den komplexen Chips:

Da stellt sich dann, wie ich finde wieder die Frage, wo ist der Vorteil eines so "komplexen" Chips ?

So weit entfernt sind ja die Atikarten nicht...
 
Zuletzt bearbeitet:
Da stellt sich dann, wie ich finde wieder die Frage, wo ist der Vorteil eines so "komplexen" Chips ?

So weit entfernt sind ja die Atikarten nicht...

Neja sowohl bei der G80 als auch bei den G200 Karten hätte NV gut was an transistoren sparen können, bei gleicher Leistung wie das AMD Top Produkt...

NV hat aber mit ihrer Architektur das einfachere Produkt geschaffen, mit den 1D Scalareinheiten. Diese werden im 3D Betrieb nahezu immer voll ausgelastet sein, bei AMD Karten mit den 5D Shadern hingegen ist es recht schwer ne sehr gute Auslastung hinzubekommen. Und das das derzeit im Gamingbereich noch nicht gelingt, zeigt auch die Leistungsangabe in TFlops im Vergleich zur realen Spieleleistung ;)
Da verpufft einiges...

Laut einigen Leuten hier im Forum wird aber davon ausgegangen, das mit zunehmenden Einheiten die NV Chips immer ineffizienter werden. (auch im Bezug auf Transistoranzahl pro Leistung bei gleichem Takt) Sprich irgendwann muss sich NV was überlegen...
Auf jedenfall war der R600 (trotz der nicht ganz so guten und erwarteten Leistung der schritt in die richtige Richtung bei AMD)
 
So ganz einleuchten tut mir das nicht.

Du sagt zunächst, dass die NV Karten komplexer sind. Bzw. die Chip.

Nun hast du aber geschrieben, dass die Atikarten schwerer auszulasten sind.

Hinkt das dann nicht ein wenig ?

Oder meinst du, dass die NV Chips "schwieriger" herzustellen sind als die ATI Chips ?
 
So ganz einleuchten tut mir das nicht.

Du sagt zunächst, dass die NV Karten komplexer sind. Bzw. die Chip.

Nun hast du aber geschrieben, dass die Atikarten schwerer auszulasten sind.

Hinkt das dann nicht ein wenig ?

Oder meinst du, dass die NV Chips "schwieriger" herzustellen sind als die ATI Chips ?

Jup komplex im Sinne von mehr Transistoren und dementsprechend mehr "Logikeinheiten" auf dem DIE.

Mal als Beispiel, ein Chip mit 500Mio Transistoren ist bedeutend einfacher und besser herzustellen als ein Chip mit 1,5Mrd. Transistoren.
Das hat aber nix mit der Auslastung am Ende zu tun, sondern bezieht sich nur auf die Herstellung...

Am Ende kann man wohl sagen, wenn der Herstellungsprozess noch nicht zu 100% richtig gut läuft, dann wird man mit nem 1,5Mrd Chip deutlich mehr Ausschuss produzieren als mit nem 500Mio Chip.

Zu sagen wäre vllt noch, das beispielsweise Cache wie er bei den CPUs eine große Fläche des DIEs einnimmt auch einfacher herzustellen ist als die Logikeinheiten. Eine GPU besteht aber quasi nur aus Logik. Und hier liegt auch das Problem...
 
Zu sagen wäre vllt noch, das beispielsweise Cache wie er bei den CPUs eine große Fläche des DIEs einnimmt auch einfacher herzustellen ist als die Logikeinheiten. Eine GPU besteht aber quasi nur aus Logik. Und hier liegt auch das Problem...

Der Satz gefällt mir: Bei der Logik liegt das Problem! ;) Was wohl Mr. Spock dazu sagen würde? :d
 
*g* Ich muss ehrlich sagen, dass ich mich noch nie wirklich damit beschäftigt habe.

Ich kaufe eigentlich immer gerade das Produkt, wo die Preis/Leistung am besten ist. Egal on NV oder Ati.

Eine 295 kommt deshalb (nichtmehr in Frage) Die X2 war wohl schon etwas zu groß *g*
 
Der Satz gefällt mir: Bei der Logik liegt das Problem! ;) Was wohl Mr. Spock dazu sagen würde? :d

Neja nich falsch verstehen, wenn man noch zusätzlich viel Cache mit in die GPU packen würde, würde sich am Problem aber nix ändern... der Logikteil ist und bleibt immernoch schwerer herzustellen als ein gleich viel Transistorfassendes Produkt, wo überwiegend viel Cache verbaut wurde.

@henniheine
jo so sollte man das auch machen, leider liest man hier und da aber auch immer wieder von Leuten, welche aus irgend einer Sympatie zum einen Hersteller unter anderem Produkte dessen kaufen obwohl diese offensichtlich schlechter sind als die Konkurenz. ;)
Ist aber immernoch jedem seine Sache, was er kauft und was nicht...

Schlussendlich ist es auch total egal, was in der GPU steckt, hauptsache es kommt genügend Leistung bei raus und der Stromverbrauch ist im Rahmen.
 
Zuletzt bearbeitet:
Neja nich falsch verstehen, wenn man noch zusätzlich viel Cache mit in die GPU packen würde, würde sich am Problem aber nix ändern... der Logikteil ist und bleibt immernoch schwerer herzustellen als ein gleich viel Transistorfassendes Produkt, wo überwiegend viel Cache verbaut wurde.

@henniheine
jo so sollte man das auch machen, leider liest man hier und da aber auch immer wieder von Leuten, welche aus irgend einer Sympatie zum einen Hersteller unter anderem Produkte dessen kaufen obwohl diese offensichtlich schlechter sind als die Konkurenz. ;)
Ist aber immernoch jedem seine Sache, was er kauft und was nicht...

Schlussendlich ist es auch total egal, was in der GPU steckt, hauptsache es kommt genügend Leistung bei raus und der Stromverbrauch ist im Rahmen.

Und genau da hat nvidia im Moment ja in beiderlei Hinsicht die Nase vorn. Aber ohne ATI würden die Karten wahrscheinlich heutzutage nicht so sein, wie sie sind. Konkurrenz belebt das Geschäft, auch wenn es nur ein Konkurrent ist.
 
Aha, war nicht mal die Rede vom 8. Januar als Release Datum, jetzt heißt es laut Fudzilla Mitte Januar! Naja, aber wenigstens wird die 55nm GTX260 mal wieder erwähnt.
 
Jetzt wo ich aber wieder das Bild der Karte sehe, kann ich es mir kaum vorstellen, dass da was entwickelt wird und dann nicht auf dem Markt gebracht wird oder aber die 285 wird so günstig, dass kein Platz mehr für die 260 ist. Wenns so wäre kann ich auch damit leben! ;)

wie meinsten das kein platz ?
dann könnten se die doch auch für weniger anbieten, wenn die gtx285 dann so um die 250-300 kosten würde, wer hätte denn dann nich lieber ne gtx260 55nm für 180€ als ne hd4870 (fanboys ausgeschlossen)

@TopAce888

da stand doch immer nur das die am 8.01.09 auf irgendeiner messe vorgestellt wird oder?
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Der 8. Jan. liegt doch genau in der Zeit wo die CES läuft...
die geht glaub von 7.-11.1. soweit ich mich da erinnern kann.

und ne, also in Sachen Stromverbrauch ist die 260GTX² der HD4870 ein wenig unterlegen, zwar nur ganz ganz minimal, aber sie ist unterlegen ;) (bei Std. Karten)
Manche Karte des ein oder anderen Partners der Hersteller machen aber auch ausreißer nach oben/unten.
 
Aber man sollte ja nicht nur den Last-Verbrauch betrachten, sondern auch den Verbruach im Idle-Zustand und da kann ATI im Moment überhaupt nicht punkten.
 
Aber man sollte ja nicht nur den Last-Verbrauch betrachten, sondern auch den Verbruach im Idle-Zustand und da kann ATI im Moment überhaupt nicht punkten.

Da hast du recht, die haben die PowerPlay Funktion irgendwie total verrissen... Abhilfe wird da auch wohl nicht kommen.
Wobei es glaub auch da Karten von verschiedenen Partnern gibt, welche da punkten ;)
 
kann(will) nicht glauben das die 399€ stimmen
die leistung die die gtx285 haben wird würde meiner meinung nach den preis der gtx280 rechtfertigen aber das die jetzt nomma was drauflegen...

ok aber vll bleiben die preise auch nur so hoch bis die alten karten vom tisch sin das würde wieder sinn ergeben weil sont würde ja keiner mehr den alten kram kaufen ^^

wobei ichs doch besser fände wenn die einfach die alten billiger machen würden:p
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh