Geforce GTX 280 mit GT200B aufgetaucht

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
seit wann kommt ne GX2 auf ein PCB??? die war immer auf 2 pcbs und wirds auch jetzt noch bleiben. und 2 gtx290 darauf sind sicherlich nicht abwegig. wenn die mit 2GB kommt, kann sie nur als doppelte 280er in 55nm kommen. also 2 290er im sandwich. ;)
 
Ja, so wirds kommen und auch kommen müssen. Ati wird die Preise der HD4870 / 4850 und X² senken um NV nicht den Hauch einer Chance einführen zu lassen. Das die Preise nun der 4870/ X2 so stabil blieben und gar etwas anzogen ist eben NV zuzuschreiben da sie einfach nichts entgegenzusetzen haben/ hatten.
Und sie waren einfach zu hoch zu Roß unterwegs....
Wie war mal deren Aussage: ATI kann schon kommen, Sie hätten für ALLES schon dass passende Zugpferd parat... und was ist daraus geworden? Nichts als heisse und arrogante Luft!

Die Preise werden nun wohl bald noch vor dem Refresh wie folgt aussehen.
4850 --->110 Euro,
4870 --->160 Euro
und HD4870 X² ---> 320 Euro.
Duch das dennoch einfache PCB und denn immer billig werdenden GDDR5 Speicher kann sich ATI dies leisten und werden wohl bis zum Weihnachtsgeschäft dann vielleicht den mal erwähnten "Super RV770" bringen mit 900 Mhz Core und dies sollte dann wohl reichen bis zu den HD5800-er Karten.
 
@zuppi: Jaja, erst über DualGPU Systeme rummeckern und nun leugnen, es jemals getan zu haben. Solche Leute kenne ich zu Hauf. :haha:
Du solltest nicht so tief in die Flasche guggen :d
Und mußt nett weinen, ich hab auch gelacht als ich mit der 280er in 1920 in Stalker CS mit 10 FPS in der Gegend stand...
 
Ich muss auch sagen, dieses Jahr hat bisher Ati einfach die Nase vorn.
Und mit der 4870 X2 mit Wasserkühlung war ich auch rundum zufrieden. Leistung satt.

Nun mal schauen wie sich die NV Refreshs schlagen.
 
die GTX 280 is die königin der single gpu karten

da macht ne 2 chip karte keinen vergleich

Gerade der immens hohe Shadertakt der Grafikkarte ist so verdächtig. Nichtmal Overclocker schaffen beim GT200 einen solch hohe Takt... deswegen kamen auch die Gerüchte bezüglich des GT200B auf.
Hinzugefügter Post:


Naja... für Blödsinn halte ich es nicht eine Dual-Grafikkarte mit einer Single-Grafikkarte zu vergleichen. Der Vergleich spricht doch eindeutig für die bessere Architektur auf Seiten AMDs.

Wenn man davon ausgeht, dass ein Single- zu Dual-Karten-Vergleich Blödsinn ist, dann müsste es doch auch Blödsinn sein, den 576 mm² großen GT200 mit dem 260 mm² kleinen RV770 zu vergleichen, oder?

Naja... AMD ist wieder am kommen und Nvidia hat im Moment noch keine wirklichen Mittel dagegen.


ATI hätte doch auch wenn sie Geld aus dem Fenster hätten werfen wollen die 2 "kleinen" RV770 als eine 520 mm² Single GPU entwickeln können u hätte dann immernoch galant unter dem 576 mm² großen Nvidia "Hitzkopf" gelegen u ihn auch ebenso galant zersägt ;)

Aber mein eigentliches Anliegen, kann mir einer erklären ob NV die ganzen Leute entlässt und 5 Grafikboardpartner aus dem Boot schmeisst, damit sie sich David Copperfield leisten können, der es für sie mit magischen Kräften möglich macht eine GX2 herzustellen? ...ich meine also wegen Stromhunger und Hitzeentwicklung u so :lol: :lol: :lol:
 
erwartest du ne antwort?
sigpic55739_1.gif
:lol: Das know how dazu haben sie.
 
erwartest du ne antwort?
sigpic55739_1.gif
:lol: Das know how dazu haben sie.

Du meinst das No how :lol:

...lassen wir uns doch alle mal von 2009 überraschen nicht wahr ;)

Aproppo´s 2009, weiß einer von euch zufällig was EVGA, XFX und ZOTAC für Boards anbieten wollen, nachdem ja Nvidia keine Chipsätze für Nehalem u Co herstellen kann???

...vielleicht tritt ja auch das hier in Kraft: http://www.channelpartner.de/news/235349/
 
Zuletzt bearbeitet:
@Navigator
Du laberst schon ein grossen haufen schei***, das ist sicher:rolleyes:
Und warum eine Dual 270GTX mehr Strom verbrauchen soll als ne 4870X2 musste mir auch nochmal genau erklären.
 
Zuletzt bearbeitet:
Amen. :d 2009 werden auf jeden fall chips kommen, die jede gtx und jede x2 in den boden stampfen. oder wird das nun auch noch angezweifelt?! :wall:
 
@Navigator
Du laberst schon ein grossen haufen schei***, das ist sicher:rolleyes:
Und warum eine Dual 270GTX mehr Strom verbrauchen soll als ne 4870X2 musste mir auch nochmal genau erklären.

...das kann man Menschen die merkwürdige Drogen nehmen nicht erklären, weil diese das Gehirn ausserhalb der "bösen" Realität katapultieren und diese dann nicht mehr in der Lage sind in der Realität klar zu kommen ;)
 
deine droge ist wohl elektrosmog mit deinem x2 cfx. :lol: mal im ernst. du laberst hier nen müll... schrecklich.
 
Zuletzt bearbeitet:
seit wann kommt ne GX2 auf ein PCB??? die war immer auf 2 pcbs und wirds auch jetzt noch bleiben. und 2 gtx290 darauf sind sicherlich nicht abwegig. wenn die mit 2GB kommt, kann sie nur als doppelte 280er in 55nm kommen. also 2 290er im sandwich. ;)

2+512 Bit auf einen PCB.Na dann gute nacht.Wie gesagt,es wird nur wenige geben die sich eine Gx2 für mehr als 600 Euro kaufen.Eine fast gleichschnelle X2 gibts dann für 300 Euro.Nur die absoluten fanatiker werden sich die GX2 kaufen.In massenproduktion wird die GX2 eh nicht gehen.Es wird nur eine handvoll Gx2 Karten geben.Nvidia will nur die Performance krone zurück.
 
wer sagt, dass die so teuer wird? - Keiner! Sie wird sicherlich teurer sein als ne x2, aber so ist das mal, wenn einer die Krone hat. Die gx2 war immer ein Enthusiastenprodukt. immer in kleiner stückzahl und verdammt teuer. ati hat diesmal wirklich nen guten job gemacht und konnte diesmal einen volltreffer landen. Aber das ist doch kein Grund, so einen müll zu verzapfen. 2x512 bit interface ist doch kein problem. 2 pcbs mit nem bridge chip und fertig ist die gx2. ob die schlichten naturen sich sowas vorstellen können oder nicht. das ist fakt. und gerade hier werden einige dabei sein und sich so ein teil kaufen. also kommt mal wieder auf den boden der tatsachen zurück!
 
wer sagt, dass die so teuer wird? - Keiner! Sie wird sicherlich teurer sein als ne x2, aber so ist das mal, wenn einer die Krone hat. Die gx2 war immer ein Enthusiastenprodukt. immer in kleiner stückzahl und verdammt teuer. ati hat diesmal wirklich nen guten job gemacht und konnte diesmal einen volltreffer landen. Aber das ist doch kein Grund, so einen müll zu verzapfen. 2x512 bit interface ist doch kein problem. 2 pcbs mit nem bridge chip und fertig ist die gx2. ob die schlichten naturen sich sowas vorstellen können oder nicht. das ist fakt. und gerade hier werden einige dabei sein und sich so ein teil kaufen. also kommt mal wieder auf den boden der tatsachen zurück!


Du hast doch garkeine ahnung wie teuer sowas ist (ich auch nicht).

Ich vertraue da lieber auf die aussagen ausm 3d center.

GT206 aka GT200b soll aber ein einfacher die shrink sein und kein 8 cluster GT200 (und ich sehe uebrigens auf Tesla Spezifikationen 240SPs und nicht weniger) was wohl irgendwo um die 460-470mm^2 @55nm bedeuten koennte wenn gar nichts entfernt wurde. Ich bin jetzt mal grosszuegig und sage dass es "nur" 400 quadratmillimeter pro core sind, der ganze Spass mal 2x und dazu noch 2GB Speicher. Du kannst mir ja gerne sagen dass sie das Ding fuer $600 verkaufen koennen, sag mir aber dann auch gleich ob sie auch noch Gewinn von dem oeden Ding noch machen koennen. Wenn's natuerlich ein "limited edition" Exemplar wird fuer benchmarks und reviews und ein paar hundert verstreute Verbraucher, ja klar kein Problem. Aber so ein Ding in Massen-produktion zu schicken waere finanzieller Selbstmord; stets natuerlich IMHLO.
CB erwaehnt den Inquirer als Quelle. Zu einer hypothetischen GX2 kann AMD kinderleicht mit einer Preisreduktion ihrer 4870X2 reagieren ohne irgend ein Loch in die Rechnung zu bohren.
Grossartig nicht, aber AMD hat eben den Luxus dank dem kleinerem die stets um einen Schnitt billiger verkaufen zu koennen. Kommt NV tatsaechlich mit einer GX2@55nm an, dann koennen sie so ein Ding garantiert nicht mit nur sagen wir mal 350+ Euro verkaufen ohne in die Unkosten zu beissen.

Logischerweise haette NV eine GX2 fuer 40nm geplant fuer irgendwo Fruehling 2009 (Verfuegbarkeitsprobleme bei TSMC inklusive); kommt jetzt doch noch eine GX2@55nm macht nur sehr begrenzte Verfuegbarkeit Sinn.

Hätte Ati mit der X2 nicht so vorgelegt,hätten wir erst in 6 Monaten vielleicht eine GX2 gesehen.Jetzt muss Nvidia mit ein viel teureren chip reagieren.Der gewinn bleibt weiterhin schlechter als bei AMd...
 
Zuletzt bearbeitet:
Also ich seh hier nur einen, vielleicht zwei die absoluten Müll labern und feststellender Weise von Technik weniger wie null ahnung haben :stupid:

wer sagt, dass die so teuer wird? - Keiner! Sie wird sicherlich teurer sein als ne x2, aber so ist das mal, wenn einer die Krone hat. Die gx2 war immer ein Enthusiastenprodukt. immer in kleiner stückzahl und verdammt teuer. ati hat diesmal wirklich nen guten job gemacht und konnte diesmal einen volltreffer landen. Aber das ist doch kein Grund, so einen müll zu verzapfen. 2x512 bit interface ist doch kein problem. 2 pcbs mit nem bridge chip und fertig ist die gx2. ob die schlichten naturen sich sowas vorstellen können oder nicht. das ist fakt. und gerade hier werden einige dabei sein und sich so ein teil kaufen. also kommt mal wieder auf den boden der tatsachen zurück!

...2x512 bit Interface, dann doppelseitige Speicherbestückung u ein Bridge chip der das dann verarbeiten soll u das ganze mit ner Stromaufnahme unter 300W und ner Kühlung die das ganze auf unter 100° hält!!! ...es gibt noch echte träumer auf der Welt :stupid:

Da das für dich (und für NV wohl, was die Entwicklungskosten betrifft) ein Klacks ist, bewirb dich doch mal bei denen, die freuen sich sicher über jede erdenkliche Hilfe ;)
 
ohne scheiss... ich hab echt kein bock, auf zusammengewürfelte posts von irgenwelchen bekloppten zu antworten. Frag dich mal, wie die letzten gx2 gebaut wurden? highend x2. fertig. warum sollte es nun anders sein? die entwickeln schon seit einiger zeit am gt300. um auch noch ein neues gx2 konzept zu entwickeln, haben die auch keine zeit. in welcher welt lebst du? wenn du mal ne millisekunde dein hirn einschalten würdest, würdest du schon selbst drauf kommen und müsstest dir keine posts zusammenklatschen, wo nur spekuliert wird und nix handfestes dran ist.

@navigator? du kommst hier die ganze zeit mit deinen 300W. ist doch scheiss egal, wie viel die verbraucht. ist halt higend. deine x2 verbrät auch 286W. und idle hat sie 80°. Viel schlimmer kanns bei ner gx2 nicht kommen.
 
Zuletzt bearbeitet:
...ja eben, ich frag mich wie über etwas spekuliert werden kann was technisch kaum möglich ist, deshalb sollten mal die Spekulanten ihr Hirn für ne millisekunde einschalten u nicht ich ;)

EDIT
@navigator? du kommst hier die ganze zeit mit deinen 300W. ist doch scheiss egal, wie viel die verbraucht. ist halt higend. deine x2 verbrät auch 286W. und idle hat sie 80°. Viel schlimmer kanns bei ner gx2 nicht kommen.

...daran erkenne ich dein technisches Verständniss ;) ...es sind nur 300 Watt erlaubt das ist die Höchstgrenze für PCIe Spezifikationen ;)

Und Idle hat meine 50-55° ...luftgekühlt versteht sich!
 
Zuletzt bearbeitet:
Du kannst davon ausgehen das die Karte wieder viel Strom brauchen wird.Schließlich ist es nur eine Änderung auf 55nm.Schau dir mal ATI an.Eine Milliarde Transitoren auf der 4870 und der Stromverbrauch ist höher als der einer GTX 260 in 65nm die noch ein paar Mehr Bauteile hat.Wer hat da den besseren Job gemacht ?.

Wer schreibt bitte, das eine HD4870 mehr Strom braucht als eine 260GTX?
Nur um das mal klar zu stellen:
die HD4870 brauch 130,0W
die HD4850 brauch 109,9W
die HD4870X2 brauch 236,9W
die 260GTX (die alte) brauch 136,1W
und die 280GTX brauch 178,0W

Werte nachlesbar auf xbitlabs.com. Das ist die einzige mir bekannte Page, welche den Stromverbrauch nicht hinter dem NT misst, sondern direkt an der Stromversorgung der Grafikkarte.

Des weiteren musst du bedenken, das eine 260GTX zwar 1,4Mrd Transistoren im Bauch hat, aber keiner so genau weis, wie viel davon wirklich abgeschalten ist.

Ach ja, in G3 geht AA mit der X2 ohne umbenennen etc... die sind ja nicht blöde bei ATI.

Des musst mir mal erklären wie du das hinbekommen hast...
Ich bekomme mit der normalen HD4870 erstens mal grottige G3 Performance und AA will absolut nicht. (auch exe renaming hilft net)

ATI hätte doch auch wenn sie Geld aus dem Fenster hätten werfen wollen die 2 "kleinen" RV770 als eine 520 mm² Single GPU entwickeln können u hätte dann immernoch galant unter dem 576 mm² großen Nvidia "Hitzkopf" gelegen u ihn auch ebenso galant zersägt ;)

Neja ne, so ohne weiteres ist das bauen von hochkomplexen großen Chips nicht möglich, bedenke das wären dann knapp 1,9Mrd Transistoren...
Das ist ne Steigerung von 100% gegenüber des normalen RV770 Chips.

Die Anzahl der Lauffähigen Chips wären wohl sehr gering gewesen...
 
@ nav: tickst du noch ganz stramm? ob man nun 2 280er im sli oder gar triple sli hat oder halt eine, die übers pcb angebunden ist, das ist doch sowas von latte. die kühlung wird ein wenig komplizierter, ist aber nicht unmöglich. schließlich sind die karten vom takt her immer unter der single lösung usw. also an deiner stelle würd ich mal die :fresse: halten. geh lieber in ein kiddie forum. dort kannst du vll noch welche mit deinem schrott belabern.
 
@ nav: tickst du noch ganz stramm? ob man nun 2 280er im sli oder gar triple sli hat oder halt eine, die übers pcb angebunden ist, das ist doch sowas von latte. die kühlung wird ein wenig komplizierter, ist aber nicht unmöglich. schließlich sind die karten vom takt her immer unter der single lösung usw. also an deiner stelle würd ich mal die :fresse: halten. geh lieber in ein kiddie forum. dort kannst du vll noch welche mit deinem schrott belabern.

Er hat schon recht, für eine PCIe Karte ist die maximale Stromaufnahme auf 300W festgeschrieben...
Ob sich die Hersteller daran halten und ob das überhaupt jemanden interessiert ist eine andere Frage.

Mit zwei Karten wären es dann 600W, logischerweise, also 300W pro Karte.

Ich glaube aber auch nicht so recht an eine GX2, weis nicht warum, aber ich stelle mir ein PCB mit 2x512Bit SI sehr schwierig vor zu realisieren, zwei PCBs also Dual PCB Karte hingegen ist schon einfacher, nur muss man dann bedenken, das die GPU, welche zwischen den beiden Karten sitzt mit ner Singleslot Kühlung auskommen muss.
Ein Produkt ähnlich der 9800GX2 wo die beiden GPUs sozusagen beide innen sitzen bringt auch nicht so sonderlich viele Punkte, der Kühler wird zwar höher, aber hat immernoch nicht Dualslothöhe und es müssen zwei "Hitzköpfe" damit gekühlt werden.

Eventuell ist ja eine single-PCB GX2 mit 2x256Bit SLI GDDR5 Speicher machbar, zumindest was Kühlung betrifft sollte es realisierbar sein.

übrigens, die X2 brauch nicht 286W sondern so ziemlich genau 236,9W... nur so nebenbei. :bigok:
 
@ nav: tickst du noch ganz stramm? ob man nun 2 280er im sli oder gar triple sli hat oder halt eine, die übers pcb angebunden ist, das ist doch sowas von latte. die kühlung wird ein wenig komplizierter, ist aber nicht unmöglich. schließlich sind die karten vom takt her immer unter der single lösung usw. also an deiner stelle würd ich mal die :fresse: halten. geh lieber in ein kiddie forum. dort kannst du vll noch welche mit deinem schrott belabern.

Hey jetzt halt mal die Bälle flach u les mal deinen eigenen Müll u hör auf mit den Drogen! ...man ...man ...man

Du schnallst es net oder??? ein PCIe Slot darf nur mit max 300 W belastet werden

Wenn ihr mir hier so kommt obwohl ich mir mühe gebe es im normalen und vernünftig zu erklären dann kann ich auch anderst!!!
Edit.

Nvidia kriegt keine GX2 hin, schluß aus ende!!! ...das wäre genauso als wöllten sie russisches Roulette mit 5 Kugeln in 6 Kammern spielen!!!
 
Zuletzt bearbeitet:
Du schnallst es net oder??? ein PCIe Slot darf nur mit max 300 W belastet werden

der slot an führ sich gar nur 75w, der rest geht über die anschlüsse.

aber btw. haltet mal beide den ball flach und beruigt euch. macht mal überhaupt kein spaß hier mitzulesen wenn 90% eurer posts aus geistigem dünnpfiff besteht
 
Du schnallst es net oder??? ein PCIe Slot darf nur mit max 300 W belastet werden

Nicht pro Slot, sondern pro Karte...
(das gilt auch für Karten mit dual-PCB, da diese ja nur einen Slot nutzen)

wobei max. 75W aus dem Slot kommen und 225W durch externe Stromzufuhr kommen darf.
 
wenn die karte da ist, dann sprechen wir uns wieder... und die x2 hat ne tdp von 286w. ;) und ob sie es einhalten mit den 300W, ist doch latte. dafür sind schließlich die dicken nts da! :rolleyes:
 
wenn die karte da ist, dann sprechen wir uns wieder... und die x2 hat ne tdp von 286w. ;) und ob sie es einhalten mit den 300W, ist doch latte. dafür sind schließlich die dicken nts da! :rolleyes:

du weist aber schon was TDP bedeutet?
Wohl eher nicht, frag mal Onkel google, der wird dir helfen...

Wenn so wie in deiner Aussage TDP für Stromverbrauch stehen würde, dann würde eine HD2900XT auch 225W verbrauchen, was natürlich absoluter Schwachsinn ist.
 
Eine 280GTX brauch 178W unter Last.

Wie gesagt, ich kann euch nur xbitlabs.com ans Herz legen, die Messen dort beim Testen der Hardware nicht hinter dem NT (was äußerst ungenau ist, weil dort beispielweise der Wirkungsgrad vom NT mit reinzählt, welcher sich bei verschiedener Belastung ändert und wo auch noch die CPU und andere Komponenten Strom verbrauchen) sondern direkt an der Stromzufuhr der Karte, sprich an den PCIe Stromsteckern und verwenden ein modifiziertes Mainboard und die Stromaufnahme durch den PCIe Slot zu messen.

Die Werte sind somit ziemlich genau und entsprechen dem, was die Karte wirklich verbraucht.

EDIT:
wie kommst du eigentlich auf 90W?
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh