Siberian Tiger
Neuling
@zuppi: Jaja, erst über DualGPU Systeme rummeckern und nun leugnen, es jemals getan zu haben. Solche Leute kenne ich zu Hauf.
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Du solltest nicht so tief in die Flasche guggen@zuppi: Jaja, erst über DualGPU Systeme rummeckern und nun leugnen, es jemals getan zu haben. Solche Leute kenne ich zu Hauf.
die GTX 280 is die königin der single gpu karten
da macht ne 2 chip karte keinen vergleich
Gerade der immens hohe Shadertakt der Grafikkarte ist so verdächtig. Nichtmal Overclocker schaffen beim GT200 einen solch hohe Takt... deswegen kamen auch die Gerüchte bezüglich des GT200B auf.
Hinzugefügter Post:
Naja... für Blödsinn halte ich es nicht eine Dual-Grafikkarte mit einer Single-Grafikkarte zu vergleichen. Der Vergleich spricht doch eindeutig für die bessere Architektur auf Seiten AMDs.
Wenn man davon ausgeht, dass ein Single- zu Dual-Karten-Vergleich Blödsinn ist, dann müsste es doch auch Blödsinn sein, den 576 mm² großen GT200 mit dem 260 mm² kleinen RV770 zu vergleichen, oder?
Naja... AMD ist wieder am kommen und Nvidia hat im Moment noch keine wirklichen Mittel dagegen.
erwartest du ne antwort?Das know how dazu haben sie.
@Navigator
Du laberst schon ein grossen haufen schei***, das ist sicher
Und warum eine Dual 270GTX mehr Strom verbrauchen soll als ne 4870X2 musste mir auch nochmal genau erklären.
seit wann kommt ne GX2 auf ein PCB??? die war immer auf 2 pcbs und wirds auch jetzt noch bleiben. und 2 gtx290 darauf sind sicherlich nicht abwegig. wenn die mit 2GB kommt, kann sie nur als doppelte 280er in 55nm kommen. also 2 290er im sandwich.
wer sagt, dass die so teuer wird? - Keiner! Sie wird sicherlich teurer sein als ne x2, aber so ist das mal, wenn einer die Krone hat. Die gx2 war immer ein Enthusiastenprodukt. immer in kleiner stückzahl und verdammt teuer. ati hat diesmal wirklich nen guten job gemacht und konnte diesmal einen volltreffer landen. Aber das ist doch kein Grund, so einen müll zu verzapfen. 2x512 bit interface ist doch kein problem. 2 pcbs mit nem bridge chip und fertig ist die gx2. ob die schlichten naturen sich sowas vorstellen können oder nicht. das ist fakt. und gerade hier werden einige dabei sein und sich so ein teil kaufen. also kommt mal wieder auf den boden der tatsachen zurück!
GT206 aka GT200b soll aber ein einfacher die shrink sein und kein 8 cluster GT200 (und ich sehe uebrigens auf Tesla Spezifikationen 240SPs und nicht weniger) was wohl irgendwo um die 460-470mm^2 @55nm bedeuten koennte wenn gar nichts entfernt wurde. Ich bin jetzt mal grosszuegig und sage dass es "nur" 400 quadratmillimeter pro core sind, der ganze Spass mal 2x und dazu noch 2GB Speicher. Du kannst mir ja gerne sagen dass sie das Ding fuer $600 verkaufen koennen, sag mir aber dann auch gleich ob sie auch noch Gewinn von dem oeden Ding noch machen koennen. Wenn's natuerlich ein "limited edition" Exemplar wird fuer benchmarks und reviews und ein paar hundert verstreute Verbraucher, ja klar kein Problem. Aber so ein Ding in Massen-produktion zu schicken waere finanzieller Selbstmord; stets natuerlich IMHLO.
CB erwaehnt den Inquirer als Quelle. Zu einer hypothetischen GX2 kann AMD kinderleicht mit einer Preisreduktion ihrer 4870X2 reagieren ohne irgend ein Loch in die Rechnung zu bohren.
Grossartig nicht, aber AMD hat eben den Luxus dank dem kleinerem die stets um einen Schnitt billiger verkaufen zu koennen. Kommt NV tatsaechlich mit einer GX2@55nm an, dann koennen sie so ein Ding garantiert nicht mit nur sagen wir mal 350+ Euro verkaufen ohne in die Unkosten zu beissen.
Logischerweise haette NV eine GX2 fuer 40nm geplant fuer irgendwo Fruehling 2009 (Verfuegbarkeitsprobleme bei TSMC inklusive); kommt jetzt doch noch eine GX2@55nm macht nur sehr begrenzte Verfuegbarkeit Sinn.
wer sagt, dass die so teuer wird? - Keiner! Sie wird sicherlich teurer sein als ne x2, aber so ist das mal, wenn einer die Krone hat. Die gx2 war immer ein Enthusiastenprodukt. immer in kleiner stückzahl und verdammt teuer. ati hat diesmal wirklich nen guten job gemacht und konnte diesmal einen volltreffer landen. Aber das ist doch kein Grund, so einen müll zu verzapfen. 2x512 bit interface ist doch kein problem. 2 pcbs mit nem bridge chip und fertig ist die gx2. ob die schlichten naturen sich sowas vorstellen können oder nicht. das ist fakt. und gerade hier werden einige dabei sein und sich so ein teil kaufen. also kommt mal wieder auf den boden der tatsachen zurück!
@navigator? du kommst hier die ganze zeit mit deinen 300W. ist doch scheiss egal, wie viel die verbraucht. ist halt higend. deine x2 verbrät auch 286W. und idle hat sie 80°. Viel schlimmer kanns bei ner gx2 nicht kommen.
Du kannst davon ausgehen das die Karte wieder viel Strom brauchen wird.Schließlich ist es nur eine Änderung auf 55nm.Schau dir mal ATI an.Eine Milliarde Transitoren auf der 4870 und der Stromverbrauch ist höher als der einer GTX 260 in 65nm die noch ein paar Mehr Bauteile hat.Wer hat da den besseren Job gemacht ?.
Ach ja, in G3 geht AA mit der X2 ohne umbenennen etc... die sind ja nicht blöde bei ATI.
ATI hätte doch auch wenn sie Geld aus dem Fenster hätten werfen wollen die 2 "kleinen" RV770 als eine 520 mm² Single GPU entwickeln können u hätte dann immernoch galant unter dem 576 mm² großen Nvidia "Hitzkopf" gelegen u ihn auch ebenso galant zersägt
@ nav: tickst du noch ganz stramm? ob man nun 2 280er im sli oder gar triple sli hat oder halt eine, die übers pcb angebunden ist, das ist doch sowas von latte. die kühlung wird ein wenig komplizierter, ist aber nicht unmöglich. schließlich sind die karten vom takt her immer unter der single lösung usw. also an deiner stelle würd ich mal die halten. geh lieber in ein kiddie forum. dort kannst du vll noch welche mit deinem schrott belabern.
@ nav: tickst du noch ganz stramm? ob man nun 2 280er im sli oder gar triple sli hat oder halt eine, die übers pcb angebunden ist, das ist doch sowas von latte. die kühlung wird ein wenig komplizierter, ist aber nicht unmöglich. schließlich sind die karten vom takt her immer unter der single lösung usw. also an deiner stelle würd ich mal die halten. geh lieber in ein kiddie forum. dort kannst du vll noch welche mit deinem schrott belabern.
Du schnallst es net oder??? ein PCIe Slot darf nur mit max 300 W belastet werden
Du schnallst es net oder??? ein PCIe Slot darf nur mit max 300 W belastet werden
Du solltest nicht so tief in die Flasche guggen
Und mußt nett weinen, ich hab auch gelacht als ich mit der 280er in 1920 in Stalker CS mit 10 FPS in der Gegend stand...
Wenn das Spiel gescheit optimiert wäre, würde man auch mit ner 9800GTX flüssig klarkommen...
wenn die karte da ist, dann sprechen wir uns wieder... und die x2 hat ne tdp von 286w. und ob sie es einhalten mit den 300W, ist doch latte. dafür sind schließlich die dicken nts da!