Weltpremiere: Bald erste Dual-GPU-GTS250 von Galaxy

SileX86

Enthusiast
Thread Starter
Mitglied seit
02.03.2006
Beiträge
784
Ort
Zelt
<p><img style="margin: 10px; float: left;" alt="galaxy" src="images/stories/logos/galaxy.jpg" width="100" height="100" />Während die DirectX-11-Generation von <a target="_blank" href="http://www.nvidia.de">Nvidia</a> noch auf sich warten lässt und die GTX200-Chips zu teuer für das gehobene Mainstreamsegment sind, findet man dort noch die altbewährten G92-GPUs. Wie es scheint, plant nun Nvidias Boardpartner <a target="_blank" href="http://www.galaxytech.com/">Galaxy</a> erstmals eine Dual-GPU-Grafikkarte auf <a target="_blank" href="http://www.nvidia.de/object/product_geforce_gts_250_de.html">GTS-250</a>-Basis herauszubringen, einige Bilder aus dem Netz deuten darauf hin. Dabei kommen zwei Low-Power-GPUs (G92-426) auf einem einzelnen PCB zum Einsatz, die über...<p><a href="/index.php?option=com_content&view=article&id=14157&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Juhu, zu teuer und zuwenig Leistung
 
Der Preis ist doch noch gar nicht bekannt. ;)
Davon abgesehen wirkt es etwas wie eine Verzweiflungstat angesichts des verzögerten Fermi-Launchs.
 
Ich glaube das ist einfach um Erfahrungen zu sammeln oder ?

Sowas kauft sich doch heute keiner mehr ^^

Oder Resteverwertung ?
 
Zuletzt bearbeitet:
für einen Preis von 180€ ist es doch nicht zu teuer, die leistung wird auf GTX285 oder klein bißchen höherliegen und das ist die Hälfte von einer GTX285 Preis.
 
kommt nun auf den Preis an und dann die reale games performance... aber ich dneek sie wird zu teuer sein und lohnt ich eigentlich nicht wirklich...

naja du hast aber auch eben keine 100%ige SLi skalierung udn die traditonellen multi GPu Probleme... Außerdem ist die speicherbandbreite auch ned so groß...
 
Zuletzt bearbeitet:
Man man man, nVidias Boardpartner scheinen ja ganz schön verzweifelt zu sein, wenn sie so versuchen irgendwie etwas Geld zu machen. Erst diese komische GTS250 (die alleine schon 2 oder 3 mal umbenannt worden ist) mit irgendeiner kleinen GPU für PhysX und jetzt das Teil hier.

Um es mal wie Homer Simpson auszudrücken: LAAAANGWEILIG !
 
DualGPU-Karten sollte man nur auf Basis von Performance oder HighEnd-Chips bauen, aber so was ist einfach nur Schwachsinn. Ich kann mir nicht vorstellen, dass die Karte ein großer Erfolg wird.
 
der G92/b chip ist wohl einer der meisten unterschätzten GPUs die aufn markt waren

ohne sonderliche spannungs erhöhungen und standard PCB kommen schon beinahe alle 9800GTX+/GTS250 auf 800/2000/1200mhz

da hier Galaxy scheinbar an den spannungswandlern und mehr gearbeitet hat , könnte ich mir 900-950mhz/2200-2300/1300mhz schon vorstellen ( klar nicht im Standard takt , aber manuell übertaktet )

die karte wäre für 180€ ein richtiger P/L hit , würde wohl eine 5850 gefährlich nahe kommen ( nicht im standard takt! )
 
DualGPU-Karten sollte man nur auf Basis von Performance oder HighEnd-Chips bauen, aber so was ist einfach nur Schwachsinn. Ich kann mir nicht vorstellen, dass die Karte ein großer Erfolg wird.

Ich denke dieser Frage wird die Presse erst recht nachgehen. Bin erstmal auf den Preis gespannt und inwiefern sich so eine Karte als Physx GPU eignet. So schlecht finde ich die Karte nicht einmal, wenn man bedenkt das es low Power Chips sind die zudem relativ wenig Abwärme produzieren werden, wird da sicherlich Potenzial drin stecken. Zudem hat Galaxy KFA² ja eigentlich nen recht guten ruf durch ihre GTX 275 und deren OC Potenzial. Ist zumindest meine Meinung dazu.
 
ich hatte 2x 8800GTS G92 @730/1900/1050

Meine GTX260² @728/1458/1200 war schneller und besser als das SLI gespann ;)
 
Das ist immer eine Preisfrage würde ich mal sagen.
Wenn das Teil 160€ kosten würde dann interessant.
Ich Rechne aber mit 250€
 
der G92/b chip ist wohl einer der meisten unterschätzten GPUs die aufn markt waren

ohne sonderliche spannungs erhöhungen und standard PCB kommen schon beinahe alle 9800GTX+/GTS250 auf 800/2000/1200mhz

da hier Galaxy scheinbar an den spannungswandlern und mehr gearbeitet hat , könnte ich mir 900-950mhz/2200-2300/1300mhz schon vorstellen ( klar nicht im Standard takt , aber manuell übertaktet )

die karte wäre für 180€ ein richtiger P/L hit , würde wohl eine 5850 gefährlich nahe kommen ( nicht im standard takt! )

hmm.. vergleichst jetzt aber nicht eine single GPU mit ner DUAL lösung oder?

Das is schwachsinn so wie die Karte ;)
 
Mir kommts auch so vor als würden nVidias Boardpartner langsam unruhig.
Finds zwar ne nette Idee, die hätte IMHO aber schon vor mind nem Jahr umgesetzt werden müssen.

Naja was solls, wie gesagt ne nette Idee und mal was anderes.
 
Hmm... also für mich gibt selbst die GTS250 immer noch genug Leistung, um Spiele zu spielen.
Eine Dual-GPU Version wäre zwar interessant, aber nicht, wenn in 2 Monaten (aller Wahrscheinlichkeit nach) schon die neuen GF100 Karten rauskommen.
Solch einen Schritt hätte man sich früher überlegen sollen. Aber mal abwarten, wie Leistungsaufnahme usw. aussehen.
Denn dann wäre sie für einige sicherlich interessant, sollte der Preis nicht zu hoch liegen.

@ selfdistruct: sorry, aber was ist deine Begründung dafür, dass diese Karte Schwachsinn ist? Der Beitrag von CommanderDuplex ist jedenfalls sehr viel sachlicher als deiner...
 
Was ich komisch finde , das hier keiner direkt losflamet , von wegen Microruckler , totaler misst nichts geht über Single GPU :d


Naja mal zum thema, wieder mal ein G92 aufguss nur jetzt mit 2 chips, dinge die die welt nicht braucht.

Und als PhysX karte? Da rechnet doch auch nur eine GPU an den Physik sachen.
Und bei zb Darg Voit (oder wie da sheisst :d ) wird eine GTX260 als PhysX karte empfolen :d , da ist dann eine GTS250 auch nicht mehr die beste wahl.
 
Zuletzt bearbeitet:
Weil Mgpu nunmal Murks ist.. wenn dann, kauft man sich Mgpu Setups, wenns keine Einzelkarte gibt, die genug Leistung für mich hat.

Ne DualGpu von Vorgestern braucht einfach keiner.. behaupt ich jetzt mal so ganz unsachlich..
 
Alter wenn ich das immer lese dualcore nicht mit singlecore vergleichen bla bla bla!
Darf man einen achtzylinder auch nicht mit nem turbo aufgeladenen vierzylinder vergleichen nur weil der vierzylinder nen turbo hat und dadurch mehr leistung entfaltet?

Es ist doch egal wie die leistung zu stande kommt wenn der preis gleich sein sollte!
Microruckler hatte ich zu sli zeiten auch nicht wargenommen da ich eh meist mit fps raten um die 100 zocke!
 
Zuletzt bearbeitet:
Ich hab Microruckler aber leider mit zwei 8800GT wahrgenommen.
Mit einer schnellen Karte läuft das Bild einfach runder.
 
Ich finde die Karte ehrlich gesagt sogar noch interessant, grade weil man 1gb v-ram verbaut hat. Das war immer der Flaschenhals bei der doch flotten 9800gx2. Die karte hier hat dann aber nochmal ein wenig mehr takt und shader(9800gx2 waren 2x8800gt oder doch schon gts?, wenn letzteres dann zieh ich das mit den shadern zurück). Wenn der Preis jetzt noch stimmt, ist es eine alternative.
 
Ich bin gespant was die Karte kann, schließlich hatte ich selber mal ein 9800gtx+ SLI gespann. Und schon damals hatte ich gar keine Probleme mit Mikrorucklern. Ich finde die Idee gar nicht so schlecht ^^
 
8800GTS waren es bei der GX2. Ich würde es sinvoll finden wenn die Chips der GTS250 wie die der GTS240 in 40nm gefertigt werden würden.
@Nico88 man hat auch keine Probleme mit Microrucklern aber es gibt sie nun mal^^
 
Zuletzt bearbeitet:
Der Preis ist doch noch gar nicht bekannt. ;)
Davon abgesehen wirkt es etwas wie eine Verzweiflungstat angesichts des verzögerten Fermi-Launchs.

Naja, wenns von NVIDIA kommt...

Wird genau so ein Flop wie die Haloween Karte von EVGA. :d
 
Naja, wenns von NVIDIA kommt...

Wird genau so ein Flop wie die Haloween Karte von EVGA. :d

Ist letzte denn wirklich ein Flop?


Ich halte die MGPU auf der GTS250 Basis auch nicht für sinnig, aber interessant ist es allemal. Außerdem weiß ja niemand ob so eine Karte überhaupt den Markt erreicht.
 
Ist letzte denn wirklich ein Flop?


Ich halte die MGPU auf der GTS250 Basis auch nicht für sinnig, aber interessant ist es allemal. Außerdem weiß ja niemand ob so eine Karte überhaupt den Markt erreicht.

Naja, also Ich habe nach Launch nichts mehr von der Karte gehört oder gelesen in Shops findet man Sie auch nicht.. scheint also nicht sonderlich gut angekommen zusein.

Was ja auch verständlich ist. Zu dem Zeitpunkt waren ja schon die 5000er von ATI auf dem Markt oder standen kurz vor release und man wartete bei NV auf die DX11.
 
Zuletzt bearbeitet:
Es ist doch egal wie die leistung zu stande kommt wenn der preis gleich sein sollte!
Microruckler hatte ich zu sli zeiten auch nicht wargenommen da ich eh meist mit fps raten um die 100 zocke!

Das man Microruckler nicht sieht, heißt aber nicht das sie nicht da sind, dann sinds halt "Pseudo/BalkenFPS" die in der Ecke oder im Review stehen..

Mal davon ab das nicht jedes Spiel Mgpu unterstützt..
 
Naja, also Ich habe nach Launch nichts mehr von der Karte gehört oder gelesen in Shops findet man Sie auch nicht.. scheint also nicht sonderlich gut angekommen zusein.

Was ja auch verständlich ist. Zu dem Zeitpunkt waren ja schon die 5000er von ATI auf dem Markt oder standen kurz vor release und man wartete bei NV auf die DX11.

In DE wurde die Karte nicht offiziel angeboten. Wie die verkäufe in Amiland waren weiß ich nicht. Auf den ersten Blick könnte man vermuten nicht allzu gut, aber das muss nicht sein.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh