Launch der Single-PCB-GTX-295 für Mai bestätigt

Was bist du denn für einer:haha::haha:



Erster post u gleich sowas,u entschuldige das sinnloseste was hier steht kommt aus deiner feder:hail:

Somal man auch noch entziffern muss was du geschrieben hast:shot:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
GTA IV ist ein denkbar ungünstiger Vergleich für sowas, weil dort einfach alles limitiert, außer die GPU Leistung ;)

Schau auf die GPU Auslastungsanzeige beim GTA zocken, die bewegt sich in Regionen von teilweise unter 50% bei solchen Karten...

wenn man Multi GPU anstellt, läuft es ganz gut :lol:



 
was mich wundert, nVidia will mit der 1-PCB-Version die Produktionskosten senken, vllt. auch noch die Stromaufnahme...
aber der Preis soll bei der Veröffentlichung gleich bleiben :rolleyes:
geht eher in Gewinnoptimierung als Überlebensstrategie
wieso werden die Kosten dafür nicht in die Entwicklung gesteckt?
 
was mich wundert, nVidia will mit der 1-PCB-Version die Produktionskosten senken, vllt. auch noch die Stromaufnahme...
aber der Preis soll bei der Veröffentlichung gleich bleiben :rolleyes:
geht eher in Gewinnoptimierung als Überlebensstrategie
wieso werden die Kosten dafür nicht in die Entwicklung gesteckt?

Ich denke mal, wenn NV mit der 260GTX schon Verlust einfährt, dann wird die 295er GTX nicht viel besser dastehen...
Schon alleine desswegen, weil die Entwicklungskosten für diese Karte durch den eher sehr geringen Absatz noch mit reingefahren werden müssten...
 
Ich denke mal, wenn NV mit der 260GTX schon Verlust einfährt, dann wird die 295er GTX nicht viel besser dastehen...
Schon alleine desswegen, weil die Entwicklungskosten für diese Karte durch den eher sehr geringen Absatz noch mit reingefahren werden müssten...
joa, das schon richtig :)
Nur frage ich mich, was bringt es überhaupt noch bei so einem Verlustgeschäft wo nVidia sicherlich mehr als nur 10€ Minus bei jeder verkauften Karte macht, noch Geld in die Entwiklung einer 1-PCB-Version zu stecken und diese dann nochmal als überarbeitete Version zu verkaufen? Das sind doch noch mehr Kosten. Und wenn man mal bedenkt: die jenigen die schon eine GTX295 haben werden sich wohl kaum die neue 1-PCB-Lösung kaufen nur weil die jetzt 10 Watt weniger verbraucht (abgesehen von paar "faszinierten" Käufern :p). Im Endeffekt geht die Rechnung doch nicht wirklich auf?
Oder hab ich da jetzt einen Denkfehler?
 
Es geht ja nicht darum alte Käufer zum wechseln zu bewegen sondern die neuen Kunden zu befriedigen und die Chips liegen wie Blei, bei den Preisen, also schaut Nvidia das sie die neuen Karten effizienter gestallten kann um wenigstens jetzt nicht mehr soviel Verlust bei Verkäufen einzufahren .
 
Es geht ja nicht darum alte Käufer zum wechseln zu bewegen sondern die neuen Kunden zu befriedigen und die Chips liegen wie Blei, bei den Preisen, also schaut Nvidia das sie die neuen Karten effizienter gestallten kann um wenigstens jetzt nicht mehr soviel Verlust bei Verkäufen einzufahren .
das ist mir auch klar, nur überleg mal wer sich alles eine GTX295 kauft, dazu noch zu dem Preis :rolleyes:
sicherlich nicht die Kunden die eine Karte im Preisbereich von 200-250€ wollen...
Die Kunden die das Geld über haben, sind schon längst versorgt, und die die noch keine Karte in der Klasse haben aber über das nötige Kleingeld verfügen, das dürften doch recht wenige sein?

€dit: Verlust hin oder her, auch wenn die 1-PCB-Version nun verkauft wird, nVidia wird trotzdem nicht mehr daran verdienen als vorher. Es ist mir klar, dass es bei solchen Karten eher um Prestige geht, aber in so eine "Entwicklung" noch Geld zu investieren, ich weiß ehrlich gesagt nicht wo der Sinn in der Sache liegt...
 
Zuletzt bearbeitet:
Ich denke mal, mit der Legung des Grundsteins 1PCB Dual GPU Karte kann NV auch in zukünftigen Generationen auf das jetzt erwirtschaftete KnowHow zurück greifen...

Und das hat auch was mit Marketing zu tun...
Die 295er GTX ist nunmal die schnellste Grafikkarte am Markt, wäre schon komisch, wenn man diese wenige Wochen nach Release dessen auslaufen lassen würde. Wirft eher ein schlechtes Licht auf NV.

Es scheint ja nun auch so, das es zumindest von einigen Boardpartnern ne HD4890 X2 geben wird. Eventuell wird die neue 295er GTX auch mit erhöhter Taktrate daher kommen, um dort paroli bieten zu können.

EDIT:
vllt wird die 295er ja auch irgendwann noch auf 40nm geschrinkt, dann könnte so eine Karte schon wieder Sinn machen...
 
Zuletzt bearbeitet:
Ich denke mal, mit der Legung des Grundsteins 1PCB Dual GPU Karte kann NV auch in zukünftigen Generationen auf das jetzt erwirtschaftete KnowHow zurück greifen...

Und das hat auch was mit Marketing zu tun...
Die 295er GTX ist nunmal die schnellste Grafikkarte am Markt, wäre schon komisch, wenn man diese wenige Wochen nach Release dessen auslaufen lassen würde. Wirft eher ein schlechtes Licht auf NV.

Es scheint ja nun auch so, das es zumindest von einigen Boardpartnern ne HD4890 X2 geben wird. Eventuell wird die neue 295er GTX auch mit erhöhter Taktrate daher kommen, um dort paroli bieten zu können.
hmmm....
eine mögliche Variante. Nur ob das in Zukunft auch so gut ist den Schritt zu gehen? Wenn man mal bedenkt, dass egal wie die Architektur nun ausfällt, die Die-Größe stetig wächst und somit auch die Kühlung mehrerer GPUs auf einem PCB immer schwieriger wird... Kurzfristig mag es von Vorteil sein, da muss nV sich aber was mit dem Kühler einfallen lassen, insbesondere bei noch höheren Taktraten.
 
Du hast sicher recht, und ich glaube man kann mittlerweile sagen, wir sind schon fast am max. angelangt, was dem Endkunden mit Luftkühlung noch zumutbar ist...

Viel mehr als eine HD4870 X2 / 295GTX ist eigentlich wirklich nicht machbar muss ich sagen...
Ne X2 dümpelt bei mir in Crysis mit 78°C bei 100% Luffispeed rum, heizt das Zimmer innerhalb kürzester Zeit auf 35°C+ auf usw.

Ich glaube mal, wir werden in mittlerer Zukunft auch keine HighEnd Dual GPU Karten mehr sehen, einfach aus dem Grund, weil die Leistungsaufnahme und die Wärmeabgabe der HighEnd GPUs zu hoch ist.
Aber Dual GPU Karten im Performance Bereich, welche in Summe dann über ner Single HighEnd Karte stehen machen dennoch Sinn.
Und der Stromverbrauch und die Abwärme sollte sich in Grenzen halten...

Die wirklichen Freaks können ja dann immernoch ein SLI als den einzellnen HighEnd GPUs zusammen schrauben. Müssen dann aber mit der Leistungsaufnahme leben.
 
Du hast sicher recht, und ich glaube man kann mittlerweile sagen, wir sind schon fast am max. angelangt, was dem Endkunden mit Luftkühlung noch zumutbar ist...

Viel mehr als eine HD4870 X2 / 295GTX ist eigentlich wirklich nicht machbar muss ich sagen...
Ne X2 dümpelt bei mir in Crysis mit 78°C bei 100% Luffispeed rum, heizt das Zimmer innerhalb kürzester Zeit auf 35°C+ auf usw.

Ich glaube mal, wir werden in mittlerer Zukunft auch keine HighEnd Dual GPU Karten mehr sehen, einfach aus dem Grund, weil die Leistungsaufnahme und die Wärmeabgabe der HighEnd GPUs zu hoch ist.
Aber Dual GPU Karten im Performance Bereich, welche in Summe dann über ner Single HighEnd Karte stehen machen dennoch Sinn.
Und der Stromverbrauch und die Abwärme sollte sich in Grenzen halten...

Die wirklichen Freaks können ja dann immernoch ein SLI als den einzellnen HighEnd GPUs zusammen schrauben. Müssen dann aber mit der Leistungsaufnahme leben.

ach, 78°C bei 100% Lüftergeschwindikeit, was solls, die GPU hält sicher noch mehr aus :fresse:
sind die Karten kurzlebiger und die Hersteller verdienen noch mehr :d
Mal Spaß beisiete: ich hätte anstelle von nVidia geguckt, dass die GPUs auf 2 PCBs bleiben und man somit schon die Multi-GPU Schiene weiterfährt aber eben die PCBs noch weiter räumlich trennt um somit die Kühlung noch mit Luft zu realisieren.
Ich bin gerade auch wieder am überlegen wie dieses Wort hieß: umso mehr man an den Fotorealismus herankommt, desto mehr Lesitung braucht man und der Bedarf steigt exponentiell an???
 
du meinst raytracing? :)

also dualpcb ist teurer und lässt sich schlechter kühlen als single pcb ;) darum ja auch der wechsel von nividia.
 
Neja, mehr als Dualslot ist auch ungünstig... sprich weiter auseinander bekommen würde man die beiden PCBs auch nicht wirklich. Die Single PCB Version ist schon gut.

Und ja, klar hällt die GPU sicher auch mehr aus, aber ist eben unschön, wenn diese immer an der Brechgrenze läuft. Ich hab es mal auf 60% Speed probiert, da geht nach 2min das Notprogramm an und der Lüfter dreht trotz fixen 60% im CCC auf 100% hoch :fresse:
 
Zuletzt bearbeitet:
Es gibt eigentlich nur zwei möglichkeiten um dem problem entgegenzuwirken.Entweder man produziert langsamer u optimiert den herstellungsprozess erst soweit das er verlustleistungsmässig auf dem level der vorherigen generation liegt.

Oder man bleibt bei diesem tempo wie bissher u muss dafür aber irgendwann in kauf nehmen auf ein effiziententeres Kühlsystem(z.B Wasserkühlung)auszuweichen im ultra highendbereich;)

du meinst raytracing? :)
.
Genau das war das wort was er meinte denke ich:fresse:

Ich denke mal, mit der Legung des Grundsteins 1PCB Dual GPU Karte kann NV auch in zukünftigen Generationen auf das jetzt erwirtschaftete KnowHow zurück greifen...
Das wird der hauptgrund sein bei nvidias bestreben,ein singel pcb zu entwickeln für die dual karten;)
 
Zuletzt bearbeitet:
du meinst raytracing? :)

also dualpcb ist teurer und lässt sich schlechter kühlen als single pcb ;) darum ja auch der wechsel von nividia.
ja, ne irgendwie nicht, meinte den Begriff für die immer weiter steigende bzw. benötigte Lesitung umso mehr Realismus man haben will...
werds schon über google finden.


Neja, mehr als Dualslot ist auch ungünstig... sprich weiter auseinander bekommen würde man die beiden PCBs auch nicht wirklich. Die Single PCB Version ist schon gut.

Und ja, klar hällt die GPU sicher auch mehr aus, aber ist eben unschön, wenn diese immer an der Brechgrenze läuft. Ich hab es mal auf 60% Speed probiert, da geht nach 2min das Notprogramm an und der Lüfter dreht trotz fixen 60% im CCC auf 100% hoch :fresse:
meinte das eher so, dass nVidia am SLI noch weiter feilt und die Karten dann räumlich weiter getrennt sind. So könnte man doch 2 monster-GPUs benutzen ohne dadruch Nachteile bei der Kühlung zu haben.
Dieser Schritt, die 2 GPUs nun auf ein PCB zu bringen, geschieht mMn primär aus Prestige-und nicht aus wirtschaftlichen Gründen. So oder so wird Verlust gemacht, und auch wenn nV das Know-How damit erwirbt, Dual-GPU-Lösungen stoßen irgendwann an ihre Grenzen, auch wenn wir in der Zukunft schon bei 28nm sind mit den GPUs. Wenn man mal bedenkt wie groß der GT200 schon ist, da wird es noch schwieriger diese Schiene so weiter zu führen und 2 GPUs auf ein PCB zu packen.
 
du meinst, man braucht extra für die neuen ultra-high-end grafikkarte, trotz 28nm & noch kleinerer fertigungstechnik, n supreme-extended-atx (sprich RIESEN! 1m²) mainboard & n datzu passendes server-artiges gehäudse damit auch die wasser kühlung reinpasst?
 
Zuletzt bearbeitet:
du meinst, man braucht extra für die neuen ultra-high-end grafikkarte, trotz 28nm & noch kleinerer fertigungstechnik, n supreme-extended-atx (sprich RIESEN! 1m²) mainboard & n datzu passendes server-artiges gehäudse damit auch die wasser kühlung reinpasst?

wenn es bis dahin immer noch eine modifizierte GT200 ist wird ein PCB mit 4 GPUs vllt. möglich sein :fresse:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh