nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
@Jubeltrubel
Ich geb dir in allem Recht. Aber wenn die Karte wirklich 40% mehr Leistung hat, juckt der eventuelle Mehrverbrauch hier fast keinen. Da bleibt nur die Frage, ob man mit OC sich nicht vielleicht bis zu 50-60% vom Vorgänger absetzen kann.
Ich würds aber auch begrüssen, wenn der Gt300 nur 30% besser ist und dafür super effizient ist. Gerade im Hinblick, dass bis auf ein paar PC Prestige Titel man von der Konsole abhängig ist.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Jap, für uns Endkunden gibt es nichts besseres als die momentane Marktsituation.
 
Da wär es fast gescheiter ne GTX275 zu kaufen, weil ich glaube für meinen 22"er ist der GT300 eh überdimensioniert.

Aber da frag ich dann mal im GTX275-Thread nach...
 
Jo, für den moment reicht für normale High Settings auf nem 22"er einfach ne 275er super aus.
Ich rede hier nicht von 1920er mit 16 fach fsaa und solchen spielerein :)
@Tankman: Genau das ist der Knackpunkt. Energie ist immernoch zu billig irgendwie wenn sich Leute zu wenig Gedanken darüber machen ob die neue Graka nicht nur schneller sondern dafür auch mehr braucht. Beim Auto ist das jedem klar, mehr schnell, mehr Sprit :)

MFG Jubeltrubel
 
Und trotzdem kann man nicht verlangen, dass der GT300 30% oder 40% mehr Leistung als eine GTX295 hat und dabei noch weniger als diese aufnimmt? Irgendwo muss die Leistung auch her kommen; eine Core i7 mit den Verbrauchswerten eines Atoms geht nicht...
 
Ist schon logisch das man für mehr Leistung auch mehr Energie verbrauchen muss.
Das wird auch immer so sein. Aber ich bin der Meinung, dass man in Punkto Effizienz noch nicht am Ende ist.
 
Ist schon logisch das man für mehr Leistung auch mehr Energie verbrauchen muss.
Das wird auch immer so sein. Aber ich bin der Meinung, dass man in Punkto Effizienz noch nicht am Ende ist.

So schnell wird sich da leider auch nicht wirklich viel verändern. Vielleicht fängt das umdenken erst an, wenn man schon bei PCIe 3.0 ist und die NTs immer stärker werden müssen um mitzuhalten :confused:
 
nun ja,wenn du crysis auf höchsten details zocken willst auf 22",kommst du mit ner 275 nicht aus.da muss was besseres her!(der gt 300???)
 
Hö?

Mein Kumpel hat Crysis (mit Mster Config) relativ flüssig auf seinem 24" gezockt, wobei er "nur" nen 6300 @ 2,8Ghz und ne 4770 hat.
 
Wenn ihr merh Leistung bei weniger Stromleistung wollt kauft doch einfach midrange. Midrange sind min so schnell wie die alten High end braucht aber deutlichst weniger Strom.


Wer immer das schnellste haben will darf nit über den Stromverbrauch rumheulen. Wer sich nen ferrari Porsche usw kauft heult ja auch nit wegen den Benzinverbrauch rum.


ne ATi Radeon HD 4670 braucht ja bereits keine 10W im idle
 
naja, ich bin ja mal gespannt, ob der Leistungsindex mit dieser Karte mal mehr ausspuckt wie nur ne 5,9
 
Der Leistungsindex von Vista?:haha:

:d ja richtig, genau der...denn ich habe immernoch nicht verstanden nach welchen Kriterien der nun geht. Abgesehen vom Festplattenbereich habe ich noch keine Benotung über 5,9 gesehen.

Es wird mal wieder Zeit für nen neuen Benchmark.
der 6er ist zu CPU Lastig und der Vantage ist viel zu leicht mit ner Flotten Festplatte/SSD beeinflussbar.
 
Ist schon logisch das man für mehr Leistung auch mehr Energie verbrauchen muss.
Das wird auch immer so sein. Aber ich bin der Meinung, dass man in Punkto Effizienz noch nicht am Ende ist.

Nein am Ende vllt nicht, aber die Zeit zeigt doch sehr schön, das die Effizienz mit jeder neuen Generation immer schön angestiegen ist...
Solange die Hersteller diesen Trend weiter gehen, ist doch allles in Butter...


Und seien wir mal ehrlich, ne Karte die genau so schnell ist wie die alte, dafür aber nur die hälfte an Strom verbraucht, wer würde sich denn sowas kaufen?
Wenn man mal nachrechnet, dann müsste man das Teil ja schon idR sehr sehr lange im PC behalten, damit sich überhaupt der Anschaffungspreis gegenüber der Stromersparniss lohnt...
Mal ganz davon abgesehen, das es weit sinnigere Wege gibt, Strom zu sparen...
Bis hin zu dem Punkt, das das reine surfen an ner Gamingmaschine ebenso Sinnfrei wäre aus dem Gesichtspunkt, sprich ne Surfstation zusätzlich macht da mehr Sinn und die Dicke Gamingkiste nur anschlaten, wenn auch wirklich gezockt wird...
Aber da wird die Menschheit wohl wieder zu faul für sein...

kommt drauf an,mit welchen settings man spielt:fresse:4aa und 16af:d
Da wirds eng auf 1920*1200.

Das wird nicht nur Eng, das ist nicht wirklich spielbar...
Ne HD4870 X2 schafft bei 1680x1050 und 4xAA/16xAF im Warhead schon nicht mehr feierliche FPS Raten, macht wirklich kein Fun...
Bei 2xAA hingegen läufts recht gut, mit dem ein oder anderen Aussetzer nach unten, logisch...

:d ja richtig, genau der...denn ich habe immernoch nicht verstanden nach welchen Kriterien der nun geht. Abgesehen vom Festplattenbereich habe ich noch keine Benotung über 5,9 gesehen.

Der Vista Leistungsindex geht doch imho nur bis 5,9, mehr ist doch da gar nicht drin derzeit!?
 
Bis hin zu dem Punkt, das das reine surfen an ner Gamingmaschine ebenso Sinnfrei wäre aus dem Gesichtspunkt, sprich ne Surfstation zusätzlich macht da mehr Sinn und die Dicke Gamingkiste nur anschlaten, wenn auch wirklich gezockt wird...
Aber da wird die Menschheit wohl wieder zu faul für sein...


Sich für 300€ eine Surfmaschine bauen rechnet sich leider garnicht. Bis du 300€ Strom eingespart hast vergeht eine Weile.
Vom Umweltgesichtspunkt ist es pures Gift, denn der Carbon Foot Print kommt nicht vom Betrieb, sondern großteilig aus der Herstellung, deswegen soll man Hardware so lange wie möglich nutzen.
 
Und seien wir mal ehrlich, ne Karte die genau so schnell ist wie die alte, dafür aber nur die hälfte an Strom verbraucht, wer würde sich denn sowas kaufen?



solche karten gibt es doch


zb 4770 vs 3850 oÄ

nur NV hat sich mit dem Umlabeln diesesmal dagegen entschieden
 
Sich für 300€ eine Surfmaschine bauen rechnet sich leider garnicht. Bis du 300€ Strom eingespart hast vergeht eine Weile.
Vom Umweltgesichtspunkt ist es pures Gift, denn der Carbon Foot Print kommt nicht vom Betrieb, sondern großteilig aus der Herstellung, deswegen soll man Hardware so lange wie möglich nutzen.

Wieso 300€?
Ich meine damit zum Beispiel ne Intel Atom mini ITX Geschichte oder ähnliches, da bist bei 100-150€ extrem gut dabei und hast mehr als ausreichend Leistung fürs reine Surfen und allgemein im 2D Desktop Std. Betrieb,bissl Musik hören und das ein oder andere Video sind damit auch drin...

Der nächste Punkt ist, das eine derartige Kiste auch in Jahren noch schnell genug für diese Art Anwendungen sein wird. Sprich es lohnt sehr wohl einmalig zu investieren...

solche karten gibt es doch


zb 4770 vs 3850 oÄ

nur NV hat sich mit dem Umlabeln diesesmal dagegen entschieden

Neja und dann schau dir doch mal die Leute an, welche vorher ne HD3870 im PC hatten und jetzt ne HD4670, oder welche von ner HD2900XT auf ne HD3870 umgestiegen sind...
Oder noch besser, welche von ner HD4830/HD4850 auf ne HD4770 umgestiegen sind...

Die Leistung bleibt bei den Beispielen immer auf recht gleichem Niveau, der Verbrauch sinkt hingegen teils deutlich, sowohl idle als auch Last...
Einen Umstieg macht die Stromeinsparung aber nicht schmackhaft...
 
die neue engine steht schon in den startlöchern... dann fängts wieder von vorne an
 
Eigentlich kann man froh sein das sich bei den Netzteilen was getan hat. Was bringt es mir wenn ich mit meiner Hardware 40 Watt weniger verbrauche wenn mein Netzteil wegen der geringen Effizienz das ganze zunichte macht (im Verhältniss zu einem besseren Netzteil). Zwar ist dort jetzt auch erstmal Ende (Netzteile mit noch höherer Effizienz richtung 0,9+ sind unbezahlbar aufgrund der hochwerigen Bauteile) aber immerhin hat sich dort gut was getan.

Ich persönlich halte nicht unbedingt viel vom Green-IT gedanken für Desktop PCs. Bei großen Servern oder Clustern ist das was anderes, aber wenn Ottonormalverbraucher 50 Watt spart wenn die Hardware ausgelastet wird bringt das aufs Jahr gesehen kaum etwas.



Crytek programmiert nur Mist,da hilft auch die übernächste Generation nichts.

Is doch auch toll wenn man sein Halbwissen überall verbreiten darf im WWW.
 
Crytek programmiert nur Mist,da hilft auch die übernächste Generation nichts.

Oh ja, die Besten der besten Softwareentwickler der Videospielbranche programmieren nur Mist. :rolleyes:

Die sind mindestens auf Augenhöhe mit Id und Epic!

Das Programmieren ist wohl nicht wirklich der entscheidende Faktor, eher die Architektur der Software.

Ich denke Crytek hat bisher herausragende Software herausgebracht. Die Jungs da sind total besessen von ihren Werken und das merkt man auch.
Nicht umsonst machen die in den letzten Jahren Egoshooter die den anderen um Jahre voraus sind und zwar in allen relevanten Bereichen. Außer Konsolenkompatibilität, was jetzt aber mit der Cryengine3 auch erreicht wurde.
 
Zuletzt bearbeitet von einem Moderator:
Oh ja, die Besten der besten Softwareentwickler der Videospielbranche programmieren nur Mist. :rolleyes:

Die sind mindestens auf Augenhöhe mit Id und Epic!

Das Programmieren ist wohl nicht wirklich der entscheidende Faktor, eher die Architektur der Software.

Ich denke Crytek hat bisher herausragende Software herausgebracht. Die Jungs da sind total besessen von ihren Werken und das merkt man auch.
Nicht umsonst machen die in den letzten Jahren Egoshooter die den anderen um Jahre voraus sind und zwar in allen relevanten Bereichen. Außer Konsolenkompatibilität, was jetzt aber mit der Cryengine3 auch erreicht wurde.


word
:bigok:


In Bezug auf die Stromspardiskussion:

man sollte sich lieber über die Umweltpolitik Gedanken machen :rolleyes:

aber nur :btt:
 
Nun ja, also ob ich 2x AA oder 4 AA in Crysis habe, da entscheide ich mich doch lieber für letzteres, sieht einfach schöner aus ;)
 
Nun ja, also ob ich 2x AA oder 4 AA in Crysis habe, da entscheide ich mich doch lieber für letzteres, sieht einfach schöner aus ;)

Das bestreitet ja auch keiner, klappt aber imho nur mit geeigneter Hardware...
Ne HD4870 X2 mit 790/900 auf beiden GPUs packt im CF 4xAA bei Crysis Warhead DX10, max Details und 1680x1050 schon nich mehr wirklich brauchbar, mit 2xAA gehts hingegen recht gut.

Ne Single HD4870 mit 512MB geht selbst mit 2xAA und gleichen Settings nicht mehr gut...
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh