GF100: Kommt der wohl heißeste Chip doch schon im Februar?

ihr vergesst das die karte ja nicht weggeschmissen wird sondern ein zweit dritt oder was auch immer besitzer diese dann einsetzt.
Diese Argumentation ist vollkommen unnötig, da könnt ihr auch gleich argumentieren wieder in Höhlen zu leben und alles selber anzubauen.
1/3 unserer erzeugten Energie geht für die Fleischproduktion drauf und dessen Transport, Verpackung ect.
Ist genauso sinnlos über den Sinn und Unsinn der Umweltzonen, wenn PKWs kein 10% des Feinstaubs und CO2haushalts ausmachen, manchmal zählt auch der erste Riss in einem alten Damm, oder auch die sensibilisierung der Massen, auch wenn diese zu schnell in diesen "Look@me i´m green" endet, der wenig mit wirklich energiesparen zutun hat...
Schönen Sonntag noch
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ihr vergesst das die karte ja nicht weggeschmissen wird sondern ein zweit dritt oder was auch immer besitzer diese dann einsetzt.

Sagt wer?
Also meine Hardware bleibt idR bei mir bis sie entweder Kaputt ist, oder sich dafür ein Sinnvolles Einsatzgebiet findet...

Gut die letzten 3 Grafikkarten sind an gute Freunde verschenkt, aber egal, der komplette Rest an Hardware ist nach wie vor bei mir, und das von gut vor der Pentium 1 Zeit ;)
 
Hatte ich davor auchschon,aber das ist doch egal,weil das realitätsfern ist!
Weist ja was ich meine,aber trotzdem muß man doch als Ökonom,nicht idealist drauf achten,wie man mit Ressourcen umgeht,wenn am Ende jeder auch nur einen kleines Stück beiträgt ist das schon Okay!

natürlich ist das realitätsfern, aber die aussage, dass man damit der umwelt hilft, ist hier falsch :p der umwelt würde man mehr helfen, wenn man seit dem ersten PC nichts mehr kaufen würde.

ihr vergesst das die karte ja nicht weggeschmissen wird sondern ein zweit dritt oder was auch immer besitzer diese dann einsetzt.

ja, wenn du so anfängst, dann denk auch mal weiter ;)
der käufer hat dann ja 2 karte, ok vll verkauft er die weiter, aber dann hat wieder einer ne neue etc und im endeffekt schmeisst doch einer seine karte weg, aufgrund von deinem neukauf :coolblue:
 
Manman was hier abgeht :d

Ist doch egal was der tranzport jetzt kostet, der ist bei einer karte die 100watt verbraucht genauso wie bei einer die 1000Watt verbraucht!

Nur wenn man sich eh eine neue karte kauft kann man persönlich doch drauf achten nicht sinnlos Strom zu verbrauchen.

Und karten die jede menge strom verbrachen sind eben nicht zeitgemäß!
 
Du besitzt also auch ein Hardwaremuseum so wie andere Leute:)

könnte man dann wohl so sagen, wobei das ganz Alte Zeug schon weggeflogen ist, die CPUs und die Speicherriegel von damals hab ich alle noch.
Sowie nahezu komplett alle Technik seit dem Sockel-A... Davon vieles auch noch in Betrieb, wie mein Router mit Sockel-A Board + 1800+ Athlon XP und irgend ne damals schweine teure Diamond PCI Grafikkarte...

Aber gut, ich tausch auch nicht meine Hardware wie manch andere ihre Unterwäsche. Mein Hauptsys steht so seit über 3 Jahren ;) nur mal hier und da was getauscht, wie jüngst 2x4GB Speicherriegel nachgeschoben...
Aber im Sommer kommt dann wieder was neues, wohl das Dual S1366er EVGA Board + 1-2 Hexacore CPUs ;)
 
Und karten die jede menge strom verbrachen sind eben nicht zeitgemäß!

Es geht aber auch nicht ohne Strom im Highendbereich u jeder Hersteller wird darauf erpicht sein seine Chips so "kühl/leistungsaufnahmearm" wie möglich zu produzieren um aufwändigen u damit teuren Kühlkonstruktionen aus dem Weg zu gehen.
 
Es geht aber auch nicht ohne Strom im Highendbereich u jeder Hersteller wird darauf erpicht sein seine Chips so "kühl/leistungsaufnahmearm" wie möglich zu produzieren um aufwändigen u damit teuren Kühlkonstruktionen aus dem Weg zu gehen.

Dann muss man sich halt fragen was zeitgemäßer ist, der ansatz von ATI oder der Bruteforce ansatz von NV?
 
wohl das Dual S1366er EVGA Board + 1-2 Hexacore CPUs ;)

Weiß Frauchen schon von der Ausgabe die du da tätigen willst:fresse:

---------- Beitrag hinzugefügt um 19:36 ---------- Vorheriger Beitrag war um 19:34 ----------

Dann muss man sich halt fragen was zeitgemäßer ist, der ansatz von ATI oder der Bruteforce ansatz von NV?

Wie was meinst du denn jetzt?

Der Fermi wird allen Anschein nach schneller sein als die 5er Serie von ATI.

Warum muss er dann eigentlich nach Meinung einiger auf dem selben Energielevel liegen,wie das ATI Gegenstück?

Wo ist hier die Logik

Wenn er für die prophezeiten 250Watt eine adäquate Leistung bringt ist das vollkommen legitim,das er diese auch verbraucht
 
Zuletzt bearbeitet:
so ein käse...1000w...anmachen,mal surfen,film schauen machst du nie...da kommt ganz schön ne summe übers jahr zusammen!
es geht doch nicht um 12w oder so...wenn man aber z.b. für 20% mehr leistung 300w anstatt 200w aus der dose zieht,ist das einfach der falsche weg,das energie ressourcen bzw. die,die wir jetzt nutzen nicht unendlich sind,ist dir egal....wenn du mal kinder hat,die können sich dann nen hamster holen,weil alles andere nicht mehr da ist!
solche dummen kommentare!

Du sprichst mir aus der Seele. Solche Aussagen, gerade wie die, sind sowas von lächerlich. Ich hasse diese scheiß Mentalität: Was ich nicht zahl, das ist mir egal. Und wenn jetzt einer kommt und sagt: ICh zahls, aber mir ists Wert, dann ist das noch 3 mal so dämlich.

Ich lasse, nur weil ich es finanziell könnte, auch incht mein Auto mit laufendem Motor vorm Haus stehen oder befülle meinen Kühlschrank bis er platzt, weil ist ja scheiß egal, wenn das Verfallsdatum abgelaufen ist, schmeiß ich es weg.

Es geht hier NICHT darum, das man etwas kann, sondern ob man der Verantwortung, die man dadurch auch hat, gerecht wird.

Ein bisschen über Nachaltigkeit von Verbrauchsgütern nachdenken, dann wäre schon vielen Leuten geholfen.
 
Weiß Frauchen schon von der Ausgabe die du da tätigen willst:fresse:

---------- Beitrag hinzugefügt um 19:36 ---------- Vorheriger Beitrag war um 19:34 ----------



Wie was meinst du denn jetzt?

Der Fermi wird allen Anschein nach schneller sein als die 5er Serie von ATI.

Warum muss er dann eigentlich nach Meinung einiger auf dem selben Energielevel liegen,wie das ATI Gegenstück?

Wo ist hier die Logik

Wenn er für die prophezeiten 250Watt eine adäquate Leistung bringt ist das vollkommen legitim

Ich sag ja nicht gleiches , aber sollte nicht den "rahmen" sprengen :fresse:

Und die mehrleistung kennt man noch nicht!
 
Ein Problem wird sicher auch die Haltbarkeit sein, wenn hohe Ströme fließen müssen. Eine schnelle und leistungsfähige Grafikkarte ist super, aber man möchte sicher mindestens länger als zwei Jahre Spaß damit haben.
 
Weiß Frauchen schon von der Ausgabe die du da tätigen willst:fresse:
Ohne Frauchen hab ich das Problem aktuell zum Glück nicht ;)

Warum muss er dann eigentlich nach Meinung einiger auf dem selben Energielevel liegen,wie das ATI Gegenstück?

Wo ist hier die Logik

Wenn er für die prophezeiten 250Watt eine adäquate Leistung bringt ist das vollkommen legitim

Die Frage ist wohl eher, welche der beiden Karten effizienter arbeiten wird...
 
Zuletzt bearbeitet:
Du hast doch selbst Furmark als Beispiel weiter oben genannt...
Dann ist dir sicher auch nicht entfallen, das in Furmark weit mehr als 188W real von der Karte geschluckt werden.
Xbitlabs: ~160 W, HT4U: ~200 W. Keine Ahnung, auf was deine Aussagen basieren, aber sie entsprechen nicht den Tatsachen. Zudem, was soll das mit dem Thema und meiner Aussage zu tun haben? :hmm:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh