GF100-Demonstration auf der CES

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich auch, mit 100€ ist es noch untertrieben aber sonst stimmt es;)

GTX295 vs HD 5870

In vielen fällen ist die 5870 genauso schnell, die 295 kostet trotzdem noch 400€ die weit weniger zu bieten hat.


Meine Meinung:

NV interessiert das überhaupt nicht was ATI macht, die machen ihre Preise wie sie wollen.

ääh, weisst du warum die so teuer ist? die war (als sie noch normal produziert wurde) ~ 300€, dass sie jetzt teuerer geworden ist, liegt (wie bei der gtx275, 285, 280, ...) daran, dass nur noch restbestände verkauft werden

Aso? AMD zieht mit Juniper Chips (Cypress =2xJuniper) gegen Fermi in den Krieg und das nennt sich High end Schlacht? Ne ne so nicht :fresse:

genau das ist der fall.
 
Zuletzt bearbeitet:
@fdsonne
Sollte man der 4870 nicht auch die Karte von Nvidia gegenüber stellen der sie Leistungstechnisch am nähesten kommt in vielen Benchmarks.

Um den Stromverbrauch average zu vergleichen

Das wäre doch dann eher die 260er u nicht die 285er;)

Die 285er müsste sich meines Erachtens ungefähr mit der 4890 messen in Sachen Leistung u Leistungsaufnahme

Ansich richtig, aber es ging um die nicht ganz angebrachte Pauschalaussage von astra, nämlich das NV seit dem G80 immer im Verbrauch vor AMD lag. Sowie das bei NV Performance/Watt besser als bei AMD sein. Und ich habe nur ein Beispiel gegeben um diese Pauschalaussage völlig zu entkräften.
Bei ner 285GTX vs. HD4890 siehts da nicht viel anders aus. ;)
Bleiben 210 vs. 214W zugunden AMD... Und der Leistungsvorsprung der AMD Karte ist nochmals ne ganze Ecke größer...

Bin halt kein Freund von Pauschalaussagen, die man so ohne weiteres total entkräften kann.

was mich da stört ist, die 512mb 4870. wie manw eiss, ist der gddr5 bei der 4870 nicht ebsonders sparsam, macht ja auch allein bei der 512mb version locker 30-50 watt zwischen 300mhz und 950mhz aus. wenn du da also die 1gb version testest, bist du min auf gtx285 niveau.
warum eine gtx285 bei furmark langsamer als ne 4870 ist, kann ich mir nicht erklären.
das wirst du sonst nirgends finden ;)

laut meinem link verbaucht die 48701gb ja 40 watt mehr als ne gtx260 65nm... da stimmt doch irgendwas nicht mit deiner quelle überein (verstehe nicht, wie die gtx285 dann soviel mehr als ne 4870 verbraten soll).
wird wohl wirklich der restilche gddr5 sein ...

Nein, die Werte von PCGH und HT4U decken sich weitestgehend immer miteinander. Gewisse Verbrauchsschwankungen kommen von unterschiedlichen Revisionen/Modellen/Fertigungsschwankungen und von der Umgebungstemperatur/der GPU Temperatur sowie der Lüftergeschwindigkeit und dessen Verbrauch.
Im Großen und ganzen sind die Werte aber recht identisch gewesen...

Wie soll es auch anders sein, man misst schließlich die Karte allein ohne andere Einwirkungen.

Und nein, der Unterschied zwischen 1GB und 512MB ist sehr sehr gering. Richtig ist, der GDDR5 Speicher spart bei Taktabsenkung sehr viel ein. Aber da beide mit dem gleichen Takt betrieben werden, spielt das nicht mit rein. Grund dafür dürfte wohl sein, das die Karten soweit ich weis dynamisch mit dem Takt auch die Speicherspannung verringern. Was bei weniger Takt gleichzeitig auch deutlich weniger Verbrauch macht.

Im übrigen kann ich dir sagen warum die HD4870 in Furmark ne 285GTX schlägt, einfach weil Furmark exzelent mit den 5D Shadern der AMD Karten klar kommt. Und dementsprechend sieht eine NV Karte durch deutlich weniger Shaderpower kein Land.

Auch deine nächste Pauschalaussage von wegen das ist nur in Furmark so, lässt sich wiederlegen...

Achso auch bei HT4U wird eine 260GTX 65nm mit ~166W Furmark Volllastverbrauch gemessen. Deckt sich ebenso mit PCGH. Der Unterschied kommt von siehe ersten Absatz...
 
Und 100 Watt Mehrverbrauch sind schon weit aus optimistisch gerechnet;)

17cent aber ebenso ;)

Und es geht doch nicht nur um diese eine Aussage. Dazu kommen noch der idle Verbrauch, der Preis des möglicherweise größer auszufallenden NTs und der dadruch schlechtere Wirkungsgrad im idle. Ebenso die Anzahl der Karten usw.
Die Rechnung lässt sich bis fast ins unendliche weiter treiben...

Ansich ist der absolute Verbrauch der Karten auch völlig egal, dennoch ist es aus technischer Sicht immer sehr interessant, wer hier bessere Arbeit geleistet hat.

Ebenso stellt sich mir die Frage, warum 31€ unnötig verschenken? ;)
 
was heisst hier pauschalaussagen? sollen wir wohl alle einzelnen spiele benennen? schau mal bei cb das rating an, du sagst eine 4890 wäre ~ gtx285, laut dem gesamtrating ist die gtx275 schon 15% vor einer 4890, die gtx285 zum teil 23%. klar, bei 8x AA sieht das schon wieder anders aus, aber welches neuere spiel ist mit einer 4890 mit 8x AA gut spielbar? cod4 spiele ich mit 2x AA weil sonst zu viele FPS-drops vorhanden sind und ich spiele auf min- details.
 
was heisst hier pauschalaussagen? sollen wir wohl alle einzelnen spiele benennen? schau mal bei cb das rating an, du sagst eine 4890 wäre ~ gtx285, laut dem gesamtrating ist die gtx275 schon 15% vor einer 4890, die gtx285 zum teil 23%. klar, bei 8x AA sieht das schon wieder anders aus, aber welches neuere spiel ist mit einer 4890 mit 8x AA gut spielbar? cod4 spiele ich mit 2x AA weil sonst zu viele FPS-drops vorhanden sind und ich spiele auf min- details.

ich sage gar nix von wegen 4890 ist ca. gleich 285GTX.

Es ging einzig und allein um deine Aussage oben zum Verbrauch...
Im übrigen lassen sich Pauschalaussagen ungemein einfach vermeiden in dem man kleine Wortfeinheiten wie idR oder meist oder was auch immer in den Satz einbaut.
Also beispielsweise: Meist steht eine NV Karte beim Verbrauch zur im Schnitt gleich schnellen (auf gleichem Niveau agierenden) AMD Karte etwas besser da.

Und kein Mensch hätte irgendwas gesagt. Die Aussage "da war nvidia seit dem g80 vs r600 immer deutlich besser" ist nunmal schlicht und ergreifend falsch. Weil es eben nicht immer so ist. Siehe Beispiel oben.

Warum unnötig wenn die Leistung adäquat ausfällt dazu,sind die Mehrkosten doch legitim;)

Wenn die Leistung pro Watt stimmt ist das natürlich richtig.
Bleibt halt abzuwarten was die Karte wirklich verbrauchen wird. NV war ja idR immer recht bestrebt ihre TDP Angaben weitestgehend einzuhalten... Wenn das so bleibt wird wohl der absolute Furmark Volllastverbrauch bei um die 230-240W liegen (bei 225W TDP) und der reale Gamingverbrauch im Schnitt bei etwas unter 200W.

Demgegenüber stehen dann mit der HD5870 als Top AMD SingleGPU ~200W/~155W (Furmark/Games)
Wenn die Leistung auch dementsprechend hoch ausfällt zumindest in Games hat da wohl niemand was dagegen. Bei zuletzt spekulierten 11% wäre das aber nicht wirklich tragbar und die Arbeit der NV Techniker schon ein wenig misslungen ;) (aus design-technischer Sicht)
 
Zuletzt bearbeitet:
ja gut, dann werde ich mich dir zu liebe bessern und in zukunft meine aussagen weniger pauschalisieren
 
ja gut, dann werde ich mich dir zu liebe bessern und in zukunft meine aussagen weniger pauschalisieren

Soll ja keine Anfeindung persönlich gegen dich gewesen sein, nur werden durch Pauschalaussagen oft auch Dinge einfach falsch interpretiert.
Wenn ich da an den R600 denke... oder auch an andere Hardware.
Sowas muss einfach nicht sein, mir persönlich ists auch egal ob da nun NV, AMD, Intel oder weis der Geier welche Marke drauf steht. Ne Pauschalaussage ist oft einfach unangebracht...

Aber nun :btt: ;)
 
17cent aber ebenso ;)

Und es geht doch nicht nur um diese eine Aussage. Dazu kommen noch der idle Verbrauch, der Preis des möglicherweise größer auszufallenden NTs und der dadruch schlechtere Wirkungsgrad im idle. Ebenso die Anzahl der Karten usw.
Die Rechnung lässt sich bis fast ins unendliche weiter treiben...

Ansich ist der absolute Verbrauch der Karten auch völlig egal, dennoch ist es aus technischer Sicht immer sehr interessant, wer hier bessere Arbeit geleistet hat.

Ebenso stellt sich mir die Frage, warum 31€ unnötig verschenken? ;)

Klar kannst du alles ins unendliche weiter treiben, aber hier läuft es doch immer so ab: Karte X 150W, Karte Y 200W und alle brüllen schon rum als ginge es um 100€ pro monat, ich wollte mit der rechnung nur mal zeigen von welch astronomischen summen wir hier immer sprechen.

Und wie schon gesagt die 31€ kannst du auch verschenken wenn du die Graka einfach an nem "falschen" Tag kaufst....ich möchte nicht wissen wie viele Leute hier zB vor (sehr) kurzer Zeit ne 5870 für zB 380€ gekauft haben und heute ist zB eine für 315€ verfügbar...sind 65€ in einer Woche verschenkt;)
 
Zuletzt bearbeitet:
Bei ner 285GTX vs. HD4890 siehts da nicht viel anders aus. ;)
Und der Leistungsvorsprung der AMD Karte ist nochmals ne ganze Ecke größer...
What?? Von was redest du eigentlich :confused: ?

Wenn es um FPS in Games geht, dann kann ich jedenfalls nicht erkennen, das die 4890 einen "Leistungsvorteil von einer ganzen Ecke" gegenüber einer GTX285 besitzt...
Quelle: Hardwareluxx.de
Quelle: computerbase.de

zum Thema Leistungsaufnahme (Gesamtsystem!):

4890
IDLE: 206W
LAST:324W

GTX285
IDLE: 171W
LAST:336W

Das HD4980er System verbrät im IDLE 35W mehr, unter Last (Crysis Warhead) verbraucht es jedoch 12W weniger wie das GTX285 System.
Quelle: Computerbase.de

Genau diese Verbrauchstendenz zeigt auch der Hardwareluxx-Test. Im IDLE verbrät das HD4980er System ca.38W mehr wie das GTX285er System, unter Last zieht das GTX285er System ca.13W mehr wie das 4890er System.
Quelle: hardwareluxx.de

Topic:
Hoffentlich wird auf der CES von NV nun endlichmal ein Fermi vorgeführt, so das das ganze "Spekulatiuszeugs" der letzten Wochen mal ein Ende findet.
Wird langsam mal Zeit FAKTEN zu liefern :fresse:.
 
Zuletzt bearbeitet:
lestr mal was er schreibt ....

er vergleicht die Leistungsaufnahme in furemark mit den fps in furemark und fps mässig schlägt ne 4870 ne 285 in Furemark lockerst
 
lestr mal was er schreibt ....

er vergleicht die Leistungsaufnahme in furemark mit den fps in furemark und fps mässig schlägt ne 4870 ne 285 in Furemark lockerst

So schauts aus, es ging um die Leistungsaufnahme unter Volllast. Und um den Gegenbeweis für eine Pauschalaussage...

Übrigens sind Gesamtsystemmessungen total für den Po... ;)
 
Übrigens sind Gesamtsystemmessungen total für den Po... ;)
Warum?
Ich schließe meinen Rechner komplett an das Stromnetz an und nicht in Einzelteilen...

edtit:
Aha, ging also um FurMark. Dann ist das ja geklärt.
 
Zuletzt bearbeitet:
Am Mittwoch/ Donnerstag sollte ja schon der Cat 10.1 daherschiessen, schauen was dieser reissen wird, soll ja einige Neuerungen in sich haben.
Da wird man wohl die Vorteile aller letzten 3 Catalysat Treiber des Jahres 2009 in der HD5xx0 er Serie vereint haben.

Spielefix, Fix für gewisse Benchmarks, Einwandfreies und fehlerloses AF, Performance Sprünge/ Sprüngchen udg.
 
So wies aussieht wird der Fermi zumindest im Verbrauch und somit auch der Temperatur alles Topen was bisher da war egal ob von NV oder ATI. Mal sehn ob da was kommt auf der CES oder wieder nur Fakes und CGPU gelaber.
 
Zuletzt bearbeitet:
Warum?
Ich schließe meinen Rechner komplett an das Stromnetz an und nicht in Einzelteilen...

Wir vergleichen hier aber Grafikkarten und nicht Gesamte PCs. Wo wie oben schon erwähnt durch unterschiedliche Last der Wirkungsgrad des NTs unterschiedlich ausfallen kann. Ebenso ändert sich der Stromverbrauch bei höheren Temps/niedrigeren Temps teils gar nicht mal schlecht usw.

In Gesamtsystemmessungen sind einfach viel zu viele potentielle Fehlerquellen drin um den Vergleich zwischen Einzellprodukten zu wahren.
 
Ah endlich ist Land in sicht :banana:

Neben vernünftigen Benchmarks hoffe ich auch auf vernünftige Chipdetails und wie Tesselation nun bei NV gehandhabt wird.


Ich weiß zwar nicht wie es bei anderen aussieht aber bei mir befindet sich der rechner häufiger im idle als unter dauerlast.
Der Stromverbrauch unter Last ist mir daher schnuppe. Im idle muss der verbrauch top sein rest juckt mich überhaupt nicht. Und wenn der 50 Watt Mehr unter last verbraucht als der Cypress wären das so 5,55 cent mehrverbrauch (bei mir und entsprechend 0.18,5 € kw/h bei 6 stunden dauer zocken.
Das treibt mich nicht wirklich in den Finanziellen ruin. :coolblue:

PS: Vielleicht sollten die ganzen Energiebewussten heuchler die hier die grüne Flagge hissen mal ihre Einstellung überdenken. Erst recht jene die hier angst haben vor evtl. größerem Verbrauch hingegen aber in ihrer Signatur Rechner präsentieren dessen OC alles geschriebene in Frage stellt :rolleyes:

PPS: Oder gar 2-3 und mehr rechner zuhause betreiben...
 
Zuletzt bearbeitet:
sobald die neuen Nvidia Karten im Handel sind wird AMD die Preise der Radeon anpassen und Nvidia das Leben schwer machen ;)
 
sobald die neuen Nvidia Karten im Handel sind wird AMD die Preise der Radeon anpassen und Nvidia das Leben schwer machen ;)

kommt auf die preise der NV an , vll passen die ihre preise an ATI an und jeder bleibt bei dem stand ;)

A/A will ja auch mal geld verdienen und würde die preise nicht grundlos senken
 
In jedem fall wird sich eins hier nie ändern. Erst wird hochgelobt was mehr leistung hat, dann wenn dies nicht mehr als Argument gilt die Leistungsaufnahme verglichen. Und zu guter letzt kommt das Argument des preiswerteren Produktes. Und dann noch meistens von leuten die jenes Produkt zu viel teureren Preisen gekauft hatten weil die Leistung ja doch wichtiger war... ^^
 
motkachler schrieb:
So wies aussieht wird der Fermi zumindest im Verbrauch und somit auch der Temperatur alles Topen was bisher da war egal ob von NV oder ATI.
Die über 300W einer HD5970 oder gar Asus Mars zu knacken, wird schwierig. Zumal NV für die schnellste Tesla ( ~GTX360) unter 225W angibt. Und von wegen Temps: Um die 90° haben viele aktuelle Karten *Schulter zuck*
 
Ich bin immer noch der Meinung das von AMD/ATI im Q3 2010 ein RV870-RV970 refresh kommt und 2011 was ganz neues!
Nvidia wird dann wieder unten sein^^
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh