GF100-Demonstration auf der CES

Redphil

Redakteur
Thread Starter
Mitglied seit
02.12.2004
Beiträge
6.831
Ort
Leipzig
<img style="margin: 10px; float: left;" alt="nvidia" src="images/stories/logos/nvidia.gif" height="100" width="100" />
<p>Mit der diesjährige CES (Consumer Electronics Show) startet in wenige Tagen in Las Vegas eine der weltweit größten Messen zur Unterhaltungselektronik. Wie bekannt wurde, will <a href="http://www.nvidia.de/page/home.html" target="_blank">NVIDIA</a> diese vom 7. bis zum 10. Januar andauernde Veranstaltung nutzen, um Messebesuchern einen kurzen Blick auf den GF100 werfen zu lassen. Die darauf basierenden DirectX-11-Grafikkarten der Kalifornier (GeForce GTX 360 und GTX 380) sollen als erste Ableger der neuen Fermi-Architektur auf den Markt kommen (<a...<p><a href="/index.php?option=com_content&view=article&id=13968&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich glaube mal nur an ein vorführen hinter verschlossenen türen... sonst wären schon mehr details durchgesickert was leistung betrifft.
 
Hoffentlich wirds von den Informationen her nicht wieder nur ein Tropfen auf dem heissen Stein!
 
mal sehen, ob die vom Stromverbrauch her mithalten können, was ich nicht glaube. Vom Preis red ich erst gar nicht^^
 
mal sehen, ob die vom Stromverbrauch her mithalten können, was ich nicht glaube. Vom Preis red ich erst gar nicht^^

gerade vom stromverbrauch her solltest du dir keine sorgen machen, da war nvidia seit dem g80 vs r600 immer deutlich besser ;)

die 58xx serie ist nicht durch durchdachten aufbau oder spezielle maßnahmen so sparsam, sondern dank des kleinen fertigungsprozesses. die grobe struktur hat sich seit dem r600 nicht verändert.

solche aussagen (wie die von dir) sollte man nicht ohne tiefergründigem wissen von sich geben
 
Zuletzt bearbeitet:
im Idle vielleicht. Unter Last haben die Nvidia´s immer etwas mehr Strom verbraucht

Leistungsaufnahme
 
:ironie an:
Das war bestimmt eh wieder nur ne abgesägte fake karte
:ironie aus:

Ma schaun, wann die ersten echten BenchMarks( unabhängige seiten ) kommen um endlich mal was aussage kräftiges zuhaben
 
gerade vom stromverbrauch her solltest du dir keine sorgen machen, da war nvidia seit dem g80 vs r600 immer deutlich besser ;)

die 58xx serie ist nicht durch durchdachten aufbau oder spezielle maßnahmen so sparsam, sondern dank des kleinen fertigungsprozesses. die grobe struktur hat sich seit dem r600 nicht verändert.

Mit solchen Aussagen wäre ich vorsichtig.

Gerade Gurken wie die G210 bzw. GT220/240 verbrauchen mehr Strom als vergleichbare ATI Modelle, trotz kleinerer Fertigungsgröße (40 anstatt 55nm).
 
im Idle vielleicht. Unter Last haben die Nvidia´s immer etwas mehr Strom verbraucht

Leistungsaufnahme

ja, wenn du aber in watt/ fps umrechnest, bist du bei NV besser dran.
bei dem test fehlt die 2900xt vs 8800gts/ gtx :d

Mit solchen Aussagen wäre ich vorsichtig.

Gerade Gurken wie die G210 bzw. GT220/240 verbrauchen mehr Strom als vergleichbare ATI Modelle, trotz kleinerer Fertigungsgröße (40 anstatt 55nm).

hier gings um den fermi, der direkter konkurrent zur 58xx serie wird, also high-end-markt und nicht um die gurken ;)
 
ja, wenn du aber in watt/ fps umrechnest, bist du bei NV besser dran

Immer diese Pauschalaussagen die man ohne großen Aufwand auch noch untergraben kann...
Schau dir Furmark Volllast Vergleiche an, ne HD4870 ist deutlich sparsamer als ne 285GTX und dabei noch ne ganze Ecke fixer in Furmark...
 
Ich würde meinen gerade bei dem Vergleich W/fps schneidet AMD mit den aktuellen Modellen sehr viel besser ab, als NV. 2900XT sei mal ausgeklammert, die war wirklich scheiße und der die 8800 nochdazu das beste was NV jemals auf die Beine gestellt hat.
 
hier gings um den fermi, der direkter konkurrent zur 58xx serie wird, also high-end-markt und nicht um die gurken ;)

Wer, ausser dir, hat denn hier behauptet, dass es seit dem G80 immer schon so war, dass nvidia GPUs sparsamer sind ? :wall:
 
Immer diese Pauschalaussagen die man ohne großen Aufwand auch noch untergraben kann...
Schau dir Furmark Volllast Vergleiche an, ne HD4870 ist deutlich sparsamer als ne 285GTX und dabei noch ne ganze Ecke fixer in Furmark...

hast du eine quelle? ich find jetzta uf die schnelle nur das : KLICK und hier verbraucht die 4870x2 deutlich mehr als eine gtx295...

Wer, ausser dir, hat denn hier behauptet, dass es seit dem G80 immer schon so war, dass nvidia GPUs sparsamer sind ? :wall:

naja, so wie das da steht, deutet es daraufhin als sei NV es den leuten schuldig, eine sparsamere karte zu liefern als die 58xx reihe es sind...

Ich würde meinen gerade bei dem Vergleich W/fps schneidet AMD mit den aktuellen Modellen sehr viel besser ab, als NV. 2900XT sei mal ausgeklammert, die war wirklich scheiße und der die 8800 nochdazu das beste was NV jemals auf die Beine gestellt hat.

finde ich nicht, die sind höchstens gleich auf. wenn man aber direkt vergleicht ist die gtx275 zb im watt/fps besser als die 4890, die gtx295 besser als die 4870x2 usw

wenn du mit neuen modellen aber die 58xx reihe meisnt, dann klar ;)
 
Zuletzt bearbeitet:
Wieso diskutiert ihr hier über den Stromverbrauch vorsintflutlicher Graka's :fresse:? Der Stromverbrauch bei high end graka's ist mir sowas von egal, wenn ich die 4 oder 500€ + habe um die Karte zu kaufen kann ich mir auch den Strom dazu leisten.
Ich will die neue GTX sehen und zwar schnell und in meinem Rechner:bigok:
 
lol, wer sagt denn, dass ich Ati-Fan bin? hatte vorher fast nur Nvidia...aber egal, bin ich halt nen Ati-Fan :stupid:
 
hast du eine quelle? ich find jetzta uf die schnelle nur das : KLICK und hier verbraucht die 4870x2 deutlich mehr als eine gtx295...

Natürlich...
http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index14.php

Und es ging nicht um die X2 und auch nicht um die 295er sondern wie ich oben Schrieb um die 285er gegen eine HD4870. Dort gemessen in der 512MB Version.

Ändert aber nix an der Tatsache, selbst die X2 lässt in Furmark ne 295 weit weit hinter sich, weit mehr als sie unter Last verbraucht. Bleibt also deine einfach wiederlegbare Pauschalaussage das seit dem G80 alle NV Karten immer weniger Verbrauchen oder mehr Leistung pro Watt liefern.
 
Bisher wird die 380 auf 225W geschätzt , ich denke wenn es keine Gurke wird kann das hinkommen . Mich Persöhnlich würde aber eher mal ne Preis Einschätzung Interessieren , noch könnte ich meine 5870 Stornieren . Aber ich denke das die 360 ca. 350 -380€ (bei guter Verfügbarkeit !!!) kosten wird , vorausgesetzt sie ist die bisher geschätzten~20% schneller als ne 5870 . MfG
 
@fdsonne
Sollte man der 4870 nicht auch die Karte von Nvidia gegenüber stellen der sie Leistungstechnisch am nähesten kommt in vielen Benchmarks.

Um den Stromverbrauch average zu vergleichen

Das wäre doch dann eher die 260er u nicht die 285er;)

Die 285er müsste sich meines Erachtens ungefähr mit der 4890 messen in Sachen Leistung u Leistungsaufnahme
 
Zuletzt bearbeitet:
Bisher wird die 380 auf 225W geschätzt , ich denke wenn es keine Gurke wird kann das hinkommen . Mich Persöhnlich würde aber eher mal ne Preis Einschätzung Interessieren , noch könnte ich meine 5870 Stornieren . Aber ich denke das die 360 ca. 350 -380€ (bei guter Verfügbarkeit !!!) kosten wird , vorausgesetzt sie ist die bisher geschätzten~20% schneller als ne 5870 . MfG

Die Tesla Karte wird auf 225W TDP geschätzt und wird wohl laut derzeitigen Gerüchten wohl mit 448 ALUs kommen.
Bleibt also weiterhin abzuwarten. In den letzten Schätzungen wird bei allen 512ALUs mindestens 250W TDP genannt.
 
Natürlich...
http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index14.php

Und es ging nicht um die X2 und auch nicht um die 295er sondern wie ich oben Schrieb um die 285er gegen eine HD4870. Dort gemessen in der 512MB Version.

Ändert aber nix an der Tatsache, selbst die X2 lässt in Furmark ne 295 weit weit hinter sich, weit mehr als sie unter Last verbraucht. Bleibt also deine einfach wiederlegbare Pauschalaussage das seit dem G80 alle NV Karten immer weniger Verbrauchen oder mehr Leistung pro Watt liefern.

was mich da stört ist, die 512mb 4870. wie manw eiss, ist der gddr5 bei der 4870 nicht ebsonders sparsam, macht ja auch allein bei der 512mb version locker 30-50 watt zwischen 300mhz und 950mhz aus. wenn du da also die 1gb version testest, bist du min auf gtx285 niveau.
warum eine gtx285 bei furmark langsamer als ne 4870 ist, kann ich mir nicht erklären.
das wirst du sonst nirgends finden ;)

laut meinem link verbaucht die 48701gb ja 40 watt mehr als ne gtx260 65nm... da stimmt doch irgendwas nicht mit deiner quelle überein (verstehe nicht, wie die gtx285 dann soviel mehr als ne 4870 verbraten soll).
wird wohl wirklich der restilche gddr5 sein ...
 
Zuletzt bearbeitet:
mal sehen, ob die vom Stromverbrauch her mithalten können, was ich nicht glaube. Vom Preis red ich erst gar nicht^^

Wenn die 380 GTX mehr Leistung bietet,warum muss sie dann überhaupt im Stromverbrauch u Preis mit der 5870 gleich auf sein,die Logik dahinter ist mir noch nicht ganz klar;)

Wenn ich einen Ferrari u nen Porsche Boxter habe,kosten u verbrauchen diese beiden auch nicht gleich viel,u niemand käme auf die abwägige Idee beide gegenüber zu stellen;)
 
Zuletzt bearbeitet:
Wenn die 380 GTX mehr Leistung bietet,warum muss sie dann überhaupt im Stromverbrauch u Preis mit der 5870 gleich auf sein,die Logik dahinter ist mir noch nicht ganz klar;)

Wenn ich einen Ferrari u nen Porsche Boxter habe kosten u verbrauchen diese beiden auch nicht gleich viel u niemand käme auf die abwägige Idee beide gegenüber zu stellen;)

Das P/L-Verhältnis muss aber stimmen, dass ist wichtig.
Was nützt es einem, wenn die 380 GTX 11% schneller ist (neuestes Gerücht), aber der Preis 30% über der der Radeon ist?
Wie gesagt, das Verhätnis muss stimmen.

Was den Verbrauch angeht, so ist es bei vielen sehr wichtig geworden.
Es gibt immer Leute, denen es absolut egal ist, wenn die Karte 100 Watt im Idle verbraucht, aber diese werden immer weniger, insbesondere wenn man selbst für löhnen darf.^^
 
Das P/L-Verhältnis muss aber stimmen, dass ist wichtig.
Was nützt es einem, wenn die 380 GTX 11% schneller ist (neuestes Gerücht), aber der Preis 30% über der der Radeon ist?
Wie gesagt, das Verhätnis muss stimmen.
.^^

Das ist vollkommen richtig;)

Nur war das seine Aussage

mal sehen, ob die vom Stromverbrauch her mithalten können, was ich nicht glaube. Vom Preis red ich erst gar nicht

Und das klingt nicht nach Verhältniss,sondern nach direktem Vergleich,von Grafikkarten die aller Vorraussicht nach nicht in der selben Liga spielen
 
Zuletzt bearbeitet:
Das ist aber nie der Fall.

Im PC-Highend Markt und in jedem anderen Markt auch nicht.

Für die "schnellsten, besten, tollsten, leisesten................" Produkte zahlt man im Vergleich zu den dahinterstehenden Produkten normalerweise fast immer "unverhältnismäßig" mehr.

Im Highend Bereich kommt es ja den meißten ja auch genau auf dieses "quentchen" Mehrleistung an.

Wenn Nvidia die schnellste Singlegrafikkarte auf den Markt bringt, dann wird die aber ganz sicher 100€ teurer sein als eine 5870.

Wäre natürlich genial wenn die Karte direkt 20% schneller wäre. Aber davon geht glaube ich keiner mehr aus.
 
Zuletzt bearbeitet:
P/L ist bei highend immer so eine sache...nen Ferrari mag nur 50km/h schneller sein als nen bis zum ende getunter
5er BWM, kostet dennoch x mal mehr!

verstehe die diskussion um stromverbrauch und preis auch nicht ganz! hauptsache das ding geht gut ab, dann darf
sie auch ruhig 150€ mehr kosten und 100w mehr verbrauchen!
 
Ich auch, mit 100€ ist es noch untertrieben aber sonst stimmt es;)

GTX295 vs HD 5870

In vielen fällen ist die 5870 genauso schnell, die 295 kostet trotzdem noch 400€ die weit weniger zu bieten hat.


Meine Meinung:

NV interessiert das überhaupt nicht was ATI macht, die machen ihre Preise wie sie wollen.
 
Zuletzt bearbeitet:
Was den Verbrauch angeht, so ist es bei vielen sehr wichtig geworden.
Es gibt immer Leute, denen es absolut egal ist, wenn die Karte 100 Watt im Idle verbraucht, aber diese werden immer weniger, insbesondere wenn man selbst für löhnen darf.^^

In fast jedem thread wird immer grossartig über Verbrauch gesprochen aber ne rechnung dazu hab ich noch nicht gesehen :hmm:

Annahme: Kilowattstunde 17 cent, 5 Stunden am Tag spielen dabei 100W Mehrverbrauch gegenüber einer "anderen Karte"

100W / 1000 x 5h x 365tage X 0,17€ =31€ pro Jahr

31€ sind in der Preisregion dieser Karten lächerlich, das sind ja schon fast preisschwankungen bzw wenn du ein problem mit 30€ jährlich hast solltest du dir die karte gar nicht kaufen:fresse:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh