NVIDIA spricht über Leistungsaufnahme und Abwärme des GF100

geil dann gibt Blueray 3D mit Stereo oder 5.1 Sound....oh meine :fresse: :wall:
Aber naja braucht man für 3D nicht sowieso 2 GTX480/470?
und das allein ein 2ter Monitor 50 bis 100Watt im Idle frisst und sich die karte bei öffnen einer Homepage mal eben 50watt(mehr) genemigt.....verdammt krasse scheiße...war der Ingeneur auf Drogen?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Turbostaat

ich wolte mit dem vergleich nicht nvidias Karte verteidigen sondern generell die ausage untermauern das Mehr Leistung mer verbraucht und wie schon gesagt das Konzept Nvidias ist nicht aufgegeangen. Momentan ist die mehr leistung der gtx480 glaube ich auch der einzige punkt bzw möglichkeit den Hohenstromverbrauch und Hitzteentwiklung zu rechtfertigen.

Mich würde aber Trozdem mal der verbrauchs unterschied zwichen einem Ferari und nem Kleinerem auto bei gleicher geschwiendigkeit interessieren.
 
@Reaver1988
Nunja, zumindestens die Texturfilterung ist mehr als sinnvoll, egal welche Auflösung. Kantenglättung in so hohen Auflösung ist einfach ein Empfinden, ob man es auf einem 32" Fernseher aus 5m Entfernung sieht oder auf einem 24" einen halben Meter vor deiner Nase ;)
 
Ich habe die karten günstig erstanden und eine gtx260 gegen EINE hd5770 auszutauschen ist Sinnfrei, also habe ich direkt 2 genommen (hättest du bei 85€/stück auch gemacht nehme ich an).
Bei 1920 ist die Treppenbildung aber erheblich feiner als bei 1280 z.B.
Und ja ich weiß was AA und AF bewirken und ich weiß auch, dass es im Spielfluß nicht auffällt ob man es an hat oder nicht. Klar wenn ich irgendwo stehe und n screen mache und die dann vergleiche dann sehe ich das auch, aber wenn ich zocke dann merkt man es einfach nicht --> mein Empfinden
Und was hat ein Spiel damit zutun ob jemand drüber redet oder nicht? Ist doch total egal wer darüber redet und wer nicht

wenn das dein empfinden ist brauchst du so Karten nicht und wenn du das nur im Stand siehst würd ich mal zum Augenarzt gehen, wir spielen alle nicht IM STANDMODUS und freuen uns über jede Kante die wir nicht mehr sehen egal ob rot oder grün.

Du solltest dazu einfach nichts mehr schreiben sondern mal nachdenken.
 
Zuletzt bearbeitet:
wie du sagst, dass ist ein empfinden. bei af mag ich dir ja teils noch zustimmen, aber auch das ist nichts weltbewegendes.
Wie gesagt, dass ist empfinden und mein empfinden ist: ich lass es aus und freu mich über spielbarere FPS (in manchen games)

@mayer2 ich glaube mit dir hat es keinen Sinn über soetwas zu reden. Klingst in dem Thread wie " Das was ich sage ist Gesetz und richtig" .... mein empfinden ist es nunmal, dass es nicht auffällt. es ist marginal. Und den Mund verbieten lasse ich mir sowieso nicht ;)
 
Zuletzt bearbeitet:
Was sich erst noch zeigen muss. 28nm ist noch Wunschdenken und es ist nicht garantiert das der Verbrauch dadurch sinkt, siehe nvidia 65 vs 55nm Prozess. Hat auch nichts gebracht, sondern die 55nm verbrauchte sogar mehr...

Sollte also demnächst was passieren muss ein 40nm Chip herhalten, allerdings bezweifel ich das nvidia die Leistung pro Transistor in so kurzer Zeit so massiv steigern kann, das die Karte in irgendeiner Form abgespeckt werden kann. Selbst der 28nm Prozess schon da wäre in einem halben Jahr, so wäre es vermutlich nur für nvidia billiger zu produzieren, für den User hat es wie davor dann keinen nutzen.

Klar das sich das noch zeigen muss!

Dennoch bin ich da guter Dinge.. RV740 hatte ja am Anfang mit den gleichen Problemen zu kämpfen wie Fermi jetzt (zu hohe Temps/ Taktziel nicht erreicht usw.) Redesign --> ahh schon besser :)

GF100 wurde einfach nur durchgeprügelt, dat kann nur besser werden!
 
Also ich kanns auf meinem 23" FullHD Monitor nicht erkennen.....es sei denn ich suche im Pausenmenü mit der Nase aufm Panel nach treppeneffekten...
Der GF100 wurde mehr als nur geprügelt....wie kann man einen 3Milliarden Trasistoren schweren Chip auf TSMC loslassen, wo man genau weis, das die Yieldraten unter jedem Rockzipfel sind und die nichmal Cypress in richtigen Stückzahlen liefern können, der auch noch mal eben 30% kleiner ist...
 
Zuletzt bearbeitet:
jo, wenn man sich mal ans flimmern gewöhnt hat flüppt datt schon :d von den Treppchen mal abgesehn......naja egal, jedem das seine und meins mir.

---------- Beitrag hinzugefügt um 15:12 ---------- Vorheriger Beitrag war um 15:10 ----------

naja die NV Argumente bleiben mal wieder drinn, die Wahheit wird mal wieder gelöscht...für mich wars das entgültig, schöö mit ö
 
wie du sagst, dass ist ein empfinden. bei af mag ich dir ja teils noch zustimmen, aber auch das ist nichts weltbewegendes.
Wie gesagt, dass ist empfinden und mein empfinden ist: ich lass es aus und freu mich über spielbarere FPS (in manchen games)

Nunja, allein schon wenn man Battlefield Bad Company 2 / Call of Duty spielt sieht man was allein schon AF zur Stimmungsverbesserung beiträgt.
AF und die Uniform(texturen) sind scharf und klar, ohne AF matsch. Würde ich persänlich nicht mehr missen wollen.

Und auch AA macht schon Sinn, nicht unbedingt bei einer Explosion oder sonstwas, aber man sieht es halt an den berühmten Dachkanten oder Palmen oder oder oder. Gerade wenn ein Objekt vor einem Horizont erscheint sehe ich ich die Treppeneffekte auch bei sehr hohen Auflösungen - gerade in Bewegung. Also minium 2x Kantenglättung rein

@selfdistruct
Du meinst wohl den R600 ;) Aber egal, es muss nicht zwangsweise so laufen, ATi fährt ne ganz andere Schiene und das ziemlich erfolgreich. Aber wir werden sehen was beim rumkommt, ich glaube nicht daran das nvidia vor Einführung von 28nm da großartig was reißen wird.

@BloodredSandman
Irgendwas musste nvidia machen. Die Karte nochmal verschieben? Noch mehr potentielle Kunden vergraulen? Den Markt ATi konkurrenzlos überlassen? Da lässt man lieber sowas auf den Markt als nichts zu machen. Selbst wenn es negativ Werbung ist, es ist Werbung. Und es gibt ja Leuten den anscheinend alles wumpe ist, hauptsache sie haben nvidia im Rechner oder die schnellste Singlecorekarte oder ... oder ... oder...
 
Zuletzt bearbeitet:
nV spricht ja von gesteigerter leistung die einen höheren stromverbrauch nötig gemacht hat.

was bitte ist mit dem generationswechsel 48X0->58X0 passiert? doppelte leistung bei gleichem verbrauch!

am besten ist imer noch das fünfte bild hier:
http://www.legitreviews.com/article/1264/1/
 
Zuletzt bearbeitet:
Wenn die 20% mehr leistung mit 20% mehr Verbrauch kominiert hätten, hätten viele weniger zu maulen....aber dann man sich ja besser eine 5970holen, die immernoch weniger braucht als eine GTX480 und der mal ordentlich den Hosenboden versohlt... wehe kommt gleich einer mir µRucklern oder MGPU....^^
 
Zuletzt bearbeitet:
@selfdistruct
Du meinst wohl den R600 ;)

Nope rv740 war schon richtig!

TSMC went off to fab the initial RV740s. When the chips came back, they were running hotter than ATI expected them to run. They were also leaking more current than ATI expected.

Engineering went to work, tearing the chips apart, looking at them one by one. It didn’t take long to figure out that transistor channel length varied much more than the initial tolerance specs. If you get a certain degree of channel length variance some parts will run slower than expected, while others would leak tons of current.

Engineering eventually figured a way to fix most of the leakage problem through some changes to the RV740 design. The performance was still a problem and the RV740 was mostly lost as a product because of the length of time it took to fix all of this stuff. But it served a much larger role within ATI. It was the pipe cleaner product that paved the way for Cypress and the rest of the Evergreen line.

Falls der Artikel interessiert: The RV870 Story: AMD Showing up to the Fight - AnandTech :: Your Source for Hardware Analysis and News
 
Also ich kanns auf meinem 23" FullHD Monitor nicht erkennen.....es sei denn ich suche im Pausenmenü mit der Nase aufm Panel nach treppeneffekten...
.

das kann man nicht einfach so pauschalisieren. es hängt vom spiel, der person und dem abstand zum monitor ab. ich nutze selbst ein 23.5" FullHD monitor und sitze recht nah dran. ohne AA/AF krieg krieg ich z.b. in spielen wie WoW, ArmA2 oder BF:BC2 augenkrebs, wobei es in letzterem auch net viel hilft da nicht das komplette bild gefiltert wird :/
und das ist nicht nur beim standbild so. Bei z.B. Anno1404 sieht man hingegen fast keinen unterschied. wie gesagt.....einfach so verallgemeinern würde ich es nicht.

@topic: dass nvidia ihre eigene karte nicht schlecht redet war irgendwie klar. das kühlkonzept ist nicht wirklich der bringer und die leistungsaufnahme ist unverhältnis mäßig hoch, das ist leider so und da können sich die leute noch so sehr die köpfe einschlagen.....
ob einem die mehrleistung das wert ist muss schlussentlich jeder für sich entscheiden. ich persönlich werde von meiner GTX285 entweder auf ATI umsteigen oder den refresh/nachfolger abwarten. die mehrkosten und hitze/lautstärke wären mir ja noch egal (hab wakü), aber in unserer zeit wo auch das thema umweltschutz und energie sparen immer wichtiger werden finde ich die leistungsaufnahme dieser karte daneben. wäre es eine dual gpu karte, okay, aber so......nein danke.
 
Zuletzt bearbeitet:
Nope rv740 war schon richtig!
Welche Takt- und Hitzeprobleme mit der HD4770 / 4750 ?
AMD Ati Radeon HD 4770: RV740-GPU mit hohem OC-Potenzial - AMD, Ati Radeon HD 4770, RV740, GPU, OC

Zudem muss man sagen das die HD4770 quasi ja ein reiner Testlauf für die 40nm Produktion war, die nvidia (vielleicht nicht früh genug) mit den GT220 Karten u.ä. gemacht hat.

@ulukay
Was nützen mir vereinzelte Programme wenn das Gesamtperformancerating mit echten Anwendungen mit der Leistungsaufnahme nicht stimmt. Aber ich wünsche dir viel Spaß weiterhin beim FurMark "spielen".
 
Zuletzt bearbeitet:
hat sich eigentlich irgendjemand der hier anwesenden mal die FPS von Furmark zu gemuete gefuehrt?

HD5970: 50
GTX480: 118

was ist da nun ineffizient?

GTX 480 Launch Review - Page 6 - Furmark


http://i.neoseeker.com/a/gtx480launch/furbar.png

hast du dir mal die tabelle genau angeschaut :)

furbar.png


und was sieht man da genau.......
das CF nich läuft *g :d

edit: keine frage die GTX 480 ist alles anderen als ein Stromsparer was bei einer solchen Karte normal auch nicht so die Rolle Spielt,aber da sie dafür keine große mehr leistug gegenüber der HD5870 in den meisten Games liefert hat sich NV ins Knie geschossen :d

diesmal schaut die grüne Welt nicht so Farbenfoh aus ;)
 
Zuletzt bearbeitet:
Juhu ein sich mit 110 fps drehender haariger donut....:wall:
davon kann ich mir leider keine Mehrleistung in Games kaufen. Furmark ist kein Game...^^
Man kann auch in Futuremark alles in grund und Boden rocken, und in Games total versagen....
Was nun ineffizient ist? :d, das haben wir glaube ich nun oft genug festgestellt, das es die GTX480 ist...^^
 
Zuletzt bearbeitet:
eigentlich braucht eine HD5970 weniger als eine GTX480 und is in Games trotzdem schneller (wenn man mal nicht immer die auf NV potimiertesten Games rauspickt) ;)
 
wo ist hier die logic :d
was hat der Verbrauch unter einen Tool auszusagen welches nichts anderes macht als die Karte unrealistisch auszulasten,in RL schaut es noch schlimer aus von 2D wollen wir mal nich Reden
 
...und die sind auch noch Stolz drauf?

Wenn sich die denkweise bei NVidia sich nicht bald ändert, sehe ich keine guten Zeiten auf die Firma zukommen. Energieeffizienz ist ein sehr wichtiger Punkt und hier haben sie einfach versagt. Noch 1-2 solche "sehr gute Kompromiss-Produktgenerationen" und sie geraten in Zahlungsschwierigkeiten. Viele Abnehmer werden sie so nämlich nicht finden.

Das hat Intel damals eingesehen und NVidia wird das auch noch (hoffentlich rechtzeitig).
 
...und die sind auch noch Stolz drauf?

Wenn sich die denkweise bei NVidia sich nicht bald ändert, sehe ich keine guten Zeiten auf die Firma zukommen. Energieeffizienz ist ein sehr wichtiger Punkt und hier haben sie einfach versagt. Noch 1-2 solche "sehr gute Kompromiss-Produktgenerationen" und sie geraten in Zahlungsschwierigkeiten. Viele Abnehmer werden sie so nämlich nicht finden.

Das hat Intel damals eingesehen und NVidia wird das auch noch (hoffentlich rechtzeitig).
Die Amis mit ihren 6 L Hubraum Motoren habens auch einsehen müssen. Blüht NV genauso. Da können sie noch so dumm labern wie in dem Statement.
 
Laut NVIDIA habe man bei Fermi einen sehr guten Kompromiss aus Leistung und Stromverbrauch gefunden.
Danke für den nachträglichen Aprilscherz, nVidia. So kann man Elektroschrott natürlich auch umschreiben. :haha: Wenn das wirklich euer Anspruch ist, dann gute Nacht.
 
Hier ein Video zum Thema Abwärme
Fudzilla
 
Naja um ehrlich zu sein ist mir der verbrauch/ abwärme eigentlich egal (1000W NT /Stromselberzahler / ausreichende Wakü vorhanden:shot:) aber ich kann mich mit dem Gedanken nicht anfreunden eine Notlösung zu kaufen, und die gtx480 macht diesen eindruck auf mich....das Ding hat viel potential und ich hoffe echt das der Nachfolger /respin/ refresh -was auch immer- sehr gut wird, ich will unbedingt wieder mal ne Nvidia, aber wie es aussieht kommt am DI meine 5870 und dann werde ich die 480 wohl abbestellen.....
 
Die ursprüngliche GTX480 hatte zuwenig Leistung, blieb aber kühl, Nvidia wollte die schellste Karte haben, jetzt schlucken die Karten zuviel Strom und sind zu heiß
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh