nVidia GF10x/Geforce 4xx [Speku-, News- & Diskussionsthread] Part 4 (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
was kostet nv ein chip dieser Reihe anzufertigen?
Ich kann mich ganz dunkel dran erinnern dass die 280/285 Chips mehr als 100 $ zur Buche schlugen...
 
was kostet nv ein chip dieser Reihe anzufertigen?
Ich kann mich ganz dunkel dran erinnern dass die 280/285 Chips mehr als 100 $ zur Buche schlugen...

ca. 300$

weil auf einem Wafer nur wenige Chips funktionieren, für Nvidia ein Verlust Geschäft, noch schlimmer als GT200 Zeiten, sie werden hunterte Millionen Verluste haben.
 
@ cVd

Nutzt Du selbst Photoshop und 3D Max, ich denke nicht sonst würdest du nicht so'n Zeug labbern. Im Studio Max kann man mit einer QuadroFX nur die Editoransicht verbessern, aber z.b. nicht im Picture-Viewer rendern. :haha:
CUDA ist nicht zu unterschätzen, ist klar, nur du überschätz es viel zu viel :cool:

Sicherlich, Cuda wird mal ganz was großes, es muss ja nur sichergestellt werden, dass die Anwendung auch ohne CUDA-fähige Karte nutzbar bleibt. Also muss ein 2. redundanter Code-Pfad erstellt und gepflegt werden und das wird man breitwillig machen :lol:

Bluerays nach h264 konvertiert schön und nun, wie lange würde eine ATI dafür brauchen, ohne Vergleichswerte kannst du hier viel erzählen. Ach nicht das du wieder damit anfangs, es gibt nichts brauchbares von ATI in diesem Bereich das weiß ich ;). Nur warum gibt’s es wohl noch nichts mit ATI Stream (siehe oben) und da kommt dann wieder die Frage was wird in Zukunft von Cuda bleiben :shot:

Die Ressourcen die man für die Weiterentwickelung von Stream benötigt hätte, hat man bei ATI einfach gespart. Open CL wurde ja schon lange genug angekündigt. Aber klar Cuda ist nicht zu unterschätzen...

Ich habe mit einer GT 220 CUDA in Photoshop genutzt, das ist schon ein bisschen was her, aber Bildaufbau war viel schneller und durch diverse Plugins konnte ich CUDA Filter berechnen lassen.
Ein bekannter nutzt in 3D Max CUDA und dort ist auch Rendern möglich, die plugins kosten jedoch meist was.

CUDA ist 2008 raußgekommen, ATI hat erst mit dem 8.16er? Catalyst Stream eingefügt, da sie erkannt haben das sie den ATI nutzen die möglichkeit auch geben müssen um Konkurenzwürdig zu bleiben.
Den Schritt zu überspringen war letztendlich doch nicht möglich.
Open CL ist außerdem auch schon was länger draußen.

Wie lange würde eine ATI dafür brauchen?
Imo geht das ja nur leider nicht, Stream ist nicht dazu fähig da es garnicht so weit Entwickelt wurde, das man mit der ATI mehr wie low quality encoden könnte.

Fals du interesse hast kannst du dich ja hier ein wenig durchlesen

CUDA H.264 vs x264 Speed and Image Quality Benchmarks, discussion - Doom9's Forum

Jedoch muss man hinzufügen, das Mediacoder schon längst neuere CUDA Updates erhalten hat und die Qualität:Größe:Zeit sich noch einmal gebessert hat.
 
Also toll ist die Nvidia nicht gerade, dennoch sollte man die Karte nicht so schlecht reden. Sie ist schnell und Stromverbrauch zählt meiner Meinung nicht wenn es um die Performance-Krone geht. Leider ist sie laut ok, da muss ne Alternative her als Lüfterlösung, so wie sie ist mit Stock-Kühler würde sie nie und nimmer in meinen PC kommen.

Hm was ich mir immer denke ist, vielleicht bremst die CPU und die GTX480 kann ihre Performance garnicht recht umsetzen. Was meint ihr?

Her mal ohne CPU Bremse, sicherlich ist LN2 kein Alltag allerdings nur mal ein BSP was geht mit Standard Voltage
http://hwbot.org/community/submissi...age___performance_geforce_gtx_480_24941_marks
 
Zuletzt bearbeitet:
ich wollte auch gerade sagen!
krasse sache dass n HD 5770 duo eine 5870 bzw 480 paroli bieten kann

ca. 300$

weil auf einem Wafer nur wenige Chips funktionieren, für Nvidia ein Verlust Geschäft, noch schlimmer als GT200 Zeiten, sie werden hunterte Millionen Verluste haben.

OMG, das ist wirklich übel. 300 € nur fürn Chip.
 
@cVd

Max mit CUDA und dort ist auch Rendern möglich

Na gut dann glaub ich dir das mal, bei uns geht das jedenfalls noch nicht, aber wir bekommen im August auch 30 neue Rechner, mal sehen was dort dann möglich ist ;)

Danke für den Artikel werd ich mir mal anschauen und dir dann nochmal eine PN schreiben.

Denke aber trotzdem das CUDA sich nie durchsetzen wird genauso wie Stream :)
 
ja schön für dich, aber die meisten interessieren sich nur für 3D Performance. :lol: CUDA und co können mir gestohlen bleiben.
Tessellation sah bei Heaven bench sowas von lächerlich aus, sowas würde ich nie aktivieren. Zumal der Frames Einbruch ist ja wirklich pervers. Son Spielerei wie physx, cuda und Tessellation braucht eh keine.

Bei Heaven sah tess ja noch gut aus, spiel mal Metro2033 oder Stalker CoP mit Tess, da nehmen alle ca. 50Kg zu (sieht auf jeden fall so aus), wird einfach alles aufgeblät nur damit es runder wird.

So wie tess heute da genutz wird , sieht es echtnicht gut aus.

Da sah Truform zu 8500 zeiten nicht schlechter aus , siehe dazu CnC Renegade, dort wurd auch alles aufgebläht.

naja vll wird es noch schöner eingebaut irgendwo.
 

Ich sag ja , es sieht bei Metro und Stalker bescheiden aus , weil jeder einfahc nur fetter wirkt.

Kaum verbesserungen zu dem alten Truform , einfach aufblähen damit es rund wird.


Bei Heaven sieht es bei den steinen und wänden ja noch gut aus oder bei dem 2.0er die Gewinde an den Kanonen.

Aber in spielen naja, nicht soo toll.
 
Mal angenommen die meisten kaufen sich die NVIDIAS nicht, wird wohl der Preis fallen wegen zu geringer Nachfrage, wenn das der Fall sein sollte hatte was gelesen für die 480 Gtx so um 400.-Euro, wäre euch da mehr Strom und Temp ned auch egal, mir schon, da nehme ich mir auch zwei mit. ;) :haha:
mfg

Ja genau, SLI in einem Tower --> kannste deinen Ofen aus der Küche verbannen und deine Brötchen in Zukunft im Tower backen :d Und was nützt dir die Leistung wenn das System nach ner Stunde spielen wegen Überhitzung abschmiert? Oder du nimmst für 300€ noch ne Klimaanlage hinzu und steckst den Rüssel direkt ins Gehäuse, dann ist die Fermi sicher ne coole Karte - Stromverbrauch muss Nvidia Fermi-Nutzern ja auf jeden Fall sowieso egal sein ;)

Sapphire_fan, wie oft denn noch?:wink:
Gleiche Einstellungen für Cypress&Fermi. ;) Du siehst also, dass (brachiale) Leistung durchaus vorhanden ist, nur geht die in fast allen anderen Spielen flöten.

Wie schon gesagt ist es die Leistung um jeden Preis wert? Immer mit der Gefahr, dass dir ein Spiel nur wegen 80 FPS statt 100 FPS nach ner Stunde abschmiert? Die Leistung zweifelt (gerade was die kommende Tesslation und DX11 angeht) ja niemand an, aber es ist doch zu sehen, dass die Karte in kaum einem normalen Gehäuse überhaupt stabil läuft. Das ist wie ein Ferrari, dem in jedem moment der Reifen platzen kann - kann auch 300 fahren und ist eine Rakete, aber mit der Gefahr bei maximaler Geschwindigkeit einen tödlichen Crash zu haben ^^ Und ja ich halte dies durchaus für einen passenden Vergleich!

106°C, die Karte throttelt ab 105°C !!!!
Im Sommer werden die Karten reihenweiße abfackeln.....

Sehe ich genauso!

Her mal ohne CPU Bremse, sicherlich ist LN2 kein Alltag allerdings nur mal ein BSP was geht mit Standard Voltage
Monstru's 24941 marks 3DMark Vantage - Performance run with GeForce GTX 480 @ 900/1050MHz

Dein Ernst??? Für so einen Score verschwende ich gar kein LN2 :eek:
26817 Punkte im Vantage mit 5870 und Gulftown unter Trockeneis von mir (nach 4 Hefeweizen)! 500 MHZ auf der CPU weniger (!!!!!!!) Die Performance der Karte im 3D Mark Vantage ist absolut mangelhaft, genauso wie in 01, 03 und AM3 - nur 05 und 06 sehen sie recht gut aus, da war Nvidia aber schon immer recht stark und ich vermute hier einige Treibertricks wenn ich ehrlich bin...
Mit LN2 sind 29k Vantage EASY mit ner 5870 REFERENZ gemacht ;)
 
Zuletzt bearbeitet:
Man müsste mal jetzt den Test im Sommer simulieren. Mal den Fermi in einem 30Grad warmen Raum laufen lassen. Sowas müsste NV ja auch getan haben. Interessant wäre es dann zu wissen, ob der Kühler dauerhaft bei 100% es noch schafft, die Wärme abzuleiten.
 
Man müsste mal jetzt den Test im Sommer simulieren. Mal den Fermi in einem 30Grad warmen Raum laufen lassen. Sowas müsste NV ja auch getan haben. Interessant wäre es dann zu wissen, ob der Kühler dauerhaft bei 100% es noch schafft, die Wärme abzuleiten.
Lies Dirr mal das durch was SoF dazu sagt der hat ahnung von OC und auch von Temps.
Dann kannst Du dir denken was im Sommer da passiert.
http://www.hardwareluxx.de/community/14286920-post661.html
 
Man müsste mal jetzt den Test im Sommer simulieren. Mal den Fermi in einem 30Grad warmen Raum laufen lassen. Sowas müsste NV ja auch getan haben. Interessant wäre es dann zu wissen, ob der Kühler dauerhaft bei 100% es noch schafft, die Wärme abzuleiten.

Nach allem was ich gelesen und gesehen (Hardcop hat diverse Videos, sehr sehenswert!) braucht man sich die Mühe dieser Simulation aktuell nicht machen, ich halte es für unmöglich, dass die Karte in meinem CM-Storm im Sommer stabil läuft. Ich hab in meiner Dachwohnung bis zu 32°C (punktuell sogar mehr) und wenn die PCGH im offenen Aufbau bei einem Spiel 91°C misst, dann brauch mir da keiner mehr was zu simulieren. Zitiere mich ungern selber, aber nochmal meine Meinung zur Aussage von PCGH und dem Lüfterspeed von 83%, welcher "nicht in der Praxis auftreten sollte". Und von Overclocking unter Luftkühlung will ich bei diesem Temperaturen gar nichts wissen...dann lieber eine 5870 @1.35V unter Luft @1050 MHZ mit max. 85°C unter Volllast "im offenen Aufbau" :fresse:

PS: eines will ich vermeiden, dass mich jemand als "Fanboy" hinstellt - im Alltagssystem arbeitet aus gutem Grund eine Asus GTX 285 - super Karte, schön leise für meine Bedürfnisse, schnell im Folden (einer der Hauptgründe), wird keine 70°C warm...bin genau aus dem Grund weil mir bisherige Karten eigentlich größtenteils immer sehr gefielen so enttäuscht nach der langen Wartezeit...
 
Zuletzt bearbeitet:
Hm was ich mir immer denke ist, vielleicht bremst die CPU und die GTX480 kann ihre Performance garnicht recht umsetzen. Was meint ihr?


also wenn ein I7 auf 4GHz (PCGH) oder auf 3,8GHz (Computerbase) wirklich so stark bremst dann ist das schon traurig, da immerhin schneller als alles was man so als stock CPUs zu kaufen bekommt.
 
was kostet nv ein chip dieser Reihe anzufertigen?
Ich kann mich ganz dunkel dran erinnern dass die 280/285 Chips mehr als 100 $ zur Buche schlugen...
Quelle?

Quelle?

Jaja, Nvidia geht den Bach runter und bankrott. Genauso wie AMD. :rolleyes:
Ihr scheint ja die ultimative Wahrheit von allem zu kennen. :shot:

[...] Zumal der Frames Einbruch ist ja wirklich pervers [...]
Vor allem bei ATI, dank der wenigen Tesselationseinheiten. :hmm:
Erst is Tesselation das Argument für DX11 und ATI und jetzt auf einmal nich mehr, tolle Wurst. :fresse:
(is jetzt nicht direkt und explizit auf dich bezogen)

@SoF: Defintiv nein. Mir persönlich verbraucht selbst meine G92-400 viel zu viel Strom und Fermi erst recht.
Der Ferrari-Reifen Vergleich hinkt etwas. Tausche doch Reifen gegen die Motorkühlung, die ständig am Maximum ihrer Leistungsfähigkeit arbeitet, aus und es passt. :fire: :bigok:
 
also wenn ein I7 auf 4GHz (PCGH) oder auf 3,8GHz (Computerbase) wirklich so stark bremst dann ist das schon traurig, da immerhin schneller als alles was man so als stock CPUs zu kaufen bekommt.

Folgende Aussage bitte nur auf 3D Marks beziehen:

Bei den bisherigen Generationen war es durchaus immer so, das AMD / ATI Karten bei niedrigerer CPU Leistung sich meist besser in Szene setzen konnten und die Nvidias dafür mit steigender CPU Leistung noch skalierten...konnte das mal sehr schön im bisher besten 3D Mark 2003 run mit Nvidia Karten zusammen mit Stuwi auf einer Asus Mars feststellen. Weiteres Indiz ist die Tatsache, dass niemand Nvidia Karten mit AMD CPUs auf Weltrekordniveau bencht, weil den Nvidia Karten dort einfach die CPU Rohleistung fehlt. AMD + AMD hat aber (siehe SF3D, Sampsa etc) immer erstaunlich gut funktioniert.

Bei der neuen Generation verweise ich einfach mal auf den 3D Mark Vantage von Monstru unter LN2 5500 MHZ auf einem Gulftown und der 480 GTX unter LN2 bei (mageren) 900 MHZ und knapp unter 25.000 Punkten gegen mein Trockeneis-Ergebnis von über 26.800 Punkten mit einer 5870 @1200/1300 (was jetzt nicht der absolute Knaller ist) und ebenfalls einem Gulftown bei genau 5.000 MHZ - denke mehr muss man da nicht mehr zu sagen (Bilder und Details letzter Post eine Seite vorher)

@SoF: Defintiv nein. Mir persönlich verbraucht selbst meine G92-400 viel zu viel Strom und Fermi erst recht.
Der Ferrari-Reifen Vergleich hinkt etwas. Tausche doch Reifen gegen die Motorkühlung, die ständig am Maximum ihrer Leistungsfähigkeit arbeitet, aus und es passt. :fire: :bigok:

Ok das kann man natürlich machen, passt vllt. in der Tat besser :d :bigok:
 
Zuletzt bearbeitet:
Ich dachte halt, dass die Lüftersteuerung der neuen Geforce so eingerichtet sind, dass,wenn man über 95Grad kommt, der Lüfter auf 100% springt bis man bei 90 Grad wieder ist und dann einen Gang zurückschaltet. Hiesse für den Sommer dauerhaft 100% Lüfterdrehzahl. Ob dies dann ausreicht um bei einer 10-15Grad höheren Aussentemp noch die Karte unter 105Grad zu halten ist für mich spannend. Frage mich ob Nvidia dies bedacht hat und ob es evtl durch ein Treiberupdate noch möglich ist irgendwas dran zu ändern.

Denke somit aber auch, dass NVidia etwas verändern muss bzw. es auch bei den Karten die in wenigen Wochen zum Verkauf stehen sollen, es auch tut. Denn sowas ist einfach zu riskant. Gabs schonmal eine Karte, die dauerhaft so arg am Temp-limit lief?
 
Nach dem monatelangen und nicht enden wollenden Rumgehype rund um GF100, muss man es als geneigter NV-Freund auch mal aushalten, dass hier einige Leute mal Dampf/Enttäuschung ablassen und sich über GF100 ein wenig lustig machen. Leider war dieses Gehype teilweise auch mal wieder mit der typischen NV-Arroganz bei NV selber und auch einigen NV-Fans verbunden und daher tut ihn dieser Fail mal ganz gut und ja es ist ein Fail, meinetwegen kein Epic-Fail aber definitiv ein Fail.

Wenn NV meint so eine Karte anbieten zu müssen, dann müssen sie halt auch mit dem Echo leben.

Bei den Jungs im Link ist eine einzelne GTX480 im geschlossenen Gehäuse schon 106C° heiß geworden und ab 105C° sollen die GPUs ja throttlen. Also ganz ehrlich die Dinger sind mit Lukü ja genauso praktikabel und alltagstauglich wie die ASUS Mars (hatte die eigentlich einen höheren Stromverbrauch?).

Google Nachricht
 
Zuletzt bearbeitet:
Nein bei der Mars kann ich aus Erfahrung sagen, dass die nicht so schlimm war wie die GTX480!

Mich hat grad das neue Logo erreicht :fresse:

thermijoke1.png


Wer den Schaden hat, muss für den Spott nicht bezahlen ;)
 
Zuletzt bearbeitet:
Anscheinend sollen die Händler auch schon reagiert haben und mal eben über Nacht die Preise für die HD58xx kräftig angezogen haben. Keine Ahnung ob es stimmt, aber das wäre ja dann der nächste Oberhammer wenn NVs neue Karten nicht nur dafür sorgen, dass AMDs Preise nicht sinken sondern sogar dafür das sie steigen.
 
Anscheinend sollen die Händler auch schon reagiert haben und mal eben über Nacht die Preise für die HD58xx kräftig angezogen haben. Keine Ahnung ob es stimmt, aber das wäre ja dann der nächste Oberhammer wenn NVs neue Karten nicht nur dafür sorgen, dass AMDs Preise nicht sinken sondern sogar dafür das sie steigen.
Würde mich nicht wundern es spricht sich rum das der sommer kommt.:haha:
 
@bawde

Ich habe doch geschrieben, dass ich nicht weiß ob es stimmt, aber wenn dem so ist welchen anderen Grund sollte es den haben.
 
die fufzig Karten die für Deutschland kommen machen den Bock auch nett fett :d
 
Hast du mal 'ne Quelle dazu, dass das bei NV über die Shader abläuft? Imho war das eine Falschinformation, die Charlie mehrfach kolportierte.
Nee, das war keine Falschinformation. Hier wurde mal kolportiert, dass es eine Softwarelösung werden könnte bzw über den Treiber läuft. Das war aber schon damals wenig realistisch.

Kann mir einer erklären warum die Flop Leistung der GTX 480 so gering gestiegen ist im Vergleich zur GTX285 !?
Vorher, 3 Ops pro Takt pro Shader (MUL+ADD+MUL), jetzt, 2 Ops pro Takt pro Shader (MUL+ADD). Da fehlen schon mal 33% Durchsatz. Hinzu kommt der geringere Shader-Takt. Das relativiert die Verdopplung der Shader ordentlich. Trotzdem sollte man anmerken, dass die theoretische DP Rechenleistung deutlich gestiegen ist, da dies nun jeder Shader beherrscht und nicht nur einige wenige dedizierte wie beim G200.

Dass der Chip ne schlechte Ausbeute hat ist nix neues, bei ATI ist es genauso schlimm bzw. schlimmer.
Haha, du bist ein richtiger Scherzkeks. Die Ausbeute mag bei ATIs Chips auch nicht sonderlich gut sein. Trotzdem ist diese immer noch deutlich besser als bei Fermi.
Und Charlie lag so gut wie überall richtig bzw nahe an der Wahrheit. Das leugnen jetzt auch nur die grössten nVidioten. Sry, für den Ausdruck. Ist eigentlich nicht meine Art. Aber wenn man deine Beiträge lesen muss, fällt einem auch nicht mehr viel sinnvolles ein. :rolleyes:

cherry2hz4x.png

:wink:
Gleiche Einstellungen für Cypress&Fermi. ;) Du siehst also, dass (brachiale) Leistung durchaus vorhanden ist, nur geht die in fast allen anderen Spielen flöten.
Wenn es die Ausnahme ist, ist es dann nicht wahrscheinlicher, dass hier eher die (brachiale) Radeon Performance ausgebremst wird? ZB weil der Speicher ausgeht oder Optimierungen fehlen? Denk mal darüber nach. ;)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh