nVidia GF10x/Geforce 4xx [Speku-, News- & Diskussionsthread] Part 4 (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
ich sags ja..warten!

das geile find ich...die ati-jünger verkraften diesen 8-20% leistungszuwachs bei der geforce nicht.....nun wird über verbrauch/wärme/preis hergezogen

ich sag nur ati 4890!:shot:

lass die mal in ausrechender stückzahl lieferbar sein!

naochmal....die 4890 war bestimmt nicht das gelbe vom ei...aber auch nicht viel schlechter als eine 280 gtx,sie hat auch nicht viel weniger gezogen.
eine 4890 wurde aber unter last auch keine 100 grad warm...zur karte gehört eben nicht nur die leistung,sondern sie besteht aus dem gesamtpaket,leitung,preis,lautstärke und abwärme...mit deinem kommentar,da du ja wieder nur die leistung als kriterium nimmst,weil alles andere nicht okay ist,das selbst nvler mal zugeben müssen bist du eindeutig für jede weitere diskussion disqualifiziert...fail halt!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wär es bitte möglich alle Beiträge, welche: Fanboygelaber(sei es Grün oder Rot), unsachliche und subjektive Meinung umfassen zu unterlassen? ;)

Besteht eigentlich die Chance, mit einem neuen Treiber den Stromverbrauch etwas moderat zu machen, oder ist da der Zug schon abgefahren bei der Architektur?

€: @G3cko: Das Problem ist das, dass die Amis nicht wirkliche Umweltfreunde sind, und ihnen deshalb der Stromverbauch so ziemlich wayne ist, wie uns deren Gesetze in Amerika^^
 
Zuletzt bearbeitet:
die 4890 erreicht keine 100°C, ist ja auch lauter als die 480 GTX :fresse:
aber mal ehrlich die diskussion führt zu nichts.

Ich hatte 2 4890er...beide wurden auf keinen Fall 60DB laut,waren aber beide kein Referenzdesgin.
Darum eghts auch garnicht,es ging um die stupide Bemerkung von geforce,das alle ATI Fanboys sich auf Preis/Hitze und Lautstärke einschießen,wenn man diese 3 Kriterien + eben als 4. die Leistung nimmt um eine Karte zu bewerten ist nunmal das Fazit bis auf Leistung sind alle anderen Kriterien deutlich schlecht,wobeider Preis noch das beste ist.Wenn sowas ATI rausbringen würde,würde ich genauso darüber meckern,da ich eben objektiv bin,da würde dann eine nV im System stecken.Aber zur Zeit erfüllt ATI die anderen 3 Kriterien weitaus besser als nV und ist beim 4. der Leistung nur knapp dahinter!
 
Wird wohl per Treiber kaum möglich sein. Die Karte taktet im 2D-Modus schon runter und die Spannung lässt sich bestimmt nicht mehr viel senken.
 
Wär es bitte möglich alle Beiträge, welche: Fanboygelaber(sei es Grün oder Rot), unsachliche und subjektive Meinung umfassen zu unterlassen? ;)

Besteht eigentlich die Chance, mit einem neuen Treiber den Stromverbrauch etwas moderat zu machen, oder ist da der Zug schon abgefahren bei der Architektur?

€: @G3cko: Das Problem ist das, dass die Amis nicht wirkliche Umweltfreunde sind, und ihnen deshalb der Stromverbauch so ziemlich wayne ist, wie uns deren Gesetze in Amerika^^

Du wirst durch nen Treiber sicherlich noch Leistung herausholen aber an dem Verbrauch lässt sich nix mehr ändern und bei der Lautstärke zumindest nix am Refernzdesign!
 
Ums nochmal zu wiederholen, wo liegt das Tmax des Chips? Bevor man das nicht weiß kann man keine Behauptungen über mögliche totalausfälle aufstellen.
Na und nun rate mal warum der Chip bei 105°C drosselt.
a) weil nvidia das so lustig findet
b) weil nvidia einfach dazu Bock hatte
c) weil es nötig ist, da bei über 105°C es zur Schädigung von Bauteilen kommen kann

bitte wählen sie aus.
Die wärme ist doch kein Problem, immer hin gibt es Garantie auf die Karte und viele geben sogar mehr als 2 Jahre wenn die Karte gleich nach dem Kauf Registriert wird. Wenn es im Sommer alle Karten defekt sind wegen der Hitze usw. ist es doch Problem von nVidia und nicht unseres.
Wie schon angesprochen, Garantie, Gewährleistung, alles nicht das selbe. Es wird auch seine Gründe haben warum nvidia selbst nur 12 Monate Garantie gibt. :rolleyes: Aber es macht ja nichts wenn dann die Karte für die man heute 500€ bezahlt hat wochenlang in Reperatur ist und / oder kein Ersatz da ist (aufgrund der schlechten Yield Rate), man sie nicht nutzen kann und in der Zeit Däumchen dreht. Oder kommt jetzt die Begründung das man ja in der Zeit auch was anderes machen kann?

der thread verkommt echt zu nem ati fanboy lager....
Das typische Argument: Du bist nicht für "mein" Produkt, du bist der Fanboy der Konkurrenz mimimimimi

gegenargument: die leistung!
Hat auch niemand gesagt das die Leistung nicht vorhanden ist, es sind aber die bekannten Nachteile die deutlich überwiegen. Und die Leistung pro Watt / Transistor ist und bleibt ein Witz. Das Produkt glänzt nur durch Leistung, und dort auch nur manchmal (Tesselation zeigt auch nur spitzen, bricht aber z.T. stärker ein, beim Frameverlauf sieht man z.B. das die ATi HD 5k sich dort "stabiler" verhält), der Rest ist ein Witz.

ebenso kann man den prolimatech mk-13 verbauen, somit sind die temps und lautstärke kein thema mehr, stromverbrauch allerdings schon!
Tja, wenn das alles so einfach ist, warum verbaut dann nvidia nicht einfach gleich eine vernünftige Kühllösung.
Das Ding was die da verbaut haben war einfach die kostengünstigste Dualslotvariante - das Problem einfach auf den Kunden abwälzen. Und wenn dann trotz prolimatech mk-13 das Ding gen Jordan geht hat man auch gleich die Garantie und Gewährleistung verloren. Und alle so YEAH, 500€ Elektronikschrott. Aber nicht das dann dicke Tränen kullern.


is der thread nur da um auf nv rumzuhacken?? machts doch mal besser würd ich da sagen!
Auch hier: Dieses machts doch besser :rolleyes: Hallo? Ich kann ja wohl einen Hersteller bzw dessen Produkt kritisieren ohne mit ihm in Konkurrenzkampf zu stehen. Ich bin ein potentieller Kunde der Kritik äußern darf und muss - und diese zurecht.
 
aber mal ehrlich die diskussion führt zu nichts.

richtig....die karte ist nun draussen ´.....es bedarf die nächsten 6 monate über keine spekulationen

jeder muss nun selber abwägen ob er das letzte bisschen mehrleistung der geforce mit einigen negativen punkten ertragen kann;)
 
So Leute, jetzt kommt aber mal wieder zum Thema, das hier ist ein Spekuthread.
 
??? Worüber Spekulieren? Es sind alle Spekulation be- oder entkräftet, worüber wir hier sprechen sind Fakten.

Aber wir können ja noch gerne worüber weiter spekulieren? Darüber das es nvidia schafft mit einem Treiber die Performance pro Watt / Tranistor so massiv zu verbessern das wir auf Leistungssprünge im dreistelligen Prozentbereich (ohne Nachkommastelle) hoffen können? Wohl kaum.
 
Wie soll bitte ein Shrink passieren ohne einen 28nm Fertigungsprozess? Bis TSMC da ist sind wird schon 2 Kartengenerationen weiter. GF wird hier schätze ich sogar vor TSMC an den Start gehen.
 
Wie soll bitte ein Shrink passieren ohne einen 28nm Fertigungsprozess? Bis TSMC da ist sind wird schon 2 Kartengenerationen weiter. GF wird hier schätze ich sogar vor TSMC an den Start gehen.

Weil TSMC soviele Probleme bei der Fertigung hat, kann man davon ausgehen das globalfoundries 6-8 Monate Vorsprung beim 28nm HP Prozess gegenüber TSMC hat :)
 
Weil TSMC soviele Probleme bei der Fertigung hat, kann man davon ausgehen das globalfoundries 6-8 Monate Vorsprung beim 28nm HP Prozess gegenüber TSMC hat :)

Nicht zwangsweise. Nur weil es Probleme beim 40nm Prozess gibt, kann und darf man das nicht automatisch auf den 28nm ummünzen. Natürlich wird es zu Verzögerungen kommen, weil Kapazitäten in Form von Mitarbeitern an die laufenden Produktion und deren Probleme gebunden sind. Aber man wird sehen. GF muss auch erst noch zeigen wie gut deren Entwicklung / Forschung ist und dem daraus resultierenden Ergebnis in Form von lauffähigen Chips.
 
??? Worüber Spekulieren? Es sind alle Spekulation be- oder entkräftet, worüber wir hier sprechen sind Fakten.

Aber wir können ja noch gerne worüber weiter spekulieren? Darüber das es nvidia schafft mit einem Treiber die Performance pro Watt / Tranistor so massiv zu verbessern das wir auf Leistungssprünge im dreistelligen Prozentbereich (ohne Nachkommastelle) hoffen können? Wohl kaum.

Für die 480er gibts nen eigenen Sammelthread. Außerdem gibts noch immer die kleinen Ableger der Serie wie den GF104, GF106 etc.
 
Vorher, 3 Ops pro Takt pro Shader (MUL+ADD+MUL), jetzt, 2 Ops pro Takt pro Shader (MUL+ADD). Da fehlen schon mal 33% Durchsatz. Hinzu kommt der geringere Shader-Takt. Das relativiert die Verdopplung der Shader ordentlich. Trotzdem sollte man anmerken, dass die theoretische DP Rechenleistung deutlich gestiegen ist, da dies nun jeder Shader beherrscht und nicht nur einige wenige dedizierte wie beim G200.
Ich muss mich mal selbst zitieren. Keine Ahnung, ob es schon gepostet wurde, aber Hexus schreibt etwas interessantes:
Delve a little deeper, handily not mentioned in any briefing, and NVIDIA is limiting the double-precision speed of the desktop GF100 part to one-eighth of single-precision throughput, rather than keep it at half-speed, as per the Radeon HD 5000-series. We'll have to wait for the Tesla parts before that's restored to Radeon-matching levels.
Es wird immer schlimmer, sollte sich das bewahrheiten. Damit dürfte bei den Consumer Fermis selbst die DP Performance der Konkurrenz deutlich unterlegen sein.

HD 5970: 928 GFLOPS
GTX 480: 168,12 GFLOPS

:eek:

Also selbst für GPGPU Interessierte ist eine GeForce die wesentlich schlechtere Option.
 
Zuletzt bearbeitet:
Ich muss mich mal selbst zitieren. Keine Ahnung, ob es schon gepostet wurde, aber Hexus schreibt etwas interessantes:

Es wird immer schlimmer, sollte sich das bewahrheiten. Damit dürfte bei den Consumer Fermis selbst die DP Performance der Konkurrenz deutlich unterlegen sein.

HD 5970: 928 GFLOPS
GTX 480: 168,12 GFLOPS

:eek:

Also selbst für GPGPU Interessierte ist eine GeForce die wesentlich schlechtere Option.
Fragt sich nur inwiefern das interessant ist.
Wer beruflich an ner Workstation sitzt um mit CAD oder was weiß ich rumzubasteln wird am Ende ne Quadro in seinem Rechner haben und für alle anderen die die Karte zum Zocken kaufen ist die beschränkte DP Performance schlicht und ergreifend egal.
 
Re: nVidia GF100/Geforce 4xx [Speku-, News- & Diskussionsthread] Part 4

Wieso kastriert man wieder DP Leistung? Schon wieder paar Kunden weniger.

Sorry das ich das sagen muss, aber wenn der Fermi noch nicht mal GPGPU in DP schnell ausführen kann, was kann er überhaupt?
 
Fragt sich nur inwiefern das interessant ist.
Wer beruflich an ner Workstation sitzt um mit CAD oder was weiß ich rumzubasteln wird am Ende ne Quadro in seinem Rechner haben und für alle anderen die die Karte zum Zocken kaufen ist die beschränkte DP Performance schlicht und ergreifend egal.
Hier im Forum wird sich so gut wie niemand eine Quadro zulegen, da schlichtweg zu teuer. Und lies mal die ganzen Fermi Threads durch. Da wurde immer wieder auf die GPGPU Fähigkeiten hingewiesen. Also scheint es durchaus welche zu geben, die sich dafür interessieren, zB mit Distributed Computing. Der Punkt ist, Double Precision war wirklich der allerletzte Hoffnungsschimmer, den man dem GF100 noch hätte einräumen können. Aber das dürfte sich damit auch erledigt haben. Bei Single Precision war er sowieso schon hoffnungslos unterlegen.
 
Das einzige ist der hohe Stromverbrauch, aber wenn ich mir dann mal wieder ne 2 GPU Grafikkarte anschaue, dann finde ich das dann wieder garnicht so schlimm :)n

Ähm ... Gerade dann ist der Stromberbrauch viel zu hoch. Die verbraucht ja mehr als eine 5970. Für eine Single-GPU sind 300W aufwärts einfach zu viel.
 
Hier im Forum wird sich so gut wie niemand eine Quadro zulegen, da schlichtweg zu teuer. Und lies mal die ganzen Fermi Threads durch. Da wurde immer wieder auf die GPGPU Fähigkeiten hingewiesen. Also scheint es durchaus welche zu geben, die sich dafür interessieren, zB mit Distributed Computing. Der Punkt ist, Double Precision war wirklich der allerletzte Hoffnungsschimmer, den man dem GF100 noch hätte einräumen können. Aber das dürfte sich damit auch erledigt haben. Bei Single Precision war er sowieso schon hoffnungslos unterlegen.

Wenns um theoretische Rohleistung geht mag das im Falle der Single Precision stimmen.
Ich frage mich nur, warum die DP Performance im Consumer Bereich ein Pluspunkt für den Fermi sein soll wenn sowieso nur ein verschwindend geringer Anteil an Programmmen davon profitiert bzw. der Anteil an Nutzern dieser Programme extrem gering ist.
Ich kann Nvidias Politik da voll verstehen, wenn sie nämlich die GeForce Modelle mit der gleichen DP Performance ausstatten, wie die Quadro oder Tesla Modelle warum dann noch Quadros oder Teslas kaufen die unglaublich viel teurer sind. Besonders weil in diesen Bereichen wo die Karten eingesetzt werden sicherlich mehr als nur eine gekauft wird.
Es geht hier nur darum sich keine hauseigene Konkurrenz zu schaffen. Der Otto-Normal-User wird am Ende nichts davon mitbekommen und die, die auf DP Performance wert legen bzw. denen DP Performance wichtig ist müssen dann eben zur Quadro oder Tesla greifen.
 
Re: nVidia GF100/Geforce 4xx [Speku-, News- & Diskussionsthread] Part 4

Tesla und Quadro sind doch nicht durch die GTX480 DP Performance bedroht. Das ist einfach Dämlichkeit von NVIDIA.
So hat die GTX480 überhaupt keinen Anreiz.
 
Ich frage mich nur, warum die DP Performance im Consumer Bereich ein Pluspunkt für den Fermi sein soll wenn sowieso nur ein verschwindend geringer Anteil an Programmmen davon profitiert bzw. der Anteil an Nutzern dieser Programme extrem gering ist.
Ist doch egal, wie gross der Markt ist. Solange es einen gibt, muss dieser auch diskutiert werden dürfen.

Ich kann Nvidias Politik da voll verstehen, wenn sie nämlich die GeForce Modelle mit der gleichen DP Performance ausstatten, wie die Quadro oder Tesla Modelle warum dann noch Quadros oder Teslas kaufen die unglaublich viel teurer sind.
Treiber und Support machen den Unterschied. AMD verkauft Cypress/Hemlock doch auch unkastriert im Vergleich zu den professionellen Lösungen. Erst ab Juniper wurde der DP Support gestrichen.
 
Zuletzt bearbeitet:
@Vertigo2xlc
Im Sommer die habem die Karten gemessen hier die throtteln wohl dann schon bei Tetris mit Lukü :haha:
Das Heizeisen dürfte mit ner nicht so guten Wakü im Sommer noch für probs sorgen.
Mehr als 2 x 5870 Crossfire der Hammer.
This level of consumption is slightly higher than the 48W
we measured for the dual-GPU ATI Radeon HD 5970, and more than twice the demand of ATI's Radeon HD5870 and HD5850.

NVIDIA GeForce GTX 480 Reference Design Idle 52 W Load 370 W

NVIDIA GeForce GTX 480 Fermi Video Card | Benchmark,Review,GeForce GTX-480,GF100,Fermi,GTX-490,NVIDIA GeForce GTX-480 Video Card GF100 Fermi GPU Benchmark Performance Review
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh