nVidia GF100/Geforce 4xx [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
Ich wundere mich sowieso warum keinerlei Infos durchsickern @ Fermi @ Topic :)

Die Chinesen nehmen es sonst auch nicht so ernst wenn es um Copyright - Rechte und Verträge geht

Die haben ganz sicher schon eine Vermi GTY 480 am Start
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ganz im gegenteil. Aber die Chinesen Produzieren auf Auftrag deshalb kommen die Fälschungen von dort. Und weil es Billig ist.
Die wissen meist nicht Dass es Fälschungen sind (Die ARbeiter,nicht die Mafiachef´s)

Ich will unbedingt das OC Potential unter die Lupe nehmen.

---------- Beitrag hinzugefügt um 15:07 ---------- Vorheriger Beitrag war um 15:05 ----------

@ Astra eine PN mit der Bitte seine Texte zu editieren hätte gereicht, nicht gleich petzen gehen.
 
Die wichtigsten Fakten in dem Artikel sind meiner Meinung nach:
- Die Abwärme der Karten ist gefühlt nicht höher als bei der GT200 Serie.
- Die Zahlen 5000 bis 10000 Stück hat wahrscheinlich Ati bzw. deren Boardpartner absichtlich verbreitet.
- Trozdem liegt die Zahl der Karten wohl in der 10000er Region.
- Nvidia bekommt mehr Wafer von TSMC als Ati, weil sie im Vorfeld mehr geordert haben.
- GTX470 teuerer als HD5850 und GTX480 teurer als HD5870
 
Naja, die Abwärme is eher zweitrangig, sofern die Chips dafür spezifiziert sind. Der reale Stromverbrauch ist mMn gewichtiger.

Bei der Preisfrage wird's ja interessant... ...werden die teurer als die HD5k laut Listenpreis oder Marktpreis?
 
Naja, die Abwärme is eher zweitrangig, sofern die Chips dafür spezifiziert sind. Der reale Stromverbrauch ist mMn gewichtiger.

Die Abwärme ist allerdings direkt proportional zum Stromverbrauch. Wobei eine Schätzung durch die gefühlte Temperatur natürlich nicht so ganz wissenschaftlich ist. :asthanos:
 
die preise waren ja so zu erwarten. damit wären die karten aus meiner sicht aber auch durchaus konkurenzfähig was das PL angeht, vorrausgesetzt die leistung liegt wie vermutet jeweils leicht bis deutlich über der von ati.
der link geht bei mir leider nicht!?

---------- Beitrag hinzugefügt um 12:37 ---------- Vorheriger Beitrag war um 12:36 ----------

Die Abwärme ist allerdings direkt proportional zum Stromverbrauch. Wobei eine Schätzung durch die gefühlte Temperatur natürlich nicht so ganz wissenschaftlich ist. :asthanos:

ganz wissenschaftlich ist deine aussage aber auch nicht.
das ganze hängt ja auch noch vom wirkungsgrad ab, gell;)
im prinzip aber richtig!
 
Die Abwärme ist allerdings direkt proportional zum Stromverbrauch. Wobei eine Schätzung durch die gefühlte Temperatur natürlich nicht so ganz wissenschaftlich ist. :asthanos:

Ähm nein, anhand der gemessenen Abwärme kann man überhaupt nix vom Stromverbrauch erkennen, sprich es besteht auch keien Abhängigkeit zwischen beiden.

Such dir ne Karte mit ~200W Verbrauch, dreh einmal den Lüfter auf 10% und miss die Abwärme und einmal den Lüfter auf 100% und miss nochmal. Was wirst du wohl feststellen? Richtig, die Temperatur des Abluftstroms ist bei 100% Lüftergeschwindigkeit um längen geringer als bei 10% ;)
 
trotzdem ist die aussage bezüglich der temp schon mal ein anhalt, bei der geringen informations dichte. der artikel fast die derzeitigen informationen schön zusammen!
langsam juckt es mich auch in den fingern..
 
Ähm nein, anhand der gemessenen Abwärme kann man überhaupt nix vom Stromverbrauch erkennen, sprich es besteht auch keien Abhängigkeit zwischen beiden.

Such dir ne Karte mit ~200W Verbrauch, dreh einmal den Lüfter auf 10% und miss die Abwärme und einmal den Lüfter auf 100% und miss nochmal. Was wirst du wohl feststellen? Richtig, die Temperatur des Abluftstroms ist bei 100% Lüftergeschwindigkeit um längen geringer als bei 10% ;)

Ich glaube da weiß wohl einer nicht was Abwärme ist. Das ist nicht die Temperatur der Luft die herauskommt. Das ist die gesammte Wärme, die der Gegenstand abgibt.
Natürlich wurde hier nur die Temperatür der Luft gemessen und somit spielt in diesem Fall die Menge eine Rolle. Allerdings hätte die Presse wohl etwas darüber geschrieben wenn dort ein Hurrican herauskommt. Somit gehe ich davon aus, dass sich die Menge nicht nennenswert von der anderer Karten unterscheidet.
 
So hoch kann der nich sein, wenn die nur so geringe Mehrperformance im Vergleich zu ihren ATI Pendants bieten...
 
Och nicht schon wieder...

1. Nvidia verwendet eine neue Architektur, und die ist am Anfang nicht immer Perfekt.
2. Nvidia hat die Grafikkarte Primär für GPGPU gebaut Spielekarten sind nur ein (für uns Positiver) nebeneffekt.
 
Außerdem lief bis jetzt jede neue Architektur von NV von Anfang an perfekt, also warum soll es diesmal anders sein. ;)
 
Ähm die Architektur ist ziemlich neu ja klar unified shader bleibt unified shader und so aber im grund ist sie neu bis auf ein zwei kleinigkeiten.

@Hentur
Immer kann es nicht Perfekt laufen.
 
die 5800er reihe war alles andere als perfekt, aber aus diesem fiasko haben sie gelernt
 
Och nicht schon wieder...

1. Nvidia verwendet eine neue Architektur, und die ist am Anfang nicht immer Perfekt.
2. Nvidia hat die Grafikkarte Primär für GPGPU gebaut Spielekarten sind nur ein (für uns Positiver) nebeneffekt.

1. Was interessiert mich das ob die Architektur neu ist, oder sie nicht mit ihrem Zeitplan zurecht kommen? Entwerder das Produkt überzeugt mich oder nicht!

2. Was interessiert mich wofür die GPU eigentlich gedacht war. Für mich zählt Spieleleistung. Wenn Nvidia aufgrund zu hoher Preise oder Leistung nicht konkurenzfähig im Spielesektor ist, dann ist mir das doch egal. Die Bedenken der Boardpartner sind schon berechtigt. die Teslakarten sind für den professionellen Bereich. Die GTX4xx Serie nicht! Und hier nutzen bestimmt 99% der Anwender das Teil als das was es gedacht ist, - als Grafikkarte!
 
naja wobei das ding 100% nicht mehr dieses jahr kommt, man hat die 6000er serie bereits auf nächstes jahr verlegt!!

auch aufgrund der probleme bei 40nm prozess und der verschiebung im zeitplan bei tsmc.

Außerdem wird es bei tsmc keinen 32nm prozess geben, sondern als nächst kleineres kommt der 28nm prozess, weil das sonst zu lange dauert bis man den marktreif hat wenn man sioch erst noch auf 32nm konzentriert.

Wenn schon offtopic, dann doch bitte korrekt. :wink:

Und was den rv870 und seine ursprüngliche größe angeht. ein elementares teil das man gestirchen hat war sideport. das war eine einheit die die bildrate bei crossfiregespannen und x2 grafikkarten regeln sollte und einheitliche ausgaben gewährleisten sollte. darauf ging wohl ein recht großer teil der eingesparten transistoren zurück.

also wäre der rv870 garnciht sooo viel schneller geworden mit den ganzen extra transistoren.
 
Zuletzt bearbeitet:
die HD5800 Serie ist ganz gut, die Karten verbauchen im gegensatz zu Nvidia nur wenig Strom im Idle, haben mehr Mhz Leistung bei kleiner Flächer.

Ursprünglich sollte die HD5000 Serie sogar viel mehr Leistung als aktuell haben, AMD wollte die Größe von RV870 Chip so groß wie dem Gt200 von Nvidia haben, dann hätte die 5870 z.b. viel mehr Einheiten als aktuell, ich würde sagen 30-40% nochmal mehr Leistung, das hat man aber gecancelt weil man gesehen hat das die HD4000 Serie gegen den GT200 erfolgreich war, kappiert? AMD hat sich am Anfang bei der Leistung von der HD4000 Serie unterschätzt, ursprünglich wollte man den RV870 so groß wie die aktullen Nvidia Chips bauen, haben Sie aber nicht weil man gesehen hat das die HD4000 erfolgreich war, das wird aber das dieses Jahr noch mit der HD6000 Serie kommen und das in 32nm mit deutlich mehr Einheiten und Power.


Wenn Nvidia pech hat kommt bald der HD5870 Nachfolger mit 50% mehr Leistung

:btt:

ähm er meint sicher die 5800 ultra von nv..für die jüngeren unter euch;)
 
Jungs, man kann sich das Leben auch ganz schön schwer machen.
 
die 5800er reihe war alles andere als perfekt

Sie war sogar sehr gut. Die Architektur der FX-Reihe konnte nichts dafür, dass die Dx-Version welche erst nach der Entwicklung der Fx entstand die Nutzung der 16bit Recheneinheiten nicht unterstützte.

Duplex schrieb:
AMD hat mit GF Verträge abgeschlossen und dieses Jahr kommt garantiert eine 32nm GPU made by GF
TSMC hat erstmal damit nichts zu tun, AMD ist verpflichtet Chips bei GF herzustellen.

Also das wird dann der erste Highendgrafikchip von GF, da würde ich erstmal abwarten wie die sich allgemein bei Grafikchips schlagen, dass kann auch ganz böse ins Auge gehn.


Ich erwarte, dass nach der HD5xxx-Reihe und Fermi erstmal lange Zeit nichts neues kommt, abgesehen von Refreshs mit max 15% Mehrleistung.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh