nVidia GF100/Geforce 4xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
€dit: deine Wakü interessiert keinen...hier geht es um das Gesamtpaket.
Außerdem wirst du dich bis ein passender Kühler gefertigt wurde und zum Verkauf steht auch mit der Lautstärke befassen müssen ;) :p

Es dauert nicht wirklich lange heutzutage bis ensprechende fullcover kühler am markt sind. erst recht nicht wenn nvidia erstmal am ref. board festhält und das PCB nicht freigibt für eigenregie karten der partner. hinzu kommt noch das man nicht unbedingt nen fullcover block braucht. es gibt auch universal blöcke für gpu und entsprechende kühler für ram und spawas etc.


und an den werten der 285 kannste dich nur bedingt orientieren. unter last vielleicht aber nicht im idle. wenn dich die lautstärke aber stören wird und du von wakü nix hälst, dann kauf dir halt nen passenden luftkühler
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wird Fermi mit 512 Shadern wie in den Whitepapern beschrieben kommen oder doch nur mit 448 bzw. sind die entsprechenden Tesla-Karten schon released worden?
Tesla wurde auf 448 Shader runtergefahren, Release erst nach den GeForce-Karte, anscheinend Probleme bei Versorgung mit den EEC-RAM-Modulen
http://www.nvidia.com/docs/IO/43395/BD-04983-001_v01.pdf

Für GTX480 wurde die 512 Shader schon bestätigt und zwar gleichzeitig mit der Bekanntagabe der neuen Namen, also GTX480 und GTX470 (irgendwo auf NVidia´s Facebook-Seite)
 
Zuletzt bearbeitet:
Für GTX480 wurde die 512 Shader schon bestätigt und zwar gleichzeitig mit der Bekanntagabe der neuen Namen, also GTX480 und GTX470 (irgendwo auf NVidia´s Facebook-Seite)

Jupp so schauts aus...
Wobei nicht ganz ausgeschlossen ist, das die Tesla Karten irgendwann auch mal mit 512 Shadern kommen werden. Denn es liegt die Vermutung nahe, das man dennoch für die abgespeckten Teslas die DIEs mit 512 Shadern teildeaktivieren wird...
Aber das ist derzeit äußerst ungewiss...
 
So wie der erste fermi dummy der dann doch ne gtx2xx war ;)

Hehe stimmt - aber damals haben sie zumindest kein "laufendes System" gezeigt - das wär dann noch etwas dreister. :fresse:

@ Chezzard: Das waren die ersten Bilderm damals auf der GTC im September.
Man hat auf Basis einer GTX 2xx einen Dummy gebastelt (man beachte vor allem das abgesägte PCB..usw.)...leider hat man den Fehler gemacht und Fotos von allen Seiten erlaubt. :fresse:

http://www.pcgameshardware.de/aid,6...g/Grafikkarte/News/bildergalerie/?iid=1201063
 
Zuletzt bearbeitet:
ja und? es ist ne geschmacksmuster-ansicht und die kann auch aus maismehl sein. (ok, man hätte ihn auch so ankündigen müssen...)
der finale fermiprototyp soll genauso aussehen und was hättest du mehr gesehen, wenn es eine funktionstüchtige karte gewesen wäre? benutzt durfte sie sowiso nicht werden.

[die selbe frage gibts in museen: muss ich orginale in vitrinen ausstellen oder wen störrt es, wenne s eine identische nachbildung ist?
der unterschied ist immaginär!]
 
Zuletzt bearbeitet:
Zum Vergleich mal schnell die Daten der GTX285 heran gezogen:
Idle 45,2 db
Load 54,3 db
Idle 41°C
Load 76°C

Die Werte der GTX 480 soll knapp darüber liegen wenn ich das recht verstanden habe. Daten zu nem SLI habe ich leider nicht.
Hat da jemand ein Link ?


aus dem GTX 285 SLI Test von CB:

Idle 49 db
Load 58 db
Idle 44°C
Load 85°C
Chip - Rückseite 67°C

allerdings sind die Werte dort teils etwas höher als die von dir angegebenen:

GTX 285 Single:

Idle 47 db
Load 54 db
Idle 40°C
Load 81°C
Chip - Rückseite 57°C


http://www.computerbase.de/artikel/...geforce_gtx_285_sli/21/#abschnitt_lautstaerke


Hier steht, dass die Temperaturwerte jenen der GTX 280 entsprechen könnten, was etwas höher als bei der 285er wäre:

We also learned that nVidia re-worked the PCB to increase the "efficiency of the design" [?] and modified the heatsink. Final retail products should come with the same thermals as the old GeForce GTX 280, meaning nVidia is repeating the GTX 280/285 with GTX 480 and its probable future die-shrink.

http://www.brightsideofnews.com/new...ch-geforce-gtx-470480-on-march-272c-2010.aspx


Zum Vergleich - Werte von GTX 280 (SLI) Test auf CB:

http://www.computerbase.de/artikel/...geforce_gtx_280_sli/30/#abschnitt_lautstaerke

Nimmt sich insgesamt also nicht soviel im Vergleich zur 285er.


@ Poloniumium: Hast schon recht - es sollte ja hauptsächlich demonstrieren, wie das Design der späteren Tesla - Karten aussehen wird.
Mich persönlich hat die Tatsache, dass es ein Dummy war auch nicht gestört, aber es gab damals ja teilweise richtige Aufschreie. ;)
 
Zuletzt bearbeitet:
Ach das hatte ich nicht gewusst, dachte es war einfach ein PCB mit Plastik drum Herum.
Ist ja auch egal oder?
Genau so wie die streiter als der Ceo gesagt hat: This Puppy is Fermi.

Ob das jetzt im sinne von atrappe oder von schätzchen gemeint war.....Lassen wir das thema lieber.

Sicher ist Das Was wir da gesehen haben war Kein Fermi mehr nicht.
Und diese sache in form von "nicht hungriger als GTX280" genieße ich mit vorsicht.
Wie ich gesagt habe wenn es so wäre, wäre es eine HERVORRAGENDE Leistung.
Wenn nicht, würde ICH es auch verkraften.

Und Jede Aussage von NVidia würde ich auch nicht auf Die Goldene Waage legen.
In Endeffekt werden wir es spätestens nach Release erfahren.
 
Ach das hatte ich nicht gewusst, dachte es war einfach ein PCB mit Plastik drum Herum.
Ist ja auch egal oder?
Genau so wie die streiter als der Ceo gesagt hat: This Puppy is Fermi.

Ob das jetzt im sinne von atrappe oder von schätzchen gemeint war.....Lassen wir das thema lieber.

Sicher ist Das Was wir da gesehen haben war Kein Fermi mehr nicht.
Und diese sache in form von "nicht hungriger als GTX280" genieße ich mit vorsicht.
Wie ich gesagt habe wenn es so wäre, wäre es eine HERVORRAGENDE Leistung.
Wenn nicht, würde ICH es auch verkraften.

Und Jede Aussage von NVidia würde ich auch nicht auf Die Goldene Waage legen.
In Endeffekt werden wir es spätestens nach Release erfahren.

Wenns von der TDP wie bei der GTX280 bleibt, dann wäre das ne TopLeistung von nVidia...
 
Genau, das mit dem Dummy ist Wurst und Schnee von gestern...;)

Temps und Lautstärke der Referenzkühlung könnten sich schon auf GTX 280 / 285 Niveau bewegen, allerdings wird der Lastverbrauch wohl höher als bei der 280er ausfallen.

Nun ja, wie du schon sagtest....das und wie hoch der Verbrauch nun unter Last ist, werden wir später schwarz auf weiß haben.
 
Ich verstehe gar nicht warum man hier behauptet, der Dummy wäre aus nem G200 zusammengepackt...

Der Dummy sieht dem echt schon gezeigten Fermi Karten verdammt ähnlich, einzig hinten an den Stromanschlüssen fehlt scheinbar etwas, da ist das PCB um ein paar Milimeter abgesegt wurden.
Ansich entspricht der Dummy aber genau dem Aussehen der schon zu gesicht bekommenen Karten...
 
Ansich entspricht der Dummy aber genau dem Aussehen der schon zu gesicht bekommenen Karten...

Hm...ich glaube, du hast recht. Das PCB sieht wirklich ziemlich ähnlich im Vergleich zum CES Sample aus...bis auf die Tatsache, dass es halt gekürzt wurde.

Die Möglichkeit, dass es sich um ein bearbeitetes GTX 2xx PCB handeln könnte, wäre nur dann möglich, wenn man sich in Sachen Entwicklung noch nicht so weit befunden hätte.


GF100 auf CES:

http://pc.watch.impress.co.jp/img/pcw/docs/340/953/html/ces-04.jpg.html

Dummy:

http://www.pcgameshardware.de/aid,6...g/Grafikkarte/News/bildergalerie/?iid=1201063

GTX 285 PCB (kommt also nicht hin):

http://www.hiboox.com/go/pictures-1...ons,d5780e688bdc15e1efbadee3d04b506b.jpg.html

GTX 280 PCB (passt auch nicht):

http://www.ixbt.com/video3/images/gt200/gtx280-scan-back.jpg


Ok...zurück zu aktuelleren Themen. ;)
 
Zuletzt bearbeitet:
und an den werten der 285 kannste dich nur bedingt orientieren. unter last vielleicht aber nicht im idle. wenn dich die lautstärke aber stören wird und du von wakü nix hälst, dann kauf dir halt nen passenden luftkühler

komme ich jetzt durcheinander? Sollte es nicht andersherum sein dank Optimus? Da stand doch das trotz höherer TDP die Werte etwa bei der 285 liegen sollen.

Danke Edge für die Infos.

(Bin gerade erst aufgestanden...***Kaffeeschlürf und Denkapparat anschmeiß***)

einen Alternativkühler werde ich nicht verbauen wegen Garantieverlust. Ein GTX280 SLI hat in etwa die Lautstärke unter Load der x2 (suche direkten Vergleich zu dem was ich hier hatte) ... dann lasse ich mich mal überraschen
 
Zuletzt bearbeitet:
ich hoffe ihr (vor allem die Fans der grünen Fraktion) habt euch von Charlies letzten Artikel bereits erholt.

Warum schreibe ich das?

Es gibt bereits was neues :fresse:

SemiAccurate gets some GTX480 scores - Hot, buggy and far too slow


...

The short story about the woefully delayed GTX480, and it's little sibling the GTX470 is that it is far slower than Nvidia has been hinting at, and there is a lot of work yet to be done before it is salable. Our sources have a bit of conflicting data, but the vast majority of the numbers line up between them.

Small numbers of final cards have started to trickle in to Nvidia, and they are only showing it to people they consider very friendly for reasons that we will make clear in a bit. Because of the small circle of people who have access to the data we are going to blur a few data points to protect our sources. That said, on with the show.

There are two cards, the GTX480 having the full complement of 512 shaders, and the GTX470 with 448. The clocks for the 480 are either 600 or 625MHz for the low/half clock, and double that, 1200 or 1250MHz for the high/hot clock. Nvidia was aiming for 750/1500MHz last spring, this is a huge miss. This speed is the first point the sources conflict on, and it could go either way, both sources were adamant on theirs being the correct final clock. *SIGH*.

On the GTX470 side, there are 448 shaders, and the clocks are set at 625/1250MHz in both cases. If the GTX480 is really at 600/1200MHz, and the GTX470 is slightly faster, it should really make you wonder about the thermals of the chip. Remember when we said that the GF100/GTX480 chip was having problems with transistors at minimal voltages? Basically Nvidia has to crank the voltages beyond what they wanted to keep borderline transistors from flaking out. The problem is that this creates heat, and a lot of it. Both of our sources said that their cards were smoking hot, one said they measured it at 70C at idle on the 2D clock.

The fans were reported to be running at 70% of maximum when idling, a number that is far far to high for normal use. Lets hope that this is just a BIOS tweaking issue, and the fans don't need to be run that fast, it would mean GF100 basically can't downvolt at all on idle. On the up side, the noise from the fans at that speed was said to be noticeable, but not annoying.

If you are wondering why Nvidia made such a big deal about GTX480/GF100 certified cases, well, now you know. Remember, higher temps mean more leakage, which means more heat, and then the magic smoke that makes transistors work gets let out in a thermal runaway. You simply have to keep this beast cool all the time.

...

The GTX480 with 512 shaders running at full speed, 600 or 625MHz depending on which source, ran on average 5% faster than a Cypress/HD5870, plus or minus a little bit. The sources were not allowed to test a GTX470 which is likely an admission that it will be slower than Cypress/5870.

There is one bright spot, and it is a very bright spot indeed. No, not the thermal cap of the chip, but the tessellation performance in Heaven. On that synthetic benchmark, the numbers were more than twice as fast as the HD5870/Cypress, and will likely beat a dual chip HD5970/Hemlock. The sources said that this lead was most definitely not reflected in any game or test they ran, it was only in tessellation limited situations where the shaders don't need to be used for 'real work'.

...

Hab mal das meiner Meinung nach entscheidene gequotet und das wichtige Fett/Farbig hervorgehoben.

Ich fass es nicht, er schreibt auch was Positives über den Fermi :fresse:

Aber falls es stimmt ist das nicht gut für Nvidia, aber wie immer gilt bei Charlies Artikeln Vorsicht walten lassen ;)

Wies wirklich aussieht werden wir ja laut Gerüchten spätestens Ende März wissen :d
 
Zuletzt bearbeitet:
http://www.semiaccurate.com/2010/02/20/semiaccurate-gets-some-gtx480-scores/
Charlie mal wieder dabei, sich richtig lächerlich zu machen. Einerseits doppelt so schnell wie 5870 bei Tesselation, aber andererseits bei allen DX11-Features unbrauchbar langsam. Jaja.

Er hat offenbar noch nicht mal begriffen, welche Taktdomains es auf GF100 gibt. Aber was soll man auch noch zu Charlie schreiben...
 
Zuletzt bearbeitet:
Der ganze Artikel ist voll von Logikfehlern und Unwahrheiten. Ich denke nicht, dass wir uns noch groß darüber unterhalten müssen, was hier stimmt und was nicht...
 
jau, is klar...70°C im Idle :fresse: und nur 5% Mehrleistung...mehr fällt ihm nichtmehr ein^^
das riecht ein bischen nach Angst. Eigendlich unberechtigt. Ich denke die ATI werden ein guter Konkurrent bleiben, auch wenn sie es gerne andersherum hätten.
Das soll kein Fanboygesabbel sein, ich schreibe es so wie ich es denke.
 
ich hoffe ihr (vor allem die Fans der grünen Fraktion) habt euch von Charlies letzten Artikel bereits erholt.
Warum schreibe ich das?
Es gibt bereits was neues :fresse:
Ich glaub was semiaccurate´s Meinung angeht braucht sicher keiner erholen, denn "halbpräzise" Meinungen interessieren hier keinen, die sind nur dann präzise wenn es um AMD-Produkte geht, alles andere ist Geschwätz.
 
so hab mir den Artkiel jetzt noch ein 2. mal ganz in Ruhe durchgelesen.

Auch mit kommen die Zahlen ein wenig seltsam vor, 5% schneller als ne 5870 hört sich einfach zu wenig an :eek:

Ich frage mich wie Charlie an "Maulwürfe" in Nvidias Reihen kommen will, die Mitarbeiter würden ja die eigene Firma schädigen oder Reden wir hier von Presseleuten?

Was aber wohl mit Sicherheit pasieren wird ist wohl der folgende Abschnitt aus Charlies Artikel, ganz einfach weils nicht das erste mal sein wird, das glaube ich ihm auf jeden Fall:

If potential buyers get a wide range of benchmarks and correct specs, the conclusion will likely be GTX480 = HD5870 in performance. There will be no reviews based upon cards purchased in the wild for months. The way Nvidia has dealt with this in the past has been to control who gets access to cards and to hand pick the ones sent out.

If you give it to honest journalists, they will likely say the two cards are equal, so we hear Nvidia is doing their best to keep it out of the hands of the honest. This means that journalists known to follow the "reviewer's guide" closely, are willing to downplay negatives, and hit the important bullet points provided by Nvidia PR are the ones most likely to gain early access to these cards. If this sounds unethical to you, this is exactly what they did to cut Anand, Kyle and several others out of the GTS250 at launch. It worked out so well the last time they will probably try it again. Expect fireworks when some people realize they have been cut out for telling the truth.

:stupid: Hoffe das wir dann ende März "echte" Reviews und keine Nvidia gesteuerten sehen werden.

@ HWluxx: Ich vertraue darauf das ihr es nicht so weit kommen lasst :wink:

@Kyraa: woher weißt du das es Unwahr ist? :stupid:
Kennt du die Wahrheit?
Dann teile sie uns mit! :fresse:

Ich will damit sagen solange Nvidia nicht das Gegenteil beweißt kann Charlie auch recht haben, wir können das erst nach den ersten unabhängigen Reviews beantworten.
 
Allein die Aussage NV hätte keine DX11-Treiber steht mit den lauffähigen Samples auf der CES mitsamt funktionierendem Tesselation in Konflikt.
 
Allein die Aussage NV hätte keine DX11-Treiber steht mit den lauffähigen Samples auf der CES mitsamt funktionierendem Tesselation in Konflikt.

Öhm nein: :wall:

There was one problem that the sources pointed to, on Heaven, the benchmark had many visible and quite noticeable glitches. If you were wondering why Nvidia only showed very specific clips of it at CES, that is why, DX11 isn't quite all there yet for the GTX480.This is probably why we have been hearing rumors of the card not having DX11 drivers on launch, but we can't see Nvidia launching the chip without them.

Mal frei übersetzt:

"Es gab ein Problem das die Quellen aufgezeigt haben, in Heaven hatte der Benchmark viele sichtbare und durchaus wahrnehmbare Störungen. Wenn du dich fragst warum Nvidia nur sehr spezifische Clips davon auf der CES gezeigt hat, das ist die Antwort. DX11 ist noch nicht komplett bei der GTX480 angekommen. Wir haben Gerüchte gehört das es möglicherweise aus diesem Grund keine DX11 Treiber zum launch geben wird. Aber wir glauben nicht das Nvidia die Karte ohne sie starten wird."

Englisch lesen und auch verstehen sind 2 paar Schuhe ;)
 
Öhm nein: :wall:



Mal frei übersetzt:

"Es gab ein Problem das die Quellen aufgezeigt haben, in Heaven hatte der Benchmark viele sichtbare und durchaus wahrnehmbare Störungen. ;)

Sagt wer Charlie u welche Quellen?

Und selbst wenn war es ein Treiber der noch nicht final ist u trotz allem stände es im Widerspruch zu den großzügig vorgeführten Tesselationsdemos von Nvidia.

Die Hairy u Wasser Demo


Ich denke das der Heaven Bench nicht weiter veröffentlicht wurde weil er zu viel der Leistungsfähigkeit des Geforce Chips preis gegeben hätte vor dem eigentlichen Release des selben.

Weil man ihn bestens mit der 5er Reihe von AMD gegenüberstellen hätte können
 
Zuletzt bearbeitet:
Ende März wollen wir keine Tests :rolleyes:

Ende März hab ich son Drecksteil in den Fingern! Anfang März, kurz nach der Cebit müssen die Räume der Redakteure platzen vor lauter Grakas! Wehe nicht :mad:
 
Sagt wer Charlie u welche Quellen?

Na klar sagt das Charlie, hat ja den Artikel geschrieben und bezieht sich auf seine "Quellen".:wall:

Was mir aber vor ein paar Minuten in den Sinn gekommen ist:

[Verschwörungstheoriemodus an] Könnte es sein das Nvidia Charlie absichtlich mit falschen Infos füttert um ihn dann nach dem Launch mal wieder wie nen Volltrottel aussehen zu lassen?
Wär glaube ich nicht das erste mal [Verschwörungstheoriemodus aus] :fresse::asthanos:
 
running at full speed, 600 or 625MHz depending on which source, ran on average 5% faster than a Cypress

Neurosphere kannst du das mal festhalten u mit den Releasedaten später abgleichen;)

Bin echt gespannt wieviel davon zutreffen soll wenn der veröffentlichte Far Cry Bench schon andere Leistungsdaten voraussagt

---------- Beitrag hinzugefügt um 01:41 ---------- Vorheriger Beitrag war um 01:35 ----------

Na klar sagt das Charlie, hat ja den Artikel geschrieben und bezieht sich auf seine "Quellen".:wall:

Deshalb ist es ja so mysteriös das diese Fehler im Heaven Bench angeblich nur den "amazing" Semiacurate Quellen aufgefallen ist,obwohl Charlie u Gefolge wohl die letzten sind denen Nvidia näheres auf der Sneak Preview gezeigt hätte;)
 
Zuletzt bearbeitet:
Die CES war Anfang Januar und der Launch wird Ende März sein. Das sind fette 3 Monate mehr für das Treiberteam. Man sollte sich auch mal fragen, warum bei nvidia in letzter Zeit so extrem wenig Treiber geleakt sind. Es gab wohl einfach nicht mehr. Die Treiberteams schufften alle Überstunden für GF100.
 
Ich bin derzeit relativ offen für Grafikkarten, das liegt glaube nur daran da ich eigentlich n Fanboy bin.
Mich könnte nvidia von ihren Karten viel mehr überzeugen wäre wenigstens ein Benchmark gegen eine 5xxx Karte da wäre, denn langsam wird das warten schwer.

Aber nvidia wird sich wohl wieder Feiern lassen, denn jeder weiß das können sie weil nvidia einfach top produkte entwickelt.

Ich warte nun noch bis ende März denn da ist nämlich mein Schlüpftag, außer ich bekomm ne 5970er für 500 glocken lach :)

Gute Nacht
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh