Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
warten wir es doch ab, bis wir _endlich_ erste benchmarks haben - reine zahlenvergleiche sind in meinen augen nicht sehr sinnvoll - genausowenig, wie man die taktraten von Athlon vs. P4 nicht einfach so gleichsetzen kannkimble schrieb:Die Daten der NV40 sind jetzt auch da und es sieht nicht so gut aus für Nvidia
http://www.gzeasy.com/itnewsdetail.asp?nID=14962
Multi-Konsolero schrieb:256-512MB GDDR-3
600 MHz Core
600 MHz (1200 MHz effektiv) Memory
16 Pipelines
Hmm, nice
*gespanntbin*
BTW schon jemanden aufgefallen, dass die GeForce 6800 Ultra auf dem Bild GZeasy "nur" einen Stromanschluss und (logischerweise) mehr Kondensatoren hat:
Was mir aber wieder die Stirn runzeln lässt:
GeForce 6800 Ultra:
Flying point Calculation precision: FP16 and FP32
Aber, abwarten und Tee trinken
Wie theinquirer.net berichtet, wird NVIDIAs NV40 alles andere als stromsparend arbeiten. Das Referenzdesign für den Grafikchip sieht zwei 12 V-Molex-Stromanschlüsse vor, die laut theinquirer.net aus unterschiedlichen Stromschienen gespeist werden müssen, und an diesen sollte sich kein weiterer Stromabnehmer befinden!
Ein Foto einer solchen Referenz-Karte findet sich bei pcinpact.com, auch Bilder der GPU gibt es hier zu sehen. Sie soll 220 Millionen Transistoren haben, während die NV36 noch mit 82 Millionen auskommen mußte.
Ähnlich hatte sich auch heise.de geäußert:
"Nach den im Netz kursierenden Spekulationen, die aber mittlerweile als relativ sicher gelten, enthält der bei IBM gefertigte NV40 16 Pipelines, die die Shader-Spezifikation 3.0 unterstützen. Die dafür erforderlichen 200 Millionen Transistoren mit einer Strukturgröße von 0,13 µm führen offenbar zu einem neuen Rekord bei der Leistungsaufnahme."
Dort werden die beiden Stromanschlüsse bestätigt und der Strombedarf der Karte auf ca. 100 Watt geschätzt. Damit erreicht der NV40 das Niveau von Intels vielgescholtener Prescott CPU!
Die Frage, ob NVIDIA mit dem NV40 wenigstens ein gutes Performanceniveau erreicht, beantwortet ein Blick auf bodnara.co.kr: 12510 Punkte in 3DMark2003 sind ein sehr gutes Ergebnis! Die Asus Radeon 9800XT, welche den Sieg in unserem aktuellen Grafikkartenroundup davon trug, erreichte gerade einmal 6147 Punkte in dieser Disziplin!
Unser erster Eindruck: NVIDIAs NV40 wird extrem schnell, aber auch sehr stromdurstig! Heutige Netzteile bieten zumeist drei oder vier Schienen mit Molex-Steckern, zwei davon komplett für die Grafikkarte zu reservieren erscheint uns sehr fragwürdig. Zudem werden schwache Netzteile NVIDIAs neuem Überflieger kaum noch gewachsen sein - wer einen Prescott mit der NV40 kombinieren will, ist somit im 500+ Watt-Lager gut aufgehoben.
Aber der Stromverbrauch ist nur die eine Seite des Problems, denn wo viel Strom verbraucht wird, entsteht auch viel Abwärme. Bereits Intels Prescott machte unsere Teststation deutlich lauter und hob die Innentemperatur in ATX-Gehäusen merklich an. Die Kombination mit einer NV40 GPU mag man sich da kaum vorstellen...
Das ist mir schon klar/bewusst, aber die Karte auf dem Bild ist "auch" ein NV40o$$!ram schrieb:das bild is net von ner 6800U. Die Karte wird 2 Stromanschlüsse haben!
o$$!ram schrieb:also ich find das ne sauerrei! Da kauft man sich schon graka die wohl über 500€ kostet und dann muss man noch nen neues NT kaufen! Und 100W - eieiei ...
Multi-Konsolero schrieb:Das ist mir schon klar/bewusst, aber die Karte auf dem Bild ist "auch" ein NV40
D€NNIS schrieb:Jedenfalls birgt das anstehende ATI Portfolio eine Menge Potential Pipelines zu reaktivieren.
Was den Core angeht so müsst ihr berücksichtigen das der R420 im low-k dielectric Verfahren produziert.
Mit diesem Verfahren zeigte bereits eine 9600Pro erstaunliches.
Aber interessant das Nvidia wohl schon wieder verlieren wird
Dann kontert NVIDIA mir der GeForce 6850 Ultrakimble schrieb:Hmm also zwischen der X800Pro und der 6800er wird erstmal eng, wenn dann aber ATI die X800XT nachlegt, wird sie die 6800U zum Frühstück verspeisen
War doch nur ein Joke mit der GeForce 6850 Ultra, d'oh...AMD Deluxe schrieb:@Multi
Wieso .... wieso 6850!?
nVIDIA hat auch erst ne FX5800 Ultra rausgebracht....ich weiss nicht ob vor oder nach der R300 9700 PRO ... da fing dat ja schon an weil die FX5800 Ultra sauwarm wurde bzw. der DDR2 Speicher wurde zu warm.Auch der super kühler der 5800 ultra war ja der Hit für Frauen ...... ein Fön für 500€ ... ich weiss nicht, 100 W bei einer GPU , das ist schon nicht mehr normal .... bald wird nichtmehr CPU durch Stickstoff gekühlt sondern die Grafikkarte .... ich denke der R420 wir aufjedenfall nicht mehr als 80 W verbrauchen und somit OC freundlicher als die R350/360 sein .... AA und AF wird , denke ich mal wieder ATi bei Spielern bevorzugen .....
@Multi
Wenn sie kontern dann mit einer 6900 Ultra oder 6950 ultra
AMD Deluxe schrieb:Ich sag nur :
ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi !