R420 - Alle Details

H

Hans.Dieter

Guest
Hier gibts alle Neuigkeiten zum R420!
Das Teil wird absolut geil! Ich hol mir gleich sone Karte!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Tabelle_X800.png


mehr sag ich net ..
 
Also heißes Teil aber am meisten wenn überhaupt wüde mich der x800 XT interresieren, da ich von PCI-Express nichts halte und er am schnellsten rennt :drool:
 
Die SE dürfte mit 128bit unter 9800 Pro Niveou liegen und kostet nen 100er mehr.

Mich würde auch nur die X800 XT interessieren. Allerdings werde ich mit dem Kauf noch mind. bis Ende des Jahres warten, da mir der Preis zu hoch ist.
 
Das wichtigste ist eh nur dat

]规格 Geforce 6800 Geforce 6800 Ultra
开发代号 NV40 NV40U
核芯晶体管 2.22 亿 2.22 亿
制程工艺 130nm,IBM 130nm,IBM
内核频率 400MHz - 400MHz +
显存类型 GDDR3 GDDR3
显存位宽 256bit 256bit
板载显存 256MB 256MB
显存频率 550MHz 600MHz
PCB型号 P2?? P210
. . .
像素渲染流水线 16x1 or 32x0 16x1 or 32x0
浮点运算精度 FP16、FP32 FP16、FP32
顶点处理流水线 4-6 4-6
RGMS YES YES
RGAA 4x 4x
DirectX DirectX 9.0c DirectX 9.0c
Pixel Shader PS 3.0 PS 3.0
Vertex Shader VS 3.0 VS 3.0
OpenGL 1.5+(2.0) 1.5+(2.0)
发布时间 4月13日 4月13日
上市时间 5月中旬 5月中旬
零售价预测 299美元 399美元(加强版)
 
Zuletzt bearbeitet:
DAs Ding eird genial hoffentlich hält die Karte dann auch was sie verspricht.
 
kimble schrieb:
Die Daten der NV40 sind jetzt auch da und es sieht nicht so gut aus für Nvidia :haha:

http://www.gzeasy.com/itnewsdetail.asp?nID=14962
warten wir es doch ab, bis wir _endlich_ erste benchmarks haben - reine zahlenvergleiche sind in meinen augen nicht sehr sinnvoll - genausowenig, wie man die taktraten von Athlon vs. P4 nicht einfach so gleichsetzen kann :)

die X800XT ist aber wirklich ein enorm zahlenprotzendes teil - eine 9800 Pro/XT mit den taktraten würde ja schon extrem abgehen :d

bin gespannt, wie das mit der kühlung aussieht :rolleyes:
 
500€ soll doch die beste r420 kosten oder?



so ne frage zwischen durch ---

wieviel ist meine noch wert?

Leadtec A350 - 5900Ultra @ 560/990 mhz --- mit wakü?

net viel oder? :hwluxx:
 
256-512MB GDDR-3
600 MHz Core
600 MHz (1200 MHz effektiv) Memory
16 Pipelines

Hmm, nice :d

*gespanntbin*

BTW schon jemanden aufgefallen, dass die GeForce 6800 Ultra auf dem Bild GZeasy "nur" einen Stromanschluss und (logischerweise) mehr Kondensatoren hat:

geforce6800-s.jpg


Was mir aber wieder die Stirn runzeln lässt:

GeForce 6800 Ultra:

Flying point Calculation precision: FP16 and FP32

:rolleyes:

Aber, abwarten und Tee trinken :bigok:
 
Multi-Konsolero schrieb:
256-512MB GDDR-3
600 MHz Core
600 MHz (1200 MHz effektiv) Memory
16 Pipelines

Hmm, nice :d

*gespanntbin*

BTW schon jemanden aufgefallen, dass die GeForce 6800 Ultra auf dem Bild GZeasy "nur" einen Stromanschluss und (logischerweise) mehr Kondensatoren hat:

geforce6800-s.jpg


Was mir aber wieder die Stirn runzeln lässt:

GeForce 6800 Ultra:

Flying point Calculation precision: FP16 and FP32

:rolleyes:

Aber, abwarten und Tee trinken :bigok:


das bild is net von ner 6800U. Die Karte wird 2 Stromanschlüsse haben!

Liest mal das hier:

Wie theinquirer.net berichtet, wird NVIDIAs NV40 alles andere als stromsparend arbeiten. Das Referenzdesign für den Grafikchip sieht zwei 12 V-Molex-Stromanschlüsse vor, die laut theinquirer.net aus unterschiedlichen Stromschienen gespeist werden müssen, und an diesen sollte sich kein weiterer Stromabnehmer befinden!

Ein Foto einer solchen Referenz-Karte findet sich bei pcinpact.com, auch Bilder der GPU gibt es hier zu sehen. Sie soll 220 Millionen Transistoren haben, während die NV36 noch mit 82 Millionen auskommen mußte.

Ähnlich hatte sich auch heise.de geäußert:

"Nach den im Netz kursierenden Spekulationen, die aber mittlerweile als relativ sicher gelten, enthält der bei IBM gefertigte NV40 16 Pipelines, die die Shader-Spezifikation 3.0 unterstützen. Die dafür erforderlichen 200 Millionen Transistoren mit einer Strukturgröße von 0,13 µm führen offenbar zu einem neuen Rekord bei der Leistungsaufnahme."

Dort werden die beiden Stromanschlüsse bestätigt und der Strombedarf der Karte auf ca. 100 Watt geschätzt. Damit erreicht der NV40 das Niveau von Intels vielgescholtener Prescott CPU!

Die Frage, ob NVIDIA mit dem NV40 wenigstens ein gutes Performanceniveau erreicht, beantwortet ein Blick auf bodnara.co.kr: 12510 Punkte in 3DMark2003 sind ein sehr gutes Ergebnis! Die Asus Radeon 9800XT, welche den Sieg in unserem aktuellen Grafikkartenroundup davon trug, erreichte gerade einmal 6147 Punkte in dieser Disziplin!

Unser erster Eindruck: NVIDIAs NV40 wird extrem schnell, aber auch sehr stromdurstig! Heutige Netzteile bieten zumeist drei oder vier Schienen mit Molex-Steckern, zwei davon komplett für die Grafikkarte zu reservieren erscheint uns sehr fragwürdig. Zudem werden schwache Netzteile NVIDIAs neuem Überflieger kaum noch gewachsen sein - wer einen Prescott mit der NV40 kombinieren will, ist somit im 500+ Watt-Lager gut aufgehoben.
Aber der Stromverbrauch ist nur die eine Seite des Problems, denn wo viel Strom verbraucht wird, entsteht auch viel Abwärme. Bereits Intels Prescott machte unsere Teststation deutlich lauter und hob die Innentemperatur in ATX-Gehäusen merklich an. Die Kombination mit einer NV40 GPU mag man sich da kaum vorstellen...

also ich find das ne sauerrei! Da kauft man sich schon graka die wohl über 500€ kostet und dann muss man noch nen neues NT kaufen! :wall: Und 100W - eieiei ... :wall:
 
Multi-Konsolero schrieb:
Das ist mir schon klar/bewusst, aber die Karte auf dem Bild ist "auch" ein NV40 :)

:heuldoch: ;)

ja ich heule ... 500€ udnd ann nochma 100€ für nen gescheites NT :wall: dafür bau ich mir ne ganzes sys zusammen ;)

Hmm, aber wenn das auf dem bild ne NV40 is, wieso hat die dann nur ein stromanschluss? bekommt se jetzt doch nur einen oder wie!? :hmm:

Naja, wir werden es ja sehn wenn se vorgestellt is ... ;)
 
Ich kann mir das mit der Kühlung auchnet richtig vorstellen. Ok, GDDR3 wird net so heiß, aber nen core von 600MHz, weiß net.

Freu mich aber auchschon auf erste Benchmarks.
 
Der Marketing-Vorteil dürfte angesichts des PixelShader3.0 Features auf der Haben Seite von NVIDIA sein es dürfte interessant werden inwieweit die neuen Instruktionen alten Shader Code beschleunigen können.

Jedenfalls birgt das anstehende ATI Portfolio eine Menge Potential Pipelines zu reaktivieren.

Was den Core angeht so müsst ihr berücksichtigen das der R420 im low-k dielectric Verfahren produziert.
Mit diesem Verfahren zeigte bereits eine 9600Pro erstaunliches.
 
Zuletzt bearbeitet:
D€NNIS schrieb:
Jedenfalls birgt das anstehende ATI Portfolio eine Menge Potential Pipelines zu reaktivieren.

Was den Core angeht so müsst ihr berücksichtigen das der R420 im low-k dielectric Verfahren produziert.
Mit diesem Verfahren zeigte bereits eine 9600Pro erstaunliches.

das wird auf jedenfall was! Aber die X800 SE wird wohl nix werden - sie hat ja nur 128bit Speichernabindung - aber auch da wird noch was an power dabei sein wenn sich die 12 bzw. 16 Piplines freischalten lassen.

Bei der X800 Pro wirds bestimmt nen spass! ;)

Die 9600 XT is doch im Low-k produziert!? Die Pro is doch normal!?
 
Zuletzt bearbeitet:
Mittlerweile glaube ich nicht mehr aber ursprünglich war das so angedacht, richtig.

Hmm die XSE hat eine höhere PixelFillrate als die Pro ohne AA+AF könnte diese Karte eine durchaus akzeptable Performance bieten.

Obwohl man böswillig behaupten könnte das die SE bedingt dadurch das sie das Schlusslicht bildet zur "Verschrottung" minderwertiger GPUs dient.
 
Zuletzt bearbeitet:
Mich interessiert keine der obigen Karten,sind viel zu teuer und bringen den richtigen Speed erst in Jahren,wozu soviel Kohle hinblättern?Habe meine 250? schon für die 9800 aufn Kopf gehauen und finde eine 9600XT hätte es im Nachhinein auch getan.
Naja,war die Kohle von meinem Vadda :d
Aber interessant das Nvidia wohl schon wieder verlieren wird,die sollten sich so langsam mal was einfallen lassen,wenigstens im Midrange sollten sie ien Karte wie die 5700U rausbringen.
Aber naja,der Bessere kriegt meine Kohle....
 
Aber interessant das Nvidia wohl schon wieder verlieren wird

Es ist noch nicht aller Tage Abend und ich weiß nicht wer meint euch vor vollendete Tatsachen stellen zu können aber NVIDIA hat noch keineswegs verloren.
 
Hmm also zwischen der X800Pro und der 6800er wird erstmal eng, wenn dann aber ATI die X800XT nachlegt, wird sie die 6800U zum Frühstück verspeisen :banana:
 
Naiv muss man sein wenn man tatsächlich dieser Auffassung ist.

NVIDIA wird mit an Sicherheit grenzender Wahrscheinlichkeit noch einen beträchtlichen Spielraum für die GPU Taktrate besitzen der dann wiederrum der Füllrate zuträglich ist In diesem Spiel gilt es auch nicht all seine Karten sofort offen zulegen.
 
kimble schrieb:
Hmm also zwischen der X800Pro und der 6800er wird erstmal eng, wenn dann aber ATI die X800XT nachlegt, wird sie die 6800U zum Frühstück verspeisen :banana:
Dann kontert NVIDIA mir der GeForce 6850 Ultra :fresse:

Nee, im Ernst ;)

Bevor noch keine Reviews da sind enthalte ich mich jeglicher Voraussagung :d
 
es wird auf jedenfall spannend mal schauen wer dies mal beim quality mode die nase vorn hat.:bigok: wobei ich mal stark annehme das nvidia aus den fehlern der letzten generation gelernt hat.
 
Hmm, hab irgendwo gelesen das ATi ihre GPU's früher auf den Markt bringen will als nVidia, weil nVidia anscheinend besser im Rennen ist, und so ATi einen Marktvorteil erzielt (durch das früher auf den Markt bringen).


Kann das sein?
 
Nun ein maßgeblicher Grund dafür wird das Paperfeature PX VX 3.0 seitens NVIDIA sein das ich bereits erwähnt habe.
Vermarkten lässt sich sowas natürlich wesentlich einfacher und deshalb muss ATI quasi NVIDIA mit einem früheren Release den Wind aus den Segeln zu nehmen versuchen.
 
Ich hoffe ATI kommt mit anständigen AF daher, das auch mal richtig filtert. Mit dem AA bin ich eigendlich zufrieden.
 
Sind diese Angaben denn wirklich sicher? Ich müsste das nämlich wissen, weil ich einem Bekannten einen PC zusammenbauen würde und wenn die R420-Billigvariante "nur" 400 Mäuse kostet, dann käme die rein. Ist das mit dem 26. April sicher?
 
@Multi

Wieso .... wieso 6850!?

nVIDIA hat auch erst ne FX5800 Ultra rausgebracht....ich weiss nicht ob vor oder nach der R300 9700 PRO ... da fing dat ja schon an weil die FX5800 Ultra sauwarm wurde bzw. der DDR2 Speicher wurde zu warm.Auch der super kühler der 5800 ultra war ja der Hit für Frauen ...... ein Fön für 500€ :fresse: :fresse: ... ich weiss nicht, 100 W bei einer GPU , das ist schon nicht mehr normal .... bald wird nichtmehr CPU durch Stickstoff gekühlt sondern die Grafikkarte :shake: .... ich denke der R420 wir aufjedenfall nicht mehr als 80 W verbrauchen und somit OC freundlicher als die R350/360 sein .... AA und AF wird , denke ich mal wieder ATi bei Spielern bevorzugen :banana: .....

@Multi

Wenn sie kontern dann mit einer 6900 Ultra oder 6950 ultra :banana:


Ich sag nur :

ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi !

:banana: :banana: :banana: :banana: :banana: :banana: :banana: :banana: :banana:
 
AMD Deluxe schrieb:
@Multi

Wieso .... wieso 6850!?

nVIDIA hat auch erst ne FX5800 Ultra rausgebracht....ich weiss nicht ob vor oder nach der R300 9700 PRO ... da fing dat ja schon an weil die FX5800 Ultra sauwarm wurde bzw. der DDR2 Speicher wurde zu warm.Auch der super kühler der 5800 ultra war ja der Hit für Frauen ...... ein Fön für 500€ :fresse: :fresse: ... ich weiss nicht, 100 W bei einer GPU , das ist schon nicht mehr normal .... bald wird nichtmehr CPU durch Stickstoff gekühlt sondern die Grafikkarte :shake: .... ich denke der R420 wir aufjedenfall nicht mehr als 80 W verbrauchen und somit OC freundlicher als die R350/360 sein .... AA und AF wird , denke ich mal wieder ATi bei Spielern bevorzugen :banana: .....

@Multi

Wenn sie kontern dann mit einer 6900 Ultra oder 6950 ultra :banana:
War doch nur ein Joke mit der GeForce 6850 Ultra, d'oh...
AMD Deluxe schrieb:
Ich sag nur :

ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi ! ATi !

:banana: :banana: :banana: :banana: :banana: :banana: :banana: :banana: :banana:
:rolleyes:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh