ATI R420 - die X800-Serie ist da

hallo,

ich muss sagen... das beide firmen einen solch großen leistungssprung geschaft haben, ist wirklich eine wahnsinnsleistung.

da bewahrheitet sich einmal mehr, dass konkurenz das geschäft belebt und wir von diesem kampf um die leistungskrone profitieren.

aber gut, für mein shuttle kommt sowieso nur die ATI karte in frage. 1 slot kühllösung und so leise... perfekt.

ich werde aber noch warten, bis die karten in bazahlbare preisregionen rutschen ;)

Gruß
Lion
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
P.S.

ATI wird das temporale AntiAliasing mit einem der nächsten Treiberupdates auch auf den R3xx Chips ermöglichen :)

Und nochwas: Einige Webseiten schreiben dass temporales FSAA das Nachleuchten des Monitors ausnutzt und deshalb sehr hohe Framerate braucht. Das ist Käse, denn temp FSAA nutzt einfach nur die Trägheit des menschlichen Auges aus.
 
super leistung von ATI!
aber auch von nvidia.. wobei ich finde das ATI noch die bessere Arbeit abgegeben hat.
- Stromverbrauch, Temperatur, Shader - 3dc, pciex interface (keine bridge), preis?, generelle leistung bei höheren Auflösungen, FSAA usw.,
Overclocking (resultierend aus temperatur und verbrauch);

In den Bereichen sehe ich ATI eindeutig vorne.

hab da mal die kühllosung von leadtek für die 6800 gefunden :)

WinFast%20A400%20Ultra%20TDH%20MyVIVO2.jpg
 
also die riesingkühlung macht schon sinn...so schwer wie die ist klaut dir keiner deinen Karte :/
 
Schaut aus wie ein Teil von nem V8, oder ne Schildkröte auf der Karte... :P

Vielleicht bietet ja noch einer ne 6800 Ultra Extreme mit nem Zalman 7000 drauf an :d
 
ajo, nen SLK würd doch gut auf ne high-end karte passen und soooviel anders als die auf dem pic oben würd das ganze dann auch nich aussehen ;)
 
Genau das :fresse:

Bald gibt's die dicken Kühler zuerst für die Graka, dann erst für die CPU :d
 
Also ich finde eigentlich nur zwei Nachteile an den neuen R420-Karten:

1) schlechte Leistung unter OpenGL
2) nur ein digitaler Ausgang

An 1) arbeitet ATi angeblich (und zum wiederholten Male) mit Eifer, aber 2) ist leider ein Deal-Breaker, und ein für mich unverständlicher dazu.

Ist es denn nur so schwer, zwei DVI Ausgänge auf eine 400 oder 500 Euro teurer Karte zu basteln? nVidia jedenfalls schaffte das schon vor über 2 Jahren (GF4) und bietet auch für den NV40 diese Option.

Schade.
 
Ist aber doch auch bei NV vom Kartenhersteller abhängig. Gainward hat das schon ewig, stimmt. Aber andere auch?

Zudem, wozu brauchst bei einer Gamerkarte 2 digitale Ausgänge?
 
Radical_53 schrieb:
Zudem, wozu brauchst bei einer Gamerkarte 2 digitale Ausgänge?

Wozu braucht ne 500€ Gamer karte denn überhaupt zwei ausgänge ?

Wozu braucht ne 500€ Gamer karte denn überhaupt nen TV-Out ?

Am besten ein einzelnen VGA out und gut is :rolleyes:

... ich habe zwei 19" CRTs und wollt sommer/herbst auf 2*TFT umsteigen ... und da muss numal dual DVI her, ansonsten sieht man deutlich die schlechtere quali vom VGA Kabel ...
 
Nö, ich find ein digitales Out ist ja ok, aber wieso 2? Da muß jeder mit normalem CRT (ich geh davon aus, die meisten Gamer haben noch einen) einen Adapter nehmen, auch nicht so die feine Art.
Ich weiß net, ist eben meine Ansicht. An nem Ferrari ist ja auch keine Anhängerkupplung dran :d

Wenn du echt dauerhaft 2 Schirme dran hast, wirst wohl auch eher mehr mit dem Gerät arbeiten, als zocken, oder?
 
Wie, du hast an deinem Ferrari keine Anhängerkupplung? Toll, muss ich den Anhänger mitm Grill an meinen Ferrari zum Redaktionstreffen schleppen ^-^
 
Schließt denn das eine das andere aus?

Zudem ist ein zweiter DVI-Ausgang doch kein Problem für den Hersteller und auch in der Regel kompatibel zu VGA.

Nur mal so als Anmerkung.

Gruß,
Frittenbude
 
Radical_53 schrieb:
Ist aber doch auch bei NV vom Kartenhersteller abhängig. Gainward hat das schon ewig, stimmt. Aber andere auch?
Ja, das gibt auch von anderen nVidia IHVs. Der Vorteil ist, dass nVidia die Anschlüsse schon auf dem Referenzdesign vorsieht, so kann jeder Partner auf seinen Karten DVI / VGA nach Lust und Laune kombinieren.

ATi hingegen bastelt seit einer Ewigkeit Referenzkarten für VGA + VIDEO + DVI und hat zumindest in der Vergangenheit sogar IHVs die Unterstützung versagt, als sie high-end Karten mit 2 DVI Ausgängen auf den Markt bringen wollten. (erinnert sei an Tyan)

Radical_53 schrieb:
Zudem, wozu brauchst bei einer Gamerkarte 2 digitale Ausgänge?
Also ich habe zwei TFTs an meinem Rechner, seit langem digital betrieben. Die Qualität ist bei analoger Anbindung merklich schlechter, daher wünschte ich mir eine high-end Karte mit 2 digitalen Ausgängen und den Eigenschaften der R3x0/R420 Serien.
 
Radical_53 schrieb:
Nö, ich find ein digitales Out ist ja ok, aber wieso 2? Da muß jeder mit normalem CRT (ich geh davon aus, die meisten Gamer haben noch einen) einen Adapter nehmen, auch nicht so die feine Art.
Ich weiß net, ist eben meine Ansicht. An nem Ferrari ist ja auch keine Anhängerkupplung dran :d

Nen DVI is keine anhängerkupplung :wall: Wenn dann is es nen Auspuff und der bringt ordentlich Leistung ... und davon hat jeder Ferrari zwei :d

Und es liegen ja bei den Karten immer adapter von DVI-zu-VGA bei ... ober man holt sich nen DVI-zu-VGA Kabel ...

PS : auf ner 300€+ Karte, egal ob gamer oder nicht, sollt bald mal nen Dual DVI sein ... nVidia macht es vor und so is es auch richtig ... denn soweit ich mich erinnern kann werden inzwischen mehr TFTs als CRTs verkauft ...
 
@Avenger: Blöd manchmal, gell? Aber für sowas kann man ja auch einen RS4 mißbrauchen :fresse:

@prösterchen: Gut, wußt ich nicht, da meine Ti4600 von Gainward meine letzte NV-Karte war.
Klar, das eine schließt das andere nicht aus, und zu High-End würde es sicher auch irgendwie dazu gehören.

Nur: Ich denke, DVI+Adapter für normale CRTs hat sicher kein besseres Bild als normal angeschlossen am VGA Ausgang, und zum richtigen Arbeiten nimmt man dann wohl eher eine Matrox-Karte.
Ist halt ne sehr grenzwertige Sache... ehrlich gesagt nutze ich persönlich die 2 weiteren Ausgänge nicht, von daher wäre es mir persönlich wurscht.

@Anarchy: Nu ja... ich hab's so gesehen: Ein Gamer nimmt eher einen CRT, weil der schneller ist. Zum Arbeiten eher einen TFT. Ein Ferrari ist wie ein Game für den Spaß da, nicht für wirkliche Fortbewegung oder Arbeit. Das soll der Vergleich sein.
Klar könnte man es zum Standard machen, 2 DVI, aber wie viele Leute nutzen das effektiv, 2 Monitore? Bei Zockern bzw. Leuten die so eine Karte kaufen tipp ich mal drauf, daß es nichtmal 2% sind.
 
Zuletzt bearbeitet:
Radical_53 schrieb:
Wenn du echt dauerhaft 2 Schirme dran hast, wirst wohl auch eher mehr mit dem Gerät arbeiten, als zocken, oder?
hab daheim auch zwei schirme und da zock ich mehr als ich "arbeite" aber ist halt zum surfen viel angenehmer...ist aber problemlos schnell umgestellt...
 
@burnout: Jo, ich sag auch nicht, daß ich' selbst nicht gerne hätte! 2 große TFTs wären schon eine sehr feine Sache.
Ich denk mir eben nur, daß das solange nicht kommen wird, wie die Nachfrage da ist. Und da denk ich eben, daß es noch net allzu viele Leute sind, die sowas haben wollen UND auch bezahlen können.
 
Radical_53 schrieb:
@burnout: Jo, ich sag auch nicht, daß ich' selbst nicht gerne hätte! 2 große TFTs wären schon eine sehr feine Sache.
Ich denk mir eben nur, daß das solange nicht kommen wird, wie die Nachfrage da ist. Und da denk ich eben, daß es noch net allzu viele Leute sind, die sowas haben wollen UND auch bezahlen können.
es geht hier ja nicht um zwei grosse TFTs. Der erste als Hauptmoni ist bisl grösser, is klar aber der zweite dient eh nur für das "Nebenbei" (outlook, icq, mbm und so) der muss ja nicht so gross sein... ich hab daheim nen 15" CRT vom Aldi ;) reicht vollkommen, und so teuer ist es auch nicht!

wenn die leute erstmal drauf kommen wie geil es ist mit zwei monis zu arbeiten, wollen sie nie wieder nur einen haben, und viele sind dann sicher bereit bisl was extra auszugeben...der markt ist IMHO da, bzw kurz davor!
 
Ja, zu hoffen wär's schon, klar. Wobei ich schon gern 2 große hätt ;) Oder sowas wie 20" TFT zum Arbeiten und 19" zum zocken, das wär prima.
Ich denk mir eben nur, daß das der Grund ist, daß ATI das nicht macht bisher.
 
es geht ja nicht darum, jedem 2 tfts aufzudrägen, sondern dass die umwandlung vga > dvi nicht besser sein als als das vga-signal.
dvi > vga ist nach meinen erfahrungen nicht sichtbar "schlechter".

also wäre ein 2 X DVI-setup für tft-user und gamer nicht schlechter als die bisherigen lösungen, weil bei bedarf ein crt per adapter ohne verlust an bildqualität anschließbar wäre und die dual tft-user direkt glücklich wären.
 
@zealot: Ja, wenn's so genauso ohne Quali-Einbußen möglich ist, wäre es sicher besser. Ich halte eben nur nie viel von Adaptern, meist machen sie's ja eher schlimmer. Zuletzt hatte ich das eben bei ner Ti4600, da war das Bild eh nicht so mega-toll.
 
Mister Floppy schrieb:
Galubt ihr, dass bei der Saphire X800Pro bzw.XT auch ein Gutschein für HL² dabei ist?
Wäre doch eigentlich ganz gut...
denk nicht!

ATI ist mit dem HL2 sicher alles andere als glücklich, und werden wohl versuchen sich da rauszuwinden!
 
Hi all!

Auf der einen Seite bin ich etwas skeptisch, da ATI soviel höhere Frequenzen braucht um nVidia zu schlagen; auch finde ich die konsequentere Weiterentwicklung der Shader etc. bei nVidia etwas zukunftsträchtiger.
Auf den ersten Blick würde ich also sagen, ATI hat nVidia knapp geschlagen - nagut, aaaber sie takten auch viel höher und sind evtl. nicht so trittfest gg.-über kommende Shader 3.0-basierende Spiele.

Jedoch hat nVidia jetzt schon massive Temperatur- wie auch Stromversorgungsprobleme (anders würde ich es nicht nennen). Diverse Kleinigkeiten sind auch nicht optimal gelöst (externer Video-Chip, PCI-Express-Bridge) .. da frage ich mich WARUM haben die so große Schwierigkeiten, die ATI nicht hat? Irgendwas machen die doch da falsch!?

Daher heißt es für mich: Hut ab vor ATI, die praktisch mal so nebenbei eine Generation rausbringen, die nVidia schlägt und die weiteren Neuerungen auf die nächste Generation verschoben haben, da sie noch zu sehr Zukunftsmusik sind und ihren Lieblingskonkurrenten dann völlig entmutigen würden :d

---

Zur 2-Monitor-Diskussion:
Ich habe schon seit geraumer Zeit 2 Monitore. Die primäre Anzeige ist ein 17" TFT mit 1280x1024, die Sekundäre ein 19" CRT mit 1600x1200.
Bin ich mal auf ner LAN und habe nur mein TFT dabei, fühle ich mich richtig eingeengt, nichts hat mehr Platz, alles ist verdeckt, keine Übersicht mehr - naja, zum Zoggen reichts.
Aber es ist auch geschickt während dem Zoggen auf dem 2. Display die Temps zu beobachten, oder einfach nur die ICQ-Fenster verzweifelt winken sehn, da man nicht antwortet ;) (ja, ich lass das 2. Display während dem Zoggen an, sonst verhauts jedes Mal meine Icons :lol:).

Ich bin jetzt zwar erstmal so glücklich, aber würde ich mir ein zweites TFT holen, dann würde es mich schon arg nerven, wenn ich es über Analog anschliessen müsste..

Achja und diese Trennung in "entweder man ist Zogger oder man Arbeitet" finde ich Humbug! Man braucht doch dafür nicht 2 PCs!
Mit dieser Ansicht müsste man auch die Meinung vertreten, zur Performancesteigerung/Temperatursenkung/Platzvorteil auf "Zoggergrakas" den 2D-Modus wegzulassen - das wäre doch mal ein konsequenter Schluss :p


Nuja, nehmt den Mammut-Post ned so schwer - ich verplapper mich immer :haha:

MFG,
>7even
 
7even schrieb:
Hi all!
Auf der einen Seite bin ich etwas skeptisch, da ATI soviel höhere Frequenzen braucht um nVidia zu schlagen; auch finde ich die konsequentere Weiterentwicklung der Shader etc. bei nVidia etwas zukunftsträchtiger.
Auf den ersten Blick würde ich also sagen, ATI hat nVidia knapp geschlagen - nagut, aaaber sie takten auch viel höher und sind evtl. nicht so trittfest gg.-über kommende Shader 3.0-basierende Spiele.

Also sooo kann man das nicht ganz sehen. ATI hat 30% höheren GPU Takt und schafft es oftmals, NVIDIA um ne ganze Ecke mehr als 30% zu schlagen. Wenn man sich vielmals die Ergebnisse der X800XT im Vergleich zur X800 Pro und GF6800U sieht, fällt auf dass die X800XT selbst auf 3.4GHz P4 EE Systemen oft noch von der CPU limitiert wird.
Die Shader von NVIDIA sind nicht zukunftsträchtiger, da sie nur eine einzige Funktion mehr bieten als ATIs Shader: Texture_fetch aus den Vektor Units. Eine Funktion die sicherlich so häufig gebraucht wird (während der Lebenszeit von NV40 und R420) wie AGP Texturing...gar nicht. Und die Leistung des NV40 bei PS 3.0 Operationen (die wir in Games frühestens in 2 Jahren sehen) ist unterirdisch. Klassische NVIDIA Strategie: Mit Chipgen X ein neues Feature bringen, was erst mit Chipgen X+1 oder X+2 wirklich in annehmbarer Geschwindigkeit läuft (siehe PS 2.0...).
 
Für Dynamic Branching ist es tatsächlich noch zu früh aber EarlyOut kann tatsächlich auch bei konventionellen Shadern eine Leistungsverbesserung bringen von daher muss man abwarten inwiewit die zusätzliche Flexibilität von den den Developern sinnvoll umgesetzt wird.
 
der DVI ausgang "enthält" auch das VGA signal - deswegen kann man über so einen einfachen stecker einen VGA monitor anschließen. Dabei werden ja nur die entsprechenden leitungsadern des DVI anschlusses auf den VGA stecker umgelegt.

es gibt dabei keinen qualitätsverlust, während es eben bei dem anschluss eines TFTs an den normalen VGA anschluss meist einen deutlich qualitätsverlust gibt.

man beachte einfach mal die unterschiedliche anzahl an leitungen ;)

deswegen haben die AIW karten auch nur einen DVI anschluss und man muss den CRT monitor eben über den adapter anschließen.

es ist mir irgendwie schleierhaft, warum es so wenig karten mit zwei DVI ausgängen gibt. ich vermute mal, dass die marketing abteilung in den firmen sagt, dass die kunden noch nicht so weit sind und eben auf einen VGA anschluss bestehen, weil sie sonst vieleicht denken, sie könnten ihren monitor nicht mehr anschließen?!?

über kurz oder lang wird das sicher verschwinden, ich hoffe auch, dass x800 vesionen mit zwei DVI ausgängen kommen - schließlich passt nur die in mein shuttle ;)

gruß
Lion
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh