ATI Radeon HD4000 (R700) - [Speku-, News- & Sammelthread] (Part1)

Status
Für weitere Antworten geschlossen.
Alles rund um die ATI Radeon HD4000 Grafikkartenserie

Vorraussichtliche technische Daten:
HD 4870 (RV770XT), 55 nm, 850 MHz Chiptakt, 1050 MHz Shaderdomain, 1935 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 1008 GFlops, 27.200 MT/s, 256 Bit Speicherinterface, 1024 MiB GDDR5, 123,8 GB/s Speicherbandbreite, 150 W TDP, $349 MSPR, Release Mai 2008

HD 4850 (RV770PRO), 55 nm, 650 MHz Chiptakt, 850 MHz Shaderdomain, 1728 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 816 GFlops, 20.800 MT/s, 256 Bit Speicherinterface, 512 MiB GDDR5, 110,5 GB/s Speicherbandbreite, 110 W TDP, $269 MSPR, Release Mai 2008

HD 4850 GDDR3 (RV770PRO), 55 nm, 650 MHz Chiptakt, 850 MHz Shaderdomain, 1143 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 816 GFlops, 20.800 MT/s, 256 Bit Speicherinterface, 256/512 MiB GDDR3, 73,2 GB/s Speicherbandbreite, 110 W TDP

Quelle: Hartware.de

NEWS:
More RV770 and RV770X2 details

Die shrink with minor changes
ATI said a few things about its new upcoming RV770 chips, and as we've said before you can expect [...]
weiterlesen

RV770 will do GDDR 5 and GDDR3

Two flavours
We’ve learned that single chip RV770 card comes in two flavours. The first one [...]
weiterlesen

RV770XT supports 512-bit memory

Despite the claims
A German Website posted an interesting article with a lot of RV770XT and PRO specs, but [...]
weiterlesen

R700 to launch close to Computex

Or around, at leastRV770 chips are looking good and the highest end R700 based product might launch around Computex (starts at June 3 2008). We believe [...]
weiterlesen


RV770 is already in production
Test one
We learned
that the RV770 GPU already went to production and there is a big chance to see R700 generation much earlier than anyone [...]
weiterlesen

Wer noch interessante Links hat, bitte per PN an mich weiterleiten!


 
Zuletzt bearbeitet:
Ich weiß ja nicht was PCGames da gemacht hat, aber beim CB Benchmark sieht es wie folgt aus (Crysis):
  • Bei 1280x1024 liegen GTX und X2 praktisch gleichauf, GX2 führt
  • Bei 1680x1050 und höher setzt sich die X2 von der GTX ab, liegt aber weiterhin hinter der GX2 zurück
  • Bei 1680x1050 und höher und aktiviertem 4xAA/16xAF ist die X2 schneller als GX2 oder GTX, aber wer spielt schon mit weniger als 11FPS? Achja, die Fanboys, weil sie dann sagen können es läuft schneller als bei Nvidia

Solch sinnloses herum reden, sorry , es gibt auch noch andere Spiele außer Crysis und die lassen sich durchaus mit diesen Einstellungen gut spielen. 1680x1050 ist nur wirklich keine Moster Auflösung die hat selbst meine GTX noch gepackt mit 8xAA & 16xAF dann packt es ne X2 erst recht!
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Aber das was PCGH hier abliefert,find ich lustig... Die sagen, der rv770 hat:

RV770:
• 850-900 MHz Chip
400 Shader-ALUs
16 TMUs
• 16 ROPs (endlich repariert, 4z/clk, MSAA-Resolve in den ROPs)
• 55nm
• ~ 800-830M Transistoren
schnelles GDDR4 (GDDR5?:hmm:)
• Leistung: RV670+50% und mehr
• TDP (Karte) ~150 Watt

:eek: und der GT200 soll +100% haben...:lol: Wer soll das denn glauben:shot:...
 
Ich weiß ja nicht was PCGames da gemacht hat

Die haben sich eine von Nvidia fertig konfigurierte Kiste hinstellen und vorführen lassen. Wenn NV diese Schrottsammlung auf einem eigens erstellten Vorführsystem nicht besser zum Laufen bekommt, darf man getrost davon ausgehen, daß die Dilettanten von CB aus den gleichen Karten nicht einen Frame mehr herausgequetscht bekommen.

Dem Text nach waren die Redakteure allerdings nicht mal nüchtern.
 
Laut nordichardware soll der RV770 schon im Mai kommen. Man darf gespannt sein, sicher gibt es bald erste Benchmarks.
 
Laut nordichardware soll der RV770 schon im Mai kommen. Man darf gespannt sein, sicher gibt es bald erste Benchmarks.

JA, die ersten gefakten Benchmarks :lol::lol::lol: Fehlte nur noch, dass PCGH noch ein selbsterstelltes Balkendiagramm in dem Artkell abbilden würde.
Die ersten "richtigen" Benchmarks kommen erst NACH dem Releas der Karte. Ich glaub, dass der RV770 nicht vor Juni auf dem Markt kommt.
Ich bin auf jeden Fall sehr auf den Vergleich RV770 vs. GT200 gespannt.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Sieht aus wie der HD2900 Kühler mit einem etwas anderem Gehäuse.

Bloß das der aus Aluminium ist ;)

Eine 8800Ultra hat bei 4xAA/16xAF in allen Auflösungen gut 60% mehr Leistung als eine 3870, für mich sieht das bis jetzt so aus, als es ATI nicht mal mit der 3. Generation schafft den G80 zu übertreffen.

http://www.computerbase.de/artikel/...sli/21/#abschnitt_performancerating_qualitaet

Hier sind es genau 50% bei der normalen (die PCS rückt auf 43% in 1280 und 46% bei 1600 jeweils mit 4xAA/16xAF ran) bei 8xAA ist der abstand noch weniger. ;) Nicht zu vergessen die 50% mehr Stromverbrauch im IDLE und 32% unter LOAD bei der ULTRA (Gesamtsystem).
http://www.computerbase.de/artikel/...670/28/#abschnitt_performancerating_qualitaet

Und wo wir bei Zahlen sind Preis einer ULTRA ~350€ und die 3870er ~140€, das sind 250% mehr für die NV^^

für mich sieht das bis jetzt so aus, als es ATI nicht mal mit der 3. Generation schafft den G80 zu übertreffen.

Schafft NV mit der 2. Gen selbst nicht durchgängig :cool:
 
Zuletzt bearbeitet:
Eine 8800Ultra hat bei 4xAA/16xAF in allen Auflösungen gut 60% mehr Leistung als eine 3870, für mich sieht das bis jetzt so aus, als es ATI nicht mal mit der 3. Generation schafft den G80 zu übertreffen.

http://www.computerbase.de/artikel/...sli/21/#abschnitt_performancerating_qualitaet

[Satire-Modus on]
Du hast da paar Werte verwechselt. Die 60% beziehen sich auf den bei etwa 60 liegenden Durchschnitts-IQ eines Ultra-Käufers, der bei 1,4 Dioptrien 4xAA und 16AF angeklickt hat, als er den VSync abschalten wollte, weil er sonst mit 60 Frames pro Sekunde immer ausgebremst wird, wenn er sich in 100 Millisekunden um die eigene Achse dreht und ballert was das Zeug hält.

Und über Leistung redet man nicht. Die hat man. Host mi?

PS Wer sich mit 16xAF hochaufgelöste Texturen auf Distanzoberflächen legen lassen will, um die per Motion-Blur unter ihre Standard-Auflösung zu prügeln, für den ist der Camaro unter den Grafikkarten genau das richtige, weil wer zu blöd ist, den bestraft der Markt. Ereigniskarte: gehe in den nächsten Shop, nimm 'ne Ultra mit, und zahle 400 Euro Penalty für sträfliche Dekadenz.

PPS Jeder dritte Deutsche kann keine Prozentrechnung, das sind mindestens 3,2 Prozent. Wenn a 10% gößer als b ist, und b 10 % größer als c, um wie viel % kleiner als a ist dann d, wenn d zwischen a und b liegt? Kreuzen sie an: 50%, 60% oder 70%. Armes Deutschland...
[Satire-Modus off]

Zum Edit: ich versuch hier auf spassige Weise zu erklären, warum die schon routinemäßigen (übrigens meist falschen, denn man unterlässt, die gleichre Kantenglättung einzustellen, wozu man erst eine Bildanalyse vornehmen muß, wenn das Ergebnis vergleichbar sein soll) Angaben in den meisten Tests sehr fragwürdig sind. Das zielt nicht auf meinen Vorposter. Wenn er das glaubt, ist das eben sein Fazit aus anderen Tests, als ich zurate ziehe, oder zumindest beurteilt er die anders als ich, was sein recht ist, und wer weiß, vielleicht hat er recht und ich unrecht. Ich persönlich glaube nicht, daß eine Ultra signifikant schneller ist als eine HD3870. Das ist bekanntlich eine Einzelmeinung, die niemand teilen muß.
 
Zuletzt bearbeitet:
Der HD2900 Kühlkörper ist aus Kupfer? :eek:

Jo, der Kühlblock besteht aus Kupfer.
Aus was die rote Metallplatte oben und die schwarze Metallplatte auf der Rückseite besteht, weis ich aber nicht, wird aber denk ich Alu sein.

Der Kühlblock an sich ist aber wie die Lamellen auch aus Kupfer.
 
Kannste mal sehen, wie viel Macht das bloße Geschwätz haben kann. Sagte Oswald Spengler in einem Vortrag in den roaring Twenties (d. i. der Autor von "Der Untergang des Abendlandes") über die Medien.

Kupfer auf den Fotos, und ein Depp schreibt im Beschreibungstext zu seinen Fotos was über Alu. Offenbar weil er Tomaten auf den Augen hat. Schon macht das halbe Web die Stille-Post-Laola.

Die Platte unter den Heatpipes ist zweifelsfrei aus Kupfer. Lamellen aus Kupfer sind bei den derzeitigen Kupferpreisen nicht zu erwarten, und wären bei Kühlflächen dieser Größe auch reichlich Verschwendung kostbarer Rohstoffe. Zalman macht sowas ja gerne, für Optik und Imagepflege.

EDIT: Hoppla, war einer schneller, ich werd alt.
 
Zuletzt bearbeitet:
@Sophosaurus
Bitte unterlasse diese Provokationen, auch wenn dein Beitrag viel Wahrheit enthält. :)

Man muss Dural halt so nehmen, wie er ist. Viel Gerede, null Substanz. Vielleicht sollte ihm mal einer sagen, dass die Spekulation um das Leistungsplus einer RV770 den Durchschnitt betrifft, und nicht eine spezielle Auflösung oder AA/AF Einstellung. Es kann also auch sein, dass in einem speziellen Szenario deutlich mehr drin ist. Unter 2560x1600 8xAA/16xAF ist laut Computerbase eine HD 2900 XT auch schneller als eine 8800 Ultra. ;)
Und dass gerade unter 4xAA ATI bisher etwas mehr Probleme hatte, ist wohl nicht zu übersehen. Aber vielleicht wird auch das mit der R700 Generation besser.
 
Zuletzt bearbeitet:
Bin ich der einzige der die Bilder nicht sieht?
Ich benutze denn firefox :coolblue:

Wurden die Bilder schon aus rechtlichen Gründenr ausgenohmen oder wieso sehe ich sie nicht?
€: Habe auf PCGH geschaut, was soll denn der "CLip" da oben links ? o_O




Grüße
 
Zuletzt bearbeitet:
Bin ich der einzige der die Bilder nicht sieht?
Ich benutze denn firefox :coolblue:

Wurden die Bilder schon aus rechtlichen Gründenr ausgenohmen oder wieso sehe ich sie nicht?
€: Habe auf PCGH geschaut, was soll denn der "CLip" da oben links ? o_O




Grüße

öhmm, eventuell für die cf brücken?
 
@Hayabusa:

Danke, konnte sie auch nicht sehen.

Aber auch bei Vorserienkühlern ist scheinbar "mehr=besser", wenn es um WLP geht.
 
@Sophosaurus
Bitte unterlasse diese Provokationen, auch wenn dein Beitrag viel Wahrheit enthält. :)

Das geht doch gar nicht gegen den Dural, den ich damit ganz freundlich anspreche, sondern gegen diesen Fuzzy, der die Vorabinfos mit Fotos ins Web gestellt hat, und dazu was anderes schreibt, als seine eigenen Fotos für jeden sichtbar zeigen.

Geht ja vor allem auch darum, daß man leicht auf sowas reinfällt. Ich selbst hab's auch erst beim Wegklicken der Seite quasi noch aus dem Augenwinkel bemerkt, und mich gefragt, ob ich mich getäuscht habe, weil im Text stand Alu, und unter den Heatpipes bei genauem Hinsehen Kupfer vorblitzt.

Mir ist sowieso nicht daran gelegen, jemanden persönlich anzugreifen. Wir haben alle Irrtümer und Fehleinschätzungen, und lernen im Lauf der Zeit mehr oder andere Details zu berücksichtigen. Möchte gar nicht wissen, wie oft ich mich dabei verrannt habe.

Worum's mir eher geht, ist dieses Phänomen, daß sich Dinge verselbständigen. Was man von einem hört, hinterfragt man noch, hört man es aber von überall, was ja oft nix anderes ist, als das von diesem einen in die Welt gesetzte Zeugs, hinterlässt von vornherein einen tieferen Eindruck.

Ich finde das eher spannend zu beobachten, oder eben auch interessant, mal im Einzelfall drauf hinzuweisen, wenn sichtbare Fakten untergehen.

Nimm doch nur mal diesen Quasistandard 4xAA + 16xAF, den die Testritter tagtäglich runterspulen, um Spiele zu benchen, die dann mit Motion Blur laufen, was nichts anderes ist, als ein positionsabhängiges AF mit negativen Werten. Das ist im Ergebnis 16 mal AF / 32 und damit sinnlose Beschäftigungstherapie für gelangweilte Shader. Denkt darüber noch wer nach? Wir klicken uns gern Qualitätseinstellungen zusammen, ohne überhaupt noch zu registrieren, was wir da defakto überhaupt zurechtregulieren.

Alle testen so, folglich denkt man, das würde irgendeinen Sinn machen. So wie die fps-Angaben. Ich weise immer gern drauf hin: Tomb Raider Legend im Vorspann, den jede Karte schultert, weil da weder Nebel, noch Beleuchtungseffekte, noch NPCs vorkommen. CB jubelt damit Karten hoch, die ingame zusammenbrechen, weil sie es eben nicht schultern.

Oder Oblivion im First Person ohne NPCs, was selbst meine onboard-Karte noch könnte. Ein Oblivion-NPC (oder der Spieler-Charakter im Third Person) macht aber mehr Grafiklast als die gesamte Landschaft zusammen.

Im Endeffekt ist dieser billige Shooter (Crysis) neben Oblivion ein lauer Pfurz, aber jeder hört, Crysis wäre nun so ein Problem. Alles Stille-Post-Laolas, die da rumgeistern, obwohl wenig dran ist. Darum geht's mir. Mit einzelnen Usern werd ich nicht streiten. Die können alle glauben, was sie wollen. Ohne, daß ich mir darüber Gedanken mache.

Ich spreche ja niemanden persönlich an, wenn ich bemerke, daß die Ultra in meinen Augen einfach nur eine peinliche Karte ist. Eine GTX hätte ich mir fast selber gekauft, wenn sie nicht bei DiRT einbrechen würde, was die 3870 nicht tut. Aber das muß jeder selber wissen, zumal jeder andere Games bevorzugt. Vielleicht läuft die GTX ja besser in Crysis, was ich nicht glaube, aber ich hab ja den Eislevel nie gesehen, sondern nur die Demo, und die läuft bei mir nicht viel anders als TR6 (und zwar mit 4xAA, alles high, 1280*1024).

Ich finde überhaupt, es ist sauschwer geworden, sich ein vernünftiges Bild zu machen. Ich geb nicht jeden Monat um 200 Euro für 'ne Karte aus, und ich ärger mich nicht gern wenn's dann nicht wie erwartet läuft.
 
Zuletzt bearbeitet:
Nimm doch nur mal diesen Quasistandard 4xAA + 16xAF, den die Testritter tagtäglich runterspulen, um Spiele zu benchen, die dann mit Motion Blur laufen, was nichts anderes ist, als ein positionsabhängiges AF mit negativen Werten. Das ist im Ergebnis 16 mal AF / 32 und damit sinnlose Beschäftigungstherapie für gelangweilte Shader. Denkt darüber noch wer nach? Wir klicken uns gern Qualitätseinstellungen zusammen, ohne überhaupt noch zu registrieren, was wir da defakto überhaupt zurechtregulieren.

Ich würde sagen du siehst das aus einer falschen Perspektive.

AF sorgt für schärfere Texturen und Motion Blur für verschwimmende Texturen bei Bewegung

Ergo wenn ich stehe und mir ein Haus anschaue habe ich "verschärfte" Texturen die besser aussehen und wenn ich wieder weiterenne hab ich Bewegungsverwischeffkte. (Geschmackssache, ich mag sie)

Also ist das doch nicht so sinnlos oder?
 
Jein. Wieviel Prozent seiner Zeit verbringt man damit, in der Landschaft zu stehen, und auf eine entfernte Wand zu gucken?

Wie groß ist der Anteil an Boden- und Wandtexturen, die nicht unregelmäßige, oder organische Oberflächen zeigen?

Auf wie viele davon sieht man quasi senkrecht, oder zumindest in einer Ebene geradlinig?

Zu all diesen Bedingungen gesellt sich noch schattenfrei, ohne Lichteffekte, ohne Nebel, Schnee, Regen...

Ich habe schon Schwierigkeiten, den Unterschied zwischen 0xAF und 8xAF ingame zu sehen, den zwischen achtfach und sechzehnfach sehe ich nicht mal bei Idealbedingungen in Bildmitte, ohne angestrengt danach zu suchen.

Blur hebt ihn in jedem Fall auf, weil er dann wirklich nicht mehr existiert, ausser eben in Bildmitte, wo aber der Winkel stoimmen muß. Wenn ich in Oblivion rumturne, bin entweder unterwegs, und habe Blur, oder ich bin in eher begrenztem Ambiente, wo es die entfernten Texturen gar nicht gibt, die davon profitieren. Und die meiste Zeit sind über 90% der Oberflächen auf organischen Look getrimmt, wo es nix bringt.

Da bauen die Designer Normalmaps ein, um unregelmäßige Strukturen unregelmäßiger zu machen, und der Spieler versucht, die nicht wirklich vorhandenen Details in Bildbereichen sichtbar zu machen, auf die er nie guckt.

AA ist sicher sinnvoll, aber soweit Programmierkniffe eingesetzt werden, um organische Oberflächen mit organischen Formen in vorgetäuschtem Detailreichtum zu produzieren, arbeitet AF AA entgegen. In Crysis z. B. wird so sichtbar, daß die meisten Pflanzen simpel animierte Spritevorhänge sind.

Da muß man schon fragen, wie viel Sinn darin liegt, quantitative Normen wie qualitative anzusehen, insbesondere da zwar AF vergleichbare Werte produzieren sollte, was es seltsamerweise nicht tut, AA aber von Haus aus schon keine gleiche Glättungsleistung bei gleicher Einstellung produziert.

Nicht umsonst bringen unterschiedliche Umsetzungen von AA und AF unterschiedliche Ergebnisse UND unterschiedliche GPU-Last mit sich.

Da kann man zwar einen Verfahrensvergleich anstellen, aber in reinen Lesitungstests so zu tun, als sei das ein quantitativ feststehender Standard einheitlicher Bildqualität, sodaß man blindlings gleiche Zahlen einstellt, und dann Frames zählt, ist einfach nur irreführend. So wie zwei Läufern unterschiedliche Säcke auf den Rücken zu schnallen, und dann zu messen, wie schnell sie laufen.

Diese unkritische Framezählerei wirkt dann auf die Anwender zurück, die solche Optionen wählen, ohne ganz sicher sagen zu können, wie es sich in einem Spiel en Detail auswirkt. Treppen wg. fehlendem AA sind leicht zu erkennen, AF an oder maximal sieht man meist auch, wenn man denn will, aber ob nun 4xAA und 16xAF in Game X bei Auflösung y mit GraKa z auch nur einen einzigen sinnvollen Pixel bringt, den 2xAA 16xAF, oder 4xAA 8xAF auf einer anderen Karte nicht bringt?

Und da seit G80 und R600 leistungsmäßig Gleichstand herrscht, signifikante Unerschiede mithin nur noch durch AA und AF produziert werden können, dafür aber gar kein Standard existiert, und die Wirkung fragwürdig ist, sind defakto alle GraKa-Tests der letzten Jahre totaler Nonsense ohne jeden Wert.

Von Frametimes fange ich mal lieber gar nicht erst an. In letzter Zeit werde ich halt kritischer, was diesen Zirkus angeht, weil ich mivch schon frag, was das für leute sind, die 4xAA und 16xAF brauchen, obwohl sie zum Optiker müssen, weil sie so blind sind, daß sie das Tearing nicht sehen, daß bei den üblichen Framerates schnellerer Karten heftigere Kanten verursacht als ich je ohne AA gesehen habe.

Neulich hatte ich in Oblivion echt mal 'ne Scheiss-Wetterperiode. Es hat fast jeden Tag geregnet wie Sau, und war so bewölkt, daß man gerade mal noch am Tage einigermaßen gucken konnte. Nachts bei Dauerregen so dunkel, daß ich meist 'ne halbe Stunde brauchte, mein Pferd zu finden. Was soll ich denn da mit AA und AF? Mein Pferd finde ich davon auch nicht schneller :shake:
 
Genau, wenigstens einer der das Thema am Schopf packt.
OHNE AA/ AF ist es ja fast Gleichstand bei den beiden GPU´s und mit 4xAA ist beim R600 der Wurm drinn. Beim RV670 wurde dies minimal verbessert.
Mir geht der Gedanke nicht aus dem Kopf dass uns ATI/AMD diesmal eines Auswischen will, man munkelt von ca. 50% Mehrleistung.... und dies gehe ich fast sicher ne Wette ein dass jenes OHNE AA/AF gemeint ist.

Mit 4xAA/8xAA 16AF denke und hoffe ich dass da im Vergleich zum R600 bis zu 100 und mehr % erreicht werden könnten, da die Schwachstellen des R600 ausgebügelt sein werden. Vielleicht schlägt ja der RV670/ R700 so ein wie damals der G80 bei Nvidia. Man hört wenig davon, und dies nicht mal 1,5 Monate vor seiner Verfügbarkeit. Da wurde der R600 weitasu mehr gepusht, und das Ergebnis sah schlussendlich recht ernüchternd aus.:mad:
Schaun ma mal was passiert!:xmas:
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh