ATI Radeon HD4000 (R700) - [Speku-, News- & Sammelthread] (Part1)

Status
Für weitere Antworten geschlossen.
Alles rund um die ATI Radeon HD4000 Grafikkartenserie

Vorraussichtliche technische Daten:
HD 4870 (RV770XT), 55 nm, 850 MHz Chiptakt, 1050 MHz Shaderdomain, 1935 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 1008 GFlops, 27.200 MT/s, 256 Bit Speicherinterface, 1024 MiB GDDR5, 123,8 GB/s Speicherbandbreite, 150 W TDP, $349 MSPR, Release Mai 2008

HD 4850 (RV770PRO), 55 nm, 650 MHz Chiptakt, 850 MHz Shaderdomain, 1728 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 816 GFlops, 20.800 MT/s, 256 Bit Speicherinterface, 512 MiB GDDR5, 110,5 GB/s Speicherbandbreite, 110 W TDP, $269 MSPR, Release Mai 2008

HD 4850 GDDR3 (RV770PRO), 55 nm, 650 MHz Chiptakt, 850 MHz Shaderdomain, 1143 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 816 GFlops, 20.800 MT/s, 256 Bit Speicherinterface, 256/512 MiB GDDR3, 73,2 GB/s Speicherbandbreite, 110 W TDP

Quelle: Hartware.de

NEWS:
More RV770 and RV770X2 details

Die shrink with minor changes
ATI said a few things about its new upcoming RV770 chips, and as we've said before you can expect [...]
weiterlesen

RV770 will do GDDR 5 and GDDR3

Two flavours
We’ve learned that single chip RV770 card comes in two flavours. The first one [...]
weiterlesen

RV770XT supports 512-bit memory

Despite the claims
A German Website posted an interesting article with a lot of RV770XT and PRO specs, but [...]
weiterlesen

R700 to launch close to Computex

Or around, at leastRV770 chips are looking good and the highest end R700 based product might launch around Computex (starts at June 3 2008). We believe [...]
weiterlesen


RV770 is already in production
Test one
We learned
that the RV770 GPU already went to production and there is a big chance to see R700 generation much earlier than anyone [...]
weiterlesen

Wer noch interessante Links hat, bitte per PN an mich weiterleiten!


 
Zuletzt bearbeitet:
Macht mir ja auch Spaß, mit 75% der Leistung einer X2 eine Ultra belächeln zu können.

Google mal nach dem Begriff "Autosuggestion".

Dies ist seit langem meine erste NV (davor nur ATI), aber dieses Fanboygehabe geht mir echt auf den Sack, mit so einem Dünnschiss dazwischen kann man echt die Lust am Lesen verlieren. Naja, wir haben früher auf dem Schulhof mit den Zauberwürfeln geprotzt und erzählt, wir hätten Sie selbst "gelöst", heute sind's dann wohl die Grafikkarten, Voltmods und "meine leistet mehr als Deine, und zwar genau 10.234% - ätsch"
Das einzige, was hier belächelt wird bist Du, und magst Du inhaltlich noch so recht haben.

Gruß,
Celsi

P.S. Meine GTX ist langsamer als Deine 3870er. Aber sie kann auch Kaffee kochen und den Müll rausbringen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich wußte schon warum ich von der GTX zur 3870 gewechselt bin :fresse:
 
Das einzige, was hier belächelt wird bist Du, und magst Du inhaltlich noch so recht haben.


Hat er doch noch nichtmal. Wär nur halb so tragisch, wenns stimmen würde, was der labert. Bez. einigen technischen Details mag es korrekt sein. Interpretation und Schlussfolgerung aus den Ausgangsfakten sind allerdings falsch.

Soll er halt mal einen Benchmark machen. Crysis bietet sich ja an.

Aber wär auch egal, seine 12FPS sind ja ATI-FPS und somit flüssig, die 25 einer Ultra aber nicht.
 
Zuletzt bearbeitet:
Leute lasst Ihn doch. Beim R600 Thread gabs auch so einen, vielleicht ist es Fla**** :bigok:

Ich möcht lieber neue Infos haben.
 
hmm jetzt schreibt fudzilla schon wieder das die ein 512bit und gddr5 haben soll,wenn das stimmen sollte dann müsste die anderen spekulierten werte aber weit mehr als verdoppelt werden um die bandbreite zunutzen und vorallem würde man dann auch nicht den preis von 350 dollar erwarten sondern eher das doppelte.(für cf geld sparen ;))
denn ich glaube kaum das sie dann den selben fehler wie bei der 2900xt machen das die bandbreite nur zur show zwecken dient.

irgendwie glaub ich.kommt es ganz anderes als erwartet:bigok:
 
Zuletzt bearbeitet:
ich glaub Fud verwechselt das mit dem Internen 512 Bit Ringbus, 512 Bit Si und GDDR5 :hmm:

Was wollen wir bitte mit 200 GB Bandbreite :fresse: ?
 
Sieht gut aus auf dem Papier , aber ich denke auch die diese enorme Bandbreite nicht wirklich Sinn machen würde, dazu bedarf es schon eine wahnsinnige GPU und das nutzen zu können. Das gleiche Spiel wie bei der 29er. :)

Abwarten Tee trinken....
 
Wie wärs mit 512bit SI und GDDR3 auf den ersten Karten und sobald GDDR5 in gewünschter Geschwindigkeit und Menge(oder auch Preis) verfügbar ist, wird auf 256bit zurückgestuft.
 
Naja er Spricht ja auch nur von einer RV770XT mit 512Bit und GDDR5 daher denke ich das wird die X2 sein, da die 2 GPU´s ja über das 512Bit Interface intern sich austauschen.
Aber am Ende bleiben nur 256Bit wieder am Slot, daher wieder Typisch Formuliert von Fud.
 
2x256Bit sind aber tatsächlich 512Bit, von einigen Optimierungsproblemen und Redundanzen bei der Auslastung mal abgesehen.
 
Zuletzt bearbeitet:
2x256Bit sind aber tatsächlich 512Bit, von einigen Optimierungsproblemen und Redundanzen bei der Auslastung mal abgesehen.

mhh und was ist wenn das AMD hin bekomme hat das beide GPUs auf den gemeinsamen Speicher zureifen ?
Ich mein das war ja schon lange geplant also wären das echte 512 Bit ?(hab da nicht wirklich Plan davon )
 
es sind keine 512bit SI.
oder hat eine GPU zwei IMCs und zwei anbindungen an jeden speicher?

NEIN!

das gerücht kam ursprünglich von fuda und die scheinen mal wieder den internen vom externen nicht unterscheiden zu können.
schon der R520 hatte ein breiteres internes interface (schlagwort ringbus und vollduplexfähig) was nach außen kleiner war.
 
Zuletzt bearbeitet:
Hat er doch noch nichtmal. Wär nur halb so tragisch, wenns stimmen würde, was der labert. Bez. einigen technischen Details mag es korrekt sein. Interpretation und Schlussfolgerung aus den Ausgangsfakten sind allerdings falsch.

Wie üblich entbehrt Dein Posting jeder Grundlage und offenbart bestenfalls, wann Du in etwa die Schule verlassen hast, nämlich vor diesem berühmten Halbjahr, in dem andere die hohe Kunst der Prozentrechnung erlernten.

Eine HD 3870 X2 hat exakt die Leistung zweier HD 3850 mit je 512 MB, die ihres GDDR3 wegen etwa 80% der Leistung einer HD 3870 erreicht.

Zwo mal 80 sind nun 160, und da nach Adam Riese 100*100/160 62,5 sind, erreicht die kleinste HD 3870 mit 777/1126 etwa 62,5% der Leistung einer X2.

Bei 20% mehr Takt, die ich hier bei 40 Grad fahre, erreicht die HD 3870 bereits über 70% der Leistung einer X2, die bekanntlich um etwas mehr als 30% schneller als eine 8800 Ultra ist.

Damit liegt eine HD 3870 vor der Ultra, und das stützt sich sogar auf alle bekannten Tests. Lesen und rechnen muß man natürlich schon können.

Leute wie Du dürfen sich natürlich verzweifelt an die Idee klammern, schräge Benches bei 777/1126 hätten irgendeinen Aussagewert über Karten, die mit deutlich mehr als 900/1300 laufen, oder mit 10% mehr VGPU und VRAM über 1100/1400 erreichen.

Soll er halt mal einen Benchmark machen. Crysis bietet sich ja an.

Ist bestellt. Die Demo taugt nicht für sowas. Gibt allerdings keinen Grund, aus dem ein System, das CMR DiRT absolut souverän schultert, bei Crysis völlig versagen sollte.

Aber wär auch egal, seine 12FPS sind ja ATI-FPS und somit flüssig, die 25 einer Ultra aber nicht.

Meine 'ATI-fps' liegen bei mir wärend der gesamten Crysis-Demo mit AA und AF auf dem TFT bei 1280*1024 etwa doppelt so hoch wie Du hier behauptest. Mit knapp 12 fps läuft die Crysis-Demo auf meinem CRT bei 1920*1440.

Und dabei geht es weniger darum, wer den längsten hat, sondern eher darum, ob man anderen die Köppe zumistet, und Karten unterjubelt, die weit davon entfernt sind, noch irgendwelche 'Leistungskronen' erringen zu können.

Mag sein, daß die preisgünstigeren Modelle der HD 3870 keine Geschwindigkeitsrekorde aufstellen, wofür sie ja auch ausgesprochen günstig sind, was ein ausgezeichnetes P/L-Verhältnis begründet, aber die aufwendigeren Modelle sind ohne jeden Zweifel die derzeit schnellsten Einzel-GPU-Karten am Markt. Und das noch ohne Hardcore-Overclocking (Voltmodding), mit dem bekanntlich weitere 20% Leistungssteigerung erzielt werden können, mit der die Karten nur noch wenig hinter einer HD 3870 X2 oder einer 9800 GX2 zurückliegen.

Ansonsten empfiehlt sich (wie eigentlich überall): Wenn man keine Ahnung hat, einfach mal...

@ Mondrial: Das wird so nicht klappen, weil man dafür völlig verschiedene PCBs und verschiedene GPUs bräuchte. Was man zu den jetzt üblichen Preisen an Leistung bekommen kann, ist nur durch extreme Vereinheitlichung der PCBs mit dementsprechend großen Stückzahlen kalkulierbar. Bei den Karten der 3800er Serie sind sogar diese weißen Montage-Linien mit der Form des Referenzkühlers einheitlich auf allen Karten drauf. Die werden größtenteils nur noch unterschiedlich mit Kühlern, RAM-Chips und SpaWa-Sektion bestückt.
 
Zuletzt bearbeitet:
richtig, auch rein von der finanziellen Seite her wärs doch Mist...erst sagen wir nehmen gddr4/5 weils billiger ist als ein breites SI und dann das teure 512bit SI doch noch UND den deutlich teureren Speicher??

Würd doch kein Mensch kaufen, muss man eigentlich nicht drüber diskutieren ;) ist mal wieder ne Ente
 
Wie üblich entbehrt Dein Posting jeder Grundlage und offenbart bestenfalls, wann Du in etwa die Schule verlassen hast, nämlich vor diesem berühmten Halbjahr, in dem andere die hohe Kunst der Prozentrechnung erlernten.

Eine HD 3870 X2 hat exakt die Leistung zweier HD 3850 mit je 512 MB, die ihres GDDR3 wegen etwa 80% der Leistung einer HD 3870 erreicht.

Zwo mal 80 sind nun 160, und da nach Adam Riese 100*100/160 62,5 sind, erreicht die kleinste HD 3870 mit 777/1126 62,5% der Leistung einer X2.

Bei 20% mehr Takt, die ich hier bei 40 Grad fahre, erreicht die HD 3870 bereits über 70% der Leistung einer X2, die bekanntlich um etwas mehr als 30% schneller als eine 8800 Ultra ist.

Damit liegt eine HD 3870 vor der Ultra, und das stützt sich sogar auf alle bekannten Tests. Lesen und rechnen muß man natürlich schon können.

Leute wie Du dürfen sich natürlich verzweifelt an die Idee klammern, schräge Benches bei 777/1126 hätten irgendeinen Aussagewert über Karten, die mit deutlich mehr als 900/1300 laufen, oder mit 10% mehr VGPU und VRAM über 1100/1400 erreichen.

Sorry aber das absoluter Unfug, und überdenke bitte mal deinen Ton der User gegenüber.

Eine X2 ist genau so schnell wie 2x 3870er Karten, was die X2 hat DDR3 Speicher hat gleicht sie durch niederigere Speicherlatenzen und höheren GPU Takt wieder aus. Eine 3870er Karte ist nie so schnell wie eine X2 , egal wieviel du sie übertaktest (von LN2 späßen mal abgesehen). Bleib bitte mal realistisch das ist ja jenseits von gut und böse. Schon mal beide Karten da gehabt? Ich erreiche mit der X2 fast genau so viel Leistung wie mit 2.3870er einzelkarten im CF. Nix mit 2.3850er. :hmm:
 
Zuletzt bearbeitet:
@Sophosaurus
glaubst du noch daran das dich spinner jemand ernst nimmt? :rolleyes:

@raygin
naja beides hat vor und nachteile, ich fasse mal zu sammen:

512bit SI:
- setzt gewisse DIE size vorraus (also für RV chips eher weniger)
- setzt einen gewissen platz auf dem PCB vorraus
- setzt ein gewisse PCB dicke vorraus (je dicker das PCB, desto teurer, für RV eher weniger)
+ durch das breite SI kann man zu günstigeren und breit verfügbaren GDDR3/GDDR4 setzen

GDDR5:
+ setzt keine große DIE site vorraus (eignet sich gut für RV chips)
+ 256bit SI braucht nicht soviel platz auf dem PCB (eignet sich gut für schlankere karten)
+ braucht nicht so dicke PCBs (drückt den preis der values produkte weiter)
- teuer
- kaum verfügbar ATM, in den nächsten monaten nur schwach
 
ja das ist klar (trotzdem nette Auflistung, da lernt man immer was dazu) :)

ich hatte jetzt das nur so verstanden dass wieder das Gerücht aufgekommen ist, dass 512bit UND Gddr5 verbaut werden würde. Und das ist ja völlig unwirtschaftlich und halt undenkbar allein schon daher.
 
Ohne Zweifel die schnellste Einzelkarte ist auch grober Unsinn. Besitzt kaum ein Spiel und nimmt sich so ein Urteil raus, dazu ist er gar nicht in der Lage. Schon gar nicht wenn er die schnelleren Karten nie ausprobiert hat. Selbst Crysis war von ihm also höchstens nur an der Demo bewertet. Und Übertaktet vs Standardtakt ist genauso sinnlos, als ob man nur seine Wunderkarte übertakten kann. Vielleicht will er Aufmkerksamkeit erhaschen, oder es ist wirklich eine Krankheit.
 
Zuletzt bearbeitet:
Poste mal bitte ausführliche Benchmarkscreenies, Sophodingens
Ahja, im 38xxer Sammelthread wenns geht ;)
 
@Raygin
R600 hatte auch eine andere zielgruppe als ein RV produkt.
es heißt ja nicht umsonst radeon values. und dort war es noch nie gang und gebe unnötige kosten zu fabrizieren. das konnte man beim RV670 alias 3850/3870 gut sehen.

@rest der bande
bitte füttert den troll nicht, das gehört nicht zum eigentlichen thema ;)
 
@Xptweaker

wundert das einen? War doch bei der HD2900 genauso.

Naja immer diese BWLer die sagen wir launchen dann und dann ohne auf die Meinung der Ingenieure zu hören. Die sinds sicher nicht die "so schnell wie irgendwie möglich" serienreif werden wollen...

Aber die Terminverschiebungen bei Ati sind schon krass, die machen damit ganz schön auf sich aufmerksam...nur ob das jetzt gut ist oder schlecht für die Verkaufszahlen lass ich mal dahingestellt.

Gibt ja viele die auf die Karten warten, aber nach der dritten Terminverschiebung irgendwann sagen, naja nehm ich halt doch die GTX

Edit: Yo hast recht @Kampfwurst

ich bin wohl eher Zielgruppe RV ;)
 
Zuletzt bearbeitet:
Eine 3870er Karte ist nie so schnell wie eine X2
Das hat er ja auch nicht gesagt (70%). Du verwechselst das vermutlich mit der Ultra. Mich würde aber auch mal interessieren, wie er zu dem Schluss kommt, dass die X2 so schnell ist wie 2x 3850 und nicht 2x 3870.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh