ATI Radeon HD4000 (R700) - [Speku-, News- & Sammelthread] (Part1)

Status
Für weitere Antworten geschlossen.
Alles rund um die ATI Radeon HD4000 Grafikkartenserie

Vorraussichtliche technische Daten:
HD 4870 (RV770XT), 55 nm, 850 MHz Chiptakt, 1050 MHz Shaderdomain, 1935 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 1008 GFlops, 27.200 MT/s, 256 Bit Speicherinterface, 1024 MiB GDDR5, 123,8 GB/s Speicherbandbreite, 150 W TDP, $349 MSPR, Release Mai 2008

HD 4850 (RV770PRO), 55 nm, 650 MHz Chiptakt, 850 MHz Shaderdomain, 1728 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 816 GFlops, 20.800 MT/s, 256 Bit Speicherinterface, 512 MiB GDDR5, 110,5 GB/s Speicherbandbreite, 110 W TDP, $269 MSPR, Release Mai 2008

HD 4850 GDDR3 (RV770PRO), 55 nm, 650 MHz Chiptakt, 850 MHz Shaderdomain, 1143 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 816 GFlops, 20.800 MT/s, 256 Bit Speicherinterface, 256/512 MiB GDDR3, 73,2 GB/s Speicherbandbreite, 110 W TDP

Quelle: Hartware.de

NEWS:
More RV770 and RV770X2 details

Die shrink with minor changes
ATI said a few things about its new upcoming RV770 chips, and as we've said before you can expect [...]
weiterlesen

RV770 will do GDDR 5 and GDDR3

Two flavours
We’ve learned that single chip RV770 card comes in two flavours. The first one [...]
weiterlesen

RV770XT supports 512-bit memory

Despite the claims
A German Website posted an interesting article with a lot of RV770XT and PRO specs, but [...]
weiterlesen

R700 to launch close to Computex

Or around, at leastRV770 chips are looking good and the highest end R700 based product might launch around Computex (starts at June 3 2008). We believe [...]
weiterlesen


RV770 is already in production
Test one
We learned
that the RV770 GPU already went to production and there is a big chance to see R700 generation much earlier than anyone [...]
weiterlesen

Wer noch interessante Links hat, bitte per PN an mich weiterleiten!


 
Zuletzt bearbeitet:
@szeiger
wäre shcon möglich, dass sie den r700 vorstellen, weil jetzt ihre neun cpus draussen sind, und weil sie so nen kräftigen päckchen hätten
Da hätten die dann aber lieber CPU plus GPU gleichzeitig vorstellen sollen am 11 Sept., das hätte dann bestimmt wie ne Bombe eingeschlagen und alle R600 Besitzer wären auf die Straße gegangen (wie beim Iphone nach dem Wert Verlust *gg) ...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
On that day amd will release phenom and rd790 come out for desktops and the press release of the 2950xt and 2650xt both will have the new chipset with dx 10,1 capabilities and pci-x 2 interface

Das wäre ja mal was aber ich denke es kommt nur der RD790 .
 
das ist doch ne mittelklasse karte
Nö, der R670 wird die 2950XT. Die wird trotz 256bit-Speicherinterface schneller sein als die 2900XT und dabei nur den halben Stromverbrauch haben.

leise ATI-Karten ...
 
Jetzt hat ATI erstmal zu tun mit dem R-670 wieder Fuß zu fassen, ATI und AMD sind viel weiter "hintendran" als man glaubt. Wir wollen da Ergebnisse und keine Spekulationen und Papiertiger. Sie dürfen wirklich richtig "schuften" um wieder ranzukommen. Sonst haben wir eine "Monopolsituation", was fatal wäre.
 
Ich weis gar net was ihr immer alle mit Multicore in verbindung mit GPUs wollt...

Im gewissen Sinne sind GPUs jetzt schon Rechenkerne, welche mehrere Recheneinheiten besitzen, welche zusammen arbeiten. Es sind sozusagen schon Mutlicore GPUs.
Zwar nicht vollständig so wie bei den CPUs, aber das muss auch nicht sein.
 
Zuletzt bearbeitet:
Das muß noch nicht sein. Wird vll. kommen, muß für Grafik
aber noch nicht sein. Bis jetzt.

Obwohl, "Edit", wäre schon besser für die Games der Zukunft, damit jeder GPU Kern seine eigene Aufgabe hat, intelligent an ein Speicherinterface angebunden.

Aber z.Zt. wäre es erstmal Quatsch, weil nicht wirklich gebraucht. ....Meine Meinung.
 
@Fourly
bist du sicher das du weist was du hier von dir gibst, denn das was du geschrieben hast, zu dem Multicore GPUs ist neja, ich nenns mal nichtssagend!

Wie gesagt, ne GPU ist mehr oder weniger ein Sammelsorium von Rechenwerken, welche halt teilweise mehrmals vorhanden sind und passend zusammen spielen müssen.
Bei Verwendung von zwei oder mehr GPUs behilft man sich nem einfach Trick um mehr Leistung zu bekommen, was ich persönlich nicht so besonders finde, da es viel zu viele Ungereimtheiten bei Verwendung von SLI/CF gibt. Ich bin eher der Meinung die Hersteller sollten sich mehr um die Power von Karten kümmern die auch überall 100% funktionieren... sprich wo die Rechenleistung ohne irgendwelche Stundenlangen voreinstellungen vornehmen zu müssen, anliegt und man sofort loszocken kann...
 
Ich kann Dich beruhigen, ich weiß was ich schreibe(oder wovon ich rede).
Sicherlich geht es um "Grafikleistung".

Nur, bevor ich mit SLI oder Crossfire, die Leistung steigern möchte, ist die Lösung mit einer "Dual-Core GPU" auf einer Die sicherlich energetisch wirtschaftlicher, oder?
 
Neja ne...
Da es nicht zwingend erforderlich ist die komplette GPU doppelt auszulegen. Rein von der Rechenpower betrachtet brauch man auch nur die Recheneinheiten welche dafür zuständig sind, sprich Shader, TMUs usw.

Ums mal einfach zu erklären, es reicht eine GPU. Um mehr Rechenleistung zu bekommen, erhöht man einfach die Anzahl der Recheneinheiten.
Ein Doppeln der kompletten GPU ist schon fast wieder zu viel des Guten.

Das Problem was ich nur darin sehe, in der Theorie sagt sich das alles so leicht, aber es ist praktisch wohl scheinbar nicht so ohne weiteres Möglich, denn sonst hätten die Hersteller sicher schon viel schnellere Karten als jetzt ;)

Eine Dualcore GPU wäre es also nur wenn es zwei komplett eigenständige GPUs auf einem "DIE Träger" wären. Ob dies nun in einem DIE oder ähnlich der derzeitigen Quads von Intel mit zwei DIEs geschiet ist erstmal egal.

Des weiteren sehe ich keine wirklichen Vorteile zum jetzigen CF/SLI. Es bedarf immernoch ner Software welche die beiden GPUs zwingt miteinander zu arbeiten. (was ja nicht immer funzt und somit der Schwachpunkt von CF/SLI ist)
Man könnte ggf. den Speicher gemeinsam an beide GPUs anbinden, würde aber im Worst Case Fall bedeuten, das man doppelte Bandbreite brauch, wie als wenn beide GPUs eigenen Speicher hätten.
Ich finde sogar es kommen einige Nachteile hinzu, nämlich die deutlich gesteigerte Komplexität der Chips und vor allem, die enorme Leistung, welche in Wärme umgesetzt wird, sprich es bedarf extremer Kühlung...
 
fdsonne hat recht, wirkliche Vorteile bezüglich der Performance von multi-core GPUs sehe ich auch nicht

der einzig denkbare vorteil wäre dass die einzelnen Cores kleiner würden - einfacher und dadurch die Yield rate steigen würde...
 
Nunja einen kleinen Vorgeschmack scheint man ja mit dem RV670 zu bekommen. Dieser ist relativ günstig (ab ~200$). Nun versucht man mit Crossfire X, also mit einem 2 bis 4 Grafikkarten Verbund, praktisch den ganzen Markt mit einem recht kleinen, kompakten, sparsamen und günstig zu produzierenden Coredesign zu füllen.
Es heißt also im Prinzip "kauf so viele "kleine" RV670 wie du benötigst".

Ich könnte mir vorstellen, dass es so auch beim R700 angewandt wird allerdings mit noch kleineren Cores auf einem PCB. Dennoch müssen auch die, genau wie bald die RV670 per Crossfire o.ä. miteinander kommunizieren. Auch wenn die jetzigen HD2000er schon ganz gut im Crossfire skalieren, finde ich ist das größte Manko, wenn nicht sogar K.O. Kriterium, die fehlende Multimonitor Unterstützung.
Wie will man das dann später machen? Eine Grafikkarte mit evtl. 4 Chips auf einem PCB aber dann nur einen Monitorausgang? :fresse:
Es gab ja schon vor einem 3/4 Jahr Gerüchte, dass ATi an Multimonitor Crossfire arbeitet, aber davon hat man seit dem nie wieder was gehört, was natürlich wegen o.g. Gründen fatal wäre. gerade im Bezug auf die Multi Core Zukunft...
 
Also von Multimonitoring in Verbindung mit CF-X hab ich jetzt erst wieder was gelesen, aber auch keine genauen Termine oder sowas, sondern nur die Aussage, wir arbeiten dran :fresse:

@L2K
Bevor so was funktioniert wie du es hier spekulierst, müss ATI erstmal CF richtig zum laufen bekommen, gerade die fehlende Möglichkeit CF Profile zu bearbeiten usw. machen die Sache für den Nutzer nicht gerade einfacher...
 
Ja das stimmt allerdings, man sollte sich bei ATi für ihr kommendes Crossfire X bei nVidia mit ihrem SLI ein wenig inspirieren lassen, jedenfalls bei der allgemeinen Kompatibilität zu Anwendungen. Ein nHancer für Crossfire wär daher mal nicht schlecht ;)
Vorallem muss es dann auch sehr einfach zu handhaben sein, gerade wenn man bedenkt, dass ATi plant in Zukunft Crossfire Salonfähig zu machen werden sehr viele "Mediamarktgänger" damit in Berührung kommen die nicht lange rumverstellen sondern einfach nur zocken wollen.
 
Meinerseits kann ich da nur auf Post#40 verweisen, wir können da mehr oder weniger auch nur spekulieren.

Ihr (fdsonne u. L2K) habt es halt ausführlicher gemacht. Finde es halt übertrieben sich gleich 2 GraKas reinzustecken.(Meine Meinung)....;)
 
Wie gesagt, ne GPU ist mehr oder weniger ein Sammelsorium von Rechenwerken, welche halt teilweise mehrmals vorhanden sind und passend zusammen spielen müssen.

eine cpu ist auch eine ansammlung von ALUs. wieso vervielfacht man nicht einfach die anzahl der ALUs anstatt mehrkern cpus auf den markt zu bringen?
ich würde tippen, dass es einfacher und billiger ist multicore cpus zu entwickeln und zu produzieren. man verbaut einfach die benötigte anzahl an chips anstatt für jedes marktsegment einen eigenen chip zu entwerfen und der ausschuss fällt auch geringer aus als bei komplexen (großen) chips. man sollte nicht vergessen, dass die unternehmen noch immer wirtschaftlich agieren.

warum sollte dieser trend also nicht auch im grafikkartenmarkt einzug halten?
 
Es wird bei GPU`s ein shrink einzug halten um den Preis zu senken. (GPU`s pro Waver). Und wenn wir dann wieder bei einer Größe wie z.Bsp. dem G80 angelangt sind, haben wir auf einer GPU schon einiges mehr untergebracht....
 
@acro
CPUs lassen sich nicht mit GPUs vergleichen, schon alleine aus dem Grund, das ne CPU im Grunde nur eine Rechenoperation pro Takt ausführt. Die Hersteller haben dennoch Möglichkeiten gefunden das bei bestimmten Situationen mehrere Anweisungen pro Takt ausgeführt werden und somit ihre Architektur effizient zu gestalten.
Eine GPU aber kann schon durch das parallel Arbeiten der Recheneinheiten mehrere Anweisungen pro Takt ausführen ;) dies geschiet ohne Tricks und man kann durch erhöhen der Anzahl der Recheneinheiten ohne weiteres theoretisch die Leistung steigern, was so einfach bei ner CPU nicht möglich wäre.

Sprich um die Leistung einer CPU zu erhöhen ist man entweder gezwungen den Takt anzuheben, die Leistung Pro Takt zu verbessern (bzw. Hardwareimplementieren neuer Befehlssätze ala SSE) oder aber die Anzahl der CPU Kerne zu erhöhen. Letzteres bedarf aber einer Softwareanpassung um die Mehrleistung nutzen zu können.

Bei den GPUs kommt noch hinzu das wie gesagt theoretisch die Anzahl der Recheneinheiten erhöht werden kann. Was ja mit jeder neuen GPU Generation eigentlich auch so gemacht wird.


Übrigens, im Grakamarkt wird in nahezu jedem Preissegment ein eigener Chip entwickelt. Zumindest in Low Budge, Mittelklasse und HighEnd Klasse. Bei den CPUs ist dies nicht der Fall, hier gibts ne Architektur, welche für ein paar Jahre ausgelegt wird, und im laufe der Zeit ausgeschlachtet wird. Die Verschiedenen Marktsegmente unterschieden sich idR nur im Takt. Cache und FSB Speed sind eher ein wenig zu vernachlässigen, sprich ob nun 2 oder 4MB Cache am C2D anliegen ist recht egal, bei 2 oder 4GHz im Gegenzug, ist der Leistungsunterschied hingegen enorm.
Hier gehts aber auch nicht um CPUs sprich wir belassen es besser dabei...

Warum der Trend nicht auch im Graka Markt Sinn macht, neja ich sag mal so, den Herstellern fällt es sichtbar immer schwerer im CPU Markt die Leistung pro Core zu steigern, sprich sie müssen sich was anderes einfallen lassen um neue Produkte zu verkaufen.
Im Grakamarkt ist dem aber eigentlich nahezu so wie es jetzt läuft (also ohne Multi GPU) kein Ende in Sicht, da ja wie schon gesagt mehrere Befehle pro Takt schon ausgeführt werden können... es würde also eigentlich keinen Vorteil bringen die GPU doppelt oder wie auch immer x-fach auszuführen.
Und wie gesagt es bedarf immernoch der Software welche dann zu jeder Lebenslage die Games zwingt auch alle GPUs zu nutzen, ... und die wird es wohl nie geben, sprich es bedarf immer wieder manuelle Anpassungen, welche lästig ist. Genau so wie es im CPU Bereich eine Anpassung der Software geben muss um alle Cores nutzen zu können (was so ohne weiteres auch nicht Möglich ist, vor allem bei Games)
 
Zuletzt bearbeitet:
Alsogut, auch noch ein paar Worte, aber kürzer:::
Ideal wären theoretisch X gegen unendlich GPUs, denn dann müßte nicht eine einzige sich "abrackern einen "Mißmatsch" von Grafikdaten mühsam außeinander zu klabüsern.:wayne:
Wenn die Software allgemein perfekt wäre, bräuchten wir nicht mehrere Rechenkerne. Die Anforderungen an einen PC sind allgemein so gestiegen, daß es schon mehrerer"Recheneinheiten" bedarf, um ihnen gerecht zu werden.:xmas:
 
Ich weis gar net was ihr immer alle mit Multicore in verbindung mit GPUs wollt...

Im gewissen Sinne sind GPUs jetzt schon Rechenkerne, welche mehrere Recheneinheiten besitzen, welche zusammen arbeiten. Es sind sozusagen schon Mutlicore GPUs.
Zwar nicht vollständig so wie bei den CPUs, aber das muss auch nicht sein.



Das liegt aber wohl hauptsächlich daran das die Masse immer noch multicore mit manycore verwechselt oder gar für das selbe hält.
 
Das liegt aber wohl hauptsächlich daran das die Masse immer noch multicore mit manycore verwechselt oder gar für das selbe hält.
ich gehöre wohl zu dieser breiten masse oO

kannst du mir den unterschied kurz erklären oder nen link geben wo es "verständlich" erklärt wird?
 
Wenn die Software allgemein perfekt wäre, bräuchten wir nicht mehrere Rechenkerne. Die Anforderungen an einen PC sind allgemein so gestiegen, daß es schon mehrerer"Recheneinheiten" bedarf, um ihnen gerecht zu werden.:xmas:

Das hat nix mit perfekter Software oder so zu tun, des weiteren gibt es keine 100% Perfekte Software, weil es geht immer irgendwie besser ;)
Wenn ich mir anschaue, wie lange man schon Systeme mit mehr als einer CPU zu kaufen bekommt und wenn ich mir dann dazu den derzeitigen Softwarestand ansehe, dann fällt mir auf, das der überwiegende Teil der Software von Threadoptimiert noch nie was gehört hat ;) sprich es bedarf definitiv keinen Mehrkern Systemen... (für den Normalanwender)

Da aber wie schon gesagt die Hersteller ihre Produkte auch verkaufen wollen wird halt ein wenig Panik gemacht um so die Masse von mehr Rechenkernen zu begeistern...

Siehe Blödmarkt, macht sich doch besser 2x3GHz zu schreiben als 1x3GHz, obwohl in 95% der Anwendungen der zweite Core keine Arbeit bekommt ;)
 
Alles rund um den neuen Next Generation Chip von AMD/ATI.


****NEWS****
http://www.pcgameshardware.de/?article_id=617895

Zusammengefasst:

- R750XT: 8 Kerne, 64 ROPs 256 Unified Shader, 1024 Bit, 20 MiB eRAM, GDDR5 0.5ns 1GB/2GB
- R750GT:6 Kerne, 48 ROPs 192 Unified Shader, 768 Bit, 20 MiB eRAM, GDDR5 0.5ns 768 MiB / 1,5 GiB
- R700XT: 4 Kerne,32 ROPs 128 Inified Shader, 512 Bit,10 MiB eRAM, GDDR4 0.7ns 512 MiB / 1 GiB
- R700GT:2 Kerne, 16 ROPs, 64Unified Shader, 256 Bit,10 MiB eRAM, GDDR4 0.7ns 256 MiB / 512 MiB
- R700LE:1 Kern, 8 ROPs 32 Unified Shader, 128 Bit , GDDR3 1.2ns 256 MiB / 512 MiB

[
Multicore Design
45nm Chip
digital power supply

DX10.1
Tessellation engine
PCI Express 2.0
HDMI 1.3

UVD und Displayport



@ Dr. Wakeman: Das is doch schon mal ein guter Anfang, was jetzt in Post #1 steht.
Wird sicher ein guter Thread im Sinne der ForumdeLuxx Tradition werden,
ganz im Gegensatz zu einem anderen hier im Graka-unterforum. :bigok:

Deswegen gibts für diesen von mir ein Danke! :)
 
Zuletzt bearbeitet:
@Koebes: Du bist einfach nur kindisch. Lass doch den anderen ihre Threads.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh