ATI Radeon HD5000-Series (RV870) - [Speku-, News- & Sammelthread]

Status
Für weitere Antworten geschlossen.
radeon_logo5zi.png



lil2fww.png

Radeon HD5000 Series

Schon einige Wochen vor dem kürzlichen erscheinen der HD4000-Serie gab es die ersten Spekulationen bezüglich dem Nachfolge-Chip RV870. Nachdem der RV770 mit durchschlagendem Erfolg die Mittelklasse erobert, soll die High-End-Variante des RV870 vermutlich mit 2000 Shader-Einheiten bestückt werden.
Die ersten Quellen gehen von einem Release gegen Ende 2008 aus, wahrscheinlicher ist aber ein Release Anfang 2009, anschließend soll noch in der ersten Hälfte 2009 eine Dual-Lösung erscheinen.



Laut den letzten Meldungen von hardspell.com soll der RV870 folgende Technische-Eigenschaften besitzen.
Kerngröße: 140mm²
ALUs: 192 (5SP)
Anbindung: 256bit
Strukturgröße: 45nm (40nm) ?!?
Faktor 1.2 schneller als der RV770
Der R800 soll "möglicherweise" auf eine native Dual-Core-Architektur setzen, die Infos sind mit Vorsicht zu genießen (wie alle anderen auch).



Die Technik (voraussichtlich)
Code:
-Chip = RV870
-Strukturgröße = 40nm
-Chip Größe = 140mm²
-Transistoren = unbekannt
-Chiptakt = unbekannt
-Shadertakt = unbekannt
-Shader-Einheiten (MADD) = 960 
-FLOPs (MADD/ADD) = unbekannt
-ROPs = 24
-Pixelfüllrate = unbekannt
-TMUs = unbekannt
-TAUs = unbekannt
-Texelfüllrate = unbekannt
-Vertex-Shader = unbekannt
-Unified-Shaderin Hardware = unbekannt
-Pixelshader = unbekannt
-Vertexshader = unbekannt
-Geometryshader = unbekannt
-Speichermenge = unbekannt
-Speichertakt = unbekannt
-Speicherinterface = 384 bzw. 256
-Speicherbandbreite = unbekannt

Die Modelle (voraussichtlich)
Code:
- "HD5850" (Spezifikationen folgen)
- "HD5870" (Spezifikationen folgen)
- "HD5870X2" (Spezifikationen folgen)

Sonstiges
Code:
-
-
-


Newsarchiv
Bitte denkt daran dass alle Angaben ohne Gewähr sind und aus Spekulationen hervorgehen.​

User-Infos
 
Zuletzt bearbeitet:
Oder doch. Das Zauberwort heisst Effizienz. Reine Performance ist heutzutage eh nebensächlich, da skalierbar.

Das war nicht meine Frage, Effiziens interessiert doch keinen, man kann doch einfach den RBE nehmen und das bios verändern und später mit atiflash flashen.

Interessant wäre ob die Karte so schnell oder schneller als eine X2 wird
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
hoffentlich wird die H5870 schneller sein als die HD4870 X2, dann noch der Preis bei 200 € wie die 4870 zurzeit und die Karte wird gekauft.

naja gerüchte zufolge wird sie gerade mal 25% schneller als eine 4870 sein,die wird dann sicherlich nicht die x2 schlagen.(sehr unwahrscheinlich die gerüchte)

aber ich glaub es einfach nicht das die nur 25% schneller als die 4870 sein soll,das wäre ein großer fehler von amd.
man sollte auch nicht vergessen falls eine 4890 kommen soll die wird ja auch so um die 10-15% schneller als die 4870 sein ,dann wäre performancesprung ja noch weniger;)
 
Zuletzt bearbeitet:
also laut ersten Gerüchten wird die Karte "nur" 960 Shader haben. Eine RV790 GPU wird es wohl auch nicht geben, zumahl NV mit den 55nm GPUs die Performance nicht erhöht.
 
Ihr solltet euch schätzungsweise weniger fragen, wieviele Shader mehr oder wieviele TMUs/ROPs das Ding mehr hat, sondern eher, was sich an der Architektur ändert. Es wäre töricht, zu glauben, dass ATi nur den RV770 hochskaliert. Es gab genug Vorteile bei der Einführung dieser GPU gegenüber nVidia, die man bei der folgenden Generation nicht mehr haben wird.
 
aus der R600 Architektur kann man noch viel rausholen, abwarten und Tee trinken.
 
Magst du mal konkreter werden, was du dir darunter vorstellst oder war das nur eine Bauchgefühl-Aussage? Die haben erfahrungsgemäß immer wenig mit der Realität zu tun. ;)
 
Laut Gedanken welche mal in irgend nem Thread im CPU Forum von paar Leuten gemacht wurden, wird NV wohl bald von ihrer Architektur weg gehen, auf ne AMD ähnliche Sache, sprich wieder Vectroeinheiten... Weil einfach ver Verwaltungsaufwand der Einheiten zu hoch wäre bei steigender Anzahl.

AMD wirds wohl vorerst bei der R600 Architektur bleiben, da dort durch stures Erhöhen immernoch gut was an Leistung rauszuholen ist, bei NV hingegen wächst die Transistorzahl und der Stromverbrauch im Gegensatz zur Leistung überproportional...
Man kann wohl sogar sagen, die AMD GPU wird immer Effizienter, die von NV hingegen anders rum.
 
Das ist Unfug. Der stark gestiegene Stromverbrauch beim GT200 kommt nicht in erster Linie aus der hohen Skalierung der Architektur, sondern an der GPGPU-Logik. Die muss aber bei kommenden Architekturen vermutlich nicht mehr verbreitert werden.
Tatsächlich ist der Verwaltungsaufwand bei SIMDs höher als bei skalaren ALUs - ist ja auch logisch, oder? Weil man bei all den Befehlen, die nicht "breit" genug sind, den Rest irgendwie füllen muss, um Effizienzblasen zu vermeiden. Tatsächlich ist die leichter auszulastende, also mit weniger Verwaltungsaufwand bestückte, Architektur im Moment die des GT200.

Ich bezieh mich mal auf das neue Interview von anand, wo der Lead Architect von ATi meinte, dass sie jede Menge spannende architekturelle Veränderungen für den R8xx geplant haben. Was er auch gesagt hat, war, dass er nicht glaubt, dass sie ihre Führung, die sie im Moment haben, auf Dauer halten können, so ist der Markt eben nicht konzipiert.
Kennt sich vielleicht jemand hier mit den D3D-Spezifikationen besser aus als ich? Ich bin der Meinung, D3D11 (spätestens) schreibt im Abstract des Compute Shader separate cachable instructions pro ALU vor, d.h. jeder Streamprozessor muss einen eigenen Cache bekommen. Das wär doch ein Schritt, über den man mal debattieren könnte, also, ob der schon in der nächsten Generation Sinn macht (denn R8xx wird ja vmtl noch nicht D3D11-ready sein).

Gruß
 
Zuletzt bearbeitet:
mhh kein Plan was da nun dran ist...

Aber was ich noch weis aus der Diskusion, das beim G200 durch GPGPU rein gar nix an Transistoren oder an sonsten Sachen mit hinzugekommen ist, sprich, auch wenn die Karten kein GPGPU können würde, wäre sie so wie sie jetzt ist. Da GPGPU vollständig über die Shader läuft macht das auch keinen Sinn, so wurde argumentiert. Wie und was da dran ist, weis ich nicht, dazu hab ich mich da zu wenig eingelesen...


Wo hast du denn das Interview mit dem AMD Menschen da her? Weil angeblich sollen die Rx8xx Karten ja 960 Shaderprozessoren haben, in der gleichen Art und weise wie die RV770 derzeit...
 
Der RV870 soll in 40nm, DX11 & OpenCL besitzen, das wurde von einigen spekuliert, hoffe das stimmt auch.
 
@fdsonne: Ich bin mir ziemlich sicher, dass der Großteil der hinzugekommenen Logik des GT200 nur da ist, um allgemeine Spezifikationen und GPGPU-Aufgaben zu erfüllen und NICHT an der eigentlichen Renderperformance beteiligt ist. Das ist definitiv so. ;)

Das Interview mit dem netten ATI-Menschen findest du auf www.anandtech.com, der Artikel heißt "The RV770 Story". Und er ist echt gut. :)
 
Achso, gut, ich glaub das jetzt mal einfach so, weil wie gesagt, da hab ich so nicht den Plan und müsste mich da erst einlesen...

Es gab da wie gesagt nur die paar Leute im CPU Forum vor paar Wochen, welche halt genau das Gegenteil sagten, das eben für das GPGPU Zeug sogut wie nix hinzugekommen ist, und alles andere für die Renderperformance gebraucht wird... Weis gleich gar nicht ob da auch Beweise bzw. Links usw. gepostet wurden. Musst mal gucken, war in dem Thread, "wird AMD permanent benachteiligt, der mittlerweise zu ist"

Vllt hab ich das auch nur falsch verstanden, kann ja sein ;)
 
Ich bin ja auch nur dieser Meinung, weil ich das in irgendeinem Artikel gelesen habe. Ich such mal danach, lasse mich ja auch gern eines besseren belehren, falls mir meine Erinnerung hier nur einen Streich spielt :)

edit: Habs, es war der Releaseartikel von anand zum GT200. Da steht frei übersetzt, dass die enorme Steigerung im Transistorcount zwar auch an der gestiegenen Menge an SPs liegt, aber zu großen Teilen an der Logik, die für GPGPU implementiert wurde, d.h. zum Beispiel die Fähigkeit zur Berechnung auf double precision FP-Zahlen, die doppelt großen SP-Registerfiles etc. - was dir bei Spielen, also klassischer 3D-Berechnung, alles nicht wirklich viel bringt.
 
Zuletzt bearbeitet:
Das war nicht meine Frage, Effiziens interessiert doch keinen
Keinen? Hallo? Effizienz ist mit Abstand das wichtigste an neuer Hardware. Lies dir lieber mal durch, was AMD über das Thema denkt. ;)

man kann doch einfach den RBE nehmen und das bios verändern und später mit atiflash flashen.
Und was soll das bringen? Effizienz steckt direkt im Silicon. Da helfen dir keine Modifikationen. Weder was Performance pro Watt noch pro mm² betrifft.

Der stark gestiegene Stromverbrauch beim GT200 kommt nicht in erster Linie aus der hohen Skalierung der Architektur, sondern an der GPGPU-Logik.
fdsonne hat doch auch nicht gesagt, dass der G200 hoch skaliert. Und ob die hohe Leistungsaufnahme wirklich nur auf die DP Einheiten zurückzuführen ist, ist ohne konkrete Quellen purer Spekulatius. nVidia braucht im Verhältnis einfach mehr Fläche, auch ohne DP Einheiten. Daher hat die hohe Leistungsaufnahme auch andere Ursachen. Und wenn du sagst, dass diese Einheiten nicht am Rendern beteiligt sind, bestätigst du doch selbst, dass hier nicht allzu viel Leistung begraben liegt. Schliesslich wurde beim G200 erstmals exzessiv Gebrauch von Clock Gating gemacht. Dh, nicht benötigte Einheiten werden abgeschaltet. Das ist vermutlich auch der Grund, weshalb die GTX280 eine so hohe TDP hat. Bei Spielen aber nicht ansatzweise an diese Marke herankommt.

Tatsächlich ist der Verwaltungsaufwand bei SIMDs höher als bei skalaren ALUs
Relativ? Nein. Es geht um Hardware, nicht um Software. Schau dir mal an, wie viele Transistoren bei nVidia für 5 Streamprozessoren drauf gehen und wie viele bei ATI. Die Vergangenheit hat uns gelehrt, jede Architektur für HPC basiert auf Vektoreinheiten. Dieses ungeschriebene Gesetz kann auch nVidia nicht einfach ändern. Dass der Verwaltungsaufwand grösser ist, diese Einheiten sowohl für skalare als auch vektorisierte Berechnungen auszulasten, ist wiederum hauptsächlich das Problem der Softwareentwickler.
 
Zuletzt bearbeitet:
Im Vergleich zum G80 IST der GT200 eine hochskalierte Architektur. Ob fdsonne das gesagt hat, spielt an der Stelle also keine Rolle. Der Leistungsaufnahme ist es btw auch ziemlich egal, ob die Transistoren, die sie verursachen, für GPGPU-Logik oder für ALUs gebraucht werden - es sind Transistoren. Punkt. Und wenn feststeht, dass der Großteil dieser stromschluckenden Transistoren für GPGPU-Logik genutzt wird, ist implizit klar, dass auch viel Leistungsaufnahme an dieser Stelle verursacht wird. Darum ging es auch gar nicht - worum es geht, ist, dass diese Hardware nur einmal gebraucht wird, sobald sie vorhanden ist; das ist sie jetzt. Es ist also nicht davon auszugehen, dass in Zukunft NOCH MEHR Strom für derartige Logik genutzt wird. Oder Transistoren. Klärchen? :)

Tatsächlich kann weder nVidia noch ATi darauf vertrauen, dass Spieleentwickler ihre 3D-Engines explizit für die eine oder andere Architektur schreiben, sondern meistens entwickeln sie einen Mischmasch - klar, damit die Software auf beiden Produkten läuft. Im Umkehrschluss muss ATi/nVidia dafür sorgen, dass die Teile des Codes, die für das eigene Produkt "weniger optimal" geschrieben sind, trotzdem möglichst effektiv berechnet werden können, entsprechend gescheduled und reordered werden. Ergo ist ein großer Teil dieser Auslastungsdiskussion auch Aufgabe entsprechender Hardware und NICHT nur der Software. Abgesehen davon zweifle ich daran, dass du genau weißt, wieviele Transistoren eine skalare ALU bei nV beansprucht und wieviele ein VecX-SIMD bei ATI. Ohne konkrete Angaben ist genau DAS Spekulatius. Und was dann immer noch fehlt, sind tatsächliche Effizientbetrachtungen, wieviel tatsächlichen Farbwert-Output pro Sekunde im Vergleich beide Architekturen schaffen. Das lässt sich aber aufgrund der unterschiedlichen Paradigmen ohnehin schon nicht machen.

Danke aber, dass du mitdiskutierst, wenn hier immer nur Beiträge stünden wie "NV wird euch noch alle umhauen", hätte ich das Thema längst verlassen. :)
 
Zuletzt bearbeitet:
Eben, solche Beiträge sollte man mal im Technikthread posten, also ich mein diese technischen Erklärungen... Damit die User eben auch mal Einblick haben, indas, was sie da im Rechner haben, was meint ihr?

Le_frogg würde es in jedemfall freuen ;)
 
solche sprünge wie einst GTX 8800 wird Nvidia so leicht nich hinbekommen die Karten sind gut gemischt.
den Endkunden freuts ;)
 
Der Leistungsaufnahme ist es btw auch ziemlich egal, ob die Transistoren, die sie verursachen, für GPGPU-Logik oder für ALUs gebraucht werden - es sind Transistoren.
Was glaubst du denn, ist "GPGPU Logik"? Richtig, das ist nichts anderes als die Unified Shader. Und es macht sehr wohl einen Unterschied für die Leistungsaufnahme, ob ich diese Logik abschalte, wenn sie nicht gebraucht wird, oder nicht. Übrigens, der Faktor zwischen SP und DP ALUs liegt afaik bei 8:1. Es sind also vergleichsweise wenige DP Einheiten, die hier überhaupt Strom brauchen. Insgesamt also nicht gravierend für die Leistungsaufnahme.
Ansonsten, wenn du mehr weisst, würde ich empfehlen, die bringst handfeste Quellen, die belegen, dass ohne DP ALUs die Leistungsaufnahme deutlich geringer ist.

Darum ging es auch gar nicht - worum es geht, ist, dass diese Hardware nur einmal gebraucht wird, sobald sie vorhanden ist; das ist sie jetzt. Es ist also nicht davon auszugehen, dass in Zukunft NOCH MEHR Strom für derartige Logik genutzt wird.
Doch, ist es. Wie oben schon erwähnt, du scheinst nicht zu verstehen, was "GPGPU Logik" ist. Die DP Rechenleistung des G200 ist recht mager. In etwa auf dem Niveau des RV670. Wenn man das in Zukunft aufbohren will, braucht man auch mehr DP ALUs und die Anzahl der Transistoren wird im gleichen Verhältnis ansteigen. Aber wie schon erwähnt, darum ging es mir gar nicht. Die SP Logik ist schon zu gross und wird in Zukunft noch ineffizienter im Vergleich zu ATI. Das ist der springende Punkt.

Tatsächlich kann weder nVidia noch ATi darauf vertrauen, dass Spieleentwickler ihre 3D-Engines explizit für die eine oder andere Architektur schreiben, sondern meistens entwickeln sie einen Mischmasch - klar, damit die Software auf beiden Produkten läuft.
Nein. Entwickler arbeiten mit standardisierten Schnittstellen, wie zB OpenGL oder Direct3D. Es ist letztendlich die Aufgabe von AMD und nVidia dafür eine effiziente Implementierung, basierend auf der eigenen Hardware, bereitzustellen.

Ergo ist ein großer Teil dieser Auslastungsdiskussion auch Aufgabe entsprechender Hardware und NICHT nur der Software.
Wiederum nope. Aufgabe ist das falsche Wort. Die Hardware muss lediglich ein geeignetes Frontend bereitstellen. Das ist die Aufgabe der Chip Entwickler. Die Hardware dann entsprechend auszulasten, ist immer noch die Aufgabe der Softies.

Abgesehen davon zweifle ich daran, dass du genau weißt, wieviele Transistoren eine skalare ALU bei nV beansprucht und wieviele ein VecX-SIMD bei ATI.
Nun, es ist ja nicht so, dass es keine Die Shots gäbe. Schau dir an, auf wie viel Fläche ATI 800 Streamprozessoren unterbringt. Und auf wie viel Fläche nVidia 240 Streamprozessoren. Das mag keine exakte Analyse sein. Reicht grob aber vollkommen aus, um zu sehen, wie das Kräfteverhältnis ist. Allerdings sollte man bedenken, dass die Streamprozessoren nicht 1:1 vergleichbar sind. Theoretische Rechenleistung und Effizienz sprechen aber ebenfalls eine deutliche Sprache.
 
Zuletzt bearbeitet:
Und dann beschränken wir uns bitte wieder auf die HD5000-Serie bzw. dem Refresh-Chip! :)

Gruß
:wink:
 
Jetzt würg uns doch nicht ab, wenn hier mal eine vernünftige Diskussion stattfindet. ;) Ich antworte später ausführlich, muss noch meine Hausaufgaben für Integraltransformationen und partielle Differentialgleichungen machen -_-
 
Jetzt würg uns doch nicht ab, wenn hier mal eine vernünftige Diskussion stattfindet. ;) Ich antworte später ausführlich, muss noch meine Hausaufgaben für Integraltransformationen und partielle Differentialgleichungen machen -_-

Die Diskusion kann man doch wie gesagt im Technikthread weiterführen...
 
Nicht auf mir rumhacken, wenn ich wieder mit der TMU-Geschichte antanze :xmas:

Ich habe mal einen Test angeschaut und mal ein paar Sachen miteinander verglichen.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4670/2/

HD4670 <--> HD4850 (HD4670 auf 1 standardisiert)

Rechenleistung: 1 / 2.083
Pixelfüllrate: 1 / 1.667
Texelfüllrate: 1 / 1.042
Bandwith: 1 / 1.986

Da die Pixelfüllrate meistens nicht limitiert, habe ich sie aus folgenden Gedankengängen gestrichen.

Wenn man die Leistungsdaten miteinander vergleicht, sollte die 4850 etwas mehr als doppelt so schnell wie die 4670er sein. Davon ist sie aber ein rechtes Stück entfernt. Sie ist etwa 80% schneller als die 4670 (Rating @ CB).
Wenn ich mit einer theoretischen Leistung der 4850 von 205% ausgehe sind das also 205/180 = 1.139 also etwa 14% schneller, wenn sich die TMUs verdoppeln würden. Und das wäre ja schon mal nicht schlecht.

Am CPU Limit kanns eigentlich nicht liegen bei einem 4GHz Quad und stets eingestelltem 4 oder 8 fachem AA.

Habe mal meinen Gedanken freien Lauf gelassen :bigok:
 
Neue Nachrichten vom RV870 kommen erstmal nicht, erst im Februar/März kommen die richtigen Nachrichten. Damals wo der RV770 geplant war, dachte jeder die HD4870
konkurriert gegen die 9800GTX, war aber nicht so, jetzt behaupten einige das der RV870 ein Refresh wird, warum und wozu? Wenn der GT300 von Nvidia in 40nm kommt, also GTX360/380, wie möchte dann ATI mithalten können mit ein Furz wie Reresh

Ein Refresh bringt ein schei.. dreck, ATI muss sich entscheiden, High End vs. GT300 oder alte billig scheisse gegen die kommende GTX285

Bis jetzt gibts nur Spekus usw.
 
Zuletzt bearbeitet:
Ein Refresh bringt ein schei.. dreck, ATI muss sich entscheiden, High End vs. GT300 oder alte billig scheisse gegen die kommende GTX285

Bis jetzt gibts nur Spekus usw.

Alte billig scheisse die Nvidia das Fürchten gelernt hat.
Vorallem weil die Margen bei den aktuellen Chips, welche allesamt viel kleiner sind als Nvidias Transistormonstern, viel größer ausfallen.

Hoffe natürlich ebenfalls wie du, dass kein Refresh kommt, sondern ein richtiger Volldampfchip, nehme aber an das AMD eher das midrange-Perfomance-Gebiet mit Single-GPU-Karten abdecken will, mit Chips mit kleiner Die-Fläche und adavon dann möglichst viel verkaufen will.

Den High-End-Bereich wird (nehme ich an) wieder eine DualGPU-Karte abdecken - was vollkommen ok ist ...

allgemein ist die RV770-Arichtektur viel smarter als GT200; kleinere Dies->günstigere Produktionskosten-> höhere Margen <- sehr gute Leistung.

Das Konzept muss weiter getrieben werden, damit ATi möglichst profitabel bleibt.
 
hi,

gibts denn schon infos wann die neuen ati karten rauskommen werden ?

danke
 
So ist das, ein Refresh bringt nichts, die habe ja auch nicht aus dem RV670 ein refresh gemacht, sonst wären wir jetzt auf HD4850 Format. Einige sagen das ATI ein Refresh mit 25% mehrleistung plant, das wäre ungefähr GTX280 +5% übertaktetes Format.

Das würde keine Konkurrenz aufstellen, wer weis schon, besser ist es bis Februar/März abwarten und eine Vorlage von AMD zu sehen. Wenn ATI einen größeren Besitzer als AMD hätte, wüden die mehr Geld in Planung investieren, vielleicht hätten Sie dann mehr macht als Nvidia, ATIs Architektur ist nicht so schlecht wie einige denken, selbst der Chef von Nvidia hatte zugegeben das ATI was besonderes hat. Schade das kein größerer King ATI damals gekauft hat, AMD hat zuwenig Geld für Forschung, Technik usw. man könnte mit einem Konzept Nvidia heimlich in den Ars.. hauen, das kostet aber viel Geld.
 
ATIs Architektur ist nicht so schlecht wie einige denken, selbst der Chef von Nvidia hatte zugegeben das ATI was besonderes hat. Schade das kein größerer King ATI damals gekauft hat, AMD hat zuwenig Geld für Forschung, Technik usw. man könnte mit einem Konzept Nvidia heimlich in den Ars.. hauen, das kostet aber viel Geld.

Wer sagt denn dass die RV770 architektur schlecht ist?
Sie ist die Königin der Effizienz (Leistung/Produktionskosten), viel fortschrittlicher als die GT200, Ati ist Nvidia in der Fertigung voraus und das Gesamtpacket ist gerade einfach besser.

Nvidia sollte schleunigst was tun, die Dies müssen kleiner werden, die Leistung hingegen steigen.


Bin mir sicher das man ein spannendes Jahr 2009 erwarten kann, wer weiß vllt. wird die GT300 besser als RV870 , steht alles in den Sternen.
 
Einige leute aus der ATI Leitung hatten doch vor kurzem gesagt das die Haltung immoment nicht auf dauer gehalten werden kann, also Absatz/Verkauf, Leistungsfähig/Konkurrenzfähig.

Damals mit der 2900XT hatt ATI eine Karte angekündigt die eine High End werden sollte mit 512 Bit SI, jedes mal hies es mit dem nächsten Treiber bekommt man einen heftigen Leistungszuwachs? wo war den euer Super XTX Treiber? Mit der HD3870 hatte ATI auch nichts als eine geschrumpfte 2900XT auf 3870, die Leistung war um 1 % gleich.

Jetzt mit der HD4800 Serie hat ATI den Grafikkartenmarkt auf 50% Anteil angehoben, das war Super.

Aber der RV870 muss eine High End Lösung werden, er muss mindestens mit der 2. schnellsten Grafikkarte von dem GT300 mithalten können, ähnlich wie derzeit 4870 vs. GTX260. Also HD5870 vs. GTX360 !!! Das muss was werden ATI, sonst sehe ich schei...
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh