ASUS ROG Ares: Erstes Benchmarkergebnis der "echten HD 5870 X2" *Update*

SileX86

Enthusiast
Thread Starter
Mitglied seit
02.03.2006
Beiträge
784
Ort
Zelt
<p><img style="margin: 10px; float: left;" alt="asuslogo" src="images/stories/logos/asuslogo.gif" width="100" height="100" />Ende Januar <a target="_blank" href="index.php/news/hardware/grafikkarten/14221-hd-5970-oc-asus-bald-mit-qechter-hd-5870-x2q.html">erfuhren wir</a> erstmals von einer speziellen Radeon HD 5970 von <a target="_blank" href="http://www.asus.de/">ASUS</a>, deren Taktraten bereits werkseitig einer „wahren 5870 X2“ entsprechen sollen. Als Teil der eigenen "Republic of Gamers"-Reihe (ROG), die sich vornehmlich an Enthusiasten richtet, soll der schnelle Pixelbeschleuniger den Namen des griechischen Kriegsgottes Ares erhalten. Eine französische Webseite kann nun mit weiteren Details und einem ersten Benchmarkresultat der ASUS ROG Ares dienen. Wie...<p><a href="/index.php?option=com_content&view=article&id=14536&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Sauber, bitte mehr davon!
Nur durch solche Entwicklungen wird gezeigt, was technisch machbar ist und wo die Schwächen liegen, um diese dann zu verbessern. Teuer, sinnlos, verdammt schnell, aber coooool :)

Hier noch ein Bild vom PCB:
aregfw8.jpg


nochmal größer:

Quelle: ASUS ROG Ares viker ut sig | NordicHardware

Auf den hinteren Core einen Pot drauf zu bekommen, erfordert ein eigenes Potdesign.... da wird kein aktuell verfügbarer passen :)
Interessant auch die Stromstecker 8-8-6 :d
Was für ein Monster...
 
Zuletzt bearbeitet:
schniekes teil, sowohl optisch als auch von der Leistung.. :)
freu mich schon auf weitere infos.. auch wenn was grünes in meinem pc werkelt..
 
Fährt man mit einem 5870 CF nicht besser? Für das Geld bekommt man wahrscheinlich sogar 2x MSI 5870 Lightning die wohl deutlich mehr Power bringen. Dieses \"Wir sind ASUS und die Freaks kaufen jede noch so sinnfreie Monsterkarte, wenn wir sie bauen\" verstehe ich irgendwie nicht.
 
Bei solchen Karten geht es nicht darum was vernünftig wäre. Das sind Machbarkeits-Studien, die auch wirtschaftlich für den Hersteller keinen Sinn machen, sondern einfach Prestige-Objekte, weil sie auch die Aufmerksamkeit auf das Unternehmen lenken.
 
Ich finde das Argument \" sinnlos \" sinnlos.
Wenn man hohe Auflösungen darstellen will, ist das da die richtige Lösung dafür.
Zwei 5870 im Crossfire machen ja nur sinnlos krach und brauchen zwei 16x Slots.
Weniger verbrauchen würden sie auch nicht.
Die Karte ist richtig, wenn man MultiGPU nicht von vornherein als Energieverschwendung ansieht.
Wenn Soetwas einen vernünftigen 2d Modus hätte, wo sich eine GPU schlafen legen tät, wär es auch sozial verträglich. :d
Die Smilies vom frontend find ich ätzend ! :-[
 
Zuletzt bearbeitet:
Bei dem letztem PCIe Power Conector hätte man auch nicht sparen sollen.

So darf die Grafikkarte nur max 450 Watt ziehen.

Ich will noch etwas übertakten. Ich hätte mir doch 525 Watt gewünscht. Die Vapour Chamber kann bei dieser größe locker 600 Watt wegkühlen. :fresse:
 
Zuletzt bearbeitet:
Also für Grafikenthusiasten wie mich (3D Programme) kann es nie gut genug sein! Bin echt gespannt wie es in zwei bis drei Monaten auf dem Markt aussieht.
 
@ spielberg

Das sind jetzt 14 Masse und 14 Versorgungsleitungen. Von einer 15. Leitung hättest du auch nicht mehr.
Das reicht schon so aus um die Karte zu einer dezenten Verpuffung zu bringen. :)
Die Norm ist ja auch von den Ingenören sehr konservativ gehalten. So ein Stecker würde auch einen Staubsauger speisen können, ohne heiss zu werden.

War es nicht immer so, dass dual GPU Karten schneller sind, als zwei Karten im Gespann ?
 
Zuletzt bearbeitet:
Fährt man mit einem 5870 CF nicht besser? Für das Geld bekommt man wahrscheinlich sogar 2x MSI 5870 Lightning die wohl deutlich mehr Power bringen. Dieses \"Wir sind ASUS und die Freaks kaufen jede noch so sinnfreie Monsterkarte, wenn wir sie bauen\" verstehe ich irgendwie nicht.

Nö mit den Karten hat man nicht den Vram Ausbau (2x2Gb) :d
 
Wenn Soetwas einen vernünftigen 2d Modus hätte, wo sich eine GPU schlafen legen tät, wär es auch sozial verträglich. :d
Ich dachte, das sei bei der HD 4870 X2 und der HD 5970 schon der Fall. Zumindest brauchen die im idle weniger Saft als zwei HD 4870 bzw. zwei HD 5850.
 
Zuletzt bearbeitet:
Selbst zwei 5870 Eyefinity6 sollten günstiger und besser sein. Die haben 2GB. So eine Monsterleistung ist sowieso nur für Multimonitor-Setups zu gebrauchen - und da fährt man mit zwei Karten besser als mit einer Dual-GPU. Aber ok. Ich muss ja ASUS nicht unterstützen - hab ich auch noch nie...

Bezüglich Machbarkeit - Also wegen mir sollten sie lieber mal die Machbarkeit einer passiven 5870 oder einer mit drei vollen DVI-Ports testen - DAS würde mal Sinn machen.
 
Zuletzt bearbeitet:
3 x HDMI wäre toll :p Was soll ich mit DP? Hat doch kaum ein TFT... Eyefinity mit 3 x HDMI wäre echt ein Sahnestück :)
 
Waaaaaaaaaaas? Das din zieht ja CA 400Watt mit 2x8Pin und 1x6Pin.
Monsta!!!
Will mal Benchmark ergebnisse sehen ^^
 
Vielleicht ein Vorgang bei der Materialprüfung. Klingt so, als ob man das PCB mit Röntgenstrahlung durchleuchtet, um die Leiterbahnen zu prüfen.
 
Der Kühler sieht ja mal saugeil aus.
Auf jedenfall mal ein blick wert.
 
Interessant auch die Stromstecker 8-8-6 :d
Was für ein Monster...


Fern ab jeglicher Spezifikationen,so herrlich sinnlos u brutal,ich liebe es:fresse:


Jedes "normalo" Netzteil wird da so seine Probleme bekommen mit der Karte,allerdings wer den Preis für diese Karte aufbringt,bei dem wirds auch noch für ein Revo NT reichen:haha:
 
3 x HDMI wäre toll :p Was soll ich mit DP? Hat doch kaum ein TFT... Eyefinity mit 3 x HDMI wäre echt ein Sahnestück :)

Wer braucht denn HDMI ? DP ftw ;)
Jetzt aber mal ersnthaft. Wieso soll ich für 3 HDMI Ports extra Lizenzgebühr bezahlen wenn man das bei DP nicht muss und dabei keine Nachteile hat.
 
Bei hohen auflösungen und viel AA und AF limitiert die Bandbreite nicht mehr so..

Ähm eine Frage: Gibt es das Atomkraftwerk dann extra zu kaufen, oder ist die Karte zu den Kraftwerken Kompatibel, die bie Fermi mitgeliefert werden?
 
Bei hohen auflösungen und viel AA und AF limitiert die Bandbreite nicht mehr so..
?

Anderst herum wird ein Schuh draus;)


Je weniger Daten "geschaufelt" werden müssen um so besser

Mit zunehmender Auflösung steigt auch der Vram Verbrauch an,was zum öffteren Auslagern u zur Belastung des PCIe Slots führt
 
Zuletzt bearbeitet:
Je mehr die Grafikkarte zu berechnen hat (hohe auflösung viel aa und af)
desto weniger bilder pro sekunde kann sie berechnen, und damit werden auch nur weniger Bilder über den PCIe bus geschaufelt.

Ist wie beim CPU Limit bei hohen Auflösungen.

;)
 
Je mehr die Grafikkarte zu berechnen hat (hohe auflösung viel aa und af)
desto weniger bilder pro sekunde kann sie berechnen, und damit werden auch nur weniger Bilder über den PCIe bus geschaufelt.

;)

:confused::confused:


Was hat die Bildausgabe mit der Datenflut am PCie Slot zu tun:wink:
 
Zuletzt bearbeitet:
Bei hohen auflösungen und viel AA und AF limitiert die Bandbreite nicht mehr so..

Ähm eine Frage: Gibt es das Atomkraftwerk dann extra zu kaufen, oder ist die Karte zu den Kraftwerken Kompatibel, die bie Fermi mitgeliefert werden?


Bekommst dann ein Windrad dazu, dat kannst dir dann in den Garten stellen :-)
 
hehe stimmt

Stell dir vor 1920x1440 pixel mal 100 bilder pro sekunde sind 276480000 Daten pro sekunde (gaaaanz stark vereinfacht ohne Farbtiefe und sowas)

und jetzt stell dir vor 1920x1440 bei 60 Bilder pro sekunde (wegen viel AA und AF)
sind 82944000 Daten pro sekunde

Du siehst bei hohen auflösungen und viel aa und af wird weniger bandbreite benötigt...oder?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh