In der Redaktion eingetroffen: PowerColor Radeon HD 6870X2

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.137
<p><img src="images/stories/logos/powercolor.jpg" width="100" height="100" alt="powercolor" style="float: left; margin: 10px;" />Nach der Ankündigung vor gut zwei Wochen ist es nun soweit. Die PowerColor Radeon HD 6870X2 ist bei uns eingetroffen und wird in den kommenden Tagen zeigen müssen, ob sie mehr als nur eine Machbarkeitsstudie ist. Auf der PowerColor HD6870X2 kommen zwei vollwertige Barts-XT-GPUs zum Einsatz. Dies betrifft nicht nur den Ausbau der Shader-Prozessoren mit 2x 224 im 5D-Design, sondern auch den Takt von 900 MHz. Pro GPU stehen 1024 MB GDDR5-Grafikspeicher zur Verfügung, die mit 1050 MHz arbeiten. Gekühlt wird die HD6870X2 mit Hilfe der sogenannten "Heat Pipe Direct Touch (HDT)" Technologie. Pro GPU liegen drei Heatpipes direkt auf der GPU und transportieren die...<p><a href="/index.php?option=com_content&view=article&id=19140&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So ziemlich genau HD 6870 + 70% im Schnitt, also in etwa 20% mehr als ne GTX 580.
Abzüglich des viel zu geringen V-rams und der µruckler wirds over all für die Karte nur für ein winzig kleines Nischendasein reichen.

Man kann auch negativ behaupten die Karte ist mit den Specs Müll.
 
Wieso soll die die Müll sein, für Full HD reicht der Ram allemal.

Hast du denn überhaupt schon mal zwei Grakas gehabt im CF oder SLI um immer so über die Microruckler urteilen zu können?
 
Soviel Leistung mag gut sein, aber selbst zwei HD5770 im CF-Gespann hatten hässliche Microruckler, die mich von Anfang an gestört haben! Aber wozu soviel Leistung überhaupt?
 
Tja, ich hab im Moment 2 6870er und die laufen "Bombe" .Laufen beide mit 915/1150 @ 1.075v statt 1,175v. Viel Power, wenig Verbrauch !!!
 
Hast du denn überhaupt schon mal zwei Grakas gehabt im CF oder SLI um immer so über die Microruckler urteilen zu können?


Muss man nicht, dafür gibt's Messwerte.
Single-GPU fps sind halt einfach flüssiger als Multi-GPU fps, speziell was AMD angeht.
Auf Computerbase wird das immer sehr ausgiebig und anschaulich erklärt, hier leider einfach übergangen.
 
Muss man nicht, dafür gibt's Messwerte.
Single-GPU fps sind halt einfach flüssiger als Multi-GPU fps, speziell was AMD angeht.
Auf Computerbase wird das immer sehr ausgiebig und anschaulich erklärt, hier leider einfach übergangen.

Messwerte sagen dort Null Komma gar nix aus... Denn MR sind subjektives Empfinden. Der eine merkts, der andere nicht... Pauschalaussagen zu treffen ist da leider nicht. Selbst testen ist angesagt ;)
 
Muss man nicht, dafür gibt's Messwerte.
Single-GPU fps sind halt einfach flüssiger als Multi-GPU fps, speziell was AMD angeht.
Auf Computerbase wird das immer sehr ausgiebig und anschaulich erklärt, hier leider einfach übergangen.

"Wenn mann keine Ahnung hat, einfach mal die Fresse halten..." Das ist der Einige Satz der zu deiner Aussage passt.
 
Witzigerweise berichten ja eh die wenigsten User die selbst mal ein MultiGPU-System besessen haben, von Mikrorucklern. Wohingegen diejenigen, die am lautesten schreien, meist nur in der "Theorie" (vom Tests lesen halt) "wissen", dass das Mikrorucklerproblem ganz fürchterbar ist und man deshalb niemals ein MultiGPU-System kaufen sollte. Deshalb haben sie natürlich auch noch nie selber eins gehabt, um sich mal selbst ein Bild zu machen.

Aber um mal beim Thema zu bleiben... an sich gar nicht so eine uninteressante Karte. 2 6870er Chips bringen schon ordentlich Leistung, ein vRAM-Problem sehe ich bei der durchschnittlichen 1920er Auflösung auch noch nicht wirklich. Wobei natürlich immer noch die Frage nach dem Preis bleibt und da die Karte ja was "besonderes" ist, vermute ich fast mal, dass der weniger attraktiv werden wird.
 
Aber um mal beim Thema zu bleiben... an sich gar nicht so eine uninteressante Karte. 2 6870er Chips bringen schon ordentlich Leistung, ein vRAM-Problem sehe ich bei der durchschnittlichen 1920er Auflösung auch noch nicht wirklich. Wobei natürlich immer noch die Frage nach dem Preis bleibt und da die Karte ja was "besonderes" ist, vermute ich fast mal, dass der weniger attraktiv werden wird.

Neja das ist so ne Sache... Man kauft ja die Karten auch etwas für die Zukunft. Jetzt wo AMD das 2GB Zeitalter eingeleutet hat, könnte es schnell eng werden mit dem VRAM... Ähnlich damals der HD4870 512MB... Von der Leistung her war das Teil voll OK. Aber zunehmend kämpfte man mit Nachladerucklern.
In einem CF System ist das gleich noch etwas schlimmer... Weil die GPUs bei CF Unterstützung dann doch noch für ganz paar Monate genügend Luft haben um oben mitzumischen.


Zum Thema MR. Ja das ist mir auch schon aufgefallen... Die meisten plappern nur Mist nach ;)
Und viel schlimmer finde ich, das man NV immer als Allerheilmittelfirma hinstellt... Dort sind MR wenn sie auffallen genau so schlimm ;) Sehe ich zumindest mit meinem 470GTX SLI so...
 
Gut da hast du natürlich auch wieder Recht, dass zukünftige Games auch freizügigeren Gebrauch vom vRAM machen könnten. Und das ist wohl wirklich sehr ärgerlich, wenn man viel Geld für eine DualGPU Lösung mit guter Leistung ausgibt und dann im vRAM-Limit festhängt :fresse:
 
"Wenn mann keine Ahnung hat, einfach mal die Fresse halten..." Das ist der Einige Satz der zu deiner Aussage passt.

Ich hab selber damals die frametimes meiner GX2 aufgezeichnet und heutzutage sieht's oftmals noch genauso aus.

Wenn bei 30fps die Bilder abwechselnd mit 50ms (entspricht 20fps) und 25ms(entspricht 40fps) ausgegeben werden fühlt sich das halt langsamer an, als wenn gleichmäßig alle 33ms ein Bild ausgegeben wird, was ECHTEN 30fps entspricht.

Leider wollen/können viele das nicht nachvollziehen. :shake:
Manche glauben ja auch immer noch man müsste richtige "Ruckler" sehen.
Sehen sie nicht, also gibt's keine Mikroruckler. :stupid:
 
Zuletzt bearbeitet:
Bla Bla, Microruckler. Die hatte ich auch bei ner Single Karte und die war auch noch von Nvidia.
Meine 8800 GTS bei CoD4, trotzdem war ich mit der Karte zufrieden. Aber Cod war unspielbar da ich Microruckler noch schlimmer finde als gelegentlich Nachladeruckler. Zielen und Movement ging mit dem Microrucklern gar nicht klar aber wenigstens haben Modern Warfare Games bei mir Null Priorität.

Schön aber selber erlebt zu haben das ich diese Mikroruckler auf einer ansonsten 1A laufenden Nvidia Karte hatte.
 
Zuletzt bearbeitet:
Gut das hier 2 Leute die Ahnung haben auch meiner Meinung sind ;)
Erst selber testen und dann über MR mecker oder halt auch nicht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh