[Hardwareluxx Review]: AMD Radeon HD 7970

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
hängt euch halt nicht so an den 500€ UVP auf... die Preise werden sich sicherlich noch in den ersten Wochen, wie immer, merklich nach unten bewegen.

Insgesamt ist der Performancegewinn schon OK, man muss ja hier die Vorgängerversion von AMD betrachten. Die GTX580 wird ganz klar in allen Bereichen geschlagen und vom High-End Kepler ist noch nicht mal weit weit am Horizont irgendetwas zu entdecken.

Könnte mal seit langer Zeit wieder meine erste AMD Karte werden, wenn ich mich dazu durchringe mein GTX470 in Rente zu schicken.

Dito, davon mal abgesehen das es eine neue Architektur ist die mit dem ein oder anderen Treiberupdate sicherlich noch bissle mehr Schwung kriegt.

Noch was zu den Shadern weil ich auf diversen Seiten so "intelligente" Sprüche gelesen habe wie "Boah 2048 Shader und die kommen nur so nen Stück von den 512 der GTX 580 weg?"

Die Shader der HD7970 laufen nur @Coretakt 1:1 mit... wäre allerdings echt mal interessant wenn AMD das mal ändern würde / zulassen würde das zu ändern :coolblue:
 
schoene karte.

die 7-12 mehr fps zur gtx580 lohnen sich imo aber nicht fuer einen wechsel bei 19x12 + high quali settings.

generell, hab mir mehr leistung erhofft.

weiter warten, kein wechsel noetig. :s
 
Zuletzt bearbeitet:
nette karte,
mit mehr spannung und unlocked bios könnten da mit oc 30% mehr takt drinne sein ^^

mal schaun ob die 7950 die neue 5850 wird :)
 
Zuletzt bearbeitet:
achso, mir gefällt der Test wirklich gut. Die spieleauswahl könnte evtl. mal überarbeitet werden.
 
macht ja keinen Sinn und MSAA juckt doch keinen Menschen mehr bei der heutigen Konsolenpampe.
Was willste testen ein openGL Game mit trssaa oder ein DX10/11 Spiel mit MSAA..völlig sinnfrei bei der Ausgangsposition.
 
Zuletzt bearbeitet:
@Don
hab ihr das auch gesehen oder mal nachgestellt?
mit der elendigen AF flimmerei
Test: AMD Radeon HD 7970 (Seite 6) - ComputerBase

Nein in der Form nicht. Aber:

... aber auch in Spielen haben wir die Bildqualität versucht zu beurteilen.

Unser erster Eindruck bestätigt dies und so werden wir für die Radeon-HD-7900-Serie zukünftig wieder zu den Standard-Settings zurückkehren.

Ja, es ist besser geworden. Nein, ein leichtes Flimmern ist immer noch festzustellen, was aber stark vom Game abhängt.
 
schoene karte.

die 7-12 mehr fps zur gtx580 lohnen sich imo aber nicht fuer einen wechsel bei 19x12 + high quali settings.

generell, hab mir mehr leistung erhofft.

weiter warten, kein wechsel noetig. :s

Na ein Umstieg von deinem Setup ausgehend oder auch Besitzer die nur Eine GTX580 besitzen würde ich eh abraten. Die Karte ist für User interessant die ein HD 68XX oder langsamer nutzen oder wie ich noch eine HD 5870.
 
Eine geniale Karte, das was ich mir erhofft habe. Meine 5870 kann in Rente. Jetzt ein IPS 120Hz Panel und ich wär rundum glücklich.

Prinzipiell ließe sich jetzt auch die Onboard GPU nutzen und die GraKa mit der neuen Technik abschalten. Hoffe das wird in absehbarer Zeit implementiert.
 
Nein in der Form nicht. Aber:



Ja, es ist besser geworden. Nein, ein leichtes Flimmern ist immer noch festzustellen, was aber stark vom Game abhängt.

versteh ich nicht...CB testet ja sogar dagegen mit NV standard...das AF Tester Bild sagte doch was ganz anderes..ist das AF HQ fest verankert oder kann man das einstellen wie bei NV die 3 Optimierungen?
 
versteh ich nicht...CB testet ja sogar dagegen mit NV standard...das AF Tester Bild sagte doch was ganz anderes..ist das AF HQ fest verankert oder kann man das einstellen wie bei NV die 3 Optimierungen?

Den Satz verstehe ich nicht. Aber ich versuche es mal:

Der AF-Filter der Cayman-Architektur war derart schwach, dass wir bei den Benchmarks die Einstellung "Hohe Qualität" wählten und gegen Standard bei NVIDIA-Karten verglichen. Mit Tahiti können wir für beide AF-Filter unserer Meinung die Standard-Einstellungen nehmen.
 
Das selbe hab ich auch zu bemängeln: wo bleiben neue Games im Test wie BF3, Skyrim, Batman: Arkham City, Crysis 2?
Die alten Games sind nicht mehr Zeitgemäß um aktuelle Karten zu testen.

Dazu habe ich mich schon mehrfach geäußert - auch hier im Thread.
 
Den Satz verstehe ich nicht. Aber ich versuche es mal:

Der AF-Filter der Cayman-Architektur war derart schwach, dass wir bei den Benchmarks die Einstellung "Hohe Qualität" wählten und gegen Standard bei NVIDIA-Karten verglichen. Mit Tahiti können wir für beide AF-Filter unserer Meinung die Standard-Einstellungen nehmen.

Es gab doch ein 3DC AF Tester Bild da sah man doch null Unterschied zu NVs HQ..

"In Skyrim sieht allerdings der neue HQ-Modus, anders als in Half-Life 2 und Serious Sam 3, schlechter aus als der Standard-Modus, da das Flimmern minimal stärker auftritt. So bestätigt das Spiel unseren Eindruck vom 3DC Filter Texter, der mit HQ mehr flimmert als dem der Defaulteinstellung. Die dort sichtbare Unschärfe können wir dagegen in keinem Spiel erkennen."

Das ist doch wieder AI gemauschel..die lernen das nie mehr..
 
Den Satz verstehe ich nicht. Aber ich versuche es mal:

Der AF-Filter der Cayman-Architektur war derart schwach, dass wir bei den Benchmarks die Einstellung "Hohe Qualität" wählten und gegen Standard bei NVIDIA-Karten verglichen. Mit Tahiti können wir für beide AF-Filter unserer Meinung die Standard-Einstellungen nehmen.

Es ist dasselbe wie bei Cayman. HQ ist nicht durchgehend wirklich besser als Q, kostet aber mehr Leistung.

Von daher geht das Testen mit Q in Ordnung, unter der Prämisse, dass weiterhin auf das Flimmern hingewiesen wird. Es kann nicht sein, dass man bei 500 Euro für eine Karte in Spiel A Glück hat und es nur wenig flimmert und in Spiel B nicht...

@mayer2:
Sehe ich auch so. Das bleibt jetzt auf diesem Niveau bis irgendeine völlig neue Technologie kommt. Jetzt wäre die Chance gewesen, ein für allemal richtig aufzuräumen damit. Mit Axel Gneiting hatten sie auch fähige Beratung. Aber es hat nicht sollen sein.
 
Zuletzt bearbeitet:
jo, dann hat wohl Coda recht mit der AMD Berechnung in AF das dies in HQ Bandbreite und Leistung frist wie ich Gummibärchen :-)
500€ soll das Ding kosten? Ach du lieber Gott...kein DS, kein AAA in allen DXen, flimmer Af in HQ...hoffendlich läst sich NV Zeit mit Kepler sonst zahlen wir da 800 Ocken und mehr.
 
Zuletzt bearbeitet:
Von daher geht das Testen mit Q in Ordnung, unter der Prämisse, dass weiterhin auf das Flimmern hingewiesen wird. Es kann nicht sein, dass man bei 500 Euro für eine Karte in Spiel A Glück hat und es nur wenig flimmert und in Spiel B nicht...

Das sehen wir auch so. Ich wollte nur erst einmal klar machen, welche Ausgangskriterien für die Benchmarks anliegen.
 
Zuletzt bearbeitet:
Die Shader der HD7970 laufen nur @Coretakt 1:1 mit... wäre allerdings echt mal interessant wenn AMD das mal ändern würde / zulassen würde das zu ändern
Wieso? Das hängt doch von der Architektur ab. Und Nvidia hat nunmal eine längere Pipeline. Daher können sie auch höhere Taktraten fahren. Dafür setzt AMD auf Vektor-ALUs, deren Vorteil eben die Breite und weniger der Takt ist. Sind halt zwei verschiedene Ansätze. Da gibt's nix zu ändern.


Ich finde die Spannung von 1,179 Volt doch recht hoch für 28 nanometer.
Das schreibt ja auch HT4U. Deutet auf eher moderate Yields bei TSMC hin. Da sollte in Zukunft noch was gehen bezüglich Leistungsaufnahme. Mal schauen, wie viel Spannung die kleineren Modelle brauchen.


Irgendwie enttäuschend, also doch nur ein Die-Shrink?
Nein, gewiss nicht. Schon mal den Aufbau der Architektur genau angeschaut? Man sollte nur nicht dem Irrglauben unterliegen, dass die Spieleperformance 1:1 mit den Shadern skaliert. ZB von HD 4870 zu HD 5870 hat man die Anzahl der Shader verdoppelt. Gab es deshalb auch doppelte Spieleperformance? Nein. Der Gewinn lag eher bei 60-80%. Am besten kann man die Shader immer noch anhand von GPGPU beurteilen, wie im Lux Render Test auf HT4U. Mit einem Drittel mehr Shader und ~5% mehr Takt gibt es ~52% mehr Performance. Die Shader arbeiten hier also ~10% effizienter als zuvor.
 
scully, wo sind eigentlich nun die 1D Einheiten?

CB schreibt zum Beispiel:
CB schrieb:
Ein einzelner Shadercluster auf GCN, Compute Unit (CU) genannt, ist theoretisch exakt so leistungsstark wie eine SIMD-Einheit auf Cayman (HD 6970) und kann 64 MADDs (Multiply-ADD) pro Takt berechnen. Jedoch werden die einzelnen ALUs anders mit Daten versorgt. Jede CU setzt sich unter anderem aus vier Vektor-Einheiten zusammen, die wiederum vier einzelne SIMD-Einheiten mit 16 ALUs (64 ALUs pro CU) tragen. Jede SIMD kann eine „Betriebsart“ an Shadern (Pixel-, Vertex-, Geometry-, Computeshader) gleichzeitig berechnen, wodurch es nun eine Art „Betriebsart-Limitierung“ bei GCN gibt, die aber recht problemlos sein soll.

sowie:
CB schrieb:
Eine skalare Co-Einheit sorgt dafür, dass die Vektoreinheiten nicht von entsprechenden Berechnungen ausgebremst werden. Es ist zusätzlich eine „Branch & Message Unit“ (Sprungeinheit für Programmverzweigungen) sowie ein Textur-Cluster vorhanden.

;)
 
@Don
Das ist nicht leicht...bei den Konsolengemauschel in DX10/11...mit FXAA oder SMAA oder DS....ihr müßt ja beiden irgendwie gerecht werden und das wird ja seid heute nicht gerade einfacher...
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh