AMD Radeon HD 7970: Benchmarks versprechen bis zu 60 Prozent bessere Performance zur NVIDIA GeForce GTX 580

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
busta.rhymes, danke für die Folien. Wird auf jeden Fall schnellstmöglich gekauft.
 
Bin echt gespannt was die Kosten und ob sie sofort zu haben sein werden zu mindest in geringen stückzahlen.
 
Ka, ich denke alles bis 500€ ist ok. Die GTX580 kostet doch auch noch 400-500€ je nach Modell.
 
Bin mal auf die ersten *realen* Test`s gespannt...und wie lange nVidia (wenn sich das Bewahrheitet) Das Zepter aus der Hand nehmen lässt...:fresse2:...

immer wieder alter Käse^^
30-60% Vorsprung zur GTX580. Gehen wir mal von realen 35-40% aus...
Bei NV wird was von 50% gefaselt von GTX780 zu GTX580. Real?? Weniger wäre eine Enttäuschung. Letztendlich wird NV die Performancekrone für ein paar lächerliche % mehr bekommen.
Was sagt nur die Quali und der Preis? Es wird jedenfalls spannend:asthanos:
 
Zuletzt bearbeitet:
Mal eine bescheidene Frage, warum "muss" die neue Karte eigentlich am besten 100% Mehrleistung haben? Jeder regt sich hier auf, dass es ggf. "nur" 30 % sind... Wo ist das Problem? Ich find auch 30% sehr gut, gerade am Anfang eines neuen Fertigungsprozesses. Ist denn bei anderen Hardware-Generation immer mehr als 30% drin? Ich denke nicht. Genauso finde ich es supi, wenn AMD es geschafft hat, den Stromverbrauch zu drücken (auch wenn der mich persönlich nie gestört hat) und somit weniger Wärme entsteht.

Ansonsten liest sich das alles sehr schön, ich hoffe AMD schafft es seine Ziele zu erfüllen. Aber ich werde nicht von einer 580er umsteigen, weil es leistungstechnisch sinnlos ist und ich nicht den "längsten" haben muss (erklär mir doch mal bitte einer wozu man von einer oder zwei 580er auf die 7970 umsteigen sollte bzw wo das Sinn macht). Aber jedem das seine ;)
 
Mal eine bescheidene Frage, warum "muss" die neue Karte eigentlich am besten 100% Mehrleistung haben? Jeder regt sich hier auf, dass es ggf. "nur" 30 % sind... Wo ist das Problem?

das problem ist das man "früher" einfach mehr für sein geld bekommen hat.

so wie es ausschaut wird die 7970 nicht brachial viel schneller als mein 3 jahre altes hd5850 crossfire.

3dmark 11 extreme hd7970 2743 punkte , mein crossfire 3055 (die 5850 aber mit oc).

zwei solche 5850 gibts gebraucht für zusammen 200€,
die 7970 wird wohl um die 500€ neu kosten.

so ein wechsel ist also nicht unbedingt sooo ökonomisch ( so lange der vram ausreicht )
 
Um deinen Vergleich aber realistisch zu machen musst du den damaligen Neupreis deiner Karten nehmen. Sowie die Tatsache dass du 2 Karten unterbringen musst und die Stromaufnahme höher sein wird als mit der 7970
 
das problem ist das man "früher" einfach mehr für sein geld bekommen hat.

so wie es ausschaut wird die 7970 nicht brachial viel schneller als mein 3 jahre altes hd5850 crossfire.

3dmark 11 extreme hd7970 2743 punkte , mein crossfire 3055 (die 5850 aber mit oc).

zwei solche 5850 gibts gebraucht für zusammen 200€,
die 7970 wird wohl um die 500€ neu kosten.

so ein wechsel ist also nicht unbedingt sooo ökonomisch ( so lange der vram ausreicht )


Moin,

bist Du dir sicher,dass dein Setup aus 2x ATI 5850 3Jahre alt ist?
Die Vorstellung der 5er Serie erfolgte im September 2009!!!

mfg
 
das problem ist das man "früher" einfach mehr für sein geld bekommen hat.

so wie es ausschaut wird die 7970 nicht brachial viel schneller als mein 3 jahre altes hd5850 crossfire.

3dmark 11 extreme hd7970 2743 punkte , mein crossfire 3055 (die 5850 aber mit oc).

zwei solche 5850 gibts gebraucht für zusammen 200€,
die 7970 wird wohl um die 500€ neu kosten.

so ein wechsel ist also nicht unbedingt sooo ökonomisch ( so lange der vram ausreicht )

crossfire suckt aber in Game.
 
Moin,

bist Du dir sicher,dass dein Setup aus 2x ATI 5850 3Jahre alt ist?
Die Vorstellung der 5er Serie erfolgte im September 2009!!!

mfg

Ok dann sinds halt “nur “ 2 jahre und einige monate ;)
 
Immer diese Pfennigfuchser, jeder weiß was gemeint ist.
 
Meine fresse hauptsache das neuste haben (egal ob mans braucht oder nicht) um mit allen anderen mit zu ziehen.
Das bringts auf einen Punkt.

Er kann die Karten immer noch 14 Tage zurückgeben.
Schäm dich!Diese Aussage ist eines Moderator unwürdig!

Und die Unterstellung vom "Gruppenwang" ala mit allen anderen mitziehen ist auch unnötig. Leben und leben lassen.

So ganz verkehrt liegt er ja da nicht.

Klingt nach Neid aber jedem das seine
Hat überhaupt nichts mit Neid zu tun.

Ich warte die ersten Tests ab und hol mir auch 2 aber nur von XFX.

Das glaube ich erst,wenn ich es sehe.



crossfire suckt aber in Game.

Selbst ausprobiert?:rolleyes:
 
Zuletzt bearbeitet:
Hab mal bei nem Kumpel CrossFire auf 2 5770er angezockt... Da suckt gar nix! Nichtmal Mikroruckler hatte der bei unter 30fps! Die Karten haben nahezu linear skaliert und er hatte keinerlei Mikroruckler Probleme. Einziges Problem -> Sein RAM [Nicht vRAM!] war voll, was in einem Freeze resultierte. :fresse2:
Meine HD5870 reicht immernoch dicke für alle Games auf meinem 1680*1050er Bildschirm[Der stammt noch aus HD5670er Zeiten :fresse:]... Warum also wechseln? Außerdem sind solche 2560*1440/1600 Screens meist wirklich sauteuer und riesengroß. Auch wenn das die Königsdisziplin der AMD Karten ist momentan. :d
Sie [7970/7970 CrossFireX] wird erst ab 2560*1440/Eyefinity [5760*1080 und mehr] interessant und wenn man so Schmankerl wie SGSSAA überall fahren will. HWBot Member stellen da allerdings eine Ausnahme dar.. :p
Statt Folien wären mir allerdings auch Tests lieber.
^This -> Meine Meinung zur HD7970.

Morgen gibts hier ja auch dann einen Test online. :)

Edit:
Hab was zum Testsystem. Es gibt 2 Testsysteme
Intel/AMD
i7-3960x [3,3Ghz]/FX-8150 [3,6Ghz]
MSI X79-GD65 8D/Gigabyte 990FXA-UD3
4x4GB 1600 Vengeance CL9/4x2GB 1600 Dominator CL9
Seagate Barracuda 7200.11 (ST3100033AS)
Dell 3007WFP-HC <- Display [Wird wohl ein 30" 2560*1600 sein]
Radeon HD 7970 Press Driver 8.921.2
Catayst 11.11b Performance Driver
nVidia ForcrWare 290.38 Beta
Windows 7 64Bit mit Updates bis 4.2.2011
 
Zuletzt bearbeitet:
Wieso wird nicht auf einem 4 Kerner getestet?

@Lookout
Ich dachte auch Anfangs das Crossfire scheisse sei, weil das immer alle gepredigt haben. Habe es dann einfach mal ausprobiert und bin bis heute positiv überrascht.
Habe bis jetzt in keinem Game Mikroruckler gehabt. Aber ich denke man muss sich auch zu helfen wissen.
 
Zuletzt bearbeitet:
Mal eine bescheidene Frage, warum "muss" die neue Karte eigentlich am besten 100% Mehrleistung haben? Jeder regt sich hier auf, dass es ggf. "nur" 30 % sind... Wo ist das Problem?

Aber ich werde nicht von einer 580er umsteigen, weil es leistungstechnisch sinnlos ist ....
:rolleyes:

Die neuen AMD Karten werden wahrscheinlich die vernünftigere Lösung sein. <3Watt im Idle ist genau der richtige Weg. Wenn jetzt noch die Prozessorhersteller mit den Prozessoren und Chipsätzen das gleiche schaffen, dann wird es eine Herrausforderung für so manches Netzteil. Aber das ist genau das was wir brauchen. Niemand spielt den ganzen Tag, aber Surfen und das der Rechner mal so an ist frisst viel mehr Zeit und Strom.

Der Leistungssprung reisst jetzt aber keine Bäume aus, aber wahscheinlich will man sich noch Reserven für kommende 28nm Karten offen halten. Die Zeiträume zum nächsten Fertigungsprozess werden ja auch immer größer.
 
Zuletzt bearbeitet:
@Bl4d3Runn3r
Jeder nimmt das anders war, die einen sehen es die anderen nicht.

Aber jetzt zurück zum Thema.
 
Wieso wird nicht auf einem 4 Kerner getestet?

@Lookout
Ich dachte auch Anfangs das Crossfire scheisse sei, weil das immer alle gepredigt haben. Habe es dann einfach mal ausprobiert und bin bis heute positiv überrascht.
Habe bis jetzt in keinem Game Mikroruckler gehabt. Aber ich denke man muss sich auch zu helfen wissen.

Der FX-8150 ist ein nativer 4Kerner mit 2 Integereinheiten pro Kern/Modul/Wie auch immer... das scheint aber niemand inklusive Windows zu raffen. Das Ding kann 2 Threads pro Kern/Modul/Wie auch immer... "dank" CMT. Im Grunde nix anderes also wie ein 4Kerner. Alles Marketing.
 
@HWLuxx
Wann können wir morgen mit dem Test rechnen?

@Dark_angel
Einfach nen Framelimiter laufen lassen @60FPS und kein Mensch wird da irgendwas ruckeln sehen. Manche werden sich fragen warum man das mit CF machen sollte, aber eigentlich ist alles über 60FPS unnütz wenn man keinen 120Hz Monitor hat. Also kann man auch auf 60 begrenzen und sich dazu noch an Vsync ohne Inputlag erfreuen.

2x7970 ich komme :)
 
Wir dürfen kein Datum oder eine Uhrzeit nennen.
 
Der FX-8150 ist ein nativer 4Kerner mit 2 Integereinheiten pro Kern/Modul/Wie auch immer... das scheint aber niemand inklusive Windows zu raffen. Das Ding kann 2 Threads pro Kern/Modul/Wie auch immer... "dank" CMT. Im Grunde nix anderes also wie ein 4Kerner. Alles Marketing.

AMD verkauft ihn als 8 kerner, also sollten wir ihn auch so behandeln. ganz einfach. ist aber OT gerade...


zum thema:
allein die tatsache dass die 7970 unter idle mit 3w läuft (was ich nicht glaube- physikalisch kaum machbar) macht sie unheimlich interessant.
wenn die nun auch noch 40-60% vor der gtx580 liegt, bei gleichem lastverbrauch wie die 6970, dann ist sie definitiv gekauft.
 
btw, die gtx580 besitzer kriegen wohl langsam das nervenflattern :fresse:
werden zur zeit nen haufen hier im MP verkauft.
so muss das sein, tut gutes für die wirtschaft!
 
Wenn sie wirklich 40-60% beim selbem Verbrauch der HD6970 schaffen, wäre das der Hammer schlechthin! Noch interessanter wäre es, man würde wieder in Verbrauchsregionen Richtung HD5870 stoßen [knapp unter 200W] Würde die 7970 dann immernoch 40-60% flotter sein... Dann sollte ich mir doch Gedanken dazu machen, meine 5870 wieder zu verkaufen, um mir eine 7970 zu leisten, wenn sich das bezahlen lässt. :fresse:

---------- Beitrag hinzugefügt um 09:22 ---------- Vorheriger Beitrag war um 09:21 ----------

btw, die gtx580 besitzer kriegen wohl langsam das nervenflattern :fresse:
werden zur zeit nen haufen hier im MP verkauft.
so muss das sein, tut gutes für die wirtschaft!

Die gehn nach dem 7970 Test/Release im Wert sicher nen ganzen Schritt nach unten.
 
:rolleyes:

Die neuen AMD Karten werden wahrscheinlich die vernünftigere Lösung sein. <3Watt im Idle ist genau der richtige Weg. Wenn jetzt noch die Prozessorhersteller mit den Prozessoren und Chipsätzen das gleiche schaffen, dann wird es eine Herrausforderung für so manches Netzteil. Aber das ist genau das was wir brauchen. Niemand spielt den ganzen Tag, aber Surfen und das der Rechner mal so an ist frisst viel mehr Zeit und Strom.

Der Leistungssprung reisst jetzt aber keine Bäume aus, aber wahscheinlich will man sich noch Reserven für kommende 28nm Karten offen halten. Die Zeiträume zum nächsten Fertigungsprozess werden ja auch immer größer.


Was soll mir dein Quote sagen? Ich meinten damit, dass ich persönlich fast immer den Wechsel von High-End zu High-End Unsinn finde bzw. Es nur just4fun wäre. In sofern weiß ich nicht warum immer so viel erwartet wird. Zum Thema Strom, weder Idle noch Last interessieren mich sonderlich. Ich nutze meinen Rechner nicht 24/7 daher fällt der Verbrauch nicht so ins Gewicht. Und gerade im Idle, ob nun 3 Watt oder 20 Watt, was kostet ein KW? ;) klar, die Entwicklung ist zu begrüßen, aber mal ehrlich, wie viele Verbraucher im Haushalt verbrauchen zig Watt mehr? Und wie bereits gesagt, wer High-End kauft, weiß i.d.r., dass das Strom braucht.
 
Für mein Multi-Monitor-System kommt eine 7970 wie gerufen. Mit meiner Asus 6970 DCII komme ich bei 5760x1200 bei einigen Games schon an die Grenzen. Mit einer 7970 könnten die Frameraten in einen sicheren, guten Bereich gehoben werden. Die Hoffnung stirbt jedenfalls zuletzt.
 
Klingt vielversprechend, mich interessiert noch mehr die Leistung/Watt. Vielleicht werde ich meien HD 5850 dann ersetzen, bis jetzt scheint sie aber für alles zu reichen zumal mein 22 Zoll Bildschirm nur 1680 x 1050 kann. Wenn die Zahlen stimmen wirds jedenfalls ein Schlag wie ein Hammer für Nvidia, vorrausgesetzt es gibt nicht wieder ein halbes Jahr Lieferschwierigkeiten wie bei der 5000er Serie.
 
@HWLuxx
Wann können wir morgen mit dem Test rechnen?

@Dark_angel
Einfach nen Framelimiter laufen lassen @60FPS und kein Mensch wird da irgendwas ruckeln sehen. Manche werden sich fragen warum man das mit CF machen sollte, aber eigentlich ist alles über 60FPS unnütz wenn man keinen 120Hz Monitor hat. Also kann man auch auf 60 begrenzen und sich dazu noch an Vsync ohne Inputlag erfreuen.

2x7970 ich komme :)

VSync begrenzt die fps doch sowieso auf 60. Allerdings gibts mit Limiter auf 59 trotz VSync nur wenig inputlag
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh