AMD Radeon HD 6970 - alle technischen Daten (Update 2)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Stalker CoP
Metro2033
und wie gesagt Crysis

Da ist noch kein Spiel von 2011 dabei, aber es werden einige kommen. Viele spielen halt gerne auf max. Qualität mit 60FPS im Schnitt

Alles Shooter! Alle schlecht programmiert imho.

Ich meine Crysis kam 2007 raus und läuft mit max Settings immer noch nicht richtig super flüssig und wir haben mittlerweile 3 weitere Gens an Grakas dazwischen. Wenn die Entwickler mal mehr Zeit in die Optimierung stecken würden, dann würden wir auch bei solchen Spielen nicht so hohe Anforderungen haben.

Hätte die PS3 und XBox ne 5870 drinne, dann würden die Spiele jetzt warscheinlich schon in einer anderen Liga spielen.

So jetzt aber zurück zum Thema...

Ich denke wir sollten bis Mittwoch warten, auf die offiziellen Tests. Was noch interessant wäre, wie sich eine OC 6970 gegen eine OC 580GTX schlagen wird.
 
Zuletzt bearbeitet:
Die Benchmarks bisher sind doch eindeutig. Die Tesselation Leistung für directx11 wurde deutlich erhöht. Das war doch das einzige, was bei der 5870 nicht optimal war. Bei directx9 Spielen gab es nicht viel zu tun, da waren die AMD Karten eh deutlich effizienter. Dort ist der Leistungsgewinn auch nicht zwingend erforderlich. Schwieriger wirds halt wenn die Effizienz darunter gelitten hat.

Wenn harry97 den Verbrauch vergleichen könnte, das wäre super :wink:
 
für ein jahr sind eben 25% nicht die welt,die ati 4870 war ca. 60% schneller als die ati 3870,die 5870 auch um die 60% wie die 4870...jetzt haben wir nur 25%!ist ja okay,wem es reicht und wem es gefällt,ist okay...nur bitte wo platziert sich nun eine 6950,die soll ja auch um die 300-350€,dafür das die dann evtl. 10-15% mehr power hat als eine 200€ 6870 gpu bissel schwach!
[/QUOTE

Mich wundert warum du dich an den Jahreszahlen aufhängst.
Es wurde doch schon oft genug erwähnt, dass es immernoch der 40nm Prozess ist und wenn man eben da nix verkleinert, dann wird wohl bei schnelleren Karten zwangsläufig auch die effizienz schlechter werden, was ich bei der HD6950 allerdings nicht erwarte, bei der HD6970 allerdings leider schon.

Zu HD3870 zu HD4870.
Ja gleicher Fertigungsprozess, aber wie groß war nochmal der Chip der HD3870 im Vergleich zu jetzigen Chipgrößen?

Die HD6950 platziert sich 20% über einer HD6870, wie im Amd´schen Diagramm abzulesen ist.(6950 20 percent above GTX470), was soviel heißt wie 20% schneller als HD6870 und 10% schneller als HD5870.

Was soviel heißt, dass die Karte 5 bis10% langsamer als die GTX570 wird und sich nach derzeitiger Marktlage bei etwa 280 bis 300 Euro platziert, die GTX570 kostet derzeit lieferbar um die 340.

Was soll daran denn nun schwach sein?
Die GTX580 ist die unnützeste Karte überhaupt derzeit und nur 10 bis 18% flotter als die GTX570, aber fast 150 Euro teurer (lieferbar).
Die Karte die es zu schlagen gilt ist die GTX570 und das mit einem deutlich kleineren Chip und wahrscheinlich auch etwas schlechterem Kühlkonstrukt.
Dafür ist das P/L wieder besser.
Mal sehen, vieleicht schafft es AMD ja die Karten einigermaßen leise zu kühlen. ( ich ahne aber schlechteres)



Wo steht der Marktpreis denn letztendlich? Genau, weißt du nicht.
AMD ist mit dieser Situation nach wie vor sehr gut am Markt aufgestellt und platziert die Karten leistungsmäßig zwischen den Karten von Nvidia um einen stärkeren Preiskampf zu verhindern.

die 350€ hatte mal ein shop gelistet,deine 280-300€ sind aber auch zuviel für 20% mehr leistung als bei der 6870,diese kostet immerhin nur 200€!die ersten gtx 570 kosteten nur 315€!wenn für mich persönlich der leistungsgewinn im vgl. zu den letzten highend karten von amd (5800) zu gering ist,ist das meine meinung,diese müßt ihr auch akzeptieren,ob ihr die evtl. prognostizierten +25% okay findet,ist wiederum eure sache,diese muß auch ich hinnehmen,aber ich persönlich finde den zuwachs eben nicht beeindruckend!
 
@ColeTrickle

Für eine endgültige Beurteilung muss man finale Reviews abwarten. Es zählt auch das Gesamtpaket, nicht nur die reine Leistung.
 
da hast du recht,deswegen habe ich mir auch nie eine gtx 480 geholt.aber highend brauch immer auch mehr input als midrange usw...was mich an der gtx 470/480 gestört hat,hat nv bei der gtx 570/580 soweit es geht behoben,dass diese karten not perfect sind ist mir auch klar.
auch rede ich die 6970 nicht schlecht,ich sagte nur,wenn im schnitt nur 25% mehr leistung rausspringen im vgl. zur 5870 ist sie für mich persönlich nicht gut,da kann sie von mir aus auch nur 25% mehr strom brauchen wie eine 5870...aber wenn man das gesamtpaket betrachtet,hatte amd/ati immer nur den vorteil der effizienz,mehr nicht.alles anderen features wie physx und 3d liegen immernoch bei nv,ati verspricht seit jahren hier endlich aufzuholen durch z.b. offene standards,bisher ist noch nicht viel bei rausgekommen.
 
Wenn harry97 den Verbrauch vergleichen könnte
Gestern hatte er leider keinen Verbrauchsmesser. Ich hoffe das ändert sich heute^^.

Was euch aber veraten kann sind die anliegenden Voltages seiner HD6970:

- IDLE 0,90V
- LAST 1,175V

:wink:

---------- Beitrag hinzugefügt um 13:20 ---------- Vorheriger Beitrag war um 13:19 ----------

AMD´s HD6xxx laufen jetzt übrigens Standardmäßig mt HighQ, was mehr Bildqualität bietet als der standard bei den HD58xx mit damaligem Treiber.
Kann ich NICHT bestätigen...
 
Also AF genauso schlecht wie bei der 6870, danke für die Info :)

öhm, 1,175V find ich hoch.
 
Zuletzt bearbeitet von einem Moderator:
also y€€h@ hat ja irgendwo schon angedeutet das es mehr als 10% Leistungsgewinn sind, und das die neuen Karten einiges besser machen sollen als die Vorgänger.

Reine Spekulation:
Wenn ich das mit dem Schalter zur Aufhebung der OC Sperre betrachte könnte man meinen das AMD zugunsten des Verbrauchs auf eine Art "Überkarte" verzichtet hat und das Ding sich als OC Wunder entpuppt.
Dazu interessieren mich max. fps herzlich wenig... Anscheinend hat AMD die min. fps verbessert genauso scheinen die Frameverläufe deutlich sauberer, geschmeidiger zu sein wenn ich z.B. Resident Evil dahingehend betrachte. Auch kann man hoffen das der Verbrauch unter Multimonitor besser geworden ist.

Meinetwegen muss die Karte nicht schneller als eine GTX 580 sein. Dann sollen sich halt die Leute die sich selber in die "Enthusiastenklasse" erhoben haben eine kaufen und gut ist.
Es gibt eben Prioritäten: Manche setzen auf Teufel komm raus auf pure Leistung - komme was wolle. Andere gucken auf das Gesamtpaket und ob Features dabei sind, welche sinnvoll sind und ob man sie nutzt.

@ColeTrickle
Dein Einwand bzgl Offene Standards: Ich weiß ja nicht was du glaubst wie das funktioniert, aber man kann sowas nicht innerhalb von einem Jahr machen. :rolleyes: Dazu müsste es auch erstmal Spieleschmieden geben die auch mitmachen und zwar wäre es mit Mehrarbeit verbunden. Man sieht ja schon wie unattraktiv nvidia PhysX bei den Entwicklern ist, trotz Unterstützung durch nvidia, sei es durch SDKs, Dokumentationen, Mitarbeitern oder liquiden Mitteln.
3D Steckt sowieso noch in den Kinderfüßen, da muss es auch erstmal richtig brauchbare Geräte geben und nicht die paar Hand voll die es zur Zeit so gibt.
 
Zuletzt bearbeitet:
Meinetwegen muss die Karte nicht schneller als eine GTX 580 sein. Dann sollen sich halt die Leute die sich selber in die "Enthusiastenklasse" erhoben haben eine kaufen und gut ist.
Es gibt eben Prioritäten: Manche setzen auf Teufel komm raus auf pure Leistung - komme was wolle. Andere gucken auf das Gesamtpaket und ob Features dabei sind, welche sinnvoll sind und ob man sie nutzt.

kann man so unterschreiben.
 
Die Karte wird kein OC-Wunder sein, garantiert nicht.
Der Launch hat sich verzögert, weil die Leistung nicht da war. Jetzt haben sie die Spannung auf 1.175 geballert, was sehr hoch ist, um etwas aufholen zu können. Noch mehr Spannung wird nicht mehr viele Mhz bringen, da bin ich überzeugt von.
 
Die Karte wird kein OC-Wunder sein, garantiert nicht.
Der Launch hat sich verzögert, weil die Leistung nicht da war. Jetzt haben sie die Spannung auf 1.175 geballert, was sehr hoch ist, um etwas aufholen zu können. Noch mehr Spannung wird nicht mehr viele Mhz bringen, da bin ich überzeugt von.
Das muss sich erst noch zeigen bis man auf 580 verbrauch kommt ginge da noch sehr viel.
 
Wo war nochmal der Danke Knopf? Den beiden Jungs gehört echt ein dickes Dankeschön. Die kommen vor lauter Benchen nichtmal zum Zocken :coolblue:
 
also y€€h@ hat ja irgendwo schon angedeutet das es mehr als 10% Leistungsgewinn sind, und das die neuen Karten einiges besser machen sollen als die Vorgänger.

Reine Spekulation:
Wenn ich das mit dem Schalter zur Aufhebung der OC Sperre betrachte könnte man meinen das AMD zugunsten des Verbrauchs auf eine Art "Überkarte" verzichtet hat und das Ding sich als OC Wunder entpuppt.
Dazu interessieren mich max. fps herzlich wenig... Anscheinend hat AMD die min. fps verbessert genauso scheinen die Frameverläufe deutlich sauberer, geschmeidiger zu sein wenn ich z.B. Resident Evil dahingehend betrachte. Auch kann man hoffen das der Verbrauch unter Multimonitor besser geworden ist.

Meinetwegen muss die Karte nicht schneller als eine GTX 580 sein. Dann sollen sich halt die Leute die sich selber in die "Enthusiastenklasse" erhoben haben eine kaufen und gut ist.
Es gibt eben Prioritäten: Manche setzen auf Teufel komm raus auf pure Leistung - komme was wolle. Andere gucken auf das Gesamtpaket und ob Features dabei sind, welche sinnvoll sind und ob man sie nutzt.

@ColeTrickle
Dein Einwand bzgl Offene Standards: Ich weiß ja nicht was du glaubst wie das funktioniert, aber man kann sowas nicht innerhalb von einem Jahr machen. :rolleyes: Dazu müsste es auch erstmal Spieleschmieden geben die auch mitmachen und zwar wäre es mit Mehrarbeit verbunden. Man sieht ja schon wie unattraktiv nvidia PhysX bei den Entwicklern ist, trotz Unterstützung durch nvidia, sei es durch SDKs, Dokumentationen, Mitarbeitern oder liquiden Mitteln.
3D Steckt sowieso noch in den Kinderfüßen, da muss es auch erstmal richtig brauchbare Geräte geben und nicht die paar Hand voll die es zur Zeit so gibt.

Ein Jahr...hmm ATI sagt so was schon mindestens 3 Jahre,wenn nicht mehr,das wurd schon erwähnt als ich mir eine 9800GTX gekauft habe!
3D wird doch schon normal unterstützt,egal ob es nun 4 oder 10 Hersteller gibt,Monitore gibt es!
Was ich aber immer bei ATI loben muß,das man per HDMI auch HD Master Sound übertragen kann,das ist für mich ein sehr wichtiges Feature!
 
Zuletzt bearbeitet:
Wenn die Spannung jetzt schonmal angesprochen wurde, würde ich mich auch über einen Test zum OC-Verhalten freuen, genauso wie Oliver :)
 
@Kalmar
@meckswell

Danke für eure Antwort, also so ähnlich wie meine Plait 4870 ;) Das hatte die auch ^^
 
Also PCGH-Marc hat ja gestern durchblicken lassen,das ATI auch nur mit Wasser kocht was Leistung in Bezug zu Input angeht,was für mich bedeutet,dass eben der Stromverbrauch sicherlich auch in die Richtung der GTX 570/580 geht!
 
@ColeTrickle

moin, du vergisst den besseren multimonitorsupport bei amd:wink:, aber schauen wir mal was am 15.12. dann wirklich rauskommt.

MfG

PS: aus welchem Grund sollte man in PhysX investieren, wenn es doch eigentlich auf der GPU nahezu nirgends eingesetzt wird und mittlerweile eine offene Schnittstelle in DX11 existiert? Klar wird diese nicht von jetzt auf gleich genutzt werden, das sollte jedem klar sein, aber es ist für die Spieleentwickler mittelfristig interessanter diese zu nutzen, da hier die gesamte Zielgruppe (Beleg dafür ist das PhysX ja sogar relativ oft eingesetzt wird, aber eben nicht über die GPU sondern über die CPU) einen Vorteil davon hat. Man stelle sich mal vor es gäbe neben Physx noch eine geschlossene Physikengine@GPU die dann miteinander konkurrieren würden und ich als user dann immer das Problem habe "ich würde das game ja gern Zocken mit allen Effekten nur geht das nicht, weil ich gerade die verkehrte Graka im Rechner habe bzw. das game gerade die engine einsetzt die meine Graka nicht unterstützt". Solche geschlossenen Systeme sind eigentlich immer schlecht für den Endverbraucher in vielerlei Hinsicht nur das verstehen viele Fanboys, egal von welcher seite, einfach nicht, aber das ist nur meine bescheidene Meinung.:wink:
 
Zuletzt bearbeitet:
Offen ist immer besser,ist ja klar,auch das nV sich gerne einkauft usw. ist klar...ist schlecht und gut,schelcht weil es eig. Wettbewerbsverzerrung ist und gut,weil so die Pc Community zumindest bei einigen Games Vorteile hat zu Konsolen Games.Gerade Batman hat durch PhysX viel interessanter ausgesehen,auch Mafia2...auchw enn man hier zumindest teiwleise PhysX aufd er CPU mitberechnen lassen konnte!

Multimonitoring interessiert mich persönlich nicht,da ich eh glaube das selbst eine 6970 nicht genug Power hat anspruchsvolle Games dann noch flüssig darzustellen.Da brauch man halt mehrere GPU's,also CF,SLI oder was weis ich,dann geht es ja auch bei nV,wenn ich mich nicht irre!
 
@ColeTrickle

moin, du vergisst den besseren multimonitorsupport bei amd:wink:, aber schauen wir mal was am 15.12. dann wirklich rauskommt.

MfG

PS: aus welchem Grund sollte man in PhysX investieren, wenn es doch eigentlich auf der GPU nahezu nirgends eingesetzt wird und mittlerweile eine offene Schnittstelle in DX11 existiert?

Es gibt KEINE Physicsengine in DX11 und das war auch niemals so angekündigt.
Es gibt Direct Compute und OpenCL womit man dann eine PhysicsEngine drumherum bauen kann, aber es gibt KEINE PhysicsEngine als Standard.

Es gibt aber eine OpenSource PhysicsEngine namens Bullet, die auch von AMD unterstützt wird und seit dem 22. September gibt es da auch eine Version die bereits Effekte auf der GPU berechnen kann.
Es ist also nicht richtig, dass sich da nichts getan hat.
 
@wosch666, da hast du wohl recht, hab mich nicht sauber ausgedrückt:(
MfG

PS: werden nicht im 3dmark11 auch schon über die DX11 Schnittstelle Physikeffekte dargestellt, ist zwar kein game, aber ich denke es kommt langsam Bewegung in diese Geschichte
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh