AMD Radeon HD 6970 - alle technischen Daten (Update 2)

Status
Für weitere Antworten geschlossen.
kann mich ehrlich gesagt nicht erinnern,das bei der xbox/ps3 physx aktiv war bei z.b. mafia2 oder batman!

das physx geschlossen ist und wie apple im prinzip eigentlich nur nachteile bietet ist mir doch klar,darum gings auch garnicht bei meiner ersten aussage,finde die idee von ati sowas offen zu machen wie z.b. android ist der richtige weg,nur sagt das eben ati seit jahren und bisher ist für mich den endkonsumenten nichts bei rausgekommen,wenn das noch länger so geht,brauch man sich auch halt nicht wundern,wenn physx irgendwann standard wird,bzw. legitim wird...bei apple ist es ja auch schon fast soweit...da die konkurrenz eben zu lange gebraucht hat!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
PhysX ist die Bibliothek, die u.a. in Mafia II und Batman AA genutzt wird - egal ob CPU oder GPU.
 
eine 5870 ging in der regel schon um 15% zu ocen,ja amd hat evtl. 25% mehr leistung geschaffen,aber bei einer neuen archtiektur und über ein jahr entwicklungszeit,die gtx 580 ist nur eine optimierte gtx 480,das in 3-5 monaten und mit 15% mehr leistung.die letzte neue archtiektur war die gtx 480,diese hat auch ein jahr nach gtx 285 die welt erblickt,war aber ca. 80% schneller als eine 285gtx
Eher 60-70%. 80% nur beim verbesserten 8xAA. Zudem, Äpfel und Birnen ... Die GTX 285 basiert noch auf 55 nm. Klar, dass eine GTX 480 in 40 nm mehr Leistungspotenzial zu bieten hat. Dafür ging ja auch die Leistungsaufnahme gut nach oben. Die HD 5870 hat diese Leistungssteigerung gegenüber der HD 4870/4890 geschafft, ohne die Leistungsaufnahme zu erhöhen. Von GTX 480 zu GTX 580 vergingen zudem 8 Monate und nicht 3-5. Hinzu kommt, dass der GF100 einfach fehldesigned war und somit auch mehr Potenzial für Verbesserungen bot, ohne das Design komplett über den Haufen zu werfen. Der RV870 war von Beginn an "healthy". Da braucht es mehr Gehirnschmalz für Verbesserungen. Auch wenn es die nVidia Verfechter nicht hören wollen, Charlie hatte mal einen interessanten Artikel dazu geschrieben, was nVidia beim Transistordesign verbockt hatte. Diese Probleme konnte AMD mit dem RV740 Testlauf im Vorfeld schon ausräumen. Und genau das war ja auch der Punkt, wo nVidia beim GF110 angesetzt hat. Nicht zu vergessen, NI war ursprünglich in 32 nm geplant. Dass TSMC diesen Prozess über den Haufen geworfen hat, hat AMD sicherlich auch unnötig Zeit gekostet. Also bitte alle Faktoren betrachten und nicht immer so oberflächlich argumentieren.


Danke für den Link. Der Perlin Noise Test war mir auch schon aufgefallen. Guter Beitrag von zerazax.


Hat harry97 eigentlich den Stromverbrauch gemessen? Irgendwie befürchte ich, dass die 6970 einiges verloren hat bezüglich Performance/Watt.
Kommt darauf an, wie man es betrachtet. TGP für die 6970 soll bei 190 W liegen, bei der 5870 liegt sie laut HT4U bei ~150 W. Würde also ~27% mehr bedeuten. Ist die 6970 im Schnitt auch 27% schneller? Das bleibt abzuwarten. Die Frage ist eigentlich, was macht die doppelte Speichermenge aus. 10 W? 20 W? Trotzdem kann ich mir nicht erklären, warum die Energieeffizienz bei AMD plötzlich anders ausfallen sollte. Dann hätten sie wirklich einen gehörigen Schnitzer im Design. Aber gut, da ist ja immer noch die Sache mit den ursprünglich geplanten 32 nm. Das kann erheblichen Einfluss haben. Mal schauen, was die Jungs und Mädels von HT4U messen. Dann können wir sicherlich mehr dazu sagen.


Der Launch hat sich verzögert, weil die Leistung nicht da war. Jetzt haben sie die Spannung auf 1.175 geballert, was sehr hoch ist, um etwas aufholen zu können. Noch mehr Spannung wird nicht mehr viele Mhz bringen, da bin ich überzeugt von.
Nein, an den Spezifikationen hat sich nichts geändert. Die stehen schon Monate vorher fest. Wenn ich mich richtig erinnere, war im Vorfeld sogar die Rede von 890 MHz. Mit 880 MHz wäre der Takt sogar minimal geringer. Dass der Takt so schon lange geplant war, sieht man auch an den Single-Precision Peaks. 384 VLIW4 Stream Cores @ 880-890 MHz ergeben den gleichen theoretischen Durchsatz wie 320 VLIW5 Stream Cores @ 850 MHz. Cayman kann aufgrund der VLIW4 Bauweise dann allerdings mit ~25% mehr theoretischem Durchsatz bei Double Precision punkten. Das dürfte gerade für die F@H Gemeinde interessant sein.


Dafür hat sie einen um 30mhu höheren Takt.

Spannung UND Takt wirken sich auf den Verbrauch aus,
Na ja, die 30 MHz mehr kannst du vernachlässigen. Entscheidend ist hier wirklich die Spannung. Die hat erheblich mehr Einfluss.
 
Zuletzt bearbeitet:
bin im TS

---------- Beitrag hinzugefügt um 15:22 ---------- Vorheriger Beitrag war um 15:19 ----------

hier mal 2 shoots mit l4d2...

einmal default treiber im game selber 4x
dann im treiber 16x


Ich kann dir nicht ganz folgen. Zuerst mit 4xAF und das zweite mit 16xAF? Oder wie jetzt genau? Treiber übrigens unverändert bei dir. Aber das ist auch gut so.
 
Nacktbilder einer 6970.

66wa7x5r.jpg
[/URL][/IMG]

oth4vpma.jpg
[/URL][/IMG]



Quelle: AMD: R9xx Speculation - Page 253 - Beyond3D Forum

wuppa

Wozu hat die Rückseite der Karte ebenfalls eine Abdeckung? Ist das nicht der Kühlung abträglich, wenn die Karte senkrecht in Gehäusen wie dem Silverstone FT02 verbaut wird?
 
Ich kann dir nicht ganz folgen. Zuerst mit 4xAF und das zweite mit 16xAF? Oder wie jetzt genau? Treiber übrigens unverändert bei dir. Aber das ist auch gut so.

erste bild mit 4x und default treiber...
zweite bild gleiche einstellung im game aber im treiber auf 16x gestellt....

versuch war eben, ob die Af übernommen wird....
 
Wozu hat die Rückseite der Karte ebenfalls eine Abdeckung? Ist das nicht der Kühlung abträglich, wenn die Karte senkrecht in Gehäusen wie dem Silverstone FT02 verbaut wird?

nein, ein Backplate ist eher förderlich für die Wärmeabfuhr.

Schade, dass nVidia nicht ähnliches einsetzt, macht optisch einiges her
 
Trotzdem kann ich mir nicht erklären, warum die Energieeffizienz bei AMD plötzlich anders ausfallen sollte. Dann hätten sie wirklich einen gehörigen Schnitzer im Design. Aber gut, da ist ja immer noch die Sache mit den ursprünglich geplanten 32 nm. Das kann erheblichen Einfluss haben. Mal schauen, was die Jungs und Mädels von HT4U messen. Dann können wir sicherlich mehr dazu sagen.

Nein, an den Spezifikationen hat sich nichts geändert. Die stehen schon Monate vorher fest. Wenn ich mich richtig erinnere, war im Vorfeld sogar die Rede von 890 MHz. Mit 880 MHz wäre der Takt sogar minimal geringer.
HT4U wird dir den "gehörigen Schnitzer im Design" aufzeigen. Goal waren btw 875 MHz, ergo übertroffen.
 
erste bild mit 4x und default treiber...
zweite bild gleiche einstellung im game aber im treiber auf 16x gestellt....

versuch war eben, ob die Af übernommen wird....


Bitte immer angeben was genau. 4x Birnen wahrscheinlich kaum. Af oder AA macht ein Unterschied. Naja hätte ja sein können das es 16xAA gibt bei Cypress...
 
nein, ein Backplate ist eher förderlich für die Wärmeabfuhr.

Schade, dass nVidia nicht ähnliches einsetzt, macht optisch einiges her

Müßten dann nicht auch Wärmeleitpads zum Einsatz kommen? Für mich sieht das nicht so aus, als ob die Backplate direkten Kontakt zum PCB hätte; sie wirkt vielmehr wie ein nutzloser thermischer Widerstand, der erst mal überwunden werden muß.
 
nein, ein Backplate ist eher förderlich für die Wärmeabfuhr.

Schade, dass nVidia nicht ähnliches einsetzt, macht optisch einiges her

Die Abstandshalter sind ca. 2mm erhaben, also hat die Platte ansich keinen Kontakt zur Platine, das ist der Wärmeabfuhr nicht förderlich, sondern behindert sie. Aber bei Kontakt würde es evtl. einen Kurzschluss geben.
 
Sollte ich mir die Karte tatsächlich leisten, wird als allererste Amtshandlung nach dem Auspacken erst mal die Packplane entfernt. Sie widerspricht einfach allem, was ich über Wärmeaustausch weiß.

Vielleicht dient das Ding der Karte ja auch als Rückgrat, daß sie sich in normalen Gehäusen nicht so stark durchbiegt ;)
 
vorhin waren wir schon auf Seite 61, da müssen Beiträge gelöscht worden sein.
 
moin...

werde den neuen Treiber mal nehmen und schauen, ob der was bringt....

sonst noch wünsche.... konnte leider vor lauter testen nicht alles lesen....
:

Kann jemand mit einer 6970 mal bitte Boinc installieren ( tut garantiert nicht weh ) und als Projekt MilkyWay wählen, das wäre echt klasse.
Eine 5970 braucht für so eine Wu etwa 105sec. Es wäre sehr interessant für viele Leute die 6970 hier zu sehen. Würde im Milky Forum großes Interesse auslösen. :coolblue:

:wink:
 
Soooo hab mich mal durch den Fred gewühlt, da harry97 sicher anderes zu tun hat^^. Werd ihm eure Wünsche übermitteln.
Nun meine frage an dich Harry: könntest du evtl. noch ArmA2 OA durchlaufen lassen ? Da ich denke das du es wohl nicht hast und ich hörte das die Demo auch den Bench mit dabei hat hier der Link: Armaholic - Demo .
Notiert.
Ich würde immer noch gern was übers OC wissen.
Mit OC kannst du die Performance steigern :d.
(sry, der musste sein)

Wunsch notiert.
Das ist das was man erwarten kann und warum ist die Karte jetzt nochmal fail?
Würde mich auch interessieren warum die Karte "fail" sein soll. Klar kommt sie (wohl) nicht ganz an die Performance der GTX580 heran, aber dann gleich von "fail" zu reden ist für mich nicht nachvollziehbar...
Hat harry97 eigentlich den Stromverbrauch gemessen?
Leider noch nicht. Kommt hoffentlich noch.
Kommt heute noch was zum OC und zum Schalter und Bildquali?
Setzt du dich heute noch mal mit ihm zusammen?
Ja.
Da kann man die Leistungsaufnahme beeinflussen, von 190 auf 250 Watt.
Hat deine Glaskugel noch Garantie? :d
sonst noch wünsche.... konnte leider vor lauter testen nicht alles lesen....
Dafür bin ich doch da^^.
PS: Komme gleich TS ;).
Far Cry 2 könnte man testen falls du das Spiel hast.
Gute Idee.
 
Was du dir für eine Mühe gibts die Nvidia Features kaputt zu reden.
Kaputt reden? Ich kritisiere die Umsetzung dieses Features und nicht die PhysX Funktion selbst - aber schön das du immer wieder unter Bewis stellst das du es nicht begreifst...
Du hast keinen Plan und das ändert sich auch nicht nur weil du alles immer und immer wieder wiederholst.
Naja, ich bin einfach mal anmaßend und behaupte das ich mehr Plan von der Materie habe als du. Aber wenn ich schon keinen Plan habe, was hast du dann?
Das sind animierte Scripts, keine Physik wie sie PhysX mit dynamischen Debris bietet :coolblue:
Havoc hat auch dynamische Physik, ebenso Kleidungssimulation (oder wozu gibt es Havok Cloth und Havok Destruction?) - es ist lediglich eine Frage der Umsetzung - genauso wie bei PhysX.

Aber was ist besser?
Ein unter anderem geskriptetes Ereignis das realistisch wirkt oder etwas das vollkommen dynamisch sein soll, das aber absolut unrealistisch ist und quasi nur Effekthascherei beinhaltet?
Wie schon gesagt.
Was nützt mir ein Betonpfosten in dem offenbar eine ganze Kiesgrube mit tausend Tonnen Kies in einem 1cm³ komprimiert wurde, ich auf ihn ballern kann, die Steine auf den Boden fliegen, aber ab einer bestimmten Anzahl die Steine plötzlich ins Nirgendwo verschwinden, aber es von "oben" unendlich Nachschub regnet?

@meckswell
Auf der Rückseite sieht man erstmal das die Platine dort nicht bestückt ist. Also auch kein RAM - ergo 2Gb sind auf der vorderen Seite der Platine untergebracht.
Dazu kommt noch das die Backplate das PCB stabilisiert, daher auch ein erhöhter Anpressdruck ohne Bruch des PCBs realisiert werden kann, was widerum zu einer besseren Abführung der Wärme führen kann.
Dazu ist auf der Rückseite ein Loch um die Haupwärmequelle - der GPU - Luft zum "Atmen" zu lassen.
Bzgl des Kurzschluss kann ich eigentlich nur sagen Wärmeleitpad. Die Wärme des PCBs wird über das Pad an die Backplate weitergeleitet.
Warum das nicht mit der GPU Rückseite auch gemacht wird? Weil die Aufnahmekapazität der Backplate ohne aktive Kühlung auch nur beschränkt ist.
 
Erst mal auch von mir eine dickes Danke an Ducati750ss und harry97
für die freiwillig geleistetete Arbeit.


Hat jemand die Möglichkeit, die Karte mal mit 3 22 Zoll TFT (1680 X 1050, in der Summe 5040 X 1050) zu testen.
Als Game wäre Dirt 2 interessant.

Würde mich mal interessieren, wie sich die neuen karten mit 3 Moni so schlagen.

Wenn dann noch jemand das ganze mit einem Matrox TH2GO a einer GTX 4XX oder 5XX als vergelich machen könnte, wäre das traumhaft.
 
Erst mal auch von mir eine dickes Danke an Ducati750ss und harry97
für die freiwillig geleistetete Arbeit.


Hat jemand die Möglichkeit, die Karte mal mit 3 22 Zoll TFT (1680 X 1050, in der Summe 5040 X 1050) zu testen.
Als Game wäre Dirt 2 interessant.

Würde mich mal interessieren, wie sich die neuen karten mit 3 Moni so schlagen.

Wenn dann noch jemand das ganze mit einem Matrox TH2GO a einer GTX 4XX oder 5XX als vergelich machen könnte, wäre das traumhaft.

nein..... habe "leider" nur einen 27´
 
Hat jemand die Möglichkeit, die Karte mal mit 3 22 Zoll TFT (1680 X 1050, in der Summe 5040 X 1050) zu testen.
Als Game wäre Dirt 2 interessant.

Würde mich mal interessieren, wie sich die neuen karten mit 3 Moni so schlagen.

Wenn dann noch jemand das ganze mit einem Matrox TH2GO a einer GTX 4XX oder 5XX als vergelich machen könnte, wäre das traumhaft.

Wie kann man mit nur 2 Augen überhaupt auf 3 Monitore gucken??
 
@harry97

Könntest du bitte GTA IV: Episodes from Liberty City mit den Einstellungen benchen .



oder CoJ DX10

 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh