ATI HD4870x2 2GiB alias R700/Spartan + Reviews + Diskussion Part1

Status
Für weitere Antworten geschlossen.
=) jam jam ... 2 8800GTX@Ultra ausm 780i raus .... 1x 4870x2 rein ...

Von NV zu Ati, Ati zu NV und wieder von NV zu ATI =)

next time ... Highend-Graka Intel ?

werde mir definitiv eine holen =) der preis ist heiß ... und die karte sexy ....fast wie meine nachbarin ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ati scheint wieder was auf die Beine gestellt zu haben.Mit der Architektur wir Ati/AMd jetzt ersmall konkurenzfähig bleibe.Vielleicht ist Ati jetzt auch im vorteil.Bin schon auf die angebliche neue Generation gespannt.Bei denn wenigen kosten könnte ich mir das neue High end mit 1600 Saders 40 TMus und 32 Rops vorstellen.Mit was soll da NVidia kontern?Nvidia muss ein komplett neuen Chip entwickeln um mithalten zu können.

Achtung:das ist ise eher positive denkweise.
 
Zuletzt bearbeitet:
Ati scheint wieder was auf die Beine gestellt zu haben.Mit der Architektur wir Ati/AMd jetzt ersmall konkurenzfähig bleibe.Vielleicht ist Ati jetzt auch im vorteil.

Von der Technik sind sie klar im Vorteil DX 10.1 ist ja deutlich schneller als DX10. Fehlen nur noch die Games dazu.
 
Von der Technik sind sie klar im Vorteil DX 10.1 ist ja deutlich schneller als DX10. Fehlen nur noch die Games dazu.

....Ich meine da ist rein garnix deutl. schneller, die Architektur wurde verbessert, da ging es aber nicht um Performancesteigerung im Schwerpunkt.
Ist schon ne weile her, dass ich mir das angeschaut hatte, auf jedenfall wars kein sonderlicher Vorteil.

Ob DX10.1 überhaupt noch vor DX11... ankommt ist eh die Frage.
 
Ich hoffe mal ATI kann genug Karten bei der Vorstellung am 14. Juli zum kaufen bereit stellen. Ich will unbedingt eine X2, 4870 CF kommt nicht mehr in Frage wieder zwei teure Wakü kaufen neee... ;)

Ich dachte die Karte wird am 14.7. nur vorgestellt. Von verkaufen war IMO nicht die Rede, oder?
 
ne erst im August soll die Verfügbar sein

14. ist nur Papperlunch
 
technick ist doch klar ATI vorne:
55nm Prozess
Modernster GDDR5 VRAM
Drirect X10.1

Dagegen wirkt Nvidia veraltet.
 
Spätestens mit der Karte braucht man echt schon Vista x64.

@vinacis_vivids

Strom sparen ist das Eine, aber bevor man Strom spart, sollte man sich von der Stromgrundversorgung lösen, vergleichen und einen Liefervertrag unterschreiben. Damit sollte man einiges an Geld in der Endabrechnung sparen. Leider machen das nur zu wenige Menschen. Die regen sich auf, dass alles teurer wird, aber selber kommen sie nicht aus der Hefe und geben ihren Beitrag für mehr Wettbewerb auf dem Strommarkt.

Nvidia hat mehr das Problem, dass sie nicht selber bei der Entwicklung des Fertigungsprozesses mitwirken können.
 
zu dx 10.1, meint ihr das wird sich durchsetzen ? dx11 steht am "start" und dx10.1 hatte ja lediglich minimale ergänzungen zu dx10...

es gab ja die tage auch das gerücht, das nv mit der neuen generation auf dx11 direkt geht und 10.1 überspringt...

die nachteile von 10 zu 10.1 sind ja auch eher miniminiminimal...... und da stellt sich die frage ob da überhaupt eine vielzahl an games für erscheinen wird..
 
zu dx 10.1, meint ihr das wird sich durchsetzen ? dx11 steht am "start" und dx10.1 hatte ja lediglich minimale ergänzungen zu dx10...

es gab ja die tage auch das gerücht, das nv mit der neuen generation auf dx11 direkt geht und 10.1 überspringt...

die nachteile von 10 zu 10.1 sind ja auch eher miniminiminimal...... und da stellt sich die frage ob da überhaupt eine vielzahl an games für erscheinen wird..
Ich glaube wirklich auch nicht mehr dran.Aber....So ein Grafikkarten rausch wie grade bei der 48** SErie statfindet,kann man durchaus von ausgehen das vielleicht paar entwickler sich DX 10.1 angucken werden.Die 48** hat jedenfalls bewegung für Dx 10.1 gebracht.Ein Spiel mit DX 10.1 wird es bestimmt dieses Jahr noch geben.Es kommt auch drauf an wann Nvidia wieder konkurenzfäähig ist...
 
Zuletzt bearbeitet:
zu dx 10.1, meint ihr das wird sich durchsetzen ? dx11 steht am "start" und dx10.1 hatte ja lediglich minimale ergänzungen zu dx10...

es gab ja die tage auch das gerücht, das nv mit der neuen generation auf dx11 direkt geht und 10.1 überspringt...

die nachteile von 10 zu 10.1 sind ja auch eher miniminiminimal...... und da stellt sich die frage ob da überhaupt eine vielzahl an games für erscheinen wird..

DX11 Spiele werden eher erscheinen als DX10.1 Spiele. Das Problem dabei ist, dass viele Leute immer noch ne DX10 Karte haben (Geforce 8800 Serie) und auch die GTX 280 unterstützt absichtlich kein DX10.1. Es wird sich nicht allzu sehr lohnen DX10.1 Spiele zu entwickeln, wo die meisten Leute noch eine nur DX10 fähige Karte haben und DX11 auch schon bald erscheint.
 
Ich glaube wirklich auch nicht mehr dran.Aber....So ein Grafikkarten rausch wie grade bei der 48** SErie statfindet,kann man durchaus von ausgehen das vielleicht paar entwickler sich DX 10.1 angucken werden.Die 48** hat jedenfalls bewegung für Dx 10.1 gebracht.Ein Spiel mit DX 10.1 wird es bestimmt dieses Jahr noch geben.Es kommt auch drauf an wann Nvidia wieder konkurenzfäähig ist...

klar macht ati 10.1 so atraktiv, aber halt nicht für nv gesponserte games. ebenfalls bringt ja 10.1 wirklich nährend ^=0.

selbst nach der langen dx10 zeit kann ich nicht behaupten dass mir dx10 besser als 9 gefällt... schaut bissel anders aus (nicht besser oftmals) und ist den leistungsverlust nicht wert.

edit: wann wird denn dx11 kommen ? ende 08 kommt nv mit besserem fertigungsprozess...das heißt die neue serie von nv mit dx11 wirds wohl frühstens sommer 09 geben oder liege ich hier falsch ?
 
Zuletzt bearbeitet:
Yummi, yummi. Mmm, einfach lecker, was da so zur R700 durchsickerte.

Ich seh schon Tri-CF 4870 (1x 4870X2 + 1x 4870) auf mich zurollen.

Ähm, weil da jemand was von eventuell mickrigen min fps mit der neuen X2 schrieb. Diese Zeiten sind seit CF 4870 vorbei. Woher ich das weiß (hehe)? Nun, mein heutiger Test mit FEAR hat mir das deutlich vor Augen geführt.

In 1600x1200, alles max außer SS, 16xAF, 4xAA hatte ich mit Tri-CF 3870 min 24 fps. Das war in der Tat mickrig. Heute mit CF 4870 hatte ich bei gleichen Settings in FEAR min 100 fps! 4x so viel min fps! Einfach irre, die 4870! Die stellt in Sachen Performance-Sprung selbst die legendäre 9700Pro in den Schatten.
 
Voodoojack das ist schön zu hören.Mall gucken ob man bald wirklich von ein 9700 nachfolger reden kann.WEnn es so weiter geht,dann mit Sicherheit.
 
Vor kurzem meinte :lol::lol:
http://www.3dcenter.org/news/2008-07-08

Zumindest bei nVidia ist damit klar, daß man zum Jahresende mit einem neuen Direct3D-10.1-Grafikchip antreten wird.

http://www.tgdaily.com/content/view/38247/135/

...the company’s next-generation desktop and notebook chips will support DirectX 10.1.

WIe schnell sich das Blatt wendet.:lol::lol:Vor kurzem meinte Nividia noch DX 10.1 ist unwichtig sowas brauchen wir noch nicht.Jetzt auf einmall kommt ne Nv Karte mit DX 10.1 raus.Nvidia wurde einfach überascht.:lol:
 
Das hat sich nicht PCGH ausgedacht, es ist einfach die korrekte Bezeichnung. Wer das nutzen möchte, sollte es tun.

Eigentlich werden die Größen nur bei den Massenspeichern verfälscht. Warum sollte man dann immer GiB schreiben? Temporäre Speicher sind doch gar nicht davon betroffen. Beim CPU Cache der vll 6MB groß ist was dazu zu mogeln wird eh schwierig :d
Es würde reichen diese Einheit nur bei Massenspeichern zu benutzen, um die tatsächliche Größe zu beschreiben, was man sowieso eher nicht macht sondern die verfälschten Herstellerinformation benutzt.
Die zweite Frage wäre dann warum diese Einheit einen anderen Namen hat und dann auch noch so einen unpassenden? Warum soll GiB nicht Gigabyte sondern Gibibyte heißen? Mebibyte? Lachhaft.

Meiner Meinung nach ist diese Maßeinheit ohne Nutzen und das ständige Benutzen dieser von PCGH ist eindeutig Klugscheisserei.
 
Ich hatte eigentlich vor mir eine HD4870 @1024 MB zu kaufen. Ist es nicht so, dass die HD4870 X2 dann ihren Vorteil vor allem in den richtig hohen Auflösungen ausspielen kann, und beispielsweise für meinen 20 Zoll Apple Cinema HD die 4870 @ 1024 MB dicke langt? :) Geldverbrennung muss ja auch nicht sein :shot:
 
WIe schnell sich das Blatt wendet.:lol::lol:Vor kurzem meinte Nividia noch DX 10.1 ist unwichtig sowas brauchen wir noch nicht.Jetzt auf einmall kommt ne Nv Karte mit DX 10.1 raus.Nvidia wurde einfach überascht.:lol:

Ein paar wichtige DX10.1 Features besitzen die aktuellen nVidia Karten jetzt schon. Zumindest aus Sicht nVidias sollen diese den Spiele Entwicklern/Programmierern zu Gute kommen.
Eine volle DX10.1 Unterstützung wäre aber um einiges wünschenswerter. So würden mit der Zeit sicher auch wesentlich mehr Spiele die neue Schnittstelle unterstützen.
Warum nVidia nicht schon früher DX10.1 Hardware auf die Menschheit los lässt, könnte daran liegen das eine Implementierung in die aktuelle Chiparchitektur den Konkurrenzprodukten von ATi evtl. unterlegen wäre.
 
Gibyte...fängt ihr nun auch an mit dem PCGH schwachsinn und den Gibytes
warum Schwachsinn?
es sind nunmal 2GiB und nicht 2GB

sie verwenden nur die korrekten Begriffe.
Hinzugefügter Post:
Die zweite Frage wäre dann warum diese Einheit einen anderen Namen hat und dann auch noch so einen unpassenden? Warum soll GiB nicht Gigabyte sondern Gibibyte heißen? Mebibyte? Lachhaft.

Meiner Meinung nach ist diese Maßeinheit ohne Nutzen und das ständige Benutzen dieser von PCGH ist eindeutig Klugscheisserei.
es gibt einen deutlichen Unterschied zwischen GiB und GB.
GiB ersetzt GB ja nicht, es ist einfach eine andere Einheit.

wie groß der Unterschied ist sieht man ja an den aktuellen Festplatten, der Unterschied von 1TB zu 1TiB ist gleich mal 99GB

und da Windows immer noch GB schreibt wenn GiB gemeint sind kommt es zur großen Verwirrung ("warum fehlen meiner Festplatte ein paar Gigabyte? ist ja voll der ******")
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
wenn die X69xx Punkte mit nem AMD Phenom erreicht wurden dann ist das gut, wenn es aber nen dicker Intel gewesen ist dann schlecht weil dann sind 2x4870 schneller als ne X2.
 
warum Schwachsinn?
es sind nunmal 2GiB und nicht 2GB

sie verwenden nur die korrekten Begriffe.
Hinzugefügter Post:
es gibt einen deutlichen Unterschied zwischen GiB und GB.
GiB ersetzt GB ja nicht, es ist einfach eine andere Einheit.

wie groß der Unterschied ist sieht man ja an den aktuellen Festplatten, der Unterschied von 1TB zu 1TiB ist gleich mal 99GB

und da Windows immer noch GB schreibt wenn GiB gemeint sind kommt es zur großen Verwirrung ("warum fehlen meiner Festplatte ein paar Gigabyte? ist ja voll der ******")

Die Massenspeicherhersteller sind doch die einzigen die die altbekannte Einheit falsch verwenden. Warum sollte der Rest der Industrie deswegen eine andere Einheit benutzen? Das finde ich nicht korrekt. Das stiftet nur Verwirrung und ist unfair gegenüber denjenigen die sie richtig verwendet haben.
Bei Festplatten etc ist das ok, nicht aber bei den ganzen anderen Speichern. Im Endeffekt muss es der User annehmen, ich bin zB strikt dagegen alle Speicherangaben in Mebibyte und Gibibyte anzugeben weil es angeblich Megabyte und Gigabyte verdrängt hat. Man benutzt Gigabyte Megabyte für Zweier- und für Zehnerpotenzen und bisher gab es keine großen Probleme damit.
Die Festplattenhersteller geben ihre Größen fälschlicherweise in Zehnerpotenzen an, aber was solls? Auf jedenfall will ich deswegen keine HD4870X2 mit 2 Gibibyte oder 2048Mebibyte Speicher haben.
 
Zuletzt bearbeitet von einem Moderator:
wenn die X69xx Punkte mit nem AMD Phenom erreicht wurden dann ist das gut, wenn es aber nen dicker Intel gewesen ist dann schlecht weil dann sind 2x4870 schneller als ne X2.

im ganz unten stehenden kleingedruckten text kommt mal ein E8500 vor , glaube aber nicht das der was mit den vantage werten zu tun hat .... aber da es AMD folien sind wurde wohl hardware aus dem eigenen haus verwendet ( Phenom )

h36824g211.jpg
 
Zuletzt bearbeitet:
@vinacis_vivids

Hab noch zwei Bilder für den Startpost.
Und vll. könntest du bei "Was wird die Karte kosten"499-599$ schreiben, da AMD ja mal gesagt hat das bei ihnen niemals eine Karte über 500$ kosten wird ;)







Magic :wink:
 
Die Massenspeicherhersteller sind doch die einzigen die die altbekannte Einheit falsch verwenden. Warum sollte der Rest der Industrie deswegen eine andere Einheit benutzen? Das finde ich nicht korrekt. Das stiftet nur Verwirrung und ist unfair gegenüber denjenigen die sie richtig verwendet haben.
Bei Festplatten etc ist das ok, nicht aber bei den ganzen anderen Speichern. Im Endeffekt muss es der User annehmen, ich bin zB strikt dagegen alle Speicherangaben in Mebibyte und Gibibyte anzugeben weil es angeblich Megabyte und Gigabyte verdrängt hat. Man benutzt Gigabyte Megabyte für Zweier- und für Zehnerpotenzen und bisher gab es keine großen Probleme damit.
Die Festplattenhersteller geben ihre Größen fälschlicherweise in Zehnerpotenzen an, aber was solls? Auf jedenfall will ich deswegen keine HD4870X2 mit 2 Gibibyte oder 2048Mebibyte Speicher haben.
die Festplatten Hersteller geben die Größe korrekt an, GB ist nunmal in 10er Potenzen.
Windows gibt es falsch an, es gibt 2er Potenzen als GB an, obwohl es eigentlich GiB sind.

wenn sich alle an den Standard halten würden gäbe es keine Verwirrung.
aber eben wegen Leuten wie dir die weiterhin GB verwenden wo GiB richtig wäre bleibt die Verwirrung bestehen.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh