ATI HD4870x2 2GiB alias R700/Spartan + Reviews + Diskussion Part1

Status
Für weitere Antworten geschlossen.
jaja 30" blah blah
damit du dich dann mit mikrorucklern rumschlagen darfst?
danke kenne ich von meinen (ehemaligen) 3870x2

du warst ja auch schon das problemkind bei der 3er serie kein wunder das es jetzt das geheule wieder kommt.

was für mikroruckler?bei welchem spiel gammelt man denn bei 30fps rum gerade mit der karte.

und preisleistung ist 1a da gibt es ja wohl garnichts zubemängeln abgesehen davon nv würde sehr sehr gerne auch eine karte mit 2 kernen präsentieren geht bloß nicht bei dem stromverbrauch.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Alternate gibt die Karte mit 286W an. Werden wohl kaum mehr sein.
 
Hast du bei SLI auch...leider :)

aber nicht mit ner gtx280
lieber ehrliche 25minfps als mikroruckelnde 30fps
weil dann darfst die grafiksettings runterschrauben dass du 40-45minfps hast und dann bist bei dem grafiksetting die eine karte allein auch schaffn wuerd

schildbuergerkarte!
 
Zuletzt bearbeitet:
und preisleistung ist 1a da gibt es ja wohl garnichts zubemängeln abgesehen davon nv würde sehr sehr gerne auch eine karte mit 2 kernen präsentieren geht bloß nicht bei dem stromverbrauch.

Die Karte ist von Engineering Know How großartig keine Frage :bigok:


Ich kann sie denn noch nicht brauchen ^^
 
Klasse Benchwerte, die GTX280 wurde wie erwartet in den Boden gestampft. Teilweise doppelt so schnell, Nvidia muss sich was einfallen lassen :)
 
wer keine mikroruckler haben will der kauft sich halt eine singlekarte und gut ist als ob das jetzt eine überraschung ist das es mikroruckler gibt.

wer bashen will sollte andere argumente haben.
 
nur für meinen Geschmack ein wenig zu hungrig.

Zu hungrig finde ich nicht, aber das bei CRYSIS Multi-GPU scheiße rennt find ich nicht so gut.( ja ich bin CRYSIS FB :fresse:)

Klasse Benchwerte, die GTX280 wurde wie erwartet in den Boden gestampft. Teilweise doppelt so schnell, Nvidia muss sich was einfallen lassen :)

Bleib locker :)


War das ironisch gemeint? :fresse:

Nö warum ? NV hat noch keine 2GPU's auf einem PCB gebracht, oder doch? Du müßtes es ja wissen ^^
 
Zuletzt bearbeitet:
wer keine mikroruckler haben will der kauft sich halt eine singlekarte und gut ist als ob das jetzt eine überraschung ist das es mikroruckler gibt.

wer bashen will sollte andere argumente haben.

weil?
sie dem 0815 ati freak nicht passen?
ja tut mir leid aber mikroruckler sind ein KILLERARGUMENT bei sli/cf oder multigpukarten
was bringts mir wenn ich die karte nicht ausreizen kann? da kannst genausogut mit einer fahren
damals mit SFR und sliaa/superaa konnte man wenigstens noch ausweichen
sprich gabs MR bei nem game hast sliaa/superaa eingeschalten und hattest trotzdem bessere BQ bei noch ausreichendem speed, dank neuer games funzt sliaa/superaa aber in den seltensten faellen -> ergo KILLERARGUMENT

solange nv/ati das nicht geloest haben koennen sie auf ihren schildbuergerkarten sitzen bleiben (oder eben nicht und der fps geile poebel schmeisst ati/nv das geld in den (ideenlosen) rachen nur um viele 3dmark punkte zu erhalten :rolleyes: )
 
klar sagen die mir was... Ich hoffe, Dir auch. :d

Mir sagen die nicht nur etwas, ich weiß auch was sie bedeuten.

:lol:
Ein rechner mit 2 karten braucht 778W
Der gleiche Rechner mit einer braucht 431W.
Wie viel braucht dann eine Karte? => Die Differenz, ergo 347W. :stupid:

Tweaktown erwähnt leider nicht welches Netzteil zum Einsatz kam, aber selbst wenn man von optimistischen 80% Wirkungrad ausgeht, bleiben reale 277W übrig die im schlimmsten Fall auf die 4870X2 entfallen können. Wenn man noch berücksichtigt dass der Chipsatz (NB) durch das CF stärker belastet wird und somit der Verbrauch auch dort ansteigen wird, würde ich nicht mal die Hand dafür ins Feuer legen, dass eine Karte überhaupt auf 270 Watt kommt. Du etwa?

Edit: Und mal ehrlich, dass von 430W ganze ~350W auf die Karte und nur 80W (real 64W) auf einen 65nm QuadCore@Last + X48-Board + RAM + Festplatte etc. entfallen ist alles andere als realistisch, oder wie siehst du das?
 
Zuletzt bearbeitet:

Lol jetzt wirste aber lustig :fresse: eine 2 GPU Graka mit zwei G70 :haha:


aber selbst wenn man von optimistischen 80% Wirkungrad ausgeht, bleiben reale 277W übrig die im schlimmsten Fall auf die 4870X2 entfallen können. Wenn man noch berücksichtigt dass der Chipsatz (NB) durch das CF stärker belastet wird und somit der Verbrauch auch dort ansteigen wird, würde ich nicht mal die Hand dafür ins Feuer legen, dass eine Karte überhaupt auf 270 Watt kommt. Du etwa?

Ich denke auch das die X2 auch recht nahe an der TDP (275W) gebaut worden ist.;)
 
Zuletzt bearbeitet:

mikroruckler sind kein killerargument sonst wäre schon lange was darauf bezüglich von nv oder ati gekommen.

wie ich schon sagte zurzeit ist das halt alles was amd und nv im multisektor herausbringen(mit mikrorucklern und skalierungsprofilen).

wem es nicht passt mit den nachteilen der kauft sich eine singlekarte und wird glücklich.

das wird noch länger dauern bis es karten gibt die mehrere kerne haben aber wie eine arbeiten.(deshalb feuchte träume bitte woanders)
 
Lol jetzt wirste aber lustig :fresse: eine 2 GPU Graka mit zwei G70 :haha:

Du hast danach gefragt, nicht ich :bigok:
Ich hoffe das Nvidia uns mit einer "neuen" GX2 verschont das bringt es nicht wirklich. Obwohl ich großer SLI Fan bin, hat Ulukay sehr wohl recht mit seinen Argumenten. Im 3dcenter wird ja bereits an einem SLI/CF Limiter gearbeitet malschaun was daraus wird, vieleicht lassen sich die MR dadurch weitgehend beheben.
 
Ja die geben sich da sehr viel Mühe, hoffentlich wird das Früchte tragen :)
 
Zuletzt bearbeitet:
@ che new: kann wohl hinkomen. Die kerne arbeiten auch längst nicht auf vollast wie bei prime. naja, wenn man es so sieht, dann kommt das mit der TDP sogar hin. da machen sich die 80% im NT schon bemerkbar. Mit ner idealen Stromquelle wären mir 275W aber auch noch deutlich zu viel.
@ jake dunn: hatte vorher nie von TDP gesprochen. Immer vom Verbrauch. ;)
 
ich verstehe eh net was ihr gegen die karte habt ... Die karte ist doch hammer

Mikrorucker sieht man nur ab 30 fps und das schafft man mit der karte sehr schwer ! und etz kommt bitte net mit 2560 *1900 + 24xAA+ AF.. das braucht kein mensch..

das einzigste wäre halt die temperatur + lautstärke + stromverbrauch .. doch das is doch egal ( solange man wakü wie ich hat :fresse: ) zahlt man halt 5 euro mehr im jahr an strom ;)
 
Das mit Crysis finde ich aber sehr blöd. Das momentan grafiklastigste Spiel, welches auch entsprechend aussieht, wird nicht vollständig unterstützt.
 
ich verstehe eh net was ihr gegen die karte habt ... Die karte ist doch hammer

Mikrorucker sieht man nur bis 30 fps und das schafft man mit der karte sehr schwer ! und etz kommt bitte net mit 2560 *1600 + 24xAA+ AF.. das braucht kein mensch..

das einzigste wäre halt die temperatur + lautstärke + stromverbrauch .. doch das is doch egal ( solange man wakü wie ich hat :fresse: ) zahlt man halt 50 euro mehr im jahr an strom ;)

korrigiert - ausserdem finde ich es recht bedenklich, dass alle in Zeiten von gehäuften NuklearUnfällen & hohen Rohstoff-/EnergiePreisen so leichtsinnig & unbedacht auf derart extreme Verlustleistungen reagieren..!
 
Ich weiss noch als beim Release der 3870X2 getoent wurde:Allein die Karte frisst 300W...ich dachte o mein gott ,kaufte mir ein 160Euro teures 850W Netzteil ,und was wurde daraus?Mein System zieht bei Last 280W(an der Steckdose gemessen).

Natuerlich sollte man energiebewusst leben, aber eine kalte Dusche morgens statt einer warmen haette den gleichen Energiespareffekt wie wenn man sich jetzt nur eine 3450 einbauen wuerde.

Und das wiegt sich am Ende auf:Am morgen unter der Dusche leiden, am Abend vorm Pc geniessen...und zwar Full HD in Very High.......:coolblue:
Wir leben auch nur 90 Jahre...

Gruss

Megah
 
Ich weiss noch als beim Release der 3870X2 getoent wurde:Allein die Karte frisst 300W...ich dachte o mein gott ,kaufte mir ein 160Euro teures 850W Netzteil ,und was wurde daraus?Mein System zieht bei Last 280W(an der Steckdose gemessen).

Natuerlich sollte man energiebewusst leben, aber eine kalte Dusche morgens statt einer warmen haette den gleichen Energiespareffekt wie wenn man sich jetzt nur eine 3450 einbauen wuerde.

Und das wiegt sich am Ende auf:Am morgen unter der Dusche leiden, am Abend vorm Pc geniessen...und zwar Full HD in Very High.......:coolblue:
Wir leben auch nur 90 Jahre...

Gruss

Megah

lol jetzt muss man schon kalt duschen um mehr fps haben zukönnen. :lol:
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh