Schäppchen bei Alternate? Lohnt es sich zu zuschlagen?

Status
Für weitere Antworten geschlossen.
sobald mein hdmi>DVI adaper angekommen ist kann ich das gerne mal testen.
Doch ist es relativ egal was die karte macht, mit RBE kann man der karte ja ganz einfach sagen was sie wann machen soll ;)
Wenn einen die 20W wirklich stören sind die 2min fürs flashen wohl kaum zuviel aufwand.

Habe 2 Monis daran, 1x DVI und 1x HDMI/Adapter auf DVI - Taktraten sind dann 400/1000 und das verhindert lästiges Flackern. Ich gehe davon aus, dass das bei Mehrfachbelegung über DP dabei bleibt.

Taktet die Karte ganz runter, flackert es unangenehm und soll afaik für die gesamte Range der ATI-Karten gelten, unabhängig vom Ref.-Design oder Custom-PCB (?)...

Tante Edit:
- bei 400/1000 liegen dann 1,00V an...in meinem mies belüfteten Gehäuse ist die Temp Idle dann bei ~55°C...

Beobachtung:
Ich betreibe meine im Dual-Monitorbetrieb - daher liegt der idle-Takt bei 400/1000. Sobald ich den Takt auch nur anrühre, 1Mhz reicht und egal mit welchen Hilfmitteln (CCC, Afterburner, TriXX), springt der 2D-Takt nach "apply" auf die default-Werte des Single-Monitorbetrieb (137/300) und ich habe eine nette Flackerorgie...

Trifft mich jetzt nicht wirklich - bleibt sie halt @default - aber hat noch wer mehrere Monitore dran und beobachtet das gleiche?

d.h. du kannst effektiv nur im bios übertakten?
wäre ja fatal wenn trixx iwan die spannungs erhöhung ünterstützt...

Takten geht schon ohne Probleme mittels Progrämmchen (CCC, Afterbruner, TriXX). Der Takt geht auch fein wie eingestellt hoch, hatte einfach einmal 800/1100 - aber sobald ich wieder auf dem Desktop war, lag der singel-Monitor-Takt idle an (137/300) und nicht 400/1000 wie es braucht, damit es mit zwei oder mehr Monitoren nicht flackert...

Wenn Du immer 2 Monitore an der GK betreibst, kannst Du doch gleich die 400/1000 als Minimum im Bios eintragen und für 3D die 800/1100. Dann kannst Du übertakten und trotzdem 2 Bildschirme betreiben. Garantie ist dann zwar offiziell weg, aber wenn man eh übertakten will, spielt das auch keine Rolle.

Ansonsten kannst Du doch auch 2 Profile anlegen (2D und 3D) mit den geänderten Taktraten. Geht auf jeden Fall im CCC und bei Afterburner. TriXX kenne ich nicht.

Wenn ich den höheren Takt "brauchen" würde, würde ich wohl ein entsprechendes BIOS flashen - ich war aber eigentlich nur neugierig und die gebotene Leistung @default langt für mich voll und ganz. Eve Online ist nicht so Graka-lastig...;-)

So bleibts jetzt einfach @stock und gut ist...
Danke für eure Erfahrungen. Soweit ich es den Tests bei ht4u entnehmen kann, verhällt es sich im Rahmen wie von euch aufgezeigt. Dass sich Schwierigkeiten bei minmaler Änderung des Takts aufzeigen - die Karte taktet im Dual-Monitor-Betrieb auf Single-Werte - ist unglücklich.

Es gibt im Prinzip für mich noch paar offene Fragen: Wie verhällt es sich, wenn beide Monitore die gleiche Auflösung und Latenzen haben? Bei NV funktionieren die geringeren Taktraten.

Wie verhält es sich, wenn der 2. TFT über DP (nativ und/oder Adapter) angesprochen wird - bzw. spielt die Art des Anschlusses überhaupt eine Rolle?

Sobald Software die Veränderung der Spannungen voll unterstützt, wäre schon mal einiges gewonnen. Hat sich einer bereits die Mühe gemacht und versucht die minimale Spannung für 400MHz heraus zu finden?

Grüße
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hat sich einer bereits die Mühe gemacht und versucht die minimale Spannung für 400MHz heraus zu finden?

Grüße

Das ist doch bishe rnicht möglich oder?
also in kann nur sagen dass die karte bei ca 600mhz und 0,95V stabil läuft.
D.h. theoretisch würden noch ne ganze ecke weniger reichen um sie bei 400mhz stabil zu halten.

Testen können wir es jedoch nicht da man mit RBE keine spannung verändern kann.
Wir müssen auf trixx warten..
 
Ja, so ändert sich der Zeitgeist.
Gefühlt ist es noch gar nicht lange her, als man sich überall im Internet rechtfertigten sollte, warum man zu einem schnellen Dualcore (E8400 @ 3,6 oder im Ausnahmefall 4 GHz) eine so potente Grafikkarte wie eine GTX 285 1 GB (ganz grob etwa vergleichbar mit einer GTX 460 768 MB) steckt. Die sei ja unterfordert und würde ausgebremst, etc.
Heute ist eine günstige GTX 460 für die meisten PCs die Standardempfehlung und eine HD5850 auch mit einem Zweikerner empfehlenswert.
Und es stimmt ja:
Viele rufen immer gleich was von "ausbremsen" und erwecken damit für den Laien den Eindruck, als würde der PC womöglich noch langsamer als er es vorher schon war. Dabei kann eine Grafikkarte ggf. nur nicht die VOLLSTAENDIGE Leistung erbringen, die sie mit einem schnellen Quadcore erbringen könnte. Aber wenn juckt das bei einem guten Grafikkarten-Angebot?
Ist ja auch nicht verkehrt, dass man sich heute eine günstige HD5850 schnappt, auch wenn man in drei Jahren wahrscheinlich ein völlig anderes System hat.
Mit dem Intel Core Tripple-i-12 (9 x 3,75 GHz) / AMD Phantom-Caterpillar X10 (10 x 4 GHz) und der Nvidia GTZ 315 / AMD HD9870 (beide 4 GB VRAM) spielt man dann Crysis 4 / Call of Duty 13 - Space Cowboy / DIRT 5 - Block / Anno 3028 (natürlich inklusive jeweils aller 12 DLCs) und wenn die Grafikkarte mal kaputt geht, kramt man die HD5850 aus dem Karton und spielt damit ein paar Wochen ganz passabel all diese Spiele in FullHD auf dem TV - halt nur ohne den gewohnten 3D-Effekt und DX12. Und irgendwann hat man dann das Geld für eine neue GPU zusammen oder sie komtm aus der Reperatur zurück.
 
Zuletzt bearbeitet:
Es gibt im Prinzip für mich noch paar offene Fragen: Wie verhällt es sich, wenn beide Monitore die gleiche Auflösung und Latenzen haben? Bei NV funktionieren die geringeren Taktraten.
Sind bei mir sogar 2x identische Monitore, Samsung BW206 20"er, 1680*1050, mit identischen Einstellungen - flackert trotzdem bei Single-Monitor-Takt.

Wie verhält es sich, wenn der 2. TFT über DP (nativ und/oder Adapter) angesprochen wird - bzw. spielt die Art des Anschlusses überhaupt eine Rolle
Kann ich leider nicht prüfen mangels DP-Anschlußmöglichkeit, ich tippe aber darauf, dass die Art des Anschlusses hierbei irrelevant ist.

@Philibilli:
Löööl....:fresse2:
 
hm, jeden Tag wenn ich den rechner starte gibt es erstmal nen bluescreen und dann fährt er hoch ...


Problemsignatur:
Problemereignisname: BlueScreen
Betriebsystemversion: 6.1.7601.2.1.0.768.3
Gebietsschema-ID: 1031

Zusatzinformationen zum Problem:
BCCode: 116
BCP1: FFFFFA8008D23010
BCP2: FFFFF880042D8408
BCP3: 0000000000000000
BCP4: 0000000000000002
OS Version: 6_1_7601
Service Pack: 1_0
Product: 768_1

Dateien, die bei der Beschreibung des Problems hilfreich sind:
C:\Windows\Minidump\042311-18969-01.dmp
C:\Users\admin\AppData\Local\Temp\WER-101915-0.sysdata.xml
 
FYI:

Meine kam heute auch an, bin von 4870 512 MB auf 5850 1 GB umgestiegen.

Alles ohne Probleme bis auf BF2BC da komplette Systemfreezes.
Hatte bisher die Settings "von der Anwendung" verwalten lassen, habe das
dann alles im CCC eingestellt und keine Freezes mehr.

Vielleicht hilfts ja jemand oder jemand hat noch andere Hinweise wich ich die Graka mal checken könnte obs, an BF2BC Settings lag oder doch an der Karte.

Danke
 
hey ruff. und wie ist die leistung im vergleich der beiden karten?
 
Sorry ich bin nicht so der Benchmarker ich habe nur ein paar runden Furmark laufen lassen um die Temps zu checken, durch den Treiberwechsel sind die Daten auch nciht unbedingt repräsentativ. Aber vielleicht helfen sie dir ja trotzdem.








Uploaded with ImageShack.us
 
Hi, also ich wollte mir die 5850 Xtreme ja auch bestellen, aber weil die nicht so leise ist wie ne Vapor-X, habe ich es dann sein gelassen,

aber mich wundert irgendwie dieser Mega-Kampfpreis, irgendwas stimmt da nicht, viele produzieren ja Blue-Screens, oder andere Fehler,

ich warte bis die 5850 Vapor-X etwas günstiger wird und bleibe meiner Vapor-X Serie (erst 4870, jetzt 5770) treu.

mfg
 
Zuletzt bearbeitet:
...
aber mich wundert irgendwie dieser Mega-Kampfpreis, irgendwas stimmt da nicht, viele produzieren ja Blue-Screens, oder andere Fehler,

...

mfg


Was wundert dich da der Kampfpreis? ein Kartenbauer, oder gar AMD hat hier erstmals das richtige getan ein gezielter Abverkauf alter Chips organisiert, statts draufs sitzen zubleiben. Ist praktisch wie am Samstag Abend an der Frischfleischtheke im Supermarkt, lieber jetzt raus damit als wegschmeisen ;-)

Würde mich nicht wundern wenn es das in Zukunft öfter geben wird.

Den Fehler den ich oben beschrieb habe ich auch in Foren gefunden liegt wohl an BF2BC und an dem 58XX Chipsatz an sich.
 
also mein Bluescreen hat was mit dem Treiber zu tun, er kommt auch nur bei ein Start, - danach rebbot und es geht alles:



werde jetzt versuchen alle treiber neu installieren, hab auch noch nvidia reste irgendwie drauf die auch mit Driver Sweeper nicht weggehen ???
 
Das ist doch bishe rnicht möglich oder?
also in kann nur sagen dass die karte bei ca 600mhz und 0,95V stabil läuft.
D.h. theoretisch würden noch ne ganze ecke weniger reichen um sie bei 400mhz stabil zu halten.

Testen können wir es jedoch nicht da man mit RBE keine spannung verändern kann.
Wir müssen auf trixx warten..

Ach stimmt ja, stand ja auch hier bereits irgendwo. Wie schaut es denn Erfahrungsgemäß mit RBE aus; wird es da wahrscheinlich eine Aktualisierung geben? Ist schon was her, dass ich mit dem Tool gearbeitet habe - HD 2900(er) Zeiten.

Sind bei mir sogar 2x identische Monitore, Samsung BW206 20"er, 1680*1050, mit identischen Einstellungen - flackert trotzdem bei Single-Monitor-Takt. [...]

Habe auch gerade noch mal bei ht4u nachgeschaut. Schade, dass AMD bis dato in diese Richtung auch bei der HD6xxx nicht versucht hat Abhilfe zu leisten. Dann warten wir erstmal auf trixx.

Danke für die Antworten.
Grüße
 
wie sieht es nun eig ausmit trixx? wielange brauchen die jungs noch? laut der webseite soll die karte ja schon längst unterstützt werden (also auch spannungsänderung!)
weiß jemand genaueres?
 
ich bin auch unschlüssig, meine hat mir auch etliche BSOD produziert die nicht ganz nachvollziehbar waren. Doch bin ich eih von der leistung (für dieses preis) sehr überzeugt.
Mal schauen ob nach dem neu aufsetzen immernoch BSOD vorhanden sind.
Wenn ja muss ich wohl noch nen weilchen bei meiner 88gts bleiben.
 
Hi ich würde mir gerne die SAPPHIRE HD5850 Extreme auch kaufen, nun habe ich davor noch ein paar Fragen.

Passt die Karte auf mein Motherboard (ASUS P5KR) normal schon oder?

Dann würde ich noch gern wissen da ich ein recht schwachen prozzesor (C2D E6550 @2,33 GHz) habe. Ob sich die Karte für mich überhaubt lohnt oder ob sie zu stark ausgebremst wird?

Ich spiele Hauptsächlich World of Warcraft, Portal 2 und fals es dann mal erscheint Diablo 3.

Danke für eure Antworten
 
Passt die Karte auf mein Motherboard (ASUS P5KR) normal schon oder?
Natürlich passt das, PCIe ist schließlich nicht ohne Grund standardisiert...

Dann würde ich noch gern wissen da ich ein recht schwachen prozzesor (C2D E6550 @2,33 GHz) habe. Ob sich die Karte für mich überhaubt lohnt oder ob sie zu stark ausgebremst wird?

Ich spiele Hauptsächlich World of Warcraft, Portal 2 und fals es dann mal erscheint Diablo 3.
Ich habe aktuell einen Athlon X2 5050e (2x2,6 GHz) und ich habe schon einen Schub von der vorherigen 5750 gespürt. Bei Portal 2 gibt es nur eine Stelle, an der es bei höchsten Einstellungen mit vollem FSAA und AF bei 1680x1050 ruckelt, WoW kann die Karte mit links abfrühstücken.
 
Das Mainboard sollte kein Problem darstellen, und für die Leistung kannst du deine CPU sicherlich etwas hochtakten über den FSB.

---------- Beitrag hinzugefügt um 23:55 ---------- Vorheriger Beitrag war um 23:53 ----------

Natürlich passt das, PCIe ist schließlich nicht ohne Grund standardisiert...


Ich habe aktuell einen Athlon X2 5050e (2x2,6 GHz) und ich habe schon einen Schub von der vorherigen 5750 gespürt. Bei Portal 2 gibt es nur eine Stelle, an der es bei höchsten Einstellungen mit vollem FSAA und AF bei 1680x1050 ruckelt, WoW kann die Karte mit links abfrühstücken.

Bei Portal 2 kriege ich merkwürdigerweise Ruckler mit einer 470, welche sich nicht auf die FPS
abbilden, sobald ich eins von diesen Gels in so nem Gravitonstrahl habe^^.
 
Natürlich passt das, PCIe ist schließlich nicht ohne Grund standardisiert...


Ich habe aktuell einen Athlon X2 5050e (2x2,6 GHz) und ich habe schon einen Schub von der vorherigen 5750 gespürt. Bei Portal 2 gibt es nur eine Stelle, an der es bei höchsten Einstellungen mit vollem FSAA und AF bei 1680x1050 ruckelt, WoW kann die Karte mit links abfrühstücken.

Das ist mir schon klar das PCIe standart ist ich meinte eigentlich eher weil bei der Grafikkarte PCIe 2.0 steht.

Das Mainboard sollte kein Problem darstellen, und für die Leistung kannst du deine CPU sicherlich etwas hochtakten über den FSB.

Ich glaub bei der CPU kann man nicht mehr viel hochtakten. Und fals doch wie macht man das?
 
Für WoW würde u.U. eine neue CPU mehr bringen als ne Graka. Du kannst Grafikdetails runterregeln aber trotzdem miese FPS in raids durch addons haben etc.
 
Das ist mir schon klar das PCIe standart ist ich meinte eigentlich eher weil bei der Grafikkarte PCIe 2.0 steht.



Ich glaub bei der CPU kann man nicht mehr viel hochtakten. Und fals doch wie macht man das?

1.: es ist kein problem eine PCIe 2.0 karte in einen 1.1 slot zu stecken.

2. geh ins bios und erhöhe wie oben schon gepostet den FSB.
Lies am besten vorher ein paar oc guides durch (in der prozessor sektion zu finden)

3. Sag uns erstmal welche grafikkarte du bisher hast.
Unabhängig davon würde ich möglichst zeitnah eine andere cpu kaufen.
Denn es wird definitiv leistung verpuffen bei deiner cpu.

Die ist selbst für spiele wie trackmania zuschwach.
Meine 3,8ghz cpu beißt sich "schon" die zähne an der HD5850 aus und ist im prinzip zuschwach.
 
Zuletzt bearbeitet:
So nachdem ich nun alles probiert habe hat hier wer vielleicht noch ne schlaue Idee.

Ich bekomme mit der neuen 5850 Extreme heftigste FPS drops. Das führ dazu das BF2BC ca 10 Minuten spielbar ist und dann einen CTD oder gar Freeze verursacht. Im Furmark sieht das ganze folgendermaßen aus



Uploaded with ImageShack.us

Da wo die Temeperatur runter geht, der downpeak direkt unter dem D von HD, steht das Bild kurz und läuft dann wieder an mit durschnittsFPS.

Unterschiedliche Einstellungen und Lüfterspeeds habe ich schon getested. Treiber habe ich mal vom 11.4 auf den 10.9 zurückgenommen da er bei der Auslieferung dabei war.

Hat wer ne gute Idee woran das liegen kann?
 
Was stecken für Komponenten in deinem Rechner? Wie sehen die Temperaturen aus?

Deine karte hat ja schon beim Beginn von Furmark (wenn sie aus dem Idle kommt) 59°C.
Ich vermute mal das deine Gehäuseinnentemperaturen so hoch sind das eventuell die CPU in den Bereich des Throttelns kommt.

Was war vorher für eine Graka verbaut?
 
Was stecken für Komponenten in deinem Rechner? Wie sehen die Temperaturen aus?

Deine karte hat ja schon beim Beginn von Furmark (wenn sie aus dem Idle kommt) 59°C.
Ich vermute mal das deine Gehäuseinnentemperaturen so hoch sind das eventuell die CPU in den Bereich des Throttelns kommt.

Was war vorher für eine Graka verbaut?

Vorher war eine 4870 mit 512 MB drin.

8500er auf nem P5Q 4 GB OCZ irgendwas ein paar Lüfter ein paar Platten eine SSD in nem Antec P 193 Gehäuse. Also alles in allem sollte das DIng nicht zu heiß werden.

Die hohen Starttemps kamen nur daher das das der xte Furmark in folge war, im Standart hat die Karte 40 Grad da gammelte meine 4870 schon bei ca 60 Grad rum.

Ich dachte ans Netzteil da steckt "nur" ein Seasonic 430 drin daher habe ich mal alles was nicht gebraucht wird abgezogen aber keine Veränderung.


Jedoch habe ich bei beobachtung durch Speedfan folgendes erkannt



Uploaded with ImageShack.us

Das das P5Q was die Spannungen betrifft nicht das stabilste Board ist, ist ja bekannt kann man da im Bios irgendwas eindrehen?

Danke

EDIT Nachtrag:

So ab jetzt wirds ganz komisch, den Multilplier des 8500er von 9.5 bei 8 gecapped und keine FPS drops, bisher ich hebe ihn mal vorsichtig auf 9 und schaue da mal
 
Zuletzt bearbeitet:
Ich weiss ja nicht wie es jetzt ist. Aber früher waren die Alternate Schnäppchen eben Aktionen um das Lager für neue Generationen zu leeren.
Der Preis war aber unschlagbar!
Würd schon sagen,dass man, wenn der Preis stimmt zuschlagen kann!
(zumindest wenn man nicht auf die nächste Generation warten will ;) )
 
Wieviel Leistung bringtn das Ding hier im Vergleich zu meiner 2006er GF 8800GTX im System aus der Signatur? ^^
Meine gute alte 8800GTX war schon 3x im Backofen wegen offenen Lötstellen, funktioniert seitdem aber wieder, wird nur mittlerweile im Idle 82°C warm bzw. heiß und könnte durchaus mal eine Ablösung vertragen - und bei dem Preis hier, hmpf :/
 
bei deier cpu hast du knapp die 3 fache leistung zu erwarten.
Ähnlich war es jedenfalls bei mener 8800GTS
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh