[Sammelthread] AMD Radeon HD 6850 RV940 (Barts) - Bei Fragen die erste Seite lesen

AMD HD 6850 RV940 (Barts) Sammelthread

Impressionen der Karte:

radeon6850_02wc7n.jpg
radeon6850_03oigb.jpg


radeon6850_041c7p.jpg
radeon6850_05ael8.jpg


radeon6850_10fel1.jpg
radeon6850_11xg9h.jpg



Weitere Bilder zur Karte, Detailaufnahmen der GPU und des Speichers findet ihr im Hardwareluxx-Artikel


Technische Daten der HD 6850 - RV940

  • Chip = RV940
  • Fertigung = 40 nm
  • Chip Größe = 255 mm²
  • Transistoren = 1,7 Milliarden.
  • Chiptakt = 775 MHz
  • Shadertakt = 775 MHz
  • Pixel-Pipelines = keine
  • Shader-Einheiten (MADD) = 192 (5D) (960)
  • FLOPs (MADD/ADD) = 1,49 T.flops
  • ROPs = 32
  • Pixelfüllrate = 24,8 GPix/s
  • TMUs = 48
  • TAUs = 48
  • Texelfüllrate = 37,2 GTexell/s
  • Vertex-Shader = kein
  • Unified-Shaderin Hardware = √
  • Pixelshader = SM 5.0
  • Vertexshader = SM 5.0
  • Geometryshader = √
  • Memory
  • Art = Hynix
  • Speichermenge = 1024 MB GDDR5
  • Speichertakt = 1000 MHz
  • Speicherinterface = 256 Bit
  • Speicherbandbreite = 128,0 GB/s
  • Stromaufnahme >>> 127 Watt TDP Last / 19 Watt TDP idle (über einen 1x 6xPin Anschluß)
  • Die Karte besitzt Shader 5.0, dass heißt sie hat DX11 Unterstützung!
  • Die Karte nutzt PCIe 2.0, ist aber völlig abwärtskompatibel.





Erste Tests der Karte:
Code:
[B]Single GPU:[/B]
[url=http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/16772-xxl-test-amd-radeon-hd-6870-und-6850.html][b]XXL-Test AMD Radeon HD6870 und HD6850 (Hardwareluxx.de)[/b][/url]
[url=http://www.guru3d.com/article/radeon-hd-6850-6870-review/]Radeon HD6870 und HD6850 Review (guru3d.com)[/url]
[url=http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update-2/]Test: AMD Radeon HD 6870 und HD 6850 (Update 2) - 22.10.2010 - ComputerBase[/url]
[url=http://www.pcgameshardware.de/aid,795021/Radeon-HD-6870-und-HD-6850-im-Test-AMDs-zweite-DirectX-11-Generation/Grafikkarte/Test/]Radeon HD 6870 und HD 6850 im Test: AMDs zweite DirectX-11-Generation[/url]
[url=http://www.anandtech.com/show/3987/amds-radeon-6870-6850-renewing-competition-in-the-midrange-market]AMD’s Radeon HD 6870 & 6850: Renewing Competition in the Mid-Range Market - AnandTech :: Your Source for Hardware Analysis and News[/url]
[url=http://www.tomshardware.com/reviews/radeon-hd-6870-radeon-hd-6850-barts,2776.html]AMD Radeon HD 6870 And 6850: Is Barts A Step Forward? - tomshardware.com[/url]
[url=http://ht4u.net/reviews/2010/amd_radeon_hd_6850_hd_6870_test/]Radeon HD 6870 und HD 6850 im Test - Frontalangriff auf GeForce GTX 460[/url]
[B]
Crossfire:[/B]
[url=http://techpowerup.com/reviews/ATI/Radeon_HD_6850_CrossFire/]AMD Radeon HD 6850 CrossFire - techPowerUp[/url]
[url=http://www.guru3d.com/article/radeon-hd-6850-6870-crossfirex-review/]Radeon HD6870 und HD6850 CrossfireX Review (guru3d.com)[/url]




Geizhals Links:
Code:
[URL=http://preisvergleich.hardwareluxx.de/?cat=gra16_512&v=e&plz=&dist=&xf=891_Radeon%20HD%206850&sort=p]HWluxx Preisvergleich - HD6850[/URL]

Taktraten der werksseitig übertakteten Modelle (Reihenfolge GPU/ Shader/ VRAM):
Code:
[LIST]
[*]- [URL="http://preisvergleich.hardwareluxx.de/a582185.html"]Asus EAH6850, 1024MB (790/790/1000)[/URL]
[*]- [URL="http://preisvergleich.hardwareluxx.de/a582201.html"]PowerColor HD6850, 1024MB (800/800/1050)[/URL]
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[/LIST]




Treiber:

Code:
Alle Infos und neuste Treiber findet ihr in diesem Thread [URL="http://www.hardwareluxx.de/community/f14/die-aktuellen-nvidia-geforce-treiber-fuer-winxp-7-und-vista-weitere-os-part-5-a-720380.html"]hier[/URL]


[B]Aktuelle finale Treiber[/B]

Windows XP x86: 
[url=http://game.amd.com/us-en/drivers_catalyst.aspx?p=xp/radeonx-xp]Version 10.10[/url]
Windows XP x64: 
[url=http://game.amd.com/us-en/drivers_catalyst.aspx?p=xp64/radeonx-xp64]Version 10.10[/url]

Vista/Win7 x86:
[url=http://game.amd.com/us-en/drivers_catalyst.aspx?p=vista32/common-vista32]Version 10.10[/url]
Vista/Win7 x64:
[url=http://game.amd.com/us-en/drivers_catalyst.aspx?p=vista64/common-vista64]Version 10.10[/url]


Tools:
Code:
[COLOR="Red"][B]Grafikkarten Analyse Tool Gpu-Z[/B][/COLOR] [URL="http://www.techpowerup.com/downloads/811/TechPowerUp_GPU-Z_v0.0.9.html"]hier[/URL]
[B][COLOR="Red"]
RivaTuner zum OC der Graka[/COLOR][/B] [url=http://downloads.guru3d.com/downloadget.php?id=163&file=5&evp=2d213e528fb556c354432a3976bff55a]hier[/url]

[B][COLOR="Red"]AtiTool zum OC der Graka[/COLOR][/B] [url=http://www.computerbase.de/downloads/software/systemprogramme/grafikkarten/atitool/]hier[/url]

[B][COLOR="Red"]MSI Afterburner[/COLOR][/B] [url=http://www.computerbase.de/downloads/system/grafikkarten/msi-afterburner/]hier[/url]



FAQ:


Wie laut ist die Karte?
  • Im Vergleich zum direkten Vorgänger, der HD5770, ist die Karte sowohl unter Last, als auch ohne Belastung minimal lauter. Dennoch kann man sagen, AMD hat ihre Sache recht gut gemacht, denn die Karte legt sowohl in der Transistoranzahl als auch in der Leistung deutlich zum Vorgänger zu. Im Vergleich zu den Leistungsmäßig ebenbürtigen HD58x0 Karten liegt die HD6850 aber vorn. Sowohl NVidias Mittelklasse (Konkurenz der HD6850 - 460GTX 768MB) als auch NVidias HighEnd GF100 Karten liegen im idle ein Stück unter AMD, dafür unter Last gut darüber. Zur Schwesterkarte HD6870 gibt es keinen nennenswerten Lautstärkeunterschied.
    Dennoch bleibt zu erwähnen, dass Lautstärke äußerst subjektiv ist. Man kann diese zwar einheitlich messen, aber jeder Mensch nimmt verschiedenen Frequenzen anders wahr.

    Messungen zur Lautstärke

laut1.jpg
laut2.jpg




Wie hoch ist der Stromverbrauch?
  • Auch beim Stromverbrauch hat AMD ihre neue Mittelklasse wieder etwas effizienter gemacht. Im Vergleich zur Konkurenz (460GTX) liegt man auf gleichem Niveau. Auch im Vergleich zu den Karten aus eigenem Haus (Vorgänger HD5770, sowie die Top Produkte HD5850/HD5870) leistet sich die HD6850 keinen Ausrutscher im idle. Die Karte hält laut diversen direkt Karten Messungen ihre angegebene TDP von 19 Watt im idle ein. Man plaziert sich im idle minimal unterhalb der HD6870.

    Unter Last bewegt man sich gute 25% über der Vorgängerkarte aus eigenem Haus auf Niveau der HD5850. Im Vergleich zur NVidia Konkurenz liegt man minimal drüber, ist dafür aber auch deutlich Leistungsfähiger. Die Top HighEnd Karten seitens NVidia und AMD liegen aber deutlich über der HD6850. Ebenso hält man die angegebene TDP auch unter Spiele Last ein.
    Im absoluten Volllastbetrieb (Furmark) liegt man gute 15% unterhalb der HD5850. NVidias 460GTX sowie die HD5770 sind deutlich drunter, aber auch deutlich Leistungsschwächer. In Furmark hält man nur ganz knapp die 127 Watt TDP ein.
    In Sachen Effizienz hat man auch hier ganz klar einen Schritt zugelegt, trotz gleichem Hestellungsprozess.

    Messungen zum Stromverbrauch

strom1.jpg


strom2.jpg
strom3.jpg

(Gesamtsystemmessungen sind nicht 100% Vergleichbar)

Wie heiß darf meine Karte werden?

  • AMD hat scheinbar an der Lüftersteuerung nicht viel verändert zu den Karten der Vorgängergeneration. Temperaturtechnisch bewegt man sich sowohl idle als auch im Lastbetrieb ca. auf gleichem Niveau mit den HD5xxx Karten. Im Vergleich zu NVidia ist man ohne Last etwas drunter. Begründen lässt sich dies durch einen schneller drehenden Lüfter, welcher dann auch lauter ist. Unter Last hingegen ist man durchgängig ein Stück kühler.

    Messungen zur Temperatur

temp1.jpg
temp2.jpg




Passt die Karte in mein Gehäuse?

  • Mit einer Länge von ca. 23 cm ist das PCB minimal länger als der direkte Vorgänger. Aber immernoch etwas kürzer als die Top HighEnd AMD Modelle. Im Vergleich zur Konkurenz von NVidia bewegt man sich zwisch der 460GTX und der 470GTX. Potenzielle Käufer der Karten sollten sich dessen vorher bewusst sein und schauen, dass ihr Case auch dementsprechend Platz bietet. Der Stromanschluss wurden entgegen der Schwesterkarten HD6870 an die hintere Kante der Karte gelegt.


Wie gut läßt sich die Karte übertakten?
  • Das Übertaktungspotential der Karte scheint laut aktuellem Kenntnisstand nur sehr gering auszufallen. Dennoch eine ganze Ecke mehr, als es die HD6870 zulässt. Der Basistakt von 775MHz ist bietet also noch etwas Luft nach oben. Da sich im Moment die Spannung der Karte nicht weiter erhöhen lässt (per Software) kann man hier noch kein endgültiges Fazit abgeben. Laut diversen Tests lassen sich die HD6850 GPUs ca. um10-15% übertakten. Auch beim Speicher scheit die Karte kein OC Wunder zu sein. AMD typisch skalliert die Karte nicht ganz 1:1 mit dem Takt.

    Erste Overclocking-Versuche und Vergleichs-Benchmarks


Performance
  • Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr natürlich in unserem Online Artikel. Zu unserem Online Artikel gelangt ihr ->

vantage1.jpg
vantage3.jpg


far1.jpg
far5.jpg


crysis1.jpg
crysis5.jpg


metro1.jpg
metro3.jpg


uni2_1.jpg
uni2_5.jpg



Weitere Benchmarks im Hardwareluxx-Artikel zur AMD Radeon HD 6870


Andere Kühllösungen
  • Wir werden sehen was uns erwartet :wink:




Allgemeine Hinweise
Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes den „Beitrag-melden“ - Button (
report.gif
) zu benutzen! Natürlich auch im Falle eines Verstoßes gegen die Forenregeln! ;)
Solche oder nicht Themenbezogene Beiträge werden dann entfernt.

Grüße, fdsonne
 
Zuletzt bearbeitet:
Na klar, im Idle hat die Karte auch dermaßen was zu schaffen... Wieso muss der RAM da mit 1000MHz getaktet sein?

Wenn es nur der Lüfter wäre, aber vor allem im Dual-Monitor Betrieb enttäuscht die Karte. Da kann ich auch die alte 8800 im Rechner lassen.


man könnte sich auch vorher schlau machen bezüglich dual-monitor betrieb....aber es ist einfacher hinterher zu motzen :rolleyes:

nvidia hebt auch den takt an bei dual-monitor betrieb.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Vertex3D = Club3D = PowerColor, hinter allen diesen Marken steht die Tul Corporation als Hersteller.

Die Grakas von denen sind deshalb identisch, vom PCB-Design bis zu dem Kühler. Einzig die Plastikhaube ist bei der Vertex aus einem anderen Kunststoff gefertigt.

Ich weiß nicht woher der Eindruck kommt, aber ich in meinen Augen sehe ich Karte von allen drein als eher minderwertig an, bzw. selbst zum günstigsten Preis würde ich Karten von denen nicht kaufen.

---------- Beitrag hinzugefügt um 10:13 ---------- Vorheriger Beitrag war um 10:10 ----------

Na klar, im Idle hat die Karte auch dermaßen was zu schaffen... Wieso muss der RAM da mit 1000MHz getaktet sein?

Wenn es nur der Lüfter wäre, aber vor allem im Dual-Monitor Betrieb enttäuscht die Karte. Da kann ich auch die alte 8800 im Rechner lassen.

Das Problem mit dem Multimonitorbetrieb ist aber ein gängiges und nicht nur auf AMD beschränkt (und die neuen 6800er Karten), auch nvidia hat dieses Problem.

Aber warum willst du denn die 8800GTX behalten, nach deinen Angaben verbraucht die Karte weniger und sie ist deutlich schneller. Für mich wäre eher der Lüfter ein Grund, die Karte nicht zu nehmen.
 
also wenn man sich die vertex karte schon am produktbild genauer anschaut kann man sofort ablesen wie minderwertig das ding gebaut sein muss, wenn man sich den schlechtesten AIB aussucht seit es ati karten gibt is man selber schuld
Aha, leider bin ich nicht mit Deinen vorherseherischen Fähigkeiten ausgestattet. Ich habe einfach die Karten vergleichen und konnte keine größeren Unterschiede erkennen - siehe nächste Quote...

Vertex3D = Club3D = PowerColor, hinter allen diesen Marken steht die Tul Corporation als Hersteller.

Die Grakas von denen sind deshalb identisch, vom PCB-Design bis zu dem Kühler. Einzig die Plastikhaube ist bei der Vertex aus einem anderen Kunststoff gefertigt.
so ist es...

Deine Beiträge zeugen von hoher geistiger Reife und sind deswegen auch sehr zielführend.

man könnte sich auch vorher schlau machen bezüglich dual-monitor betrieb....aber es ist einfacher hinterher zu motzen
und woher weißt Du, das ich das nicht getan habe? Hier zB... Leider finde ich keine brauchbaren Vergleiche, da sich die Testsysteme geändert haben. Aber hey, Du scheinst ja Tests zu kennen, dann stell doch bitte ein paar Links ein.

nvidia hebt auch den takt an bei dual-monitor betrieb.
Denk doch mal nach, die 8800GTX ist seit 4 Jahren auf dem Markt und war / ist ein Stromfresser bei dem es keine 2D Taktraten gibt. Wieso muss der RAM der 6850 mit voller Leistung laufen? Wieso dreht der Lüfter auf 30% und man kann es manuell nicht mehr ändern?



Es ist ja nicht so, das ich mir mit der 6850 das Übermonster bestellt hätte. Die aktuellste Midrange Graka gegen eine alte Spitzenkarte. Sorry das ich da mehr erwartet habe... 45 Watt weniger mit einem Moni im idle ist akzeptabel, wenngleich die versprochenen 19W bedeuten, das die 8800GTX nur ~65W im idle verbraucht - kaum vorstellbar?!? Nur 20W im Dualmodus und 30W weniger unter Furmark weniger, was darf man da von einer 69x0 erwartem? Die 88er ist ein Dinosaurier in 90nm Fertigung, die 68er werden in 40nm gefertigt. Wenn ich da an die CPUs denke... Mein alter E6600 zog bei 3600MHz mehr aus der Dose, als der X3360mit 4000MHz, der Q9650 im E0 Stepping verbraucht sicher nochmals weniger.

Wieso kann ich nicht ähnliches bei den Grakas erwarten? :hmm:


edit: @ TopAce888, vergleiche mal die Bilder, sogar die MSI sieht fast gleich aus (Lüfterdesign - insbesondere die Lüfterblätter). Nur weil das rot durchgefärbter Kunststoff ist, kann man doch nicht von billig reden. Selbst die HIS und die Asus haben die gleichen Lüfterblätter. Lediglich XFX, Sapphire und Gigabyte unterscheiden sich deutlich.

Eigentlich zocke ich kaum noch, möchte aber dennoch eine Karte, die - wenn mich mal die Lust überfällt, mir den Spaß am 24" nicht vermiesst. Ursprünglich sollte es die 5770 werden, aber da käme sicher kaum Spielfreude auf. Andererseits will ich keine Karte im Rechner, die beim Nichtstun sinnlos Energie verbrät - deshalb soll die 88er raus. Aber wenn ich nachrechne wann sich das amortisiert, dann vergeht einem fast die Lust in etwas neues zu investieren. Die 6850 lag bei Furmark mit 4xMSAA 8fps vor der 8800GTX. Mehr hatte ich nicht getestet, das dies lediglich ein Stabilitätstest für die 8800 sein sollte.
 
Zuletzt bearbeitet:
man könnte sich auch vorher schlau machen bezüglich dual-monitor betrieb....aber es ist einfacher hinterher zu motzen :rolleyes:

nvidia hebt auch den takt an bei dual-monitor betrieb.


"Wie von Nvidia versprochen verbraucht die GeForce GTX 580 im Desktop-Betrieb (Idle) weniger Strom als die GTX 480. Herausragend ist natürlich die Leistungsaufnahme mit mehreren Monitoren - vorausgesetzt, es werden zwei ähnliche Modelle mit gleicher Auflösung eingesetzt. Anderenfalls liegt der Stromverbrauch aufgrund der nicht abgesenkten Taktraten auf dem Niveau der GTX 480."

Du sagst es, vorher schlau machen.

Geht mit den neuem Treiber bei allen Karten und nView läuft unter W7/64

Wenns bei ganz "alten" Karten nicht geht hilft der NVInpektor mit 2 Klicks.
 
toll und was nützen die News bei der 6850?
 
doch, aber das ändert ja nichts an meiner Antwort :)
 
@Seppelchen: Die 6850 ist sicherlich bis zu 70% schneller als die alte 8800GTX, d.h. du hast einen ordentlich Performanceschub und dabei verbraucht die Karte weniger, was erwartest du denn noch? Wenn du einen geringegen Verbrauch haben willst, muss du auch auf Leistung verzichten. In dem Fall wäre eine 5770 für dich interessant, damit liegst du bestimmt auch noch bis zu 40% vor der 8800GTX und sparst nochmal 30W.
 
Zuletzt bearbeitet:
@seppelchen
hier ein test wegen multimonitorverbrauch....

Test: AMD Radeon HD 6870 und HD 6850 (Update 2) (Seite 27) - 22.10.2010 - ComputerBase

ist seit der HD5xxx bekannt das die taktraten bei multimonitor nicht ganz abgesenkt werden.

http://www.computerbase.de/artikel/...-11/23/#abschnitt_bluraymultimonitorverbrauch

wenn du schon den verbrauch vergleichst, dann auch mit einer grafikkarte die so schnell ist wie deine 8800...dann siehts wieder etwas anders aus.


@mayer 2
Im Zwei-Monitor-Betrieb gibt es relativ ebenfalls eine Verbesserung, wobei die GeForce GTX 580 mit 246 Watt absolut weiterhin ziemlich schlecht abschneidet und nur den drittletzten Platz belegt. Laut Nvidia sollen die aktuellen GeForce-GTX-400-Karten zwar im normalen Energiesparmodus wie mit einem einzelnen Display arbeiten, wenn die Auflösung und die Frequenz beider Monitore identisch sind, was bei unserer Konstellation aber irgendwie nicht so ganz funktionieren will – wir klären das aktuell mit dem Hersteller.

Test: Nvidia GeForce GTX 580 (Seite 26) - 09.11.2010 - ComputerBase
 
Zuletzt bearbeitet:
@seppelchen

Ich glaube du hast da etwas überzogene Vorstellungen. Du vergleichst eine zwar 4 Jahre alte aber damals als High-end anzusehende Karte mit einer Mid-Range Karte die weniger als die Hälfte kostet und trotzdewm deutlich schneller ist. Wenn du dir mal die Tests im Netz anschaust wirst du leicht erkennen, dass AMD momentan die Referenz darstellt im Verbrauch und der Effizienz. Die Verbrauchswerte kannst du vielen Tests entnehmen, da darfst du dich hinterher nicht mehr beschweren. Und was die Lautstärke angeht, da ist einzig und alleine der Hersteller schuld. Wiederum hättest du in Tests vorher entnehmen können, dass Sapphire hier aktuell die leiseste Karte liefert und nicht einem in Deutschland noch recht unbekannten Hersteller vertrauen sollen. Du siehst also, dass man dir zu Recht eine Mitschuld geben muss. Ich kann deinen Ärger durchaus verstehen, aber die Schuld hier nur bei AMD zu suchen ist falsch.
 
Da ich keine Zeit habe mir alles durchzulesen, daher frage ich mal, ob es möglich ist die normale 6850 auf die Leistung der 6850 im Computerbase Test zu kriegen oder ob die nur ein besonderes Sample hatten, was so nicht machbar ist.
 
Wenn du einen geringegen Verbrauch haben willst, muss du auch auf Leistung verzichten. In dem Fall wäre eine 5770 für dich interessant, damit liegst du bestimmt auch noch bis zu 40% vor der 8800GTX und sparst nochmal 30W.
Leider nicht wirklich, denn laut HT4U sind es im idle gerade mal 12W und dann auch nur im Dual-Moni Betrieb. Mit einem Moni liegen die Karten gleich auf. Der Verbrauch unter Last ist in meinem Fall zu vernachlässigen.



@ all... Es ist ja nicht so, dass ich mich nicht belesen hätte. Ganz im Gegenteil, ich hatte mich mehrfach damit befasst. Ich brauche das Plus an Leistung momentan nicht wirklich, aber ich wollte den Stromverbrauch + Wärmeentwicklung des PC senken - natürlich nicht um jeden Preis. Eine 5450 würde zum jetzigen Zeitpunkt reichen, da ich mir aber die Möglichkeit des Spielens offen halten möchte, habe ich eben zur etwas potenteren Version gegriffen. Wenn man von den Verbrauchszahlen im Idle ausgeht, dann müsste es doch herzlich egal sein, welche AMD Karte man sich in den Rechner hängt. Die 6850 zieht ca. 40-45W im idle weniger. Wenn man dazu die Angaben AMD nimmt, verbraucht meine 8800 demzufolge gerade mal 60-65W. Glaubhaft? Eher nicht.

Mag sein das ich die Zahlen falsch intepretiert und eventuell zu viel erwartet hatte. Es ist ja auch nicht möglich, einen Vergleichstest mit aktuellen und älteren Karten auf identischer Plattform zu finden. Ich dachte ehrlich, das 4 Jahre Entwicklung mehr bewirkt hätten. Es ist aber nun so wie es ist, noch habe ich die Karte, zurückschicken oder behalten? So wie sie ist, ist sie zu laut. Kann man den Lüfter einfach abnehmen? Dann könnte ich ja einen leisen 80 oder 120er auf den Kühler schnallen. Oder lieber zurück damit und eine Sapphire oder gar eine GTX 460 von Gigabyte?
 
Schick die Karte zurück und wie du schon sagtest nimm die Sapphire oder die Gigabyte, die sind beide sehr leise. Die Saphire ist im Idle noch einen Tacken leiser als die Gigabyte, dafür ist die Gigabyte unter Last leiser. Aber beide sind noch weit enfernt von laut. Aber auch mit der GTX460 wirst du einen erhöhten Mehrverbrauch beim Multimonitorbetrieb haben.

Da ich keine Zeit habe mir alles durchzulesen, daher frage ich mal, ob es möglich ist die normale 6850 auf die Leistung der 6850 im Computerbase Test zu kriegen oder ob die nur ein besonderes Sample hatten, was so nicht machbar ist.

Du meinst also, die fehlenden Shader freischalten? Das geht meines Wissens nicht, das waren fehlerhafte Samples von den Boardpartnern.
 
Zuletzt bearbeitet:
@seppelchen

Wenn es nach mir gehen würde dann könnten sie die Grafikkarte in Windows abschalten und die Onboard dafür benutzen. Beim Spielen kann sie dann wieder aktiviert werden. Auf solch eine Lösung warte ich seit Jahren vergebens. Wird Zeit meine Dissertation zu beenden und eine Bewerbung an AMD zu schicken, ich mach das jetzt einfach selber :d
 
meinen Segen hast Du :)

Da sieht man doch das halbherzige Vorgehen, Notebooks verfügen doch über diese Möglichkeit.
 
man könnte doch das bios so programieren das bei 2 monitoren keine bzw. weniger erhöhung der taktraten stattfindet....dazu kenne ich mich aber zu wenig aus.
 
hm, ich leider auch. Bei meiner damaligen X1900 konnte man die Taktraten mit dem ATITool ändern... Gibt es einen Kniff, damit man den Rivatuner zum ändern der Taktraten nutzen kann?
 
Die 5850 ist schneller und hat angeblich die bessere Bildqualität, dafür aber teurer und stromhungriger.

Ich würde eher zur 6850 tendieren. Ich hab selber die von Sapphire und bin total zufrieden.
 
Bin auch super zufrieden. Wie weit habt ihr eure Sapphire uebertaktet?
 
also ich hab meine auf 950/1150, bringt damit 16.000 in 3d mark vantage... bin schon zurieden (Vgl: 260 gtx: 11.000)
Metro: 260gtx: 20 fps, 6850: 36 fps

also gute 50% Mehrleistung... und flüsterleise und deutlicher kleiner noch dazu.
Top Karte!
 
Zuletzt bearbeitet:
hm, ich leider auch. Bei meiner damaligen X1900 konnte man die Taktraten mit dem ATITool ändern... Gibt es einen Kniff, damit man den Rivatuner zum ändern der Taktraten nutzen kann?

Evtl. hilft dir das hier weiter.

Workaround: RivaTuner fr AMD Radeon HD 5000-Familie modifizieren - Was wird benötigt? (Seite 2) - Tests bei HardTecs4U

Kann sein, dass der Trick auch für Barts funkioniert.

Kleine Zwischenfrage, wer hat denn in dem Vergleich die Nase vorne?

1. Hardwareluxx - Preisvergleich
oder
2. Hardwareluxx - Preisvergleich

von der Performance her die Nr.1 (aber nicht für über 300€), vom Preis-/Leistungsverhältnis die Nr.2.

Mit Übertaktung bekommst du die 6850 auch auf 5850 Nievau. Und wenn man die 5850 dann noch übertaktet, dann hat die noch einen Vorsprung von 10-15%.

Bin auch super zufrieden. Wie weit habt ihr eure Sapphire uebertaktet?

Auf 950/1150 bei 1.2V
 
Danke Dir, ich bin heute etwas früher aufgestanden und habe mich der Sache nochmals angenommen. Im CCC kann man problemlos den RAM-Takt ändern, dann senkt die Software automatisch den Core-Takt.

azb.png


allerdings wird es hier nicht angezeigt.
2np.png


Mit 100/400MHz sind es ~20W Einsparung gegenüber dem Standard-Takt. Diese Ergebnis hätte ich von Haus aus erwartet.

Den Trick mit dem Rivatuner hatte ich inzwischen auch entdeckt, scheint auch zu funktionieren.



Sehe ich das richtig, zur Demontage des Lüfters muss die Abdeckung komplett runter? Was meint ihr, bekomme ich eine leise Karte mit ausreichender Kühlung, wenn ich einen langsam drehenden 120er auf dem org. Kühler anbringe?
 
Meine Erfahrungen haben gezeigt, dass das nachträgliche Montieren eines größeren Lüfters keine Besserung bringt. Ich hatte es zuletzt auf einer GTX460 mit Referenskühler und einem 120er BQ SilentWings USC ausprobiert und selbst auf voller Drehzahl waren die Temperaturen schlechter als mit dem Standardlüfter, wobei die Laustärke mit dem BQ Lüfter sogar lauter war.

Erst als ich einen 92mm-Lüfter in die dafür vorgesehen Lüfterposition eingebaut hatte, lief die Karte kühler und leiser. D.h. wenn du tauschen willst, dann gegen einen gleich großen Lüfter, der perfekt in den Kühler passt. Ich habe da mit dem F9 PWM gute Erfahrungen gemacht. Allerdings muss der Rahmen vom Lüfter entfernt werden und dann wird es auch ein bissche tricky den zu befestigen. Ich hatte damals bei mir den Vorteil, dass die Grafikkarten im A05 Gehäuse um 180°C gedreht eingebaut ist und ich den Lüfter einfach nur drauf legen brauchte.

Ansonsten experimentier doch ein wenig mit der Lüftergeschwindigkeit. Bei mir reichen 45% aus um die Karte auf 950/1150 bei 1,2V auf um die 70°C zu kühlen.

---------- Beitrag hinzugefügt um 10:25 ---------- Vorheriger Beitrag war um 10:24 ----------

Du kannst auch noch den MSI Afterburner verwenden, um den Takt zu kontrollieren.

Afterburner 2.1.0 Beta 3 download from Guru3D.com
 
das mit einem großen lüfter geht net gescheit, und wenn das teil irgendwie sitzt muß er voll pulle laufen....also bringt nix.
 
Ich habe die Karte mit dem MSI Afterburner momentan sogar auf 14% und 40°C - ABER das Shice-Ding brummt immer noch deutlich hörbar. Schraube ich jetzt den Kühler ab, dann ist die Garantie flöten und zurückschicken ist dann auch nicht mehr. Andererseits musste ich die 8800GTX ohne vorherigen Testlauf auf Wakü umbauen, da sie wegen des Boardkühlers nicht passte. Und die hatte 485€ gekostet. Ich denke ich werde es probieren, notfalls muss ich eben einen Arctic draufschnallen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh