[Sammelthread] AMD Bulldozer "Zambezi" 32nm "New CPU Architecture" Sockel AM3+ [Part 3]

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Opteron
In einem anderen Pc läuft das Kit 1866 mit allen vier Riegeln.
Da muss ich noch mal nachhaken: In einem anderen AMD-Rechner oder in nem Intel-Rechner?
Wäre ja nichts Neues, wenn es da Unterschiede gäbe.
Wenns ein Intel ist, probiers mal mit dem höheren RefTakt, ansonsten kurioser / BIOS / sostwas Bug (zumindest bei 1 DIMM pro Kanal).
 
Nein.
Klick in meine Signatur. ;)

ja die vcore, die cpu-z ausliest ist immer etwas höher als die eingestellte vid bei k10stat. das kann ich bestätigen ist doch aber kein problem, da die spannung nicht schwankt sondern etwas höher scheint, damit kann man doch aber arbeiten ;)
betrachtet man die werte von vid bspw mit coretemp, dann stimmen die mit den eingestellten vid-werten von k10stat genau überein. wenn dann die vcore minimal abweicht liegt das an der automatik des gigabyte bios. ich sehe hier nicht wirklich ein problem.
 
Zuletzt bearbeitet:
Tritt dieses Problem eventuell erst ab einer bestimmten GB Anzahl auf? Konnte jetzt mit 4x2GB zumindest mal problemlos mit 1866 und 2133 booten.
Sind allerdings keine 4 gleiche Module sonder 2 unterschiedliche Kits von GSkill und der 8120 ist auf 4Threads gedrosselt.

Pc startet bei 1866 wirklich nur mit einem Riegel. Da habe ich jetzt nicht alle Bänke ausprobiert.

Das mit dem einen DIMM pro Kanal wird aber auch nirgendwo erwähnt oder doch?

AMDs offizielle Aussage ist: Zwei bestückte DIMMs im Dual-Channel machen DDR3-1866. Vier bestückte DIMMs im Dual-Channel offiziell nur DDR3-1600. Bei Vollbestückung schraubt ja auch Intel beispielsweise bei SNB-E runter. Das wird aber nicht sehr offen kommuniziert und ich habe es auch erst auf Nachfrage erfahren.

Es kann aber auch sein, dass es läuft. Wir haben hier einen FX-8150 mit 4x 4 GB Corsair Vengeance. Das System bootet, der 3DMark und Prime laufen durch, aber sobald BF3 gestartet wird, stürzt die Anwendung ab. Es hängt also offenbar auch von den Modulen ab, ob es funktioniert oder nicht.
 
AMDs offizielle Aussage ist: Zwei bestückte DIMMs im Dual-Channel machen DDR3-1866. Vier bestückte DIMMs im Dual-Channel offiziell nur DDR3-1600. Bei Vollbestückung schraubt ja auch Intel beispielsweise bei SNB-E runter. Das wird aber nicht sehr offen kommuniziert und ich habe es auch erst auf Nachfrage erfahren.

Es kann aber auch sein, dass es läuft. Wir haben hier einen FX-8150 mit 4x 4 GB Corsair Vengeance. Das System bootet, der 3DMark und Prime laufen durch, aber sobald BF3 gestartet wird, stürzt die Anwendung ab. Es hängt also offenbar auch von den Modulen ab, ob es funktioniert oder nicht.

Sorry fürs OT, aber warum kriegt das AMD beim BD nicht hin, während es beim LLano, zumindest bei mir, mit 4x4GB @1937Mhz funkioniert: booten, 3dMark, Spiele (auch BF3), etc.
 
Schon klar :)

Also 2x4 GB @1.65v geht auch nicht,habe beide Kanäle probiert.

Jut dann werde ich erstmal 4x4 @1600 machen. Falls es wiedererwarten doch am Board liegt und ein Biosupdate was bringt gebe ich Bescheid.

Wenn du nicht "tief im Westen" wohnen würdest, würde ich dir ein Treffen anbieten, bei dem wir mal weitere Mainboards mit deiner CPU und deinem RAM testen. Aber so liegt wohl jede Menge Deutschland zwischen unseren Wohnorten. :fresse:

Sorry, dass meine teils doofen Fragen nicht zur Problemlösung beitragen konnten. :(



Es kann aber auch sein, dass es läuft. Wir haben hier einen FX-8150 mit 4x 4 GB Corsair Vengeance. Das System bootet, der 3DMark und Prime laufen durch, aber sobald BF3 gestartet wird, stürzt die Anwendung ab. Es hängt also offenbar auch von den Modulen ab, ob es funktioniert oder nicht.

Ich denke noch immer, dass der Speichercontroller ausschlaggebend ist. Ich habe nämlich auch einen FX-8150 mit 4x 4 GB Corsair Vengeance getestet - mit dem Ergebnis, dass bei DDR3-1866 nur 12 GB beim Boot erkannt wurden. Ich denke, dass der Speichercontroller zu große Unterschiede aufweist und AMD genau deshalb mit vier Riegeln nur DDR3-1600 garantiert. Was anderes ist diese Spezifikation ja nicht.

Wer mit 4x 4 GB DDR3-1866 zum Laufen bekommt, der hat halt Glück gehabt, da er sich außerhalb der Herstellervorgabe bewegt. Wer das nicht schafft, der fällt auf einen Wert zurück, der von AMD auch garantiert wird.



Sorry fürs OT, aber warum kriegt das AMD beim BD nicht hin, während es beim LLano, zumindest bei mir, mit 4x4GB @1937Mhz funkioniert: booten, 3dMark, Spiele (auch BF3), etc.

Wie bereits gesagt: DDR3-1866 kann auch bei vier Riegeln mit dem Bulldozer funktionieren. Es wird halt nicht garantiert. Genauso wird bei deinem Llano auch kein Speichertakt von DDR3-1937 garantiert - dass es dennoch läuft ist schlichtweg einem guten Speichercontroller und Glück beim CPU-Kauf zu verdanken.
 
Da muss ich noch mal nachhaken: In einem anderen AMD-Rechner oder in nem Intel-Rechner?
Wäre ja nichts Neues, wenn es da Unterschiede gäbe.
Wenns ein Intel ist, probiers mal mit dem höheren RefTakt, ansonsten kurioser / BIOS / sostwas Bug (zumindest bei 1 DIMM pro Kanal).

Ist ein i7 2600k System. Ich werde Nachher mal 2 Dimms mit dem höheren RefTakt ausprobieren.

Wenn du nicht "tief im Westen" wohnen würdest, würde ich dir ein Treffen anbieten, bei dem wir mal weitere Mainboards mit deiner CPU und deinem RAM testen. Aber so liegt wohl jede Menge Deutschland zwischen unseren Wohnorten. :fresse:

Sorry, dass meine teils doofen Fragen nicht zur Problemlösung beitragen konnten. :(

Ich habe mal Cottbus als Referenz genommen. Die kürzeste Srecke wären 613 km :) Trotzdem Danke für das Angebot.
 
ja die vcore, die cpu-z ausliest ist immer etwas höher als die eingestellte vid bei k10stat. das kann ich bestätigen ist doch aber kein problem, da die spannung nicht schwankt sondern etwas höher scheint, damit kann man doch aber arbeiten ;)
betrachtet man die werte von vid bspw mit coretemp, dann stimmen die mit den eingestellten vid-werten von k10stat genau überein. wenn dann die vcore minimal abweicht liegt das an der automatik des gigabyte bios. ich sehe hier nicht wirklich ein problem.

Wenn das für dich normal ist, dann hast du andere Ansprüche an ein 150€ Brett als ich.
Zusammenfassung:
attachment.php
Für mich wäre eher das normal:
VCore Stabilität:
Getestet mit einem X6 1090T
vcore2d2q.jpg


Leider wird sich daran auch höchstwahrscheinlich nichts ändern, da es nicht möglich ist LLC nachträglich zu implementieren. Das Problem wird wohl erst mit den nächsten Boardrevisionen behoben.
 
hast du den vcore im bios auf auto? falls ja, stell das mal ab. und wie gesagt mit k10stat stellt man den vid ein und nicht den vcore.
 
@orange: Da kann man einstellen was man will. Es funktioniert leider nicht da es kein LLC hat. Hatte am Anfang auch ein UD7 und die gleichen Probleme. Zum Glück hab ich jetzt ein Asus :)
 
Jop hatte das Gigabyte auch schrott, nur schwankungen tauschen lassen gegen Asus Sabortooth stabiles teil, würde es nie wieder hergeben gegen Gigabyte.
 
Jop hatte das Gigabyte auch schrott, nur schwankungen tauschen lassen gegen Asus Sabortooth stabiles teil, würde es nie wieder hergeben gegen Gigabyte.

Ich habe sowohl mit dem Crosshair V als auch mit dem UD7 Erfahrungen. Und ich kann beim besten Willen nicht erkennen, wo das UD7 "Schrott" sein soll(geschweige denn die Gigabyte-Boards generell). Was manche User hier für eine Art und Weise an den Tag legen, passt auf keine Kuhhaut. :wall:

Was dem Gigabyte GA-990FXA-UD7 gegenüber dem ASUS Crosshair V Formula fehlt, sind folgende drei Dinge:

1. LLC
2. eine DDR3-2133-Option
3. die Möglichkeit zur Abschaltung einzelner Kerne/Module

Sowas sind sachliche (und korrekte) Argumente. Die kann jeder nachvollziehen. Und auch wenn diese Optionen (noch) fehlen, so machen sie ein Board noch lange nicht zum "Schrott".
 
Die Möglichkeit zur Abschaltung einzelner Kerne/Module ist beim neuen Beta-Bios F7g dabei zumindest für das UD5.
 
Stromverbraucht der aktuellen AM3+ Mainboards

Hallo,

für die AM3 Boards und Phenom, bzw. Athlon X4 gibt es hier im Forum einen schönen Stromspar-Thread, in dem AM3-Mainboards auf ihren Stromverbrauch analysiert wurden und sich letztlich für den AM3-Prozessor zwei Gigabyte und ein Biostar Mainboard als die Stromsparendsten herausgestellt haben.

Ich nutze im Server das dort genannte Biostar Board, welches im Idle tatsächlich saumäßig sparsam ist und trotzdem als einziges ECC RAM tatsächlich unterstützt (auch im Bios), auch mit Tests nachgewiesen (mit einem defekten DIMM und einmal mit deaktivierten und aktiviertem ECC getestet).

Für den AM3+ gibt es solche Informationsquellen noch nicht. Die Boards und der BD sind noch nicht so lange genug auf dem Markt.

Trotzdem wäre es interessant zu wissen, wie der Leistungsverbrauch der typischen BD-Mainboards sich zueinander verhält.

Ich werfe mal die üblichen Verdächtigen ins Rennen:

ASUS Crosshair V Formula
ASUS Sabertooth 990FX
Gigabyte GA-990FXA-xx
MSI 990FXA-GD80

Bisher konnte ich nur herausfinden, dass das Sabertooth ca. 4 Watt weniger im Idle verbrauchen soll als das Crosshair V Formula von ASUS.

Die Suche bei Google gestaltet sich ziemlich nervig, da recht ergebnislos. Vielleicht suche ich auch falsch.

Hat ggf. jemand schon bezüglich der obigen Boards sich nach dem Stromverbrauch der Boards selbst informiert oder kann von einem dieser Boards behaupten, es würde besonders sparsam sein?

Oder ist es vielmehr so, dass diese vier genannten Boards den Stromverbrauch ohnehin nur um +/- 5 Watt beeinflussen können, da sie fast gleichwertig sind?

Gruss
Freeman
 
Wer Strom sparen möchte, ist wohl in der 970-er/990X-er besser beraten, als mit einem vollgestopften 990FX.
Direkt vergleichen kann man die Boards eh nicht, da die AUsstattung doch recht unterschiedlich ist und jeder Hersteller seine Ausrichtung hat. MSI hat im Vergleich der aktuellen Boards weniger Onboardkomponenten als ASUS, Gigabyte ist eher auf Stabilität@Stock getrimmt (meist bissl mehr VCore als andere Boards). Biostar und AsRock streben ja jetzt erstmal richtig nach oben, sodass es für mich noch etwas schwierig ist einzuschätzen, wohin die Richtung gehen soll. Zumindest AsRock hat derzeit recht interessante Boards im 990er Bereich, wenn die mir auch designseitig nicht zusagen.
 
Naja im Vergleich zu den alten AsRock Abfall sind diese Boards genau das was der Kunde braucht. Innovatives zum kleinen preis.. Wenn man nen Bulli möglichst günstig befeuern will, dann würde ich vllt auf einen 880g oder wie schon gesagt nen 970 setzen, der 990FX dürfte wie der 990X verdammt viel verbraten
Ausserdem bekommt du nen gutes 880g Mainboard auch schon ab 60€, laut c't sind diese auch nochn ticken Sparsamer als die 970er Bretter. Also vllt auch mal die fühler dahin strecken, denn wenn du nen Schnäppchen ergatterst, haben diese Boards durchaus Daseinsberechtigung. Finger weg von 760g und sonem Schrott ^^
 
Wobei man dann allerdings auf HT 3.1 verzichtet. B.t.w., hat da eigentlich irgendjemand schon mal herausgefunden, ob das einen spürbaren Performancezuwachs ergibt? Ich habe schon überall gesucht, aber da hat sich irgendwie noch keiner mit beschäftigt. :confused:
 
Ein schneller HT bringt's im Desktop-Bereich (Spiele) nicht.
 
@Mick_Foley & smoothwater:

Problem ist, ich benötige ein Board mit integrierter DVI-Grafik und 3x PCIe 16x Steckplätzen (min. 8x + 4x + 4x). Oder ein Board ohne ingegrierter DVI-Grafik und dafür zusätzlichem einem PCIe x1 bis x16 wohin ich eine sparsame DVI-Grafikkarte einstecken kann.

Die erst genannten drei PCIe Slots benötige ich für Raid-Controller, Intel Quad-NIC und Infiniband-Controller.

Freeman
 
Offenbar sind aber die Boards doch ziemlich unschuldig. Zambezi hat vielmehr offenbar mit problematischen Leckströmen zu kämpfen und ist deshalb ziemlich problematisch vom Stromverbrauch her:
AMD FX - Die Zweite... - Prozessoren - Planet 3DNow! Forum
Daher der hohe Stromverbrauch auch bei relativ niedrigen Spannungen. Entweder gibts Exemplare mit hohen Spannungen und relativ schlechter Taktbarkeit oder eben welche mit niedrigen Spannungen und sauschlechter Wärmeeffizienz. Da Vishera erst in frühestens 8 Monaten erwartet werden kann, denke ich nun doch, dass es noch eine Rev.C geben wird, die dieses Problem lösen könnte. Eventuell kann man garnicht auf Ultra-LowK verzichten langfristig. Man merkt der CPU eben leider an allen Ecken und Enden an, dass er erst Rev.B ist - sehr langsame Caches, problermatisch platzierte Leiterbahnen, evtl ungünstige Hotspots in der FPU usw. Löst man all diese Probleme gibts mMn ein Taktfeuerwerk.

Wenn das für dich normal ist, dann hast du andere Ansprüche an ein 150€ Brett als ich.

Für mich wäre eher das normal:


Leider wird sich daran auch höchstwahrscheinlich nichts ändern, da es nicht möglich ist LLC nachträglich zu implementieren. Das Problem wird wohl erst mit den nächsten Boardrevisionen behoben.

Mit der Leckströme-Begründung sind beide Tabellen schlüssig.
 
Zuletzt bearbeitet:
Naja trotzdem werden die dicken Boards mehr verbrauchen als die kleinen, darum ging es ja gerade. ;) Ansonsten dürftest du recht haben. :)
 
Naja trotzdem werden die dicken Boards mehr verbrauchen als die kleinen, darum ging es ja gerade. ;) Ansonsten dürftest du recht haben. :)

Das sicher, der 65nm-Chipsatz hat ja mehr Verbrauch und die zig Zusatzchips ebenfalls. Vielleicht wird man beim 1090FX eine Besserung sehen, da dort ja keine Zusatz-SATA und USB3-Chips mehr benötigt werden (8 native SATA3-Ports und 4 USB3-Ports). Auf Firewire verzichten ja viele (zum Glück) mittlerweile wieder viele.
 
Zuletzt bearbeitet:
[...]
Mit der Leckströme-Begründung sind beide Tabellen schlüssig.

Nicht ganz.
Meine Ergebnisse sind auch mit einem Thuban entstanden.

Mittlerweile ist ein neues Beta Bios erschienen. Hier wurde die Option "APM Master Mode" integriert.
Beim Bulli sorgt es dafür, dass die VCore- und Taktsprünge geringer werden. Mein x6 zeigt sich aber leider völlig unbeeindruckt.
 
merry Xmas :xmas:
AMD plant Phenom II X8? -mit Bulldozer-Architektur, für am3+ Boards- (ohne Turbo-Core-Funktion, günstiger Preis)

Phenom II X8 3020 mit 3,00GHz Takt und 125 Watt Verlustleistung
Phenom II X8 2820 mit 2,80 GHz Takt und 95 Watt Verlustleistung
Phenom II X8 2520 mit 2,50 GHz Takt und 95 Watt Verlustleistung
Phenom II X8 2420 mit 2,40 GHz Takt und 95 Watt Verlustleistung

AMD plant Phenom II X8? - News Hartware.net

jetway HA18 cpu support -unten-
 
Zuletzt bearbeitet:
Klingt nett :)

gesendet von meinem Defy CM 2.3.7 via HardwareLuxx App
 
Könnte mir vorstellen das der L3-Cache abgeschaltet wurde.

-Resteverwertung & untere Preisklasse wenn der "alte Phenom" nicht mehr produzirt wird-
 
Das hört sich ja erst mal nicht schlecht an.Aber auf BD Basis nur den Turbo weg lassen und den Takt etwas runter brauch man die nicht gleich Phenom II X8 nennen.

Werden die in 32nm gefertigt?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh