[User-Review] Wechsel von AMD Phenom II X6 3,3/3,7 Ghz auf Intel i3 X2 @3,5 Ghz ein Upgrade?

Viel zu wenig Angaben bei Handbrake! Keine Codecdaten, keine Dateigrößen! Und keine Angaben zum Durchgang! CRF? 1-pass? 2-pass? Profile? Total nichtsaussagend.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dem X6 scheint die mangelnde Parallelisierung deiner Software etwas zu missfallen. Wie sähe das denn aus, wenn du z.B. zwei dieser Filme parallel konvertierst?

Keine Ahnung. Den Phenom II X6 habe ich ausgebaut und werde ihn bestimmt nicht wieder einbauen. Allerdings habe ich noch nie zwei Filme parallel konvertiert und es geht mir ja nur um die Leistung der CPUs für mein Anwendungsprofil.
 
Toller und ausführlicher Bericht :) Sind die Werte unter DVD rippen überhaupt vergleichbar? Du hast anscheinend ja ganz andere Einstellungen beim x6 und dem i3 gehabt?


Bitte tue mir(als user und nicht als mod) doch einen gefallen und streiche das x2 aus der Intel Bezeichnung, sieht ja gruselig aus ^^
 
Ein Test ist dazu da um sich danach eine Meinung zu bilden und nicht schon zuvor mit Floskeln und gefühlten Mehrleistungen zu schwadronieren.

Ich betrachte das als Einleitung, um Interesse zu wecken und den Leser zum Thema hinzuführen. Ich betrachte die Leser als menschliche Wesen und nicht als Roboter, denen ich einfach nur ein paar Zahlen vor die Füße rotze.

Als User Review hätte ich da ehrlichgesagt mehr erwartet. Und zwar eine objektive Auseinandersetzung moit den CPU´s, immerhin ist die AMD CPU von 2010 und die Intel von 2014.

Es ist aber gerade der Sinn des Reviews, zu zeigen, was so ein Upgrade bringt. Dies ist kein Vergleich welche CPU man heute neu kaufen soll. Es geht halt genau um die Frage, ob sich das Upgrade von so einer alten X6 CPU aus dem Jahr 2010 auf eine X2 CPU aus dem Jahr 2014 lohnt. Und zwar für mein Anwendungsprofil.

Ich stand vor dem Upgrade genau vor dieser Frage. Ich hatte schon lange Zeit geahnt, dass der i3 unterschätzt wird, denn die Benchmarks sahen von ihm schon immer erstaunlich gut aus für einen Zweikerner. Aber ich wusste halt nicht, wie gut er sich bei mir dann tatsächlich macht.

Ich hätte mich gefreut, wenn jemand anders den Vergleich gemacht hätte, dann wäre mir die Wechselentscheidung einfacher gefallen.

Wenn man eh nichts auf ein Gefühl geben kann, wieso findet es dann Erwähnung? Schonmal daran gedacht, dass neue, frische Systeme immer erstmal schneller sind?

Das System war nicht frisch. Ich habe die alte SSD ans neue Mainboard angeschlossen, bei MS angerufen, um den Aktivierungscode einzugeben, deren Code in Windows eingegeben, fertig.

D.h. in dem Test dudelten noch die ganzen AMD Treiber in der Registry rum und zu allem übel hatte ich die Intel Storage Treiber nicht installiert und die SSD lief nur im HDD Modus auf SATA2 anstelle auf SATA3.

Dagegen war das AMD System bis zum Anschlag getweakt: Northbridge auf 2600 MHz anstelle 2000 Mhz (30% OC), Ramtimings auf CL8 anstelle CL9 - Idle Frequenz um 50% (!) übertaktet, damit die CPU schneller aus den Puschen kommt, die anderen P-States um keine Ahnung wie viel Prozent.

Braucht man sicherlich auch, wenn man mehrere Dinge parallel macht. Dazu wäre aber eher ein FX interessanter gewesen, dort hat ein i3 nicht den Hauch einer Chance, im gegensatz zum Phenom II.

Dieses "mehrere Dinge parallel" ist doch auch nur ein Mythos.

Als ich das Review geschrieben habe, hatte ich einen Office Writer offen, eine Bildbearbeitung für die Screenshots, Firefox mit 20-30 Tabs, Videowiedergabe-Software, Youtube Uploads am laufen, Winamp für Musik und und und... aber das produziert doch alles keine ernstzunehmende Last.

Und was mache ich sonst an paralleler Arbeit? Vielleicht mal ein Spiel aufnehmen - die Ergebisse davon sieht man ja im Test.

Klar, wenn ich eine DVD kodiere surfe ich nebenbei mit dem Firefox und lese Nachrichten oder ärgere mich über dumme Forenkommentare. Aber wieviel Zusatzlast ist das denn? 1%? 2%. Das ist doch völlig witzlos.

Laut deinen Messungen sind das im Mittel 20%. Wegen denen lohnt sich ein Upgrade imho nicht. Deine Messwerte zeigen -9 bis 50%. und bei deinen Aufnahmen sinds eher 15 bis 20% und nicht 20 bis 30%.

Dein Mittelwert ist unfug, da du gar nicht weisst wie oft ich welche Anwendung nutze.

Und bei den Aufnahmen sehe ich 28% mehr Minimum FPS und 18% mehr Average FPS (und das bei FHD mit maximalen Grafikdetails, obwohl mir Skyrim für meine Graka eine niedrigere Grakaeinstellung empfohlen hat) - ausserdem sind die average FPS mit Vorsicht zu genießen, da das Spiel hat einen internen FPS Limiter hat. Ohne den würde mein i3 bestimmt auch höhere Max FPS produzieren und hätte damit auch noch einmal höhere average FPS.

Und nicht zu vergessen: der i3 kriegt gleichzeitig die Aufnahme @60fps hin und der X6 nicht.

Hinzukommt dass du mit dem Spiel Skyrim aufnimmst, was ja dafür bekannt ist, dass es überhaupt nicht skaliert auf mehrere Kerne.:wall:
Und das ist aktuell so ziemlich die Ausnahme. Nimm mal Battlefield 4 und mache dann deine Messungen.:rolleyes:
Skyrim ist wie Starraft so ziemlich die Ausnahme der Ausnahmen, wo nach 2 Threads nichts grißartig mehr genutzt wird, zudem hat der Intel QSV.

Naja, bei mir hat Skyrim auf dem X6 halt 4 Threads belastet, deshalb bin ich davon ausgegangen, dass es auf 4 Threads läuft und nicht zwei (siehe Bild im ersten Post).

Und selbst wenn 2 Threads schnell hin- und geschoben werden, so dass es nur so aussieht als würden 4 Threads benutzt werden (was bei anderen Programmen komischerweise nicht passiert), dann müsste ich die höhere Turbo Frequenz sehen, was bei mir nicht der Fall war. Also scheint Skyrim bei mir auf 4 Kernen zu laufen. Sorry.

BF4 kann ich nicht testen, weil ich das Spiel nicht besitze. Ich hätte noch die DayZ Mod oder Sauerbraten testen können, aber das Geheul hätte ich dann gar nicht hören können, denn die skalieren wohl gar nicht mehr mit mehr Kernen. Ich habe tatsächlich nur 3 Spiele installiert (128 GB SSD *heul*).


Deine ganze Testphilosopie scheint mir wenig objektiv und darauf ausgerichtet, dass der i3 schneller arbeitet. ;)

Völliger Käse. Was hätte ich denn noch testen sollen. Serveranwendungen? Sorry, ich betreibe keinen Server.

Dann musst du was falsch machen, ein Kumpel von mir nimmt für youtube auf und hat nur einen 1090T der ja langsamer ist wie der 1100T, bei ihm ruckelt in Games nichts.

Hättest du jetzt einen Link eingefügt, was ja möglich sein sollte, wenn dein Kumpel auf Youtube ist, dann hätte ich dir das vielleicht sogar geglaubt.

- - - Updated - - -

Viel zu wenig Angaben bei Handbrake! Keine Codecdaten, keine Dateigrößen! Und keine Angaben zum Durchgang! CRF? 1-pass? 2-pass? Profile? Total nichtsaussagend.

Steht hinter den Messwerten.

Beim AMD Codec x264 mit very fast preset (der Rest ist default, sonst hätte ich es hingeschrieben) und beim Intel ist es der Codec H.264 QSV mit best quality preset (der Rest ist default, sonst hätte ich es hingeschrieben).

Auf die Probleme der Vergleichbarkeit bzgl. Bildqualität bin ich direkt beim Test eingegangen!

Ist Allen, die bemüht sind aus irgendwelchen Gründen einen AMD X6 aus 2010 zu verteidigen, eigentlich aufgefallen, dass der AMD X6 diesen DVD Rip Test gewonnen hat?

Insb. wenn man den ganzen Test liest und meine spätere Festellung (Gaming Recording), dass der AMD im fast preset bei FHD (in SD halt nicht) eine bessere Qualität als der i3 mit best quality liefert?

In Tests von professionellen Testsites wird der Qualitätsfaktor nämlich in der Regel komplett unter den Tisch fallen gelassen. Dort wird überhaupt nicht geschrieben welcher Preset genutzt wurde, es werden nur die Zeiten in einem Balkendiagramm verglichen und in der Regel der Intel gefeiert.

Nach meinen Messwerten dürft ihr hier den AMD X6 feiern. Ist euch aber vermutlich entgangen.

- - - Updated - - -

Toller und ausführlicher Bericht :) Sind die Werte unter DVD rippen überhaupt vergleichbar? Du hast anscheinend ja ganz andere Einstellungen beim x6 und dem i3 gehabt?

Um mit einem Quote aus dem Test zu antworten, den ich direkt unter die DVD Rip Messwerte geschrieben habe:
"...- nur ist die Frage, ist das Ergebnis überhaupt vergleichbar? D.h. ist die Bildqualität identisch?"

Das habe ich mich auch gefragt und habe es kritisch hinterfragt.

Die unterschiedlichen Einstellungen sind nicht das Problem. Denn der AMD X6 besitzt nun mal keinen Hardware H.264 Encoder wie der i3. Der AMD nutzt einen Software Codec (x264) und der i3 hat dedizierte Hardware, extra Schaltungen, die nichts anderes können als MPEG2 und H.264 zu enkodieren (H.264 QSV). Also müssen die Einstellungen unterschiedlich sein. Aber ich habe mich bemüht Einstellungen zu finden, die zu einer gleichen Qualität führen.

Sicher hätte ich noch Stunden an den Einstellungen rumfriemeln können (wenn mir meine Zeit dafür nicht zu Schade gewesen wäre). Aber was wäre der zusätzliche Erkenntnisgewinn gewesen?

Ich finde mein Vergleich zeigt schon eine erstaunliche Erkenntnis. Während im Internet in der Regel geschrieben wird, dass das Kodieren über GPUs schneller ist, so habe ich doch das Gegenteil bewiesen. Die CPU ist schneller, wenn man die Qualität aneinander anpasst und genügend CPU Rechenpower hat. Nur ist die CPU dann auch voll ausgelastet.

Mit dem i3 und dessen Hardware Encoder ist es, als würde ich eine Elgato HD60 an den PC anschließen. Kaum CPU Last, geringer Stromverbrauch, 1080p@60fps. Das hat mich schwerst beeindruckt.

Ich frage mich, ob überhaupt jeder Haswell User weiss, dass er seine CPU iGPU parallel zu einer dedizierten PCIe GPU so nutzen kann? Und das ohne zusätzliche Software (wie Ludiclogix Virtu) o.ä. - sogar auf einem billigen B85 Chipsatz Mainboard.

Ich frage mich, was Skylake da oben drauf setzt? Kommt dann H.265 Hardware Kodierung in 4k?

Eine weitere Erkenntnis hat mir dieser Test noch gebracht. Sollte mir die Leistung doch einmal nicht mehr reichen, dann würde ich wohl nicht mehr auf den Xenon 1231v3 upgraden, den ich sonst auch immer gerne empfohlen habe, sondern erinfach einen i7 auf das Board stecken. Einfach um weiterhin einen Hardware H.264 in der CPU zu haben.

So jetzt habe ich alle AMD User, alle Intel 2500k und Xenon 1231v3 User gegen mich aufgebracht - mission accomplished, würde ich sagen. ;)
 
Zuletzt bearbeitet:
Hättest du jetzt einen Link eingefügt, was ja möglich sein sollte, wenn dein Kumpel auf Youtube ist, dann hätte ich dir das vielleicht sogar geglaubt.
Gut es sind keine durchgehende 60FPS aber das ist BF4 da bleiben nicht mehr so viele Kerne fürs Aufnehmen übrig.
https://www.youtube.com/watch?v=p03fyAQs4RY
Ich frage mich, was Skylake da oben drauf setzt? Kommt dann H.265 Hardware Kodierung in 4k?
Die Tonga GPUs (AMD R9 285) können schon H.265 in Hardware damit lässt sich bestimmt auch in Echtzeit umwandeln.
Und es ist unabhängig von der CPU.

Danke nochmal für das kontroverse user Review, ich habe mich für ein Kaveri System entschieden das im Monitor verbaut ist. :)
 
Es ist aber gerade der Sinn des Reviews, zu zeigen, was so ein Upgrade bringt. Dies ist kein Vergleich welche CPU man heute neu kaufen soll. Es geht halt genau um die Frage, ob sich das Upgrade von so einer alten X6 CPU aus dem Jahr 2010 auf eine X2 CPU aus dem Jahr 2014 lohnt. Und zwar für mein Anwendungsprofil.

Für dein Anwednungsprofil war aber auch der X6 rausgeschmissenes Geld. Dir hätte wohl auch ein X3 oder X4 völlig gereicht. Warum es ein X6 geworden ist, kann man nach deinen Tests überhaupt nicht nachvollziehen.

Ich stand vor dem Upgrade genau vor dieser Frage. Ich hatte schon lange Zeit geahnt, dass der i3 unterschätzt wird, denn die Benchmarks sahen von ihm schon immer erstaunlich gut aus für einen Zweikerner. Aber ich wusste halt nicht, wie gut er sich bei mir dann tatsächlich macht.

Das der i3 eine fixe CPU ist, ist den meisten Leuten durchaus bekannt. Nicht umsonst zersägt dieser in diversen Tests auch aktuelle 2 Moduler von AMD und ist dabei deutlich effizienter. Denoch, der i3 ist schnell an seine Grenzen zu bringen wenn man aktuelle Software nutzt, was du einfach nicht wirklich tust.

Dieses "mehrere Dinge parallel" ist doch auch nur ein Mythos.

Vielleicht für dich, für andere nicht. Das ist so eine Pauschalisierung die du aus deinem eigenen Nutzungsverhalten ziehst, mehr nicht.

Als ich das Review geschrieben habe, hatte ich einen Office Writer offen, eine Bildbearbeitung für die Screenshots, Firefox mit 20-30 Tabs, Videowiedergabe-Software, Youtube Uploads am laufen, Winamp für Musik und und und... aber das produziert doch alles keine ernstzunehmende Last.

Das nennt man auch reine Office Nutzung. Da reicht selbst ein 35€ Celeron, da muss es auch kein mindestens dopppelt so teurer i3 sein ;-)

Und was mache ich sonst an paralleler Arbeit? Vielleicht mal ein Spiel aufnehmen - die Ergebisse davon sieht man ja im Test.

Wie hier schon erwähnt, nimm mal ein Spiel auf das mehr als zwei Kerne effektiv nutzt, dann sehen die Ergebnisse ganz anders aus.

da das Spiel hat einen internen FPS Limiter hat.

Wo hat den Skyrim einen FPS limiter? Ich hab mehr als 200 Stunden Skyrim hinter mir und von einem FPS limiter habe ich noch nichts gemerkt.


Und selbst wenn 2 Threads schnell hin- und geschoben werden, so dass es nur so aussieht als würden 4 Threads benutzt werden (was bei anderen Programmen komischerweise nicht passiert), dann müsste ich die höhere Turbo Frequenz sehen, was bei mir nicht der Fall war. Also scheint Skyrim bei mir auf 4 Kernen zu laufen. Sorry. .

Auch bei dir läuft Skyrim nicht auf 4 Kernen ;-) Das ist nur eine falsche Interpretation deinerseits. Skyrim ist technisch alt, richtig alt. Daher kann dein Benchmark leider überhaupt nicht für die aktuelle Situation her halten. Viele aktuelle Spiele, besonders die Blockbuster nutzen 4 Kerne sehr gut aus und hier verliert der i3 völlig an Boden. Da hilft ihm dann auch sein SMT sehr wenig. Wenn du dann noch etwas aufnehmen willst, oder parallel etwas tust das CPU Leistung kostet, knickt der i3 vollkommen weg. Da würde dann auch der X6 wieder am i3 vorbei ziehen. Da gibt auch nichts zu disskutieren, es ist einfach so.

In Tests von professionellen Testsites wird der Qualitätsfaktor nämlich in der Regel komplett unter den Tisch fallen gelassen. Dort wird überhaupt nicht geschrieben welcher Preset genutzt wurde, es werden nur die Zeiten in einem Balkendiagramm verglichen und in der Regel der Intel gefeiert.

Du liest einfach die falschen Tests ;-)

Ich frage mich, ob überhaupt jeder Haswell User weiss, dass er seine CPU iGPU parallel zu einer dedizierten PCIe GPU so nutzen kann? Und das ohne zusätzliche Software (wie Ludiclogix Virtu) o.ä. - sogar auf einem billigen B85 Chipsatz Mainboard.

Das ist nun wirklich keine neue Erkenntnis.

Eine weitere Erkenntnis hat mir dieser Test noch gebracht. Sollte mir die Leistung doch einmal nicht mehr reichen, dann würde ich wohl nicht mehr auf den Xenon 1231v3 upgraden, den ich sonst auch immer gerne empfohlen habe, sondern erinfach einen i7 auf das Board stecken. Einfach um weiterhin einen Hardware H.264 in der CPU zu haben.

Es gibt auch Xeon CPUs die Quick Sync unterstützen. Allerdings geht dann der Preisvorteil gegenüber den normalen i7 verloren.

So jetzt habe ich alle AMD User, alle Intel 2500k und Xenon 1231v3 User gegen mich aufgebracht - mission accomplished, würde ich sagen. ;)

Aufgebracht? Wohl kaum. Ich hab im Laden einen Haswell i3, zu Hause einen Ivy i5 und einen Haswell i5. Mit beiden i5 wische ich den i3 locker vom Tisch in meinem Anwendungsprofil ;-) Und das ist acuh nicht mehr als Zocken, ein bisschen Photoshop und selten mal ein Video rendern. Der i3 ist eine fixe CPU, aber wenn du keinen Unterschied zum i5 merkst, ist dein Anwendungsprofil einfach nur niedrig angesetzt ;-)

Zusammengefasst ist dein Review nur ein winziger Ausschnitt mit sehr begrenzten Testumfeld welches eben dein Anwendungsprofil wiederspiegelt. Ich finde es auch etwas bescheiden, dass du den i3 X2 nennst. Ein X2 ist ein AMD kein Intel. Und der i3 kommt mit SMT daher was ihm in parallelisierungen locker 10-25% an Mehrleistung bescheren kann. Einem i5 kann der i3 nicht gefährlich werden wenn es um höhere Belastungen bei aktuellen Programmen geht. Die mag nicht jeder nutzen, das ist klar, aber auch für eine Spielemaschiene würde ich definitiv mindestens einen i5 empfehlen, da hier der i3 schon am limit läuft.
 
Zuletzt bearbeitet:
Gut es sind keine durchgehende 60FPS aber das ist BF4 da bleiben nicht mehr so viele Kerne fürs Aufnehmen übrig.
https://www.youtube.com/watch?v=p03fyAQs4RY

Es ging nicht um 60 ingame fps, es geht um eine Aufzeichnung in 1080p60. Mit 30fps - 1080p30 - konnte mein Phenom auch aufzeichnen. Das ist keine Kunst.

Bei Youtube müsste dann so ein Knopf wie bei meiner Aufnahme zu sehen sein:


Und BF4 könnte ich vermutlich genauso in 1080p60 aufnehmen, weil die Aufnahme beim i3 die Kerne kaum belastet. Das ist ja gerade der Witz.

- - - Updated - - -

Für dein Anwednungsprofil war aber auch der X6 rausgeschmissenes Geld. Dir hätte wohl auch ein X3 oder X4 völlig gereicht. Warum es ein X6 geworden ist, kann man nach deinen Tests überhaupt nicht nachvollziehen.

Ich habe ihn ja auch als X4 gekauft. Dann habe ich im Bios auf unlock cores geklickt und es war ein X6.
 
Zuletzt bearbeitet:
Das du Aufnehmen "kannst" ist klar. Nur was es für die Performance bedeutet, gerade wenn du Multiplayer spielst wo alle 4 Kerne und selbst 8 Kerner stark ausgelastet werden, wird der i3 stark einknicken. Deine "Vermutung" ist hier schlichtweg unwissenheit.
Du kannst dich ja mal mit den diversen Twitcher und Hitboxer auseinandersetzen, die werden dir mal erklären warum die Großen alle mindestens einen i5 oder besser einen i7/Xeon verwenden. Das kommt nicht aus Spaß an der Freude.
 
Denoch, der i3 ist schnell an seine Grenzen zu bringen wenn man aktuelle Software nutzt, was du einfach nicht wirklich tust.

Ich vermute mit aktueller Software meinst du aktuelle Spiele? Das kein sein. Ich kaufe Spiele frühestens wenn sie im Steam Sale unter 20 Euro koste

Falls du Anwendungen meinst, wäre ich für Tipps dankbar.

- - - Updated - - -

Wo hat den Skyrim einen FPS limiter? Ich hab mehr als 200 Stunden Skyrim hinter mir und von einem FPS limiter habe ich noch nichts gemerkt.

Er limitiert ja auch bei deiner Monitorfrequenz, da ist nicht viel zu merken. Man kann ihn wohl über inis deaktivieren, dann funktioniert das Spiel aber nicht mehr richtig... einfach nach googlen.

- - - Updated - - -

Da hilft ihm dann auch sein SMT sehr wenig. Wenn du dann noch etwas aufnehmen willst, oder parallel etwas tust das CPU Leistung kostet, knickt der i3 vollkommen weg.

Ich nehme ja nicht mit den CPU Kernen auf. Das ist doch der Witz.

- - - Updated - - -

Zusammengefasst ist dein Review nur ein winziger Ausschnitt mit sehr begrenzten Testumfeld welches eben dein Anwendungsprofil wiederspiegelt.

Ich habe auch nie etwas anderes behauptet.

Ich finde es auch etwas bescheiden, dass du den i3 X2 nennst. Ein X2 ist ein AMD kein Intel. Und der i3 kommt mit SMT daher was ihm in parallelisierungen locker 10-25% an Mehrleistung bescheren kann.

Darf ich ihn Dual-Core nennen? X2 ist allerdings die Kurzform von Dual-Core. O.k. wäre er von AMD würden sie ihn als "echten Vierkerner" verkaufen. Keine Ahnung, ich glaube ich bleibe bei X2.
 
Steht hinter den Messwerten.

Beim AMD Codec x264 mit very fast preset (der Rest ist default, sonst hätte ich es hingeschrieben) und beim Intel ist es der Codec H.264 QSV mit best quality preset (der Rest ist default, sonst hätte ich es hingeschrieben).

Auf die Probleme der Vergleichbarkeit bzgl. Bildqualität bin ich direkt beim Test eingegangen!

ahahahaha Auflösung? Bitrate? Speichergröße? High, Main, Base? und wer benutzt bitteschön x264 very fast? wer schnell sein will nimmt Xvid

High-Profile + CRF21 (SD) 24 (HD) + 24FPS constant frame rate + Encoder Presets Placebo
und schon bricht der X6 deinem i3 mit QSV alle Schaltkreise, bei einem viel besseren Bildquali/MB Verhältnis

dein X6 wird gar nicht richtig ausgelastet, sieht nicht nach CRF oder 2-pass aus

Ist Allen, die bemüht sind aus irgendwelchen Gründen einen AMD X6 aus 2010 zu verteidigen, eigentlich aufgefallen, dass der AMD X6 diesen DVD Rip Test gewonnen hat?
nach deinen subjektiven Kriterien kein Wunder

Insb. wenn man den ganzen Test liest und meine spätere Festellung (Gaming Recording), dass der AMD im fast preset bei FHD (in SD halt nicht) eine bessere Qualität als der i3 mit best quality liefert?
Du vergleichst hier eine CPU mit einer APU. :fresse:
 
Zuletzt bearbeitet von einem Moderator:
Das du Aufnehmen "kannst" ist klar. Nur was es für die Performance bedeutet, gerade wenn du Multiplayer spielst wo alle 4 Kerne und selbst 8 Kerner stark ausgelastet werden, wird der i3 stark einknicken. Deine "Vermutung" ist hier schlichtweg unwissenheit.

Wieso macht es dann der i3 4150 hier bei der 1080p60 Aufnahme vom BF4 Multiplayer nicht:


Ist dieser i3 auch unwissend, so dass er vergisst einzuknicken?

Du kannst dich ja mal mit den diversen Twitcher und Hitboxer auseinandersetzen, die werden dir mal erklären warum die Großen alle mindestens einen i5 oder besser einen i7/Xeon verwenden. Das kommt nicht aus Spaß an der Freude.

Weil sich also professionelle Streamer eine dicke CPU kaufen, soll ich das auch tun? Die Logik versteh ich nicht. Lustigerweise habe ich die Tipps, wie man QSV nutzt, ja gerade aus der Streamer Szene, da ich zum Aufnehmen eine Streamer Software nutze...
 
X2 ist für viele irritierend da es eben eine seit Jahren bei AMD geläufige Bezeichnung ist. Ich verstehe durchaus warum du X2 schreibst, aber zum Verständnis für andere ist eben Dualcore oder i3 einfacher für Leute die deinen Text nur überfliegen. Mich würde nicht wundern wenn einige nach wenigen Zeilen die Hand an die Stirn schlagen und sich denken.... der will hier ernsthaft verkaufen das ein X2 schneller als ein X6 ist? ;-) Du verstehst hoffentlich worauf ich hinaus will.

Das Aufnehmen kann man manigfaltig tun. Man kann es z.B. auch gleich umrechnen lassen wie es z.B. alle tun wenn sie Streamen.

Es gibt auch ältere Spiele die sehr von mehr als 2 Kernen profitieren, allerdings würde der i3 auch dort locker reichen. Nur die neusten Blockbuster zwingen auch aktuelle CPUs schnell in die Knie, da wäre der i3 schon fast am Limit. Das ist natürlich "noch" nicht die Regel, aber ich persönlich erwarte, dass sich noch in diesem Jahr einiges ändern wird. Denn die Konsolen sind ja quasi mit PC Hardware ausgestattet und bieten eben wenig Leistung pro Kern dafür aber viele Kerne. Da fast alle größeren Spiele auch oder oft sogar zuerst auf Konsole erscheinen, werden wir im PC Bereich sicherlich bald sehr stark Multithreading optimierte Spiele antreffen. Wie sich dann der i3 schlagen kann, bleibt abzuwarten.

Die Monitorfrequenz limitiert nur, wenn ich V-Sync aktiviert habe was ich grundsätzlich immer aus habe. Und die FPS lasse ich mir eigentlich immer nebenher anzeigen. Den Unterschied zwischen 60 FPS (60Hz Monitor) und 100 FPS kann man auch hier in sehr schnellen Spielen sehen. Und die FPS bei Skyrim schwanken bei mir zwischen 40 und knapp 120, je nachdem wo ich grade bin.

Bei Anwendungen wären da Autocad, Catia, Photoshop ab CS6, diverse Adobe Programme für Videobearbeitung selbst das olle Moviemaker nutzt gerne viele Kerne. Nutzt natürlich nicht jeder und nicht jeder hat Zugang zu diesen Programmen da sie nicht besonders günstig sind und es kommt sicherlich darauf an was man so machen möchte.

@Edit
Lach... Youtube Videos... i3 samt GTX 750Ti und immer um die 50-60FPS. Genau.... auf Youtube tummelt sich viel Quatsch und die Leute erzählen dort den größten Bullshit. Da gibts auch Videos wo man BF4 auf einem Celeron flüssig zocken kann. ;-) Man muss nicht alles glauben was irgendwelche Leute hoch laden.

Und was das Argument mit profesionellen Streamern betrifft..... du musst überhaupt nichts kaufen. Ich wollte nur Aufzeigen das Leute die anspruchsvolle Spiele zocken und Streamen durchaus auf starke CPUs setzen. Und das nicht ohne Grund.
 
Zuletzt bearbeitet:
Denn die Konsolen sind ja quasi mit PC Hardware ausgestattet und bieten eben wenig Leistung pro Kern dafür aber viele Kerne. Da fast alle größeren Spiele auch oder oft sogar zuerst auf Konsole erscheinen, werden wir im PC Bereich sicherlich bald sehr stark Multithreading optimierte Spiele antreffen. Wie sich dann der i3 schlagen kann, bleibt abzuwarten.

Da bin ich recht entspannt. Zum Einen haben die Konsolen nur aufgebohrte, schwächliche Tablet CPUs und zum Anderen kann ich mich in die Lage der Spielhersteller hineinversetzen. Denn was wollen die Spielehersteller: Geld verdienen. Was müssen sie dazu machen: Spiele verkaufen. Welche Anforderung sollten die Spiele dazu mind. erfüllen? Sie sollten spielbar sein, auf den Pcs der potenziellen Kunden.

Dass Spiele irgendwann in naher Zukunft 8-Kerner erfordern, gehört doch in den Bereich der Fantasie. Vier Threads, ja das mag sein, dort gibt es ja schon Beispiele. Aber der i3 hat ja vier Threads, also ist alles gut.

Bei Anwendungen wären da Autocad,

...1000 Euro... nur will ich nichts 3D-mäßiges modellieren...


"....Mechanische Konstruktionen, "Assembly Design", Oberflächenkonstruktionen, FEM-Stabilitäts-Analysen und viel mehr ... " - ich glaube du hast den Sinn und Zweck von meinem Test nicht verstanden.


Photoshop ab CS6,

1000 Euro... damit ich einen Ausschnitt aus einem Screenshot machen kann?

diverse Adobe Programme für Videobearbeitung

1000 Euro. Ich möchte aber gar keinen Kinofilm drehen, sondern einfach nur Reklame aus einer Fernsehaufzeichnung rausschneiden.

selbst das olle Moviemaker nutzt gerne viele Kerne.

Kann ich damit Reklame aus H.264 Aufnahmen rausschneiden? Und das bei einem 78min Film in 13 Sekunden rendern lassen?

Nutzt natürlich nicht jeder und nicht jeder hat Zugang zu diesen Programmen da sie nicht besonders günstig sind und es kommt sicherlich darauf an was man so machen möchte.

Du sagst es.
 
Nahezu alle Studenten können die Programme kostenfrei nutzen ;-) Z.b. hat meine Frau freien Zuriff auf alle Adobe Programme und sogar Win 8. Mein Bruder der Jura studiert, also rein gar nichts mit IT am Hut hat, bekommt alle Microsoft und Adobe Programme kostenfrei. Du redest immer nur von "dir" ich rede von der Allgemeinheit ;-) Mißversteh das nicht.

Das Konsolen aufgebohrte Tablet CPUs benutzen ist falsch. Informier dich hier nochmal richtig ;-) Das sind X86 CPUs mit Kabini Kern wie man ihn auch z.B. als A4-5100 in Notebooks findet. Das hat rein gar nichts mit Tablet CPUs zu tun.

Mehrkernskalierung ist nichts Neues in Spielen. Du hast zwar nicht unrecht, dass die Spiele spielbar sein müssen aber grade Blockbuster Titel mit hohen Details zwingen so manchen bisher genutzten PC ins die Knie und die Spiele verkaufen sich trotzdem. Einfach weil die Leute die viel zocken auch intensiv ihre PCs aktuell halten. Da fließt viel Geld in Hardware ;-) Außerdem, schau dich mal bei Neu PCs um, da wird grade mit der CPU geprotzt wärend eher die Grafikkarte der limitierende Faktor ist. An CPU Leistung mangelt es in der Regel nicht. Das 8 Kerne "pflicht" werden, habe ich nicht gesagt, nur dass Spiele mehr als 4 kerne nutzen werden.
SMT ist kein Wundermittel. Die durchschnittliche Performance eines i3 in Spielen die gut mit mehr als 2 Kernen skalieren liegt nahezu in der Mitte zwischen einem Pentium und einem i5. auf Höhe eines i5 kommt der i3 in keinem Fall wenn 4 Kerne wirklich benötigt werden. Unspielbar werden Spiele dadurch aktuell "noch nicht", aber es kann sehr bald soweit sein. Immerhin fordert z.B. das Neuste Dragon Age und das Neuste AC 4 Threads um überhaupt zu starten. Das ist schon mal ein deutliches Zeichen seitens der Spielentwickler. ;-)
 
wenn ich einen günstigen rechner zusammenbauen würde, dann würde ich eine Amd Apu nehmen weil:
....gute Grafikeinheit und Treiber, HSA, Mantle, GPGPU Software, Bald HBM Speicher und Freesync.

Von der Cpu her ist der i3 natürlich was feines.
 
Zuletzt bearbeitet:
Quote
"Kann ich damit Reklame aus H.264 Aufnahmen rausschneiden? Und das bei einem 78min Film in 13 Sekunden rendern lassen?"

das schaft der I3 gar nicht und ja es gibt progs die das können, nur weil du sie nicht kennst heißt das nichts.....
ein normaler film 78min dauert auf deinem System das umkopieren in vernünftigen Rohmaterial (HD) mindesten eine Minute ...

Kommen wir mal zur Qualität deiner Renderings , die bilder schon mal genauer angeschaut, das will ich mir nicht auf dem Fernseher anschauen wollen.
Fast alle quick renderer sind qualitativ zu HD eine ganze stufe schlechter, rendere doch mal mit noch weniger Qualität...
Dazu solltest du auch mal mit dem I3 normal rendern und nicht mit tricks...

Ich habe nen 4970k hier der doch potenter ist wie dein System und ich kann dein Fazit nicht mal auf den 4970k ziehen, wie bitte kannst du das dann mit dem I3?

Ich hatte vorher einen X4 720 Black und bin zu einem Fx8150/8350 umgestiegen das war ein spürbarer unterschied nur habe ich da auch ssd rein mehr und schnelleren ram
neue Grafikkarte etc ... der Test I7 mit identischer Peripherie ist merklich gar nicht schneller, er hat er wenn wir von Spürbarkeit reden sogar einen marke Teamviewer startet auf Intel langsamer wie auf den FX? (komischer weise fällt so etwas ehr auf wie etwas bessere FPS zb.)
 
Es ging nicht um 60 ingame fps, es geht um eine Aufzeichnung in 1080p60. Mit 30fps - 1080p30 - konnte mein Phenom auch aufzeichnen. Das ist keine Kunst.

Bei Youtube müsste dann so ein Knopf wie bei meiner Aufnahme zu sehen sein:
Ah, darauf habe ich gar nicht geachtet, hab mich schon gewundert warum es so gut läuft. ;)

Hab mir mal den Big Buck Bunny Film von hier geholt: Big Buck Bunny 3D - Download
• Standard Full HD (1920x1080) ◦60 fps

Mit dem A10-7800 und dem VLC 2.2.0 "Weahterwax" 64Bit: 21:50 (mm:ss) http://abload.de/img/vlc_mp4tomp405zfu.jpg

Von ~347MB auf 293MB:
bbb_vlc_komprimierung10psv.jpg


Qualität der Ausgabe:
http://abload.de/img/bbb_vlc_qualittbspk0.jpg
http://abload.de/img/bbb_vlc_qualitt_fsy0rnk.jpg
idle 46W Last 120W (ink. Monitor und Lautsprecher)

Vergleich das mal mit deinen Bilder. :cool:
 
Zuletzt bearbeitet:
@Phantomias88
Du hast aber auch eine viel höhere Auflösung gewählt als er ;-)
 
Blick hier nicht mehr durch.

Er macht Test´s für seinen Privaten Gebrauch und dann kommt:



Quote
"Kann ich damit Reklame aus H.264 Aufnahmen rausschneiden? Und das bei einem 78min Film in 13 Sekunden rendern lassen?"

das schaft der I3 gar nicht und ja es gibt progs die das können, nur weil du sie nicht kennst heißt das nichts.....

Ja aber das ist ja dann auch nicht sein Anwendungschema...

Und dann wird wieder über Konsolen Chips und generell APU´s geredet.

Dazu solltest du auch mal mit dem I3 normal rendern und nicht mit tricks...

Warum sollte er nicht die Möglichkeiten nutzen die ihm die HW anbietet? Auch das gehört irgendwie in so einem vergleichstest dazu.
Sonst könnt ihr auch noch anfangen den Takt zu bereinigen :fresse:

Nein , ist kein VS Thread hier ^^ :fresse:
 
@Phantomias88
Du hast aber auch eine viel höhere Auflösung gewählt als er ;-)
Egal was für ein Auflösung die FPS spielen auch mit rein, zwischen 30 und 60 liegen ja doppelt so viele Bilder pro Sekunde.
Der VLC hat auch ein H265 Profil zum konvertieren, läuft ebenfalls über die CPU, aber ist sehr langsam bin auf die Ausgabe gespannt...
Beim Afterburner kann man die VCE Einheit auswählen um h264 Videos mit der GPU zu erstellen/streamen: MSI Afterburner: Spielevideos mit Radeon-Grafikkarten aufzeichnen - Golem.de

http://abload.de/img/afterburner_vce_benchd3rs2.jpg
 
Zuletzt bearbeitet:
Du redest immer nur von "dir" ich rede von der Allgemeinheit ;-) Mißversteh das nicht.

Ich habe nie Aussagen für die Allgemeinheit gemacht. Im Eröffnungspost schreibe ich "Was ist im Alltag schneller, ein AMD X6 oder eine Intel X2? Das hängt natürlich davon ab, was man mit der CPU macht. Ich habe mal etwas genauer geschaut, wie das bei mir so aussieht."

Ich habe das "mir" sogar extra kursiv geschrieben, da ich mir schon dachte, dass das nicht jeder mitkriegt

Das Konsolen aufgebohrte Tablet CPUs benutzen ist falsch. Informier dich hier nochmal richtig ;-) Das sind X86 CPUs mit Kabini Kern wie man ihn auch z.B. als A4-5100 in Notebooks findet. Das hat rein gar nichts mit Tablet CPUs zu tun.

Ich hatte halt in der Wiklipedia nachgeschaut. Und stehen die Konsolen CPUs unter "Nettops, Netbooks, Subnotebooks, Tablets" CPUs.

Dass es eine x86 CPU ist, hat damit gar nichts zu tun. Ein Intel Atom ist auch eine x86 CPU und in meinen Augen eine Tablet CPU. Alle vernünftigen Tablets nutzen in meinen Augen x86 CPUs, da auf ihnen Win 8.1 läuft.

Die Leistung zählt für die Einordnung und die Leistung der Konsolen Kerne ist pro Kern für Desktops ein Witz, für Tablets sind sie super.

Quote
"Kann ich damit Reklame aus H.264 Aufnahmen rausschneiden? Und das bei einem 78min Film in 13 Sekunden rendern lassen?"

das schaft der I3 gar nicht und ja es gibt progs die das können, nur weil du sie nicht kennst heißt das nichts.....
ein normaler film 78min dauert auf deinem System das umkopieren in vernünftigen Rohmaterial (HD) mindesten eine Minute ...

Manchmal frage ich mich echt, warum ich mir die Mühe gemacht habe, den Test überhaupt zu verfassen...

Ich rendere keinen 78min langen Film, ich schneide Reklame aus einem 78min Film und ich schrieb, dass ich dazu direkt stream copy nutze, also nur die Schnitte neu rendere:

"Der nächste Test ist also mit Virtual Dub/FFDShow aus einer 78min langen H.264 Aufnahme 7 Segmente herauszuschneiden und mit Direct Stream Copy (nur die Schnitte werden neu gerendert) den Film wieder zusammenzukleben."

Warum sollte ich kein Direct Stream Copy nutzen? Die Qualität des geschnittenen Films ist mit Ausnahme der Schnittstellen zu 100% mit dem Original identisch! Vom Zeitgewinn ganz zu schweigen.

Ausserdem habe ich von Ramdisk zu Ramdisk geschnitten, ....

"Datenquelle: Ramdisk; Datenziel: Ramdisk"

...damit niemand rumnöhlt, dass das AMD System ein SATA2 System ist, während das Intel System ein SATA3 System ist. Das Umkopieren in der Ramdisk dauert weniger als eine Sekunde und nicht wie du behauptest eine Minute.

Deshalb: 13 Sekunden. Siehe das Auslastungsdiagramm der CPU - es ist 60 Sekunden "breit" - du kannst es selbst nachmessen:


Kommt ganz gut hin, oder? Wobei ich mit einer Stoppuhr von Knopfdruck bis "fertig" gemessen habe. Also nagel mich jetzt bitte nicht darauf fest, dass der eine Kern aber wie 14 Sekunden aussieht...

Wichtig war für mich nur wie lange braucht der i3: 13 Sekunden und wie lange der Phenom II X6: 20 Sekunden. Punkt.

Kommen wir mal zur Qualität deiner Renderings , die bilder schon mal genauer angeschaut, das will ich mir nicht auf dem Fernseher anschauen wollen.

Dazu solltest du auch mal mit dem I3 normal rendern und nicht mit tricks...

Nur dumm, dass das original Bild ganz normal über die CPU gerendert ist! Es ist einfach nur eine gerenderte (MPEG2) DVD. Und die gerippte Version kann nun mal nur so gut werden wie das Original und nicht besser.

Herr, schmeiss Hirn vom Himmel, das kann doch hier nicht wahr sein...

Und "normal" über die CPU gerendert habe ich doch auch. Das Rausschneiden der Reklame war "normales" Rendern an den Schnittstellen. Das Rendern der DVD war "normales" Rendern - in beiden Fällen war der i3 schneller als der Phenom II X6 (bei identischem Codec und identischen Einstellungen).

Und einen eingebautes Feature zu benutzen, wäre ja wohl auch kaum ein Trick, oder? Wenn du die Höchstgeschwindigkeit von zwei Autos vergleichen möchtest, eines mit vier Gängen und eines mit sechs Gängen, ist es dann ein Trick, wenn das Auto mit sechs Gängen den 5. und 6. Gang benutzt? Oh Mann, ihr macht mich fertig...

Ich habe nen 4970k hier der doch potenter ist wie dein System und ich kann dein Fazit nicht mal auf den 4970k ziehen, wie bitte kannst du das dann mit dem I3?

D.h. du kannst für dich nicht mein Fazit ziehen, d.h du meinst ernsthaft, dass dein 4970k bei meinem Anwendungsprofil nicht schneller ist als ein Phenom II X6 @3,3/3,7 Ghz wäre?

Ernsthaft?

OMG...

19708860.jpg


Hab mir mal den Big Buck Bunny Film von hier geholt: Big Buck Bunny 3D - Download
• Standard Full HD (1920x1080) ◦60 fps
...
Vergleich das mal mit deinen Bilder. :cool:

Jetzt wird es lächerlich, sorry.

Die Bilder sind einer von einer MPEG2 DVD (720x576 Pixel) und einem 720x576 Pixel Rip dieser DVD. Und da willst du hier jetzt mit einer 1080p Datei auftrumpfen, die direkt H.264 zu H.264 konvertiert wurde.

19708860.jpg



===============================================================================

Ich habe diesen Thread angefangen und da gehört es ja eigentlich zum guten Ton, sich auch weiter an der Diskussion zu beteiligen - aber auf offensichtlich schwachsinnige und/oder Trollposts werde ich hier nicht mehr antworten.
 
Zuletzt bearbeitet:
Das ist tatsächlich mittlerweile ein Problem unserer Gesellschaft. Hauptsache meckern/aufregen, gibt ja sonst nichts zu tun...
Einige machen das doch vor: Ein Danke für die Mühe und danach sachliche Kritik ist doch völlig ok.
Sicherlich ist es so das TARDIS Anwenderprofil durchaus sehr engen Spezifikationen unterliegt, da er das aber AUSDRÜCKLICH am Anfang des Threads erwähnte
ist das in Ordnung.
Manche von den Kommentaren kommen mir vor wie "energische Autoverkäufer". Ich möchte einen Kleinwagen für den Stadtverkehr und alle wollen mir ein SUV aufschwatzen!
Ich lese hier wirklich vieles mit, und auch die Streitgespräche in den GPU / CPU Threads befriedigen teilweise meinen "Voyeurismus";) aber das hier... :haha:
Ich finde diese Gegenüberstellung tatsächlich interessant auch wenn ich sicherlich eher zu den "Mehrkernern" greifen würde... (Warum? naja, haben ist besser als brauchen)

Naja vlt. reagiere ich heute morgen auch nur empfindlicher, immerhin ist Freitag...:coffee:

Grüße
Crest
 
Jetzt wird es lächerlich, sorry.

Die Bilder sind einer von einer MPEG2 DVD (720x576 Pixel) und einem 720x576 Pixel Rip dieser DVD. Und da willst du hier jetzt mit einer 1080p Datei auftrumpfen, die direkt H.264 zu H.264 konvertiert wurde
Wieso lächerlich, kannst doch auch "reproduzieren" das die Qualität schlechter ist war zu erwarten.
Ich bin eben Blue Rays gewohnt und da bekommt man von DVD Qualität Augenkrebs, daher ist mein Nutzungsverhalten eher auf Qualität und nicht Geschwindigkeit ausgelegt.

Viel vergnügen noch mit dein I3 (ernst Gemeint) :)

€dit: Das schneiden von Videos habe ich schon lange nicht mehr gemacht, das liegt wohl am Sky HD Abo...
 
Zuletzt bearbeitet:
Ich hatte halt in der Wiklipedia nachgeschaut. Und stehen die Konsolen CPUs unter "Nettops, Netbooks, Subnotebooks, Tablets" CPUs.

Dann hättest du vielleicht mal ein bisschen weiter lesen sollen ;-)

Dass es eine x86 CPU ist, hat damit gar nichts zu tun. Ein Intel Atom ist auch eine x86 CPU und in meinen Augen eine Tablet CPU. Alle vernünftigen Tablets nutzen in meinen Augen x86 CPUs, da auf ihnen Win 8.1 läuft.

So sehr ich mich mittlerweile gegen Android stemme und auch eher auf Win Tablets und Handys setze ist das doch eine recht engstirnige Aussage. Zumal mit Win10 auch ARM CPUs genutzt werden können.

Die Leistung zählt für die Einordnung und die Leistung der Konsolen Kerne ist pro Kern für Desktops ein Witz, für Tablets sind sie super.

Du kannst die Leistung einer Konsolen CPU nicht mit der in einem normalen PC vergleichen. Auf einer Konsole kann man wesentlich mehr Leistung aus der CPU heraus holen da man direkter programmieren kann. Und der Trend geht jettz bei Spielen deutlich in Richtung Multithreading eben weil die Konsolen auf hohe Kernzahl setzen ;-)
 
@TARDIS

Vielen Dank für deine Mühen! Das war ein privater Test und Eindruck von dir an uns und ich kann damit etwas anfangen.

Schönen Freitag weiterhin!
 
Der Stromverbrauch im Vergleich ist evtl. noch interessant.

Ja, leider habe ich mein Messgerät verliehen. Das hätte mich auch interessiert. In den Stromsparthreads werde ich bestimmt irgendwann ein paar Werte liefern. Ich muss nur erst mal gucken, wie man so ein Intel System überhaupt undervoltet. Das grandiose k10stat habe ich nun ja nicht mehr. *heul*

So mein Messgerät ist wieder an Land und ich kann die Stromverbrauchswerte nachliefern.

Undervoltet habe ich den i3 immer noch nicht, da mir das über den BIOS zu umständlich ist - da lag der AMD mit k10stat schon deutlich vorne, was die Bequemlichkeit betrifft.

Bei den Intel Verbrauchswerten ist jetzt noch eine beleuchtete Tastatur neu dazugekommen und mit der Logitech G600 eine etwas dickere Maus. Beim Intel System sind natürlich immer beide GPUs, die R9 270(X) und die HD4400, aktiviert.

Von den Verbrauchswerten her (Gesamtsystem) ist der AMD natürlich deutlich abgeschlagen:

AMD Idle: 46 Watt
Intel Idle : 29 Watt

AMD Long Idle mit Webradio-Wiedergabe: 37 Watt
Intel Long Idle mit Webradio-Wiedergabe: 20.4 Watt

AMD Long Idle: 35 Watt
Intel Long Idle 19.6 Watt

Den Stromverbrauch konnte ich während der obigen Vergleichstests mangels Messgerät nicht messen. Lediglich den Prime95 Verbrauch kann ich noch liefern:

AMD Prime95 (large FTTs): 166 Watt
Intel Prime95 (large FTTs): 67 Watt

Der absolute Knaller ist jedenfalls der Stromverbrauch des Intel Systems beim Sauerbraten spielen (keine Ahnung, was der AMD dort verbraucht hat):

Cube 2 - Sauerbraten: 33-36 Watt (Gesamtsystem!) :banana:

Und das ist mit der R9 270(X) in Full HD gespielt - natürlich mit stromsparenden "Laptop-Einstellungen"... :asthanos:


Dabei geht noch nicht einmal der CPU Lüfter an! Lol. :banana:

Was beim Thema Stromsparen noch interessant ist, man kann im Betrieb von der dGPU (R9 270(X)) auf die iGPU (HD4400) umstellen. Ich habe einfach den gleichen Monitor einmal per DVI an die dGPU und einmal per HDMI an die iGPU angeschlossen.

Das Umstellen funktioniert dann einfach über einen Rechtsklick auf dem Desktop -> Bildschirmauflöung und dann kann man den Monitor umstellen.

So kann man im Office Betrieb noch einmal etwas sparen. Im Idle ist es aber nur ein halbes Watt, denn leider geht die R9 270(X) dabei nicht in den Zero Core Power State.

Bei der Videowiedergabe kann man über die iGPU einiges sparen - aber letzendlich ist mir das Umschalten zu mühselig. Zumal man, wenn man direkt mit der iGPU bootet, die dGPU einmal kurz einstellen muss, damit sie sich runtertaktet (Vermutung), denn sonst hat man einen höheren Stromverbrauch.
 
Zuletzt bearbeitet:
Hier im Forum wird das Gesamtsystem immer ohne Monitor und Lautsprecher gemessen. Sonst müsste man ja bei jeder Angabe nachschlagen, was der Monitor und die Lautsprecher schlucken. Es geht ja um Vergleichbarkeit.

Tastatur und Maus sind jetzt beides Kabelgeräte - beim AMD war es noch eine Tastatur mit Batterie.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh