AMDs aktuelle wirtschaftliche Lage [2]

Wahrscheinlich, weil er eher Ankündigungen fürs klassische Desktop-Segment erhofft hat. Da ist es im Moment doch etwas nebulös...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Da stehen die Roadmaps doch schon. Sollen die Produkte ankündigen die erst was weiß ich wann erscheinen? Das war nun mal die einzige Neuigkeit.
 
Roadmaps werden ja auch mal geändert. Vishera war auch nicht von vorne herein der Plan. ;) Außerdem wollte ich nur erklären warum er enttäuscht ist.
 
Genau! Die Roadmaps die wir aktuelle haben, scheinen alle nicht zu stimmen. Zumindest ein Wort über Steamroller in APUs und in (vielleicht) Am3+ hätte es geben können.....oder sie wissen selbst nicht ganz genau wann und ob was erscheinen wird
 
Du sagst es ja selbst, für die meißen Businessbereiche brauch man sicherlich keine starke GPU. Genau darauf zielte die Aussage ab...
Die Aussage wäre aber gar nicht notwendig gewesen, da das eh jedem klar sein sollte. Es ging nur darum, dass es trotzdem Aufgabenbereiche für stärkere GPUs gibt, selbst wenn diese in der Minderheit sind. Die A300 Series gibt's ja auch nicht grundlos. Daher kann man nicht einfach pauschal sagen, eine stärkere GPU bringt nichts. Ein "Kaufgrund im Businessumfeld" war ja auch gar nicht das Thema.

Da ich aber auch der festen Überzeugung bin, das die Größe des Businessmarktes im Gesamten nicht all zu viel kleiner sein sollte, als der Heimanwendermarkt, stellt sich mir die Frage, wieso man primär die GPU aktuell pusht. Für mich macht das wenig Sinn. Ob ich an meinem PC Zuhause mit zwei GTX 680ern sitze oder an meinem Firmennotebook mit der Intel IGP, für die tag tägliche Arbeit und das was man sonst so primär aus Unternehmenssicht mit den Kisten macht, macht es absolut keinen Unterschied.
Doch, macht es durchaus, wenn man sieht, wie gross mittlerweile der Markt für Onlinespiele geworden ist. Ich behaupte jetzt einfach mal, dass es mehr Spieler gibt als Leute, die zu Hause mit Office arbeiten.

In meinen Augen macht es schon einen Unterschied, ob man dort vor einem kleinen ein Moduler (Dualcore) Prozessor oder nem schnellen Quadcore sitzt.
Naja, die Frage stellt sich doch gar nicht. Wer wirklich 4 Threads braucht, greift zum 2-Moduler. Der 1-Moduler ist nur für diejenigen, die eben keine 4 Threads brauchen. Ich glaube, du passt einfach nicht ins Profil eines Durchschnittsusers. Was wohl auf die meisten hier im Forum zutreffen dürfte. Ich bin zwar auch froh, mittlerweile einen Quad im Rechner zu haben. Wenn man ehrlich ist, sind das aber nur Spezialfälle, wo man wirklich profitiert. Bei mir vor allem dann, wenn ich mehrere performanceintensive Tasks parallel laufen habe. Der 0815 User zu Hause merkt davon kaum was. Selbst mit einem alten Single-Core K8 lässt sich heutzutage noch etwas anfangen. Auch hier habe ich die Erfahrung gemacht, dass zuerst andere Komponenten limitieren, wie RAM oder IGP. Wobei ich für Neurechner natürlich keinen Single-Core mehr empfehlen würde, zumindest was heimische Multimediarechner betrifft. Für einfache Terminals oder Businessrechner (Automatisierung, Praxen, etc), wo idR eh nur eine Anwendung läuft, oft ein einfacher Eingabedialog mit ein paar Buttons, aber nach wie vor ausreichend.

Kleiner Ausflug, ich musste jüngst mal auf die schnelle eine 135000 Zeilen umfassende Exceltabelle via Makro auseinander nehmen, einfach um aus den Zeilen und ihrem Zusammenhang ein Output zu erzeugen, was der jenige, der die Daten auswerten musste, auch versteht bzw. das er diese Sachen sieht, die er sehen muss...
Das ganze hat für die 135000 Zeilen eine gute dreiviertel Stunde gekostet ;) Das Teil bestand aus vllt 100 Codezeilen VBA Code... Nachteil, ohne groß Optimierungen und nur Singlethreaded hilft hier nur CPU Power auf einem Core sowie ausreichend RAM
Sage ich ja, Spezialfälle. Mit sowas werden heimische Rechner und die meisten Businessrechner jedenfalls kaum bis gar nicht konfrontiert. Das ist also das gleiche Spielchen wie bei der GPU, nur anders gelagert.

Thema lahme GPUs, ja das kenne ich auch, aber auch hier sehe ich das nicht ganz so dramatisch. Auch wenn OnBoard GPUs von vor ein paar Jahren sicher nicht das non plus Ultra in Sachen Desktopbeschleunigern waren. Für die gängigen Arbeiten, zur damaligen Zeit unter Windows 2000 oder XP, hat es durchaus gelangt. Selbst Videos/DVDs ließen sich mehr oder weniger gut abspielen.
Da habe ich andere Erfahrungen gemacht. Ich habe schon an Rechnern arbeiten dürfen, wo es eben nicht gelangt hat.

Thema Verschlüsslung lese ich auch immer mal wieder im Bezug auf GPU Einsatz. Aber seien wir mal ehrlich, bis auf ein paar Speziele Unternehmen, welche sich auf die Entschlüsslung von Daten konzentriert haben, wo reicht der normale Speed ner gängigen Desktop CPU, ja sogar Mobile CPU ohne AES Hardwarebeschleunigung nicht aus?
Bei dem Thema geht es ja nicht nur um Verschlüsselung, sondern auch um Entschlüsselung. ;) Aber da driften wir ab. Es ging nur darum, dass GPUs hier sehr wohl einen enormen Speedup gegenüber CPUs erreichen können. Nicht mehr und nicht weniger.

Genau das ist der Punkt. Einzig eine große CPU mit großer GPU geht in Verbindung mit AMD.
Was ist für dich denn eine grosse GPU? Du bekommst 4 Threads, sowohl bei Llano als auch Trinity, jedenfalls auch noch bei abgespeckter iGPU (320 statt 400 bzw 256 statt 384 Shader). Bei Intel gibt's desktopseitig die grössten IB, i7, meines Wissens sogar nur mit dem HD 4000 Vollausbau. Eine zu kleine iGPU macht auch wenig Sinn. Wie gesagt, AMD verfolgt das HSA Konzept, legt aber nach wie vor auch den Fokus auf Spiele. Falls du das willst, bekommst du bei AMD übrigens auch 4 Threads ohne iGPU. Läuft zB aktuell in meinem Rechner, da dort bereits eine HD 5750 vorhanden war.

Bei Intel bekommt man Stand heute eine unter oben genannten Aspekten ausreichende GPU mit der wenn man möchte deutlich fixeren CPU.
Tja, und bei AMD bekommst du eine ausreichende CPU mit der wenn man möchte deutlich fixeren GPU. Wo ist das Problem? Der Unterschied ist nur, eine AMD iGPU würde ich aktuell einer Intel IGP immer vorziehen. Für die CPU gilt das umgekehrt nicht. Wenn es 4 Threads sein sollen, würde ich Llano oder Trinity jederzeit einem i3 vorziehen. Hyperthreading ist für mich einfach nicht das Gelbe vom Ei. Eventuell ändert sich das ja mit Haswell durch das aufgebohrte Backend. Im Moment ist für mich nur der i5 eine echte Alternative bei 4 Threads. Nur liegt hier der Preis auch deutlich höher.

Mir persönlich fallen aus dem Hut nicht viele Anwendungsfälle ein, wo es sich lohnen würde, den A10-5800K GPU Part zu nutzen (abseits von Spielen)... Für den CPU Part aber schon deutlich mehr
CPU-seitig muss sich Trinity aber wie gesagt auch vor keinem i3 verstecken. GPU-seitig kann man das umgekehrt nicht gerade behaupten. ;)

Vor allem kommt noch der in meinen Augen nicht zu unterschätzende "Zumüllungseffekt" gerade im Heimbereich dazu... Ich will gar nicht wissen, wie viel schneller im Schnitt Anwendungen laufen, wenn man ne frische Installation gerade aufgesetzt hat, im Vergleich zur oft zugemüllten Install, die schon Jahre bestand hat. Woman womöglich sogar noch Altlasten von Urzeiten durch diverse OS Updates mitschleppt usw.
Ist meiner Erfahrung nach nicht mehr so dramatisch wie vor 10 oder 15 Jahren. Schnellere Festplatten, bessere Dateisysteme, besseres Betriebssystemmanagement usw haben das alles schon deutlich entschärft. Heutzutage bringt zB eine SSD weitaus mehr als eine frische Installation.
 
Nun ja - nicht ganz. Laut dem CB Test:

Idle Trinity 5800K 55 zu 56 KWh beim i3-3220
Prime95 Trinity 5800K 160 KWh zu 89 KWh beim i3-3220
dbpoweramp Trinity 5800K 148 KWh zu 82 KWh beim i3-3220

Natürlich jeweils das Gesamtsystem
 
OK,

erstens: Idle/Last Differenz sagt gar überhaupt nichts aus. Was die damit überhaupt in einem Test wollen ist mir total rätselhaft.

- Beispiel: Nimm ein Prozessor und schalt CnQ aus. der rockt das Ranking -> 5-10W Idle/Last :fresse:

zeitens: Ein Prozessor, der 100W TDP hat kann eigentlich gar nicht bei einem Idle-Verbrauch von 30W noch mal 100W drauf legen. Da stimmt was nicht (Ja ich weiß TDP != Verbrauch). Ich tipp einfach mal, da hat die GPU (GTX 680) mit reingefunkt.

Der Test sieht da schon viel realistischer aus Test: Trinity vs. Ivy Bridge im GPU-Test (Seite 14) - ComputerBase


Ja der AMD verbraucht mehr UNTER LAST, hat hier auch keiner was anderes gesagt. 32nm vs 22nm, mehr Kerne Ausführungs-Einheiten, bessere iGPU, ...
Dazu kommt noch, der AMD ist nicht beschnitten (Befehlssätze). Es gibt sogar k Modelle, mit offenem Multi Den Bus Takt kann man bestimmt auch mehr als um 5MHz erhöhen :d

Meiner Meinung nach muss sich da ein i3 eher verstecken vor.
 
OK,

erstens: Idle/Last Differenz sagt gar überhaupt nichts aus. Was die damit überhaupt in einem Test wollen ist mir total rätselhaft.

- Beispiel: Nimm ein Prozessor und schalt CnQ aus. der rockt das Ranking -> 5-10W Idle/Last :fresse:

zeitens: Ein Prozessor, der 100W TDP hat kann eigentlich gar nicht bei einem Idle-Verbrauch von 30W noch mal 100W drauf legen. Da stimmt was nicht (Ja ich weiß TDP != Verbrauch). Ich tipp einfach mal, da hat die GPU (GTX 680) mit reingefunkt.

Bei dem Test war CnQ aber natürlich aktiv. Der Leerlaufverbrauch ist bei aktuellen CPUs so niedrig, dass man sehr gut mit dem idle-load-Delta rechnen kann - halbwegs effiziente Boards vorausgesetzt.

Bei deinem zweiten Punkt solltest du bedenken, dass das Gesamtsystem vermessen wird. Die idle-load-Differenz einer 100W TDP CPU könnte sogar locker >120W betragen - es kommen ja noch die Wirkungsgrade von SpaWas und NT oben drauf. Also ja, wie schon gesagt wurde:

CPU Leistung: A10 ~ i3
GPU-Leistung: A10 > i3
Energieeffizienz: A10 < i3

Was man jetzt vorzieht, hängt vom Einsatzzweck ab.
 
Top-20-Liste der Halbleiterhersteller aktualisiert - ComputerBase

AMD auf Platz 13. Weiterhin deutlich vor Nvidia, die auf dem drittletzten Platz unter den Top 20 stagnieren.

AMD minus 17%, nV +9% ^^

Schlimmer wird es hier :

markt.jpg
 
Du weisst leider immer noch nicht, wie Beiträge gemeint sind. ;)

Aber hast natürlich recht. In der Übersicht wird es noch schlimmer für Nvidia. Die kommen da auf satte 0%.
 
Zuletzt bearbeitet:
Er trollt doch nur wie üblich. Dass er ausgerechnet Nvidia nimmt, zeigt doch, dass es ihm ausschließlich um Bashing gegen Blau/Grün geht, statt auf den Beitrag an sich einzugehen. Wenn man sich die Umsätze auch anschaut und nicht nur die Plätze, spielen die beiden eh in denselben Regionen. Ich kann auch bei kleinen Abständen dazwischen trotzdem noch 100 Firmen haben und mit diesem großen Unterschied rumtrollen...an den absoluten Zahlen ändert das herzlich wenig. In den nächsten Jahren könnte Nvidia AMD gar überholen - bei den Wachstums- bzw. Schrumpfungsraten nicht abwegig.
 
Zuletzt bearbeitet:
In den nächsten Jahren könnte Nvidia AMD gar überholen - bei den Wachstums- bzw. Schrumpfungsraten nicht abwegig.

Je nach dem wie sich Tegra weiter entwickelt, ist das in der Tat nicht abwegig. In den Top 5 bei den Wachstumsraten sind allesamt Firmen, die stark vom Smartphone- und Tabletboom profitieren:

1. Globalfoundries (Fertigung)
2. Qualcomm (SoCs)
3. TSMC (Fertigung)
4. Nvidia (SoCs)
5. Broadcom (WLAN, Bluetooth, div. ICs für Mobilbereich)
 
Ich denke dass die Aufträge der Konsolenhersteller AMD relativ gut aus dem Tief reissen werden.
Ihre Hardware wird so bei den Firmen bekannter werden und bei einer erfolgreichen Zusammenarbeit auch wieder bessere Presse bringen.
Aktuell ist es ja so, dass Online Magazine teils den Lesern schon das blaue vom Himmel herablügen, damit sich Klicks generieren lassen.
 
Ich vermute, dass (auch schon bei 360/PS3) das Chipdesign direkt vom jeweiligen Konsolenhersteller einmalig erworben wird, der dann auch eigenverantwortlich die Fertigung übernimmt bzw. an entsprechende Unternehmen weitergibt.

Ich konnte dazu allerdings nirgends eine explizite Aussage finden, evtl. kennt ja jemand eine Quelle.
 
Ist es dir eigentlich auch möglich Argumente in deine Kommentare mit einzubauen, oder ist dir dieser Begriff völlig fremd?
Manchmal frag ich mich echt was diese seichten Aussagen sollen.
Ganz ehrlich, mich nervt das einfach nurnoch. -.-

Du meinst also AMD bekommt als Konsolenhardwarelizenzeigentümer noch mehr schlechte Presse?
Wenn die Spiele auf die AMD CPu´s in den Konsolen optimiert werden, ergibt dies auch Performancevorteile im Desktopsegment, wenn genau jene Spiele auf den PC portiert werden.
 
Zuletzt bearbeitet:
Ich vermute, dass (auch schon bei 360/PS3) das Chipdesign direkt vom jeweiligen Konsolenhersteller einmalig erworben wird, der dann auch eigenverantwortlich die Fertigung übernimmt bzw. an entsprechende Unternehmen weitergibt.

Ich konnte dazu allerdings nirgends eine explizite Aussage finden, evtl. kennt ja jemand eine Quelle.

Ist zwar nur ein Indiz, aber die Developerkits arbeiten wohl mit einer modifizierten APUs: Neues Dev Kit zur PlayStation 4 , könnte bedeuten, dass Sony ein eigenes APU-Design bekommt.

@ Schaffe89: Dochurt kommt vom platten Land, da spart man sich das bla und kommt direkt zum Kern. :d Im übrigen spricht er den Konsolen ihren zukünftigen Erfolg ab. Wenn man denkt, dass eine GPU auf Trinity-Level auf Jahre der Grafikstandard stellen soll ist das auch nicht so abwegig...
 
Das es eine eigenes Design wird, kann man wohl mit ziemlicher Sicherheit annehmen. Sicherlich wird die grundlegende Grafik- und CPU-Architektur nur eine Ableitung anderer Produkte sein, die Zusammenstellung und genaue Spezifikation aber exklusiv.

Ich meinte jetzt vor allem die Frage der Lizenzierung, d.h. ob MS/Sony einmalig das Design kaufen, eine Provision pro Stückzahl bezahlen oder gar die APUs direkt bei AMD bestellen (die dann wiederum bei GF/TSMC/schießmichtot fertigen lassen). Imo ist die erste Variante am wahrscheinlichsten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh