AMDs aktuelle wirtschaftliche Lage [2]

würdest du zu einer anderen firma wechseln, nur weil die dir 2€ mehr auf die stunde geben, du aber von anfang an weist dass das voll der gemüseladen ist, und warscheinlich pleite geht?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
auch ich bin ne nutte und würde ja sagen
und das etwas pleite geht ist ja nicht gesagt und wurd ja lediglich von aussenstehenden vermutet
 
Zuletzt bearbeitet:
Mal davon ab kann man auch auf einem sinkenden Schiff seine berufliche Reputation verbessern. ;)
 
inwiefern?? ohne mich wäre der kahn noch schneller abgesoffen!? :fresse:

Generell kannst du auf deinem Gebiet ja trotzdem gute Arbeit abliefern und das Unternehmen als ganzes fährt vor die Wand. Ein Konzern geht ja meist ncht pleite, weil der gesamte Konzern, nur Blödsinn macht. AMDs GPU-Leute, zum Beispiel, sollten wohl größtenteils jeder Zeit einen anderen Arbeitgeber finden, wenn AMD hobs geht.
 
wenn du einen job(deine firma) im marketing bereich zu vergeben hättest. es wären zwei bewerber da, einer von Intel, der andere von AMD.wenn würdest du nehmen :bigok:

ich weiß was du meinst, trotzdem würde jemand der eine lupenreine karriere bis jetzt hat, nicht zu AMD wechseln wenn die zeichen auf untergang stehen.
 
Mein war auch nur allgemein gemeint, sowas muss man immer individuell betrachten. :)
 
Das steht auf einem anderen Blatt. Mal die nächsten Quartalsberichte beobachten, ob man dazu was sagen wird.
 
Ich würde wetten, dass das hochgerechnet auf den prognostizierten Absatz ist...
 
Die spannende Frage wird doch sein, wurde AMD genommen weil sie konkurrenzlos billig waren, oder für ein gewisses Budge das rundere Konzept hatten.
 
vermutlich Konkurrenzlos (ohne billig) und das rundere Produkt.

Was hat die Konkurrenz zu bieten?
- Intel fehlt es an GPU Power (Haswell ist zu spät und zu lahm), da können die CPUs noch so effizient sein
- Nvidia hat nur ARM CPU ("zu lahm" und eben nicht x86) GPU-Know-how wäre aber da. Bei den Chipsätzen sind sie aber "veraltet", da kein SATA3 und USB3 onboard so weit ich weiß
- IBM hätte eine x86 Lizenz aber kein Know-how, würden wohl eher Cell CPUs verkaufen und dann hat man wieder das Problem mit dem Portieren, ... Dazu gibt es keine GPUs
- Ansonsten fällt mir noch VIA (zu unbedeutend+keine GPU) und Samsung (Vernutlich keine Interesse und wieder nur ARM+keine GPU) ein
- Eine Mischung aus CPU + dedizierte GPU hätte Nachteile:
o Fehlenden HSA, sprich die Daten müssen wieder über PCIe geschaufelt werden
o 2 Hitzequellen im System -> teurere Kühlung
o teurer, da ja 2 Chips gefertigt werden.
o Nicht alles aus einer Hand (außer man nimmt keine AMD APU was mMn. sinnfrei wäre)
o ...

Auf der Haben Seite von AMD steht die Flexibilität verschiedenste CPUs mit GPUs zu kombinieren, dazu HSA (hauptsächlich der gemeinsame Adressraum) Chipsätze haben alle modernen Schnittstellen (dürfte aber nicht das Totschlag-Argument bei einer Konsole sein) und das ganze flexibel auf einen oder mehrere Chips gepackt, wie der Kunde das will. Nachteil sind halt die etwas schwachbrüstigen CPUs etc. wurde ja schon zu genüge diskutiert.
 
Zuletzt bearbeitet:
PS4: Hardware-Optimierungen für Spitzen-Spieleleistung | heise online

Nun gab der Lead Architect der PS4, Entwicklerlegende Mark Cerny, weitere Details in einem Interview mit dem Online-Magazin Gamasutra preis.

Cerny war es besonders wichtig, Spieleentwicklern eine leicht programmierbare Hardware in die Hände zu geben. Als abschreckendes Beispiel diente dabei die PS3, deren für damalige Verhältnisse hohe theoretische 3D-Leistung sich wegen der kompliziert zu programmierenden CELL-Hardware nur schwer in der Praxis freisetzen ließ. Daher entschied sich Sony bei der PS4 für x86-CPUs, versuchte durch spezielle Hardware-Techniken Flaschenhälse zu beseitigen und die Spieleleistung im Vergleich mit aktuellen Spiele-PCs stark zu erhöhen. Außerdem wollte man die Multiplattformentwicklung vereinfachen: Eine PC-3D-Engine ließe sich in Wochen – und nicht Monaten – auf die PS4 portieren, erklärte Cerny.

Für Cerny war GDDR5-Speicher erste Wahl, um die Speicherbandbreite als typischen Flaschenhals beim Einsatz hochaufgelöster Texturen zu verhindern. Alternativ hätte man laut Cerny auch nur 128 Datenleitungen in Verbindung mit einem zusätzlichen, extrem schnellen eDRAM für den Framebuffer nutzen können; das wäre einfacher zu produzieren, hätte jedoch den Programmieraufwand für Entwickler erhöht.

Aber natürlich waren x86 und die dadurch erst mögliche einfache Portierung kein (KO)Kriterium. Überhaupt ergab sich Sonys Rücksicht auf die Spieleentwickler nur zufällig, da sich AMD am billigsten anbot.


Dafür spricht auch, dass AMD die GCN-Technik in der PS4-GPU diesbezüglich aufgebohrt hat. Demnach wurde die Anzahl der möglichen Compute-Aufträge in den Queues von 2 auf 64 Stück erhöht – besonders für asynchrone GPGPU-Berechnungen ist das wichtig. Laut Cerny profitiert davon aber nicht nur die Spiel-Engine, sondern auch laufende Middleware, etwa für Physikberechnungen. Bis Programmierer die Hardware-Funktionen, die übrigens bereits zwischen 2009 und 2010 für den PS4-Chip entwickelt wurden, tatsächlich voll ausnutzen, dürften noch ein paar Jährchen vergehen, Cerny schätzt frühestens 2015.

Und Intel war vor 4 Jahren im GPU-Bereich auch schon konkurrenzfähig genug und konnte mit AMD GPU-technologisch Schritt halten. Allerdings, man ahnt es, hat sich AMD billiger als alle anderen Hersteller verkauft. Jaguar und GCN waren halt schon irgendwie da und deswegen brauchte AMD für die Konsolen kaum noch einen Finger krümmen. Ist doch dann keine Kunst die anderen Mitbewerber preislich zu unterbieten, oder?
 
Zuletzt bearbeitet:
Intel konnte im Grafikbereich vor 4 Jahren Schritt halten? Bei was & wie denn? Die Entwicklung wird ganz sicher günstiger gewesen sein. Alles ist vorhanden. Bei allen anderen Herstellern hätte man sicher keinen SoC bekommen. Man hätte verschiedene Unternehmen mit den Entwicklungen beauftragen müssen. Und sicher geht es auch um den Preis, wie überall in der Halbleiterindustrie.
 
- IBM hätte eine x86 Lizenz aber kein Know-how, würden wohl eher Cell CPUs verkaufen und dann hat man wieder das Problem mit dem Portieren, ... Dazu gibt es keine GPUs
Cell ist bei IBM kein Thema mehr. Wenn hätte es einen Power Chip gegeben, wahrscheinlich auf Basis des Power A2. GPUs fertigt IBM mittlerweile seit einigen Jahren nicht mehr. Früher zu Zeiten des RS/6000 haben sie die GPUs selbst entwickelt.
 
Das ist imo auszuschließen. Jaguar ist zu sehr auf low-cost (= geringe Die-Size) ausgelegt, dass war bei Banias nicht der Fall. Zudem sind die architektonischen Unterschiede damals weit größer gewesen, das P4-Grunddesign dazu schon recht alt.

Aktuell ist scheinbar auch die Taktbarkeit auf ~2,0 GHz beschränkt. Um die mal eben zu verdoppeln, würde man wohl fast den gesamten Chip über den Haufen werfen müssen.
 
Das ist imo auszuschließen. Jaguar ist zu sehr auf low-cost (= geringe Die-Size) ausgelegt, dass war bei Banias nicht der Fall. Zudem sind die architektonischen Unterschiede damals weit größer gewesen, das P4-Grunddesign dazu schon recht alt.

Aktuell ist scheinbar auch die Taktbarkeit auf ~2,0 GHz beschränkt. Um die mal eben zu verdoppeln, würde man wohl fast den gesamten Chip über den Haufen werfen müssen.

Der Originallink öffnet sich bei mir nicht (oder zu langsam :d), aber das Potential ist interessant
SemiAccurate Forums - View Single Post - AMD Kabini X4 5110 | X-series and E-series launch 2Q 2013
 
Ich wollte keinen neuen Thread aufmachen, daher poste ich es hier:
Feldman candidly acknowledged that the Bulldozer failure cost AMD some credibility in servers. But the company is looking to rebound with a revamped management team led by CEO Rory Read and a new server roadmap comprising x86 and ARM chips for multiple server categories.

“Bulldozer was without doubt an unmitigated failure. We know it,” Feldman said.

“It cost the CEO his job, it cost most of the management team its job, it cost the vice president of engineering his job. You have a new team. We are crystal clear that that sort of failure is unacceptable,” Feldman said.
AMD bridges road to ARM with new low-power x86 server chips | PCWorld

Auf Einsicht folgt Besserung heißt es doch so schön. Respekt, dass man so offen und ehrlich damit umgeht und nicht versucht, irgendwas schönzureden.
 
Bloß wieso sage ich das öffentlich.Die eigene Firma schlechtmachen. uglygruebel.gif
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh