[Sammelthread] AMD Bulldozer "Zambezi" 32nm "New CPU Architecture" Sockel AM3+ [Part 3]

Ich hoffe doch mal stark, dass das mit Piledriver erfolgt, 2013 wieder auf eine IPC von 2009 zu kommen wäre dann doch nicht erstrebenswert, auch wenn IPC nur ein Teil der CPU-Leistung markiert...

naja wird wohl dennoch so sein das die ipc erst 2013 so weit ist. ich vermute so richtig viel gibts erst 2014 mit Excavator.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das ist korrekt. Ich habe hier selbst bis zu 40% gemessen. Mehr ist aber immer noch wünschenswert, auf 60fps kommt man auch damit nicht konstant draußen.

Die paar Scenen, die problematisch sind, sind glaube ich kaum hinzubekommen. Das liegt mMn vor allem an dieser bekloppten Implementation der Nebelschwaden-Effekte, die das Spiel total ausbremsen. Da kann man glaube ich aber eine noch so tolle CPU haben, das wird nicht viel bringen. Erinnert ein wenig an Sacred2 :d. Na ja, man kann auch mit diesem Manko sehr gut spielen. Da brauchts keine 60FPS. Nur größtenteils flüssig wär halt toll.
Die 1.4beta steht bereits zum Download bereit über Steam.

naja wird wohl dennoch so sein das die ipc erst 2013 so weit ist. ich vermute so richtig viel gibts erst 2014 mit Excavator.

Mal sehen, ob SR überhaupt bis 2013 dauert. Sollte es keinen PD-Orochi-Ersatz geben, wird man in Q4 Ersatz brauchen. Nächste Woche wissen wir mehr. Meine Vermutung ist aber auch, dass Excavator wesentlich dicker wird pro Thread. Mal sehen, wie gut GloFo den 20nm-fdSOI-HKMG-ULK-achgottachgott-Prozess dann hinbekommt :d. Irgendwann muss es doch auch mal wieder rund laufen bei denen ;).
 
Zuletzt bearbeitet:
PCGH misst 68% Plus in ihrem Skyrim-Benchmark...
Jetzt bekommt das auch der Bulldozer flüssig hin :fresse:
 
Das lässt sich noch toppen: Civ3PTW.
Ach verdammt, jo, das war auch sehr heftig :d. Hab zu der Zeit aber eher die CtP-Konkurrenz gespielt, weil die komplexer war.
Bei Civ4 bekam man das mit Mods (Rise of Mankind z.B.) aber auch hin. 2 bis 4 Minuten Wartezeit pro Runde -> kein Problem... Dass man sich bei Civ5 um eine ordentliche Optimierung bemüht hat, ist echt was wert :d. Leider ist aber die DLC-Politik und das verbieten von DLC-Kartenscripten und Mods gelinde gesagt scheisse... Auch das Grafiklag ist eine Katastrophe.

PCGH misst 68% Plus in ihrem Skyrim-Benchmark...
Jetzt bekommt das auch der Bulldozer flüssig hin :fresse:

Ugh, ist das heftig... Skyboost schaffte nur etwa 30%... da hat man endlich mal Nägel mit Köpfen gemacht. Auch wenn man sich Code-Parallelisierung weiterhin spart. Das wär sicher auch ziemlich aufwändig im Nachhinein.
http://www.pcgameshardware.de/aid,8...ttel-mehr-Fps/Rollenspiel-Adventure/Download/
 
Zuletzt bearbeitet:
Übrigens, was ich noch anmerken wollte zu diesem Event:
Irgendwie ist das völlig hirnrissig. Man vermarktet den BD u.a. als Gamer-CPU, vergleicht ihn unter fragwürdigen Umständen mit einem Konkurrenzprodukt was bis zu 50% schneller sein kann und zielt auf ein Unentschieden ab. Wenn man den Gedanken jetzt weiterspinnt, geht das nach hinten los, denn nach der Logik braucht keiner einen teuren Bulldozer sondern kann sich genauso gut einen Phenom oder Athlon holen. Auf der einen Seite macht man also Werbung für sein Produkt, deutet aber auf der anderen Seite wiederum an "braucht man eh nicht, weil man eine schnelle(re) CPU eh nicht merkt". Witzig.
 
Ein einzelnes Spiel sagt gar nichts aus für das Gesamtbild.
Und pauschal zu behaupten, Intel wäre besser fürs Spielen, sagt eben genauso wenig aus. ;)

Die Ergebnisse aus dem HardOCP-Link scheinen dir nicht zu passen, also werden sie als "Pseudo-Ausreden" bezeichnet.
Nein, GPU-Limit habe ich als Pseudo Ausrede bezeichnet. Denn wer nicht im GPU-Limit spielt, macht eh irgendwas falsch bzw nutzt das vorhandene Darstellungspotenzial nicht aus. Zumindest ist es nicht sinnvoller, ständig auf CPU-Limits bei 800x600 und ähnlichem rumzureiten. Im HardOCP Link sind nicht handelsübliche übertaktete Setups zu finden. Daher habe ich das ignoriert. Das darfst du gerne im OC Unterforum diskutieren. Im Kontext der geposteten Statistik ist es jedenfalls off-topic.

Übrigens, was ich noch anmerken wollte zu diesem Event:
Irgendwie ist das völlig hirnrissig. Man vermarktet den BD u.a. als Gamer-CPU, vergleicht ihn unter fragwürdigen Umständen mit einem Konkurrenzprodukt was bis zu 50% schneller sein kann und zielt auf ein Unentschieden ab. Wenn man den Gedanken jetzt weiterspinnt, geht das nach hinten los
Nein, tut es nicht. Man vergleicht ja nicht mit Phenom oder Athlon, sondern mit Intel. Bitte versuche nicht, dir irgendwas krampfhaft "herbeizuspinnen", nur um gegen das Event zu wettern, weil dir die Ergebnisse nicht passen. Niemand hat gesagt, dass das repräsentativ ist. Denn dann müsste man ja behaupten, dass AMD besser fürs Gaming ist. Hast du Beiträge gelesen, wo das behauptet wird? Ich denke nicht. Akzeptiere die Ergebnisse einfach mal so, wie sie sind, und ziehe deine Schlüsse. Und anfangen könntest du eben damit, nicht ständig gebetsmühlenartig in AMD Threads zu predigen, wie viel besser die Konkurrenz angeblich sein soll. So wie du das schon wieder machst.


Welcher Kontext soll denn da jetzt zur Grunde liegen? Niemand hat behauptet, dass Die Llano GPU´s nicht deutlich besser sind, was die Spiepeperformance angeht
Na das scheinen einige trotzdem immer wieder gerne zu vergessen bei der ganzen Thematik.

Niemand will behaupten, man könnte nicht mit den Bulldozer Prozessoren spielen,aber sie sind eben deutlich langsamer, wenn ein CPU Limit gegeben ist und das gibt es oft genug.
Eher nicht. Absolutes CPU-Limit gibt es eh nicht. Das sollte mittlerweile bekannt sein. Bei alltagstauglichen Settings sind die Unterschiede meist vernachlässigbar.

Mein FX-4100 war selbst auf 4,7 ghz übertaktete noch merklich langsamer als ein i7 2600k in Skyrim.
Wow, was für eine Überraschung. :rolleyes: Der i7 ist auch mehr als 2,5 mal so teuer. Darfst gerne nochmal mit einem i3 vergleichen, denn der passt deutlich besser als Gegenspieler. Also bitte, wenn schon argumentieren, dann vernünftig. Und wenn ich mir die Beiträge zu Skyrim so anschaue, sollte man das eh mit Vorsicht geniessen aufgrund der Softwareoptimierungen.


Na ja, Piledriver wird kaum was bringen, die Änderungen sind so geringfügig ggü. BD... Es wird deshalb mMn garkeinen PD als Orochi-Nachfolger geben.
Das sieht in dieser Übersicht allerdings nicht so aus. Inwiefern diese echt ist, lässt sich schlecht sagen. Aber zumindest wird es demnach auch einen Orochi Nachfolger (Vishera, Sepang) auf 15h Basis geben, die sich zusammen mit Trinity auch sichtbar von Orochi unterscheiden und scheinbar auf die gleiche Kernarchitektur setzen (Piledriver). Steamroller sollte dann nicht mehr 15h sein und vermutlich mehr Verbesserungen mitbringen.
 
Zuletzt bearbeitet:
Und pauschal zu behaupten, Intel wäre besser fürs Spielen, sagt eben genauso wenig aus. ;)

Korrekt. Aber du darfst nicht alles komplett wörtlich nehmen. Bei gleichem Preispunkt hat die Intel-CPU idR ein gutes Stück mehr Reserve. Daher also schon besser. Man weiß schließlich nie, was kommt. Oder man ist konsequent und geht gleich eine oder zwei Leistungsklassen runter - dann darf man sich aber auch nicht beschweren, wenn einem die fps zu niedrig sind oder man sein SLI/CF nicht anständig befeuern kann.

Nein, GPU-Limit habe ich als Pseudo Ausrede bezeichnet. Denn wer nicht im GPU-Limit spielt, macht eh irgendwas falsch bzw nutzt das vorhandene Darstellungspotenzial nicht aus. Zumindest ist es nicht sinnvoller, ständig auf CPU-Limits bei 800x600 und ähnlichem rumzureiten. Im HardOCP Link sind nicht handelsübliche übertaktete Setups zu finden. Daher habe ich das ignoriert. Das darfst du gerne im OC Unterforum diskutieren. Im Kontext der geposteten Statistik ist es jedenfalls off-topic.

Auf Standardtakt und mit einer Karte weniger hätte das Verhältnis nicht großartig anders ausgesehen. Es ist nicht off-topic, weil es wieder mal zeigt, dass ein Vergleich, der auf die CPU-Performance abziehlt, nur ohne angezogene Handbremse sinnvoll ist. Ich bin lieber für solche Vergleiche als 800x600-Benchmarks, aber ich habe schon oft gesagt, dass das für den Reviewer zusätzlich Validierungsaufwand mit sich bringt, daher machen das wenige. Wieso hat man bei einem Eyefinity-Setup nicht eine zweite oder dritte Karte dazugesteckt??? Das war BF3 auf drei (vermutlich) 1080p Bildschirmen. Da ist eine einzelne 7970 völlig überfordert damit, siehe auch hier:
HD7970 - My Review (BF3 Eyefinity vs HD7970) - techPowerUp! Forums

Ab einem 2500K aufwärts hat die CPU hier keinen Einfluss auf die fps (Savegame, also wirklich Gameplay). Selbst mit vergleichsweise niedrigen Details kommt der User nur auf 46avg und 34min. Das packt vermutlich sogar ein FX4100 oder ein i3-2100.

Übrigens:
Nicht jeder kann/will sich mit den Tücken von SGSSAA und/oder Downsampling auseinandersetzen. Auch hat nicht jeder ein 30" Display. Und viele Spiele bieten gar kein MSAA an. Das Darstellungspotential, wie du es nennst, kann man also sowieso nicht immer nutzen. Das nur am Rande.

Nein, tut es nicht. Man vergleicht ja nicht mit Phenom oder Athlon, sondern mit Intel. Bitte versuche nicht, dir irgendwas krampfhaft "herbeizuspinnen", nur um gegen das Event zu wettern, weil dir die Ergebnisse nicht passen. Niemand hat gesagt, dass das repräsentativ ist. Denn dann müsste man ja behaupten, dass AMD besser fürs Gaming ist. Hast du Beiträge gelesen, wo das behauptet wird? Ich denke nicht. Akzeptiere die Ergebnisse einfach mal so, wie sie sind, und ziehe deine Schlüsse. Und anfangen könntest du eben damit, nicht ständig gebetsmühlenartig in AMD Threads zu predigen, wie viel besser die Konkurrenz angeblich sein soll. So wie du das schon wieder machst.

Ich habe meine Schlüsse gezogen. Du interpretierst das anders, fein. Aber lass mir meine Meinung. Und was du von meinen Postings in anderen Threads hälst, ist off-topic und interessiert hier keinen.
Ach ja. Du warst es, der in Richtung repräsentativ geschossen hat, nämlich mit diesem Beitrag hier:

So viel zu den Ammenmärchen, Intel wäre besser fürs Gaming geeignet. Was ja immer wieder von einigen Unverbesserlichen kolportiert wird. Interessante, wenn auch nicht unbedingt überraschende Ergebnisse.

Ich lese da nicht heraus, dass du dich nur auf BF3 beziehst. Im Gegenteil lässt du es so klingen, als sei die (fälschlicherweise) pauschale Aussage, Intel sei zum Spielen besser geeignet, jetzt komplett widerlegt. Also erklär du mir nicht, wie ich dieses Event zu deuten habe ;)
 
Zuletzt bearbeitet:
Mr.Dude schrieb:
Eher nicht. Absolutes CPU-Limit gibt es eh nicht. Das sollte mittlerweile bekannt sein. Bei alltagstauglichen Settings sind die Unterschiede meist vernachlässigbar.

Ich lasse mich über dieses Thema mal lieber auf keine tiefere Diskussion mit dir ein, nebenbei hab ich absolutes CPU Limit nicht erwähnt. Auch macht niemand etwas falsch, wenn die CPU limitiert. So eine pauschale Aussage ist natürlich auch Unfug.
Der Praxistest von AMD ist halt nur absolut nichtssagend und soll eventuell zeigen, dass eine AMD System nicht zwangsläufig langsamer Rechnen muss wie ein Intel System mit gleicher Grafikkarte.
Bei alltagstauglichen Settings sind das aber trotzdem im Schnitt gut und gerne 15 bis 20%.

Mr.Dude schrieb:
Wow, was für eine Überraschung. Der i7 ist auch mehr als 2,5 mal so teuer.

Wow, Skyrim unterstützt nur 2 Threads und der FX-8150 bietet eine identische IPC.
Von einer Preisdiskussion sind wir hier meilenweit entfernt, das ist nicht das Thema.
Und der Patch 1,4 bringt nebenbei bei Intel ganausoviel Mehrperformance als bei AMD, das hat überhaupt keinen Bezug zu meiner Aussage und dem diskutierten Thema ( Spieleleistung).

Also bitte, wenn schon argumentieren, dann vernünftig.

Du verstrickst dich selbst immer mehr in unsinnige Argumentationen, wenn du noch mehr vom Thema abweichst und nicht klar deinen Standpunkt definierst. Bei jeder Gelegenheit Zuflucht bei irrelevanten Preisvergleichen oder Argumentationsspielchen suchst, wenn du mal wieder Beiträge zerpflückst.

Mr.Dude schrieb:
Man vergleicht ja nicht mit Phenom oder Athlon, sondern mit Intel.

Man vergleicht nicht mit Intel, sondern wenn überhaupt 2 verschiedenen Systemen.
Der Grund warum das eine System etwas runder wirkt, kann viele Gründe haben, hat aber nichts mit AMD oder Intel zu tun.
 
Zuletzt bearbeitet:
Ich finde ja die beiden lustig, die keinen Unterschied zwischen i3 und Llano gesehen haben. Da ist mal ein Besuch beim Optiker angesagt... :d
 
Intressant. Bei einem Blindtest eines Intel Core i7-2700K gegen einen AMD FX-8150 mit 141(!!!!) Messebesuchern, kam der FX-8150 als klarer Sieger raus :rolleyes:
Bis auf CPU und Mobo warn die Systeme ansonsten identisch.

AMD Reality Check at FX GamExperience - The AMD Reality Check Challenge - Legit Reviews


Von einer befangenen Quelle durchgeführt. So etwas macht nur Sinn unter neutraler Durchführung. Wer so etwas in seine Argumentation einbaut, ist entweder auf Trollerei oder viralem Marketing aus.
 
Zuletzt bearbeitet:
Intressant. Bei einem Blindtest eines Intel Core i7-2700K gegen einen AMD FX-8150 mit 141(!!!!) Messebesuchern, kam der FX-8150 als klarer Sieger raus :rolleyes:
Bis auf CPU und Mobo warn die Systeme ansonsten identisch.

Wobei das mit den subjektiven testreihen so eine Sache - da hier die unterschiede aufgrund des extremen GPU Limits wohl praktisch null sind wäre man mit einer (hypotetisch) unendlichen Testeranzahl wohl ziemlich genau bei 50 zu 50 gelandet.

Ich finde ja die beiden lustig, die keinen Unterschied zwischen i3 und Llano gesehen haben. Da ist mal ein Besuch beim Optiker angesagt... :d

Ich vermute mal das die einfach gemerkt haben was Sache ist und dann nichtmehr neutral bewertet haben - Was natürlich auch für die "AMD Ankreuzer" nicht auszuschließen ist.

mfg
 
@boxleitnerb

Ich wüsste nicht, dass Intel CPUs bei gleichem Preis idR ein gutes Stück mehr Reserve haben. Es ist doch eher umgekehrt, wenn man sich die 6 Kerne eines Thuban oder Bulldozers CMT Skalierung anschaut, was heutzutage oft noch unzureichend genutzt wird. Wie man sieht, können auch Spiele mit mehr Threads skalieren und müssen nicht auf ein oder zwei beschränkt sein.

Zu HardOCP, hätte, wäre, wenn ... Zählt nicht. Wir leben nicht im Konjunktiv. Ob das Verhältnis nicht grossartig anders aussehen würde, darf doch bezweifelt werden. Schliesslich wurde der i5 um 45% übertaktet, während der FX8 nur um 28% übertaktet wurde. Das ist auch deshalb interessant, da bei Intel Uncore in Form des L3 automatisch mit übertaktet wird. Und wie wir wissen, ist Cache nicht ganz unwichtig für Spiele. Bei AMDs L3 erfolgt Übertaktung separat. Ob das gemacht wurde, geht für mich aus dem Artikel nicht hervor. Mal davon abgesehen ist SLI nur die eine Seite der Medaille. Gibt schliesslich auch noch CF. Wie auch immer, es ist und bleibt daher off-topic. Punkt. Es ging um eine Statistik, in der subjektives Spielgefühl erfasst wurde, auf handelsüblichen Gesamtsystemen. Nicht mehr und nicht weniger. Es ging weder um übertaktete Systeme, noch um reine CPU Performance, noch um Grundsatzdiskussion über Multi-GPU.

Und nicht jeder will das Geld investieren, sich noch eine zweite oder dritte Karte zu holen. Wenn du schon von Gesamtbild sprichst, dann solltest du dich auch daran halten. Single-GPU Setups sind jedenfalls immer noch repräsentativer als Multi-GPU Setups. CF ist auch keine Voraussetzung für Eyefinity. Und von Überforderung kann ich in deinem Link nichts lesen. Limitierender Faktor heisst nicht automatisch überfordert. Der Typ erreicht mit seiner HD 7970 und Eyefinity jedenfalls spielbare FPS in BF3. Ob mit maximaler Qualität oder nicht, ist erstmal nebensächlich.

Von speziellen Sachen wie SGSSAA oder Downsampling habe ich auch nicht gesprochen. Einstellungen für unterschiedliche Auflösungen oder MSAA/AF bieten aber die meisten Spiele. Notfalls kann man auch noch über das AMD Control Center gehen bzw vergleichbare Lösungen für andere Grafikbeschleuniger.

Und wo steht in meinem Originalbeitrag was von repräsentativ? Ich kann nichts davon lesen. Es ist ein Fall, der zeigt, dass solche Pauschalisierungen, wie zB von dir gerne kolportiert, nicht unbedingt den Tatsachen entsprechen. Man muss es von Fall zu Fall betrachten, da etliche Faktoren Einfluss auf das Ergebnis haben können. Und mehr sollte das nicht aussagen. Alles andere sind wieder mal verquere Interpretationen deinerseits, um mir Worte in den Mund zu legen, die ich nicht gesagt habe.


@Schaffe89

Es macht auch niemand etwas falsch, wenn die CPU der limitierende Faktor ist und trotzdem spielbare FPS vorhanden sind. ;) Egal ob andere CPUs vielleicht noch mehr FPS erreichen würden.

Offenbar sagt der Praxistest schon einiges aus. Ansonsten hätte der A8-3850 nicht so viele Stimmen bekommen und der FX8 läge hoffnungslos auf verlorenem Posten wie der i3. Und mit alltagstauglichen Settings (1680x1050) hat zB CB für einen i7-2600 gerade mal 14% Vorsprung gegenüber dem FX8 in diversen Spielen unter Windows 8 gemessen. Mit höheren Auflösungen und mehr AA/AF dürfte sich das noch weiter zusammenschieben. Wie ich schon sagte, vernachlässigbar. Keiner kann mir erzählen, dass er zB 55 von 50 oder 110 von 100 FPS unterscheiden kann. Solche Unterschiede können alleine schon durch unterschiedliche Hard- und Softwareausstattung, unabhängig von CPU und GPU, entstehen. Und 17 statt 15 FPS macht ein Spiel auch nicht spielbarer.

Der FX8 besitzt zudem einen höheren Turbo als der FX4 und mehr Ressourcen für Multitasking. Da kannst du nebenbei auch noch andere Sachen laufen lassen, ohne dass die FPS zu sehr darunter leiden. Das muss beim FX4 nicht zwangsläufig so sein und sollte man nicht unerwähnt lassen, wenn du schon der Meinung bist, der FX4 Vergleich wäre angebracht gewesen. Was der Skyrim Patch jeweils bringt, lass ich mal aussen vor. Anscheinend bringt er aber doch recht starke Änderungen mit sich. Insofern war das Beispiel kein besonders gutes. Da zitiere ich dir sogar mal boxleitnerb:
Ein einzelnes Spiel sagt gar nichts aus für das Gesamtbild.

Und eines der Systeme war eben ein Intel System. Man vergleicht also mit Intel. Was sollen diese Spitzfindigkeiten? Ich habe lediglich eine interessante Aktion von einem Event gepostet. Wenn das von gewissen Leuten, die bezüglich AMD Bashing nicht ganz unbekannt sind, sofort wieder zerredet werden muss und mit Trollerei oder ähnlichem abgetan wird, nur weil die Ergebnisse vielleicht nicht passen, ist das nicht mein Problem. Meine Intention war lediglich, dass einige mal gründlicher über ihre pauschalen Behauptungen nachdenken und solche Provokationen in Zukunft vielleicht bleiben lassen.
 
Kannst du eigentlich auch posten ohne persönlich zu werden? Du sprichst von Bashing und Trollerei - stattdessen kannst du andere Meinungen auch akzeptieren. Du kannst gerne eine andere Meinung haben, aber hier bist du derjenige, der mit Provokationen um sich wirft. Denk mal selbst drüber nach. Und bleibe beim Thema anstatt hier indirekt User anzugreifen. Worte muss ich dir auch nicht in den Mund legen - jeder kann mein Zitat von deinem Beitrag lesen und weiß, was du gesagt hast und wie du es gemeint und formuliert hast.

Bzgl. HardOCP. Bei dem massiven Vorsprung machen die 17% Taktunterschied den Bock auch nicht mehr fett. Das ist auch die Reserve, von der ich sprach. Rechne beim FX8150 gerne noch 20% drauf, er liegt immer noch deutlich hinter dem 2500K. Du musst nicht extra unrealistische Anwendungsfälle kreieren, um den BD gut dastehen zu lassen. Die Leute, die neben dem Spielen noch Videos kodieren, sollten sich an einer Hand abzählen lassen. Wo ich allerdings mit dir konform gehe ist, dass der BD später mit entsprechender Software auch in Spielen die Lücke etwas schließen könnte. Bloß: Zukunftssicherheit beim Hardwarekauf ist immer so eine Sache. Gelohnt hat sich das selten bis nie. IdR sollte man für seine aktuellen Bedürfnisse kaufen.

Zu dem Event:
Für drei Monitore sollte genügend Grafikleistung zur Verfügung gestellt werden. Das ist ein Highendsetup, nur eine 7970 passt nicht dazu. Für mich persönlich (!) ist das schon eine Manipulation. Das mag nicht deine Meinung sein, es ist meine. Erinnerst du dich an die AMD-Benchmarks zu BF3 nach dem FX-Launch? Da wurde der FX8150 mit dem 2600K verglichen in 1600p Auflösung und das Ergebnis war 20 zu 21fps zugunsten des FX im GPU-Limit. Das ist genau dasselbe wie hier - nichtssagend. Und unspielbar sowieso.
 
Zuletzt bearbeitet:
Weiß man etwas Konkretes wann neues Steppings inkl den 8170 kommen? Da Vishera verschoben oder sogar gestrichen wurde, ist es doch anzunehmen, dass sie kommen, ja?
 
Wo steht denn das Vishera verschoben oder gestrichen wurde? Die AMD-Dingsbums-Konferenz kommt doch noch, oder?
 
Vishera ist was undefinierbares. Was soll es denn sein? Ein Orochi-Nachfolger nur für Desktop? Unwahrscheinlich. Ein 5-Moduler mit 40PCIe3-Lanes, der in ein AM3+-Gehäuse verpackt wird und dann nur PCIe2 hat? Also das wär mal Schachsinn... Vishera (Orochi 2.0) war noch von der alten Führung forciert worden, weil man Komodo gestrichen hat, mMn hat die derzeitige Führung Vishera gestrichen und die 28nm-Projekte vorgezogen... Zudem geben die Optimization-Guides für 20h klare Steamrollerfähigkeiten vor. Nur weil in einer Liste noch die alten Codenamen vermerkt sind, heißt das nicht, dass 20h wirklich Piledriver ist. Das wäre wohl eher dann ein 16 bis 19h gewesen. Ich finde das auch mit dem doch eher bescheidenen 32nm-Prozess sehr fragwürdig - ich glaube kaum, dass sowohl GloFo als auch AMD da noch einen müden Euro versenken wollen... 28nm zu forcieren ist erheblich sinnvoller - zumal man jetzt die Möglichkeiten hat, da in NY ja erstmal 32nm produziert wird und man in Dresden deshalb Luft hat. Die Fertigungsprozesse werden ja in Dresden und Singapur entwickelt, nicht in NY.
es wurd doch nur der kleine Bobcat Nachfolger gestrichen. Von mehr weiß ich zu mindest nix. Quellen wären nice.
Garnix wurd da gestrichen. Das Projekt wurde nach TSMC transferiert und deshalb um 1/2 Jahr verschoben. Deshalb gibt es Brazos 2.0 als Lückenfüller. Und ein "Bobcat-Nachfolger" wurde schonmal garnicht gestrichen, das wäre nämlich ein Jaguar-Kern im Jahr 2013 :d.
 
Zuletzt bearbeitet:
Naja bringt wahrscheinlich nix, sich jetzt darüber den Kopf zu zerbrechen. Die Pläne haben sich durch den schwachen Start der Bulldozer-Architektur und den Führungswechsel scheinbar stark geändert. Ich hoffe mal, der Financial Analyst wir da ein paar neue Infos bringen.
 
Vishera ist was undefinierbares. Was soll es denn sein? Ein Orochi-Nachfolger nur für Desktop? Unwahrscheinlich. Ein 5-Moduler mit 40PCIe3-Lanes, der in ein AM3+-Gehäuse verpackt wird und dann nur PCIe2 hat? Also das wär mal Schachsinn... Vishera war noch von der alten Führung forciert worden, weil man Komodo gestrichen hat, mMn hat die derzeitige Führung Vishera gestrichen und die 28nm-Projekte vorgezogen... Zudem geben die Optimization-Guides für 20h klare Steamrollerfähigkeiten vor. Nur weil in einer Liste noch die alten Codenamen vermerkt sind, heißt das nicht, dass 20h wirklich Piledriver ist. Das wäre wohl eher dann ein 16 bis 19h gewesen. Ich finde das auch mit dem doch eher bescheidenen 32nm-Prozess sehr fragwürdig - ich glaube kaum, dass sowohl GloFo als auch AMD da noch einen müden Euro versenken wollen... 28nm zu forcieren ist erheblich sinnvoller - zumal man jetzt die Möglichkeiten hat, da in NY ja erstmal 32nm produziert wird und man in Dresden deshalb Luft hat. Die Fertigungsprozesse werden ja in Dresden und Singapur entwickelt, nicht in NY.

Genau das habe ich in verschiedenen Foren auch gelesen, manche meinen, dass Trinity sogar abgespeckte Piledriver verwenden wird (was auch immer das heißen soll). Du meinst also, dass im 32nm Prozess nichts nachgeschoben werden wird? Kein neues stepping? Und wann ist denn der 28nm Prozess soweit? Bereits Herbst 2012, für den Desktop Nachfolger von BD?
edit: warum 28nm? Wird man nicht mit Intel und 22nm gleichziehen? Oder verwendet man den 28nm Prozess der bereits bei den Graka verwendet wird?
 
Zuletzt bearbeitet:
Mal eine blöde Frage:
Werden AMD's Prozessoren zukünftig mit der gleichen Größe wie die Grafikkarten gefertigt?
CPU wäre doch 32nm -> 22nm
Und GPU war 40 -> 28nm
 
Es gab mal ne Folie für die Next Gen. Bulldozer mit 45 > 32 > 22nm...

22nm gibt es bei GF noch nicht, aber 32/28nm SOI Advanced Technologies

Das AMD CPUs in 28nm produzieren lassen wird ist nur eine Spekulation seit dem es mal ne Folie von HP gab.
 
Naja, was würde sie dran hindern, CPUs in 28nm zu fertigen?
Erfahrungen hat man ja schon bei den GPUs gesammelt, sofern übertragbar auf CPUs.
 
Kannst du eigentlich auch posten ohne persönlich zu werden? Du sprichst von Bashing und Trollerei - stattdessen kannst du andere Meinungen auch akzeptieren. Du kannst gerne eine andere Meinung haben, aber hier bist du derjenige, der mit Provokationen um sich wirft. Denk mal selbst drüber nach. Und bleibe beim Thema anstatt hier indirekt User anzugreifen. Worte muss ich dir auch nicht in den Mund legen - jeder kann mein Zitat von deinem Beitrag lesen und weiß, was du gesagt hast und wie du es gemeint und formuliert hast.
Ich versuche möglichst immer unpersönlich zu posten, im Gegensatz zu dir. Also erstmal das eigene Verhalten überdenken, dann andere kritisieren. Kannst dir ja für den Anfang nochmal deinen Beitrag #7578 durchlesen und dort dein Fehlverhalten analysieren. Und wenn jemand von Trollerei oder ähnlichem spricht, nur weil ein solcher Artikel gepostet wurde, dann ist das keine Meinung, sondern schlichtweg Provokation.

Zu HardOCP, ich sehe keinen massiven Vorsprung, zumindest nicht im Mittel. Teils liegt man sogar gleich auf. Und natürlich kann ein 14%+X höherer Takt einiges ausmachen. Erst recht, da eben noch andere Faktoren hinzukommen. Aber wie gesagt, in dem Kontext war das eh off-topic. Du musst hier nicht irgendwas themenfremdes herbeizitieren, nur um wieder nach Ausreden zu suchen.

Zum Event, wie kann ein Performance Prozessor gepaart mit einer Performance Grafikkarte ein High-End Setup sein? Das ergibt keinen Sinn. Ich glaube, du hast den Sinn von Eyefinity falsch verstanden. Du brauchst für Eyefinity jedenfalls kein High-End Setup. Es steht auch nichts davon in dem Artikel, dass das Spiel unspielbar gewesen wäre.
 
Zuletzt bearbeitet:
Zum Event, wie kann ein Performance Prozessor gepaart mit einer Performance Grafikkarte ein High-End Setup sein? Das ergibt keinen Sinn. Ich glaube, du hast den Sinn von Eyefinity falsch verstanden. Du brauchst für Eyefinity jedenfalls kein High-End Setup. Es steht auch nichts davon in dem Artikel, dass das Spiel unspielbar gewesen wäre.

Also das ist jetzt aber albern, eine Konfiguration von jeweils einer CPU für über 200€ und einer GPU für ca 500€ ist High End. Es gibt weit weniger Produkte, die da drüber stehen als da drunter stehen. So jetzt könnt ihr gerne weiter diskutieren... ;)
 
Irgendwie kann das ewig hin und hergehen. Fakt ist, du hast in #7577 getrollt, darauf habe ich geantwortet. Nicht den Link kreide ich dir an, sondern den Satz darunter. Das habe ich auch sehr deutlich gemacht.

Nein, nicht wie gesagt. Es ist nicht off-topic, denn es ist zur Analyse wichtig. Ich habe Fear weggelassen, da gab es offenbar Probleme. Übertaktung rausgerechnet hat der i5 bei maximaler GPU-Leistung einen Vorteil von 45, 69, 50, 58, 9, 59 und -6 Prozent. Je nachdem wie gut der Turbo greift, darfst du gerne nochmal 5-10% von diesen Zahlen abziehen, aber wie man da keinen massiven Vorsprung in 5 der 7 Fälle sehen kann, weißt auch nur du...

Es ist kein Highend vom Preis her, wohl aber von der Leistung. Denn ein teurer Sechskerner oder 2600K bringt ggü. einem 2500K kaum Mehrleistung. Es ist unerheblich, ob es in dem Artikel nicht steht. Der gesunde Menschenverstand bzw. 3min Google machen klar, dass eine 7970 ohne massiv reduzierte Details in einem Multiplayershooter nicht für flüssige Bildraten ausreicht.
Review: Sapphire HD 7970 in three-screen Eyefinity - Graphics - HEXUS.net - Page 5
Du selbst scheinst nicht zu spielen, denn du hast keine Ahnung davon, was man für Bildraten braucht. 45avg (bei reduzierten Details) ist nicht genug im Multiplayer, selbst im Singleplayer ist das grenzwertig.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh