AMD: Kommende GPUs sollen pro Takt doppelt so effizient sein

mhab

[online]-Redakteur
Thread Starter
Mitglied seit
03.08.2007
Beiträge
3.900
<p><img src="/images/stories/logos-2013/AMD_Logo_2013.jpg" alt="AMD Logo 2013" style="margin: 10px; float: left;" />Bereits vor einigen Wochen hatten wir berichtet, dass die <a href="index.php/news/hardware/grafikkarten/36955-amds-kommende-gpu-generation-arctic-islands-soll-teilweise-tape-out-geschafft-haben.html" target="_blank">kommende Grafikkarten-Generation „Arctic Island“ von AMD das Tape-Out erreicht habe</a> und somit nur noch kleinste Änderungen bis zur Serienproduktion vorgenommen würden. Inzwischen hat sich AMD selbst zu Wort gemeldet und bestätigt, dass die kommenden GPUs deutlich effizienter arbeiten sollen. Laut CEO Dr. Lisa Su sei die kommende Generation pro Takt bis zu zweimal effizienter als dies noch bei den aktuellen Modellen der Fall sei.</p>
<p>Die...<br /><br /><a href="/index.php/news/hardware/grafikkarten/37207-amd-kommende-gpus-deutlich-effizienter.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ist die Produktion bei TSMC überhaupt irgendwo richtig bestätigt?

Global Foundries hat doch letztens erst verraten das man den 14nm Prozess für AMDs CPUs, APUs und GPUs hat.

Ich kann mir auch schlecht vorstellen, wenn GPUs bei TSMC in 16nm hergestellt werden, wie dann APUs gefertigt werden sollen.
Zen ist auf 14nm ausgelegt und GPU wäre dann vlt. auf 16nm ausgelegt?

Es kann natürlich auch sein dass GPU teile nicht so schwierig auf einen anderen Prozess zu migrieren sind...


Was ich von Greenland erwarte:
- 30% mehr Leistung, 40% weniger Energieverbrauch damit ~ 82% effizienter - die Verdopplung wird bestimmt nicht fürs top Modell gelten sondern eine Nano-ähnliche Effizienzkarte
- 8GB HBM v2
- HDMI 2.0
- DP 1.3
- H.265 de/encodierung

Shader werden mMn. bei 4096 Belieben sich aber viel besser Takten lassen, oder 6144 Shader mit nem niedrigen Takt von 700-800MHz laufen


Da der Trend zu kleinen PCs geht und HBM endlich die Möglichkeit bietet deutlich kleinere Karten zu bauen denke ich werden beide Hersteller Karten mit deutlich weniger Verbrauch bauen.
Auf den kleinen Karten ist ja auch kein Platzt für nen großen Kühlkörper.


Auf jeden Fall wird die nächste Generation beider Hersteller endlich mal wieder so spannend wie damals GCN und Keppler!!
 
Zuletzt bearbeitet:
AMD glaube ich schon lange kein Wort mehr. Die lügen und verarschen uns doch immer wieder, kein deut besser als nVidia!

Wie hat es nochmal zur Präsentation von Fury geheißen: "Ein OC-Traum!"
Schlechter Witz ist das! :wut:
 
ich glaubs, wenns so ist. bis dahin is das eins der vielen "bald, ganz bald"-News.
 
AMD glaube ich schon lange kein Wort mehr. Die lügen und verarschen uns doch immer wieder, kein deut besser als nVidia!

Dieses "Immer wieder" Könntest du das bitte mal genauer konkretisieren ?

Wie hat es nochmal zur Präsentation von Fury geheißen: "Ein OC-Traum!"
Schlechter Witz ist das! :wut:

Schonmal daran gedacht, das diese Aussage von den Medien hoch gebauscht worden ist ? Das ist keine offizielle Aussage gewesen !
Offizielle Aussagen findet man auf der Homepage der Hersteller und auf den Verpackungen der Produkte mit denen man die Werbetrommel betreibt, da wo z.B. NVIDIA immer noch mit vollen angebundenen 4GB ihrer GTX970 wirbt und mit vollen Support von satten DX12.1. Das sind offizielle Aussagen...

Zur neuen Serie kann ich nur hoffen, das es ein echter Hammer wird !
HBM2.0 mit genügend VRAM und schneller sowie hoch effizienter Anbindung ohne versteckte Hintertüren.
Die Karten können von mir aus auch Strom fressen wie ein Heizlüfter, wenn sie dafür 100% mehr Leistung bringen, denn das ist das eigentlich, worauf es ankommt !
Was nützt mir eine sparsame Karte, die kaum schneller ist als die alte Generation ? die paar Watt mehr merkt kaum jemand, da die Boardpartner sich optimal auf die Leistungsaufnahme angepasst haben und Kühllösungen präsentieren, die kaum Probleme haben, die Abwärme abzuleiten. Siehe die 31 db einer Sapphire Fury unter Vollast. ;)

Was ich mir wünsche ?
Von mir aus können die neuen Karten auch weiterhin 250 Watt TDP haben, dafür aber 100% mehr 3D-Leistung vorweisen mit genügen Grafik-Speicher. Mehr muss eine Grafikkarte auch nicht können !
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
AMD glaube ich schon lange kein Wort mehr. Die lügen und verarschen uns doch immer wieder, kein deut besser als nVidia!

Wie hat es nochmal zur Präsentation von Fury geheißen: "Ein OC-Traum!"
Schlechter Witz ist das! :wut:

im gegensatz zu nvidia haben die aber nicht zur definitiven hardware gelogen und features falsch angepriesen, welcher hardwareseitig einfach nicht da sind / fehlerhaft sind.

overclocking ist ein sache, die machen nicht haben / nutzen muss, aber kann. wie groß der spielraum da ist, ist eh je karte invidividuell und keiner der käufer ist durch die mangelnde OC-fähigkeit, die eh absolut nicht vorhersehbar ist, zu schaden gekommen. soll heißen, dass normalnutzer eine vollwertige karte haben und overclocker eben nicht so weit kommen damit, was jedoch kein problem ist, da kein takt garantiert wurde.

klar, es ist unglücklich, dass die karte kein overclockers dream ist, ABER immerhin ist der hbm voll angebunden ( s. nvidia ) und async. computer funktionierte deutlich besser / überhaupt ( s. nvidia ).

ich bin selbst nvidia-nutzer ( 980 ) und sehe nicht, wo sich AMD in den letzten monaten groß was geleistet hat.
im gegensatz zu nvidia haben die mit HBM endlich mal in nach vorn gearbeitet und wertvolle forschungsarbeit geleistet - während nvidia bequem aufm arsch rumrutscht und wartet, bis hbm 2 da ist.
innovation ist bei nvidia aktuell ein fremdwort und das sag ich als nvidia-nutzer.

ich bleibe bei meinem beständigen wechsel und die nächste karte wird wieder amd und danach wieder nvidia. abwechslung schadet nicht und schlecht werden die neuen amd karten nicht.

aber hey, kein ding, basht ruhig weiter hirnlos rum - nvidia ist natürlich der heilsbringer am gpu-markt ... NICHT.
die schaffen es nicht mal die treiber dahingehend zu fixen, dass man 2 bilschirme so betreiben kann, dass wenigstens 1 davon in 144hz rennt und dennoch das powersaving funktioniert.
das problem hatte ich vor ewigkeiten schon, als die ersten 144hz tn von benq da waren - bis heute wurde das nicht behoben, trotz versprechen.
da rennt die gpu permanent mit 700+ mhz und der vram auch, sobald 2 bildschirme da sind und nur 1 davon 144hz fährt.
 

Ich habe gar nicht gewusst, das eine Anklage auch automatisch zu einer Verurteilung führt. Ich kann dich z.B. auch verklagen, aber ob ich damit durchkommen, muss erst einmal das Gericht klären. Verstehst du das ?
Verklagen kann man jeden, nur ob es auch rechtens ist, das ist nicht damit zu verbinden !
 

weil irgendein idiot meint, er könne mit einer breit angelegten klage, was reissen?

erstmal muss das gericht klären, wie man cpu / kern genauer definiert - das macht die klage echt kompliziert.
des weiteren ist es bei den amis so, dass du deine klage so breit fächern kannst, wie du willst, um eine chance zu erhöhen, dass irgendein punkt auch vor gericht landet.

in sack und tüten ist da noch garnichts - wenn die richter es so sehen, dass die definition eben so ausgelegt wird, dass bei AMD alles korrekt deklariert ist, fallen alle anderen punkte auch.
sollte die deklaration von cpu / kern zu gunsten des klägers ausgelegt werden und es zur verhandlung kommt, so müssten erstmal die anderen punkte abgehandelt werden.

da sind punkte dabei, um den fächer aufzuspannen, die partiell nicht haltbar und signifikant sind.
den marktverzerrung oder unlauterer vorteil / gewinn kann man hier nicht vorwerfen - die cpus sind nicht gerade wir warme brötchen weggegangen und ein vergleich mit intel-praktiken wird den punkt direkt zerlegen, auch wenn das ganze widerrechtliche handeln intels schon ad acta gelegt ist.

lest mal nach, was der typ da für punkte durchbringen will.
nahezu alles hängt von der nicht sehr weichen definierung der kerne ab - gewagt, wie ein dreister bluff beim poker.
 
Zuletzt bearbeitet:
Das kam doch von amd selbst, bei der präsentation der fury, oder etwa nicht?!

Da liegt ja das Problem. Jeder glaubt den Medien die dann solche Ausrutscher als Fakten darstellen !
Diese Aussage der Overclockdreams, war keine offizielle Spezifikation der Grafikkarte, sondern ein überschwänglicher von Euphorie getränkter Mitarbeiter, der eben doch zu weit geträumt hat. Das stand weder auf einer Repräsentationsfolie oder war teil der Programms ! Aber schon steht es in allen Medien, das AMDs neue Fury ein Overclockdream ist... Schon seltsam, das OC-Fähigkeiten als Fakt dargestellt wird, wo jeder weiß, das OC ja gar nicht garantiert wird. ;)
 
ja, war eine offizielle die man sich hätte sparen können.

- - - Updated - - -


die anzahl der kerne ist aus technischer sicht vollkommen korrekt, der kläger ist ein dummkopf!
arg wieviel bullshit der da behauptet:O
http://regmedia.co.uk/2015/11/06/amd_bulldozer_lawsuit.pdf

nein, die anzahl der kerne ist nicht korrekt, da durch die architektur nicht alles absolut parallel machbar ist.

deswegen sind es module und keine kerne. nur im offenen marketing für den kundenmarkt wird permanent von 8 kernen geredet.

eben die definition von "kern / core" muss das gericht erstmal festlegen - danach wird's interessant oder eben nicht, weil die klage fällt.
 
Zuletzt bearbeitet:
ja, war eine offizielle die man sich hätte sparen können.

- - - Updated - - -


die anzahl der kerne ist aus technischer sicht vollkommen korrekt, der kläger ist ein dummkopf!
arg wieviel bullshit der da behauptet:O
http://regmedia.co.uk/2015/11/06/amd_bulldozer_lawsuit.pdf

Die Kritik ist durchaus berechtigt. Wenn dein Programm nur FPU Einheiten nutzt, dann wird aus dem "8 Kerner" plötzlich ein 4 Kerner. In vielen BOINC Projekten der Fall. Zumindest lässt sich der "8 Core" Bulldozer nicht mit einem 8 Core Intel leistungsmäßig vergleichen. Auch dann nicht, wenn HT abgeschaltet wird. Selbst wenn nicht die aktuelle Generation, sondern eine Generation älter zum Vergleich herangezogen wird.

Übrigens wäre es vielleicht für AMD selbst besser gewesen, den FX als 4+4 CMT zu bezeichnen und nicht als "native 8-core." So wäre der Vergleich mit Intel deutlich besser ausgegangen.
 
Zuletzt bearbeitet von einem Moderator:
14LPP von Globalfoundries wurde längst bestätigt...
GLOBALFOUNDRIES Achieves 14nm FinFET Technology Success for Next-Generation AMD Products


nein, weil 14nm von AMD bestätigt wurde!

Ja. Aber nicht welche Serie nun genau gemeint ist.
Unter 14nm fällt auch Zen sowie die APUs. AMD will Zen mit APU kombinieren und da liegt es nahe, das alles im gleichen Fertigungsprozess läuft, wobei die APUs mit Zen und Grafikeinheit, sowie Speicher sehr effizient sein müssen.

Für die Desktopkarten wird TSMC in 16nm herangezogen. Da kann man vermutlich höhere Spannungen und somit höhere Taktraten verwirklichen.
 
Die Kritik ist durchaus berechtigt. Wenn dein Programm nur FPU Einheiten nutzt, dann wird aus dem "8 Kerner" plötzlich ein 4 Kerner.
die FPU ist kein teil des kerns, also ist das egal.
und ausserdem ist es aus technischer sicht eh falsch, ohne AVX256 und FMA256 können beide kerne die FPU gleichzeitig nutzen!
mit der logik wäre also ein Phenom2 X6 nur ein 3Core, weil er auch nur 128bit FPU pro kern hat...

In vielen BOINC Projekten der Fall.
das nutzt AVX?

Zumindest lässt sich der "8 Core" Bulldozer nicht mit einem 8 Core Intel leistungsmäßig vergleichen.
hat auch niemand behauptet.
die leistung definiert aber auch keinen kern, sonst hätte Baytrail auch keine echten kerne.
die logik des klägers ist ziemlich dümmlich!

Auch dann nicht, wenn HT abgeschaltet wird.
hat keinen bezug zum thema!
 
AMD wird wohl Fiji, sprich Fury X mit mehr Takt 1150 bis 1200 Mhz und HBM 2 zu 8GB bringen und die R9 390 und 390X im Neuen Verfahren bringen mit etwa R9 Nano Verbrauch zudem etwas aufmotzen und ebenso HBM 2 Spendieren.
Knapp unter Fury ansetzen und schon sollte man gewappnet sein.
Hat dann eine komplette Serie mit HBM (insgesamt 6 Karten) und dies wohl schon März bis April 2016 am Start.
 
Nein, aber die FX schneiden in Rosetta@Home wirklich schlecht ab. Zwei System mit FX-8350 sind knapp so schnell wie mein i7 5820K @ 4GHz.
das ist auch ein i7 mit 6 kernen.
der FX-8350 par preislich nie der gegenspieler für diese teile.

wer CPUs nur anhand der kernanzahl vergleicht sollte halt bevor er eine CPU kauft jemanden fragen der ahnung hat!
sind die selben leute, die früher CPUs anhand der GHz verglichen haben:\

komischerweise gibt es dieses dumme verhalten bei GPUs nicht, da vergleicht niemand AMD/NVIDIA anhand der shaderanzahl...
 
Was nützt mir eine sparsame Karte, die kaum schneller ist als die alte Generation ?
Mir schon. Ich steige immer wieder irgendwann mal wegen Compute von einer auf eine andere mitn immer nur 1x6 Stromanschluß, und hab dann die doppelte Leistung. So verkehrt ist das nicht ;)

250W kriegt man noch weg. Wenn man nun für z.B. die Leistung der 7970, 130W braucht, wieviel Leistung gibts bei 250W? :d

Andererseits, vielleicht gehts "nur" um diesen neuen Treiber der kein Catalyst mehr ist... Wenn sie da den treiberseitigen CPU-Limit beseitigt haben, haben sie bei max. schonmal 30% mehr Leistung pro Watt...
 
Zuletzt bearbeitet:
@Elkinator ich sehe nirgends das AMD 14nm GPUs bestätigt hat, dafür aber Globalfoundries die geschrieben haben das 14nm LPP für die komplette Palette genutzt wird.
Kommt zwar aufs gleiche raus aber AMD selbst hat 14nm GPUs glaub noch nie bestätigt.

Das 16nm höheren Takt durch mehr Spannung verträgt ist völlig aus der Nase gezogen weil es dazu noch gar keine Vergleiche gibt...

Ebenso kann der Apple A9 Vergleich nicht genommen werden das der Prozess dort 14nm LPE (Early Access Version :d) war.



Wieviel Strom so eine Karte zieht ist mir persönlich nur indirekt wichtig - sie muss gut Kühlbar sein!
Ich hoffe deswegen auf eine Luftgekühlte Karte mit der Größe der Fury X, halt aber ohne Radiator.
Da kleine Gehäuse der Trend sind, werden beide Hersteller sicherlich auch in diese Richtung bauen.

Sofern es den Boardpartnern dieses mal hoffentlich wieder komplett Frei ist ein eigenes PCB zu entwickeln wird es die Monsterkarten (auch Phasenausbau) eh wieder geben.


Was mir jetzt aber am wichtigsten ist: Wann kommt die Endlich raus? xD



Edit: @Thrawn ich glaube der Hauptgrund für AMD "Fans" sich ne 980Ti zu kaufen war eher die Absolut miese Verfügbarkeit in den ersten Monaten...
 
Zuletzt bearbeitet:
Naja in neuen Treiber und in den neuen VGA Karten wird DX12 komplett supportet.

Also ich glaube das was AMD schreibt, denn die sind im CPU bereich immer noch Welten hinter Intel und aus dem grund werden sie ihre Dominanz bei VGA Karten ausbauen oder es wenigstens versuche.

Meine alte HD 6850 hat dieses Wochenende seinen Geist aufgegeben, einfach zu weit OC, kann passieren da die KArte eh im EndOfLife war und alles nur noch geruckelt hat bei minimum Einstellungen.
Nun wollte ich ne neue VGA bestellen, nun lese ich das hier und nun werde ich wohl so 3 bis 6 Monate mit der CPU VGA von Intel meinen PC betreiben.
Spielen geht nicht mehr wirklich, aber ich werde bestimmt jetzt keine 200€ hinlegen um mich in 3 bis 6 Monaten zu Ärgern.
Denn dann bekomme ich eine VGA die Doppelt so schnell ist + 100% DX 12 Support.

Warten ist nun angesagt.
Vieleicht übergangsweise eine billige VGA aus dem Flohmarkt?
 
Naja in neuen Treiber und in den neuen VGA Karten wird DX12 komplett supportet.
die jetzt aktuellen karten werden aber auch mit dem treiber funktionieren, halt ohne DX12.1.

denn die sind im CPU bereich immer noch Welten hinter Intel
auch nur wegen der fertigung, eine APU mit mehr als 4 kernen war bis jetzt halt nicht möglich.
Kaveri/Carrizo mit 6 kernen wäre zumindest auf der leistung eines i5, aber war halt nicht möglich wenn man nicht wieder eine Die mit >250mm² haben will.

Denn dann bekomme ich eine VGA die Doppelt so schnell ist + 100% DX 12 Support.
100% support kann es nicht geben, DX12 wirdd immer erweitert, wenn AMD DX12.1 unterstützt, dann kommt DX12.1 und schon ist es wieder kein "100%iger support"!
und wie will man das überhaupt definieren?
zählen da optionale features auch dazu?
Async Shader sind für DX12.0-12.1 zb. nicht vorgeschrieben, trotzdem meinen viele NVIDIA unterstützt da ein wichtiges feature nicht^^^.
 
Was bezweckst du mit deinen wiederholten Provokationen in verschieden Threads ?
Lol was soll das eigentlich mit deiner nicht existenten Hardware, Thrawn Edition ?

Naja in neuen Treiber und in den neuen VGA Karten wird DX12 komplett supportet.

Also ich glaube das was AMD schreibt, denn die sind im CPU bereich immer noch Welten hinter Intel und aus dem grund werden sie ihre Dominanz bei VGA Karten ausbauen oder es wenigstens versuche.

Meine alte HD 6850 hat dieses Wochenende seinen Geist aufgegeben, einfach zu weit OC, kann passieren da die KArte eh im EndOfLife war und alles nur noch geruckelt hat bei minimum Einstellungen.
Nun wollte ich ne neue VGA bestellen, nun lese ich das hier und nun werde ich wohl so 3 bis 6 Monate mit der CPU VGA von Intel meinen PC betreiben.
Spielen geht nicht mehr wirklich, aber ich werde bestimmt jetzt keine 200€ hinlegen um mich in 3 bis 6 Monaten zu Ärgern.
Denn dann bekomme ich eine VGA die Doppelt so schnell ist + 100% DX 12 Support.

Warten ist nun angesagt.
Vieleicht übergangsweise eine billige VGA aus dem Flohmarkt?


Nach dem TapeOut dauert es 10-12 monate bis fertige Karten erscheinen, und ob dann Paperlaunch oder nicht ist die andere Frage..
Willst solange unspielbar rumdümpeln ?
ich würde mir ne gebrauchte GTX 970 im MP holen wennde unbedingt warten willst, wobei die dir länger reichen könnte alsde evtl willst ;)
 
Zuletzt bearbeitet:
Also bis nach Weihnachten warte ich sowieso, da man nie weiß was die VGA HErsteller in letzter sec. auf den Markt schmeißen.
Habe noch ne Xbox360 hier rumstehen, werde sie wohl demnächst wieder aufbauen und schauen wie das Gamen dort wieder ist, was an Konsolen nervt sind die Preise für die Games.
Bei der PC Version bekommt man schon nach release per Internet 10 bis 20 € günstigere Preise.
Wenn man 1 bis 2 Monate wartet sind es schon mehr € die man sparen kann, bei Konsolen ist es leider relativ stabil mit den Preisen und erst nach einer langen Zeit werden die Spiele günstiger.

Bestes Aktuelles Beispiel ist da Black Ops 3 für den PC mit 34,45€ und das Spiel ist noch super Aktuell
 
Hoffentlich klappt diese Effizienzsteigerung.
Dann sollte auch der Minuspunkt beseitigt sein.
Wenn noch OEM Anbieter endlich mal AMD GPU's anbieten bzw. Anbieter wie One, PCGH, Gamestar PC's - schwenken die die 25% Anteil wieder zu 50%.

Die 380/960 Diskussionen zeigen ja, dass der Stromverbrauch wirklich noch runtergehen muss :)

@slot108 OC Potenzial wird an sich immer verschleudert, indem man die Karten schon in der Referenz zu hoch laufen lässt.
Selbiges mit der zu hohen Standardspannung. NV macht das viel besser, ein Punkt wo man dran arbeiten kann Strom zu sparen.
Taihiti aka 7950 hatte damals schon gezeigt wie es laufen kann und soll, ka warum die die Karten nicht mit 850 mhz ausliefern - Referenz!
Custom Karten sollten dann 970 mhz und sonst was haben.
Schade drum.
 
nein, die anzahl der kerne ist nicht korrekt, da durch die architektur nicht alles absolut parallel machbar ist.
Die Anzahl der Kerne ist weder korrekt, noch ist sie nicht korrekt. Es gibt schlichtweg keine standardisierte Definition eines Kerns, an die sich die Hersteller halten müssen. Das wird auch kein Gericht definieren.

ELKINATOR hat schon recht. Der Kläger ist ein Dummkopf, der sich aufgrund von Unwissenheit einfach nur der Lächerlichkeit preisgibt. Die Anklage besteht eigentlich nur aus Halbwahrheiten und Unwahrheiten.


Die Kritik ist durchaus berechtigt. Wenn dein Programm nur FPU Einheiten nutzt, dann wird aus dem "8 Kerner" plötzlich ein 4 Kerner.
Nicht wirklich. Jeder "Kern" hat dann ja trotzdem noch seinen eigenen FMAC für FADD, FMUL und FMA. Mal davon abgesehen hatte der Urvater aller x86 Prozessoren (8086) überhaupt keine FPU. Und nu? War das dann auch kein Kern? Wie ich schon sagte, es gibt keine standardisierte Definition eines Kerns. Daran ändert auch die FPU nichts.

In vielen BOINC Projekten der Fall. Zumindest lässt sich der "8 Core" Bulldozer nicht mit einem 8 Core Intel leistungsmäßig vergleichen.
Muss er ja auch nicht und hat auch nichts mit dem Thema zu tun. Ein 8-Kern Atom lässt sich bezüglich Performance auch nicht mit einem 8-Kern i7/Xeon vergleichen. Ausserdem wird ein 8-Kern Bulldozer auch nur mit 8 Threads beworben, ein 8-Kern i7/Xeon wird hingegen mit 16 Threads beworben. Da sollte man mit ein bisschen Gehirnschmalz eigentlich von selbst drauf kommen, dass letzterer mehr Performance liefern könnte.

Übrigens wäre es vielleicht für AMD selbst besser gewesen, den FX als 4+4 CMT zu bezeichnen und nicht als "native 8-core."
Sage ich ja schon länger, dass es marketingtechnisch cleverer gewesen wäre, genauso wie die Ingenieure das gesamte Modul als Kern zu betrachten, und dann von mir aus irgendeinen lustigen Namen dafür zu erfinden, wie "Hypercore" oder ähnliches. Dennoch, zu behaupten, AMD hätte gelogen, ist selbst nichts weiter als eine dreiste Lüge. Die technischen Infos zu Bulldozer sind lange bekannt, speziell wie das Modul aufgebaut ist. Falsche Performancedaten hat AMD genauso wenig im Vorfeld veröffentlicht. Wer glaubt, dass ein Kern von Hersteller A so schnell sein muss wie ein Kern von Hersteller B, ist einfach nur dumm oder sollte sich vorher besser informieren. Das ist das gleiche, wie wenn man glaubt, dass ein GHz bei Hersteller A so viel Performance liefern muss wie ein GHz bei Hersteller B. Hat deswegen jemand Intel zu Netburst Zeiten verklagt und ist damit durchgekommen? Ich denke nicht.


und simple Zahlen, 75% zB
Oder 0% zB. Das ist nämlich Nvidias Marktanteil bei den drei grossen Konsolenherstellern. ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh