Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Wenn sie schon kein Quad-Channel IMC nutzen, dann bitte wenigstens mit höherem Takt.Vermutlich laufen alle ab DDR4-2133 darauf. Offiziell vermute ich wird wohl 2400 oder eventuell auch mehr supported. Mit OC geht dann wohl auch noch mehr. Wie viel das bringt bzw. was tatsächlich möglich ist wissen wir noch nicht. Wie aber jaydee2k4 schon sagte sind die Preisunterschiede in den Regionen zwischen 2400 und 3000 so gering daß man wohl ohne Nachteile auf die schnelleren Module greifen kann. Abwärtskompatibel sind die dann ja immer noch falls sie nicht mit den gewünschten bzw. beworbenen Settings laufen.
Im Prinzip muss AMD ein richtigen Kracher raushauen für 2/3 vom Intel Preis.Das hoffe ich auch. Der Aktienkurs sieht ja schonmal vielversprechend aus. Nun muss AMD auch liefern.
Eigentlich nicht, ich lass mich da aber gerne berichtigen.Die Latenz bleibt nach JEDC ziemlich gleich. Das einzige was sich mit höherem Takt ändert ist die Bandbreite.
Ich denke Intel kann sich es locker leisten 10-15% vom Markt abzugeben. Die Gewinne sind Solide, HPC macht Intel derzeit NV Platt und wenn wir in der Top500 in zukunft nicht mehr 490 Intel Systeme sehen dann hat AMD alles richtig gemacht.
Eigentlich nicht, ich lass mich da aber gerne berichtigen.
Meiner Ansicht nach sind die Signal Laufzeiten bei Quad-Channel wesentlich länger da wollen ja 4-Way synchronisiert werden.
Also wenn man nicht explizit mit der höheren Bandbreite was Anfangen kann, bleiben lassen.
@fdsonne
Warum immer so pesimistisch? Die CPU erreicht 5960x Performance. Selbst das ist bereits mehr als die meisten im Rechner haben. Selbst wenn der Chip bei 4GHz dicht macht kein Beinbruch solange der Preis stimmt. Und da haben sie extrem viel Spielraum.
Achja und HOLT ist was wir einen Dogmatiker nennen. Und ne Prise Hasscomment ist da auch bei ihm leider auch bei. Erzähl mir nichts neues, ich bin schon lange genug dabei
Achja und HOLT ist was wir einen Dogmatiker nennen. Und ne Prise Hasscomment ist da auch bei ihm leider auch bei. Erzähl mir nichts neues, ich bin schon lange genug dabei
Ist halt kein Massenmarkt...
Das es keine 200 Samples sein können, konnte man auf dem Bild hier sehen, da ist die 1 vorne gut zu erkennen und der Kommentar dazu ist:Sie verlinkten die falsche Blender Version. Die passende Version arbeitet mit 200 Samples und AVX2 Befehlssatzerweiterung.
Mystery solved. I managed to extract a clear enough image from PCPer's video, and although I could clearly see 100 from just zooming in, I did my best to enhance the image.
Das bin ich absolut nicht, ich habe eine AMD Graka und einen N54L (mit AMD CPU) den ich gekauft haben als es den Nachfolger Gen 8 mit Intel CPU schon gab, ich bin nur kritisch und hinterfrage was ich sehe und erzählt bekommen, egal von wem oder welcher Firma.Holt, der ewige AMD Nörgler. Merkt selber nicht, dass praktisch zu jedem AMD Thema, er Hass-Beiträge schreibt. Weil er einfach ein AMD Hasser ist.
Die Entschuldigung ist angenommen.Ich muss mich bei Holt entschuldigen, denn ich lag nicht richtig und er hatte offenbar recht.
Solche Fehler sollte einer Firma wie AMD nicht passieren und manchen Leute fallen sie auf, andere eben nicht. Glaubwürdigkeit gewinnt man aber eben nicht, wenn man solche Fehler begeht."Laut AMD_Robert waren es folgende Einstellungen
Set render samples to 150. A new file with the sample level set correctly will be uploaded shortly. Apologies for the confusion.
Blender 2.78a x64 is what we used, binary download from blender.org.
"
Eben und man kann warten oder eben schauen wie die Informationshäppchen so zusammenpassen könnten, dass es Sinn ergibt.Und bisher, man muss es ja auch mal sagen, sind die Informationen seitens AMD schon ein bisschen spärlich. Es reicht eigentlich nur für eine ganz grobe Einschätzung.
Das wäre wirklich respektabel, denn:Auch Effizientechnisch hat man bisher wenig gezeigt, nur ungefähr das Effizienzniveau von dem 6900k, was alleine schon sehr respektabel ist.
Auch wenn beide in Prozessen hergestellt werden die sich 14nm nennen, sind die eigentlich wichtigen Abstände der Chips bei Intel deutlich kleiner und erlauben im Prinzip eine bessere Effizienz. Aber auch da muss man letztlich neutrale Reviews abwarten und obendrein dürfte AMD hier mit der Optimierung noch nicht am Ende sein, der Ansatz mit den viele Sensoren im Chip dürften zwar viel Potential für eine gute Energieeffizienz bieten, aber auch einen sehr hohen Aufwand bedeuten dieses letztlich auch vollständig zu realisieren. Es würde eine ganz schön Herausforderung sein einerseits bestimmte Bereiche runterzutakten oder gar still zu legen und andererseits dadurch nicht zu viel Performance zu verlieren und vor allem keine Instabilitäten zu bekommen.
Klar und das ist ja auch gut, denn auch wenn die wenigsten das Topmodell der CPU Reihe kaufen dürften und erst recht Spiele spielen werden die dies auch auslasten können, hebt es das Image der AMD CPUs. Die Autohersteller buhlen ja auch mit den Modellen um die Kunden und der M3 muss den AMG der C-Klasse schlagen, damit auch der Käufer eines 3er mit dem Basismotor ein wenig mehr auf sein Auto stolz sein kann.Naja da ging es wohl nur darum zu zeigen "Schaut her, mit (Ry)Zen kann man problemlos BF1 all maxed out spielen, genau so gut wie auf einem High End Intel System."
Ja nur bei Anandtech war es mit Prime 149W, immerhin mehr als beim 6950X der nur auf 143W gekommen ist. Aber bei Last auf nur einem Kern waren es 27W und zwischen Idle und MaxLoad gibt Anandtech 126W an, im Idle wären das also 23W. Nur:Fakt ist auf jeden Fall daß eben ein i7-6900K @ Stock bei Voll-Last in etwa diese 140W der TDP Angabe erreicht.
Kennst Du einen Review in dem ein 6900K System im Idle 106 Watt gebraucht hat? Und warum waren es dann nur 85W mehr unter Last für den 6900K? Wenn das System selbst so viele Komponten enthält das es im Idle schon 106W braucht, dann müsste ein voll ausgelasteter 6900K der auch noch seine Turbos voll einsetzen darf unter Volllast deutlich über 200W nehmen und wenn das i7-6900K System unter Volllast 191W braucht, müsste es im Idle weit unter 100W bleiben.
Da er zwischen Idle und "Volllast" 95W mehr genommen hat und eine CPU im Idle auch nicht ganz ohne eine Leistungsaufnahme auskommt, müsste er unter Last wohl über 95W gezogen haben und wenn die TDP irgendwas bzgl. der Leistungsaufnahme aussagt, dann eben das die Leistungsaufnahme im Grundtakt unter der TDP liegen sollte, damit die CPU selbst bei einer gerade ausreichenden Kühllösung nicht doch mit der Zeit throtteln muss. Mit 95W zwischen Idle und Volllast bei RYZEN zu nur 85W bei Intel würde die Effizienz in diesem Fall jedenfalls beim besser aussehen, denn die AMD CPU hat fast 12% mehr Energie gebraucht, aber mit vielleicht 2s auf knapp eine Minute keine 4% mehr Leistung gebracht. Aber man muss eben auch hier neutrale Tests abwarten und wie die Leistungsaufnahme dann beim finalen Produkt aussehen wird. Wie viel Optimierungen alleine beim BIOS ausmachen können, sieht man am Nachtest des i7 7700K bei tomshardware, wo mit einem neuen BIOS für das MSI Z170A Gaming Pro Carbon die Leistungaufnahme des Systems @Stock unter Last um fast 40W gegenüber der auf dem Gigabyte GA-Z170X-Ultra Gaming gefallen ist.Naja ich glaube schon daß der mit dem angegebenen Takt von 3,4GHz lief.
Die Zahlen deuten sehr stark darauf hin und ich vermute AMDs Spitzen RYZEN wird die 95W auch nie einhalten, muss er auch nicht, denn keiner wird so eine CPU dann mit einem Kühler versehen der nicht mehr als 95W wegkühlen kann und die entsprechenden OC Boards dürfte auch weit mehr Strom liefern können. Diese 95W TDP dürfte eher dazu dienen ein Image von eine besonders hohen Effizienz zu schaffen, denn viele halten die TDP immer noch für eine Angabe der realen oder gar maximalen Leistungsaufnahme einer CPU.Also könnte es sein daß die CPU mehr als die 95W des TDP Limits gezogen hat.
Der Freiraum ist nicht fast Null, denn die CPU und das BIOS müssen sich nicht um die TDP schweren, wenn die Temperaturen stimmen. Gerade bei Systemen die für Übertakten ausgelegt sind, ist dem auch so und die TDP spielt da keine Rolle, die Kühlung muss dann sowieso mehr können und das Board mehr Leistung liefern und dessen BIOS/UEFI wird die CPU auch nicht mit einem Power Target einfangen. Die TDP ist damit dann total bedeutungslos.Das ist bekannt, ja, allerdings erreicht ein übertakteter 6900K unter Voll-Last dann eben schon Werte jenseits der 140W. Sprich der Freiraum ist hier fast Null.
Sie mussten sich auch bei anderen Dingen schon korrigieren, was wirklich gelaufen ist, wird man erst in neutralen Reviews sehen, nur kann man selbst dann kaum prüfen wie hoch die CPU wirklich taktet, da ja auch das BIOS für die CPUs immer von AMD kommt und damit keine Möglichkeit gegeben ist die Werte die man irgendwo auslesen kann auf Korrektheit hin zu prüfen. Wenn da über Hundert Sensoren im Chip stecken wäre es aber auch unmöglich die Werte von allen auszugeben und dazu noch die Frequenzen die an dieser oder jener Stelle im Chip gerade anliegen. Die Zeiten wo man so genau wusste was wie schnell läuft, werden vorbei sein weil die Hersteller immer mehr Flexibilität einbauen um mehr Leistung bei weniger Leistungsaufnahme zu ermöglichen und damit werden die Taktraten immer intransparenter aber auch unwichtiger. Schau Dir die GPUs an.Siehe Intel mobile CPUs, oder Grafikkarten etc. Wie Holt auch schon sagte wird hier oft die TDP Grenze überschritten für eine gewisse Zeit um eben kurzzeitig für einen "Boost", "Turbo" oder wie auch immer man das nennen will zu sorgen.
Ich glaube jedoch daß AMD hier bei der Präsentation das nicht aktiviert hatte da sie mehrfach betonen daß so etwas wie Boost/Turbo nicht aktiv war.
Das solltest Du nicht in einem Spoiler verstecken, denn es ist gerade hier im CPU Forum im die Diskussionskultur sehr schlecht bestellt und es wäre höchste Zeit diese mal wieder zu verbessern, gerade auch durch Leute die andere Dinge unterstellen die diese nie geschrieben haben um sie dann damit abzukanzeln. Dies ist das typische Verhalten von TROLLEN, ja TROLLEN und die braucht kein Forum, da sie die Foren kaputt machen.Übertreibt mal nicht. Ich sehe hier weder etwas von "Hass" noch von "AMD ist schlecht" bzw. die anderen "sind die Götter". Nörgeln bzw. halbwegs sachlich über etwas diskutieren bzw. in dem Fall eher spekulieren hat nichts mit Hass bzw. gut/schlecht machen zu tun. Hier muß ich Holt verteidigen denn so etwas habe ich (aus)in seinen Posts eigentlich noch nie (heraus)gelesen. Mag schon sein daß er (wie wohl viele andere auch) pro/bzw. kontra etwas/einem Hersteller eingestellt ist, aber Hass Postings sehen ganz anders aus. Jeder kann, darf und soll seine Meinung haben. Solange ich sie jedoch nicht jemanden aufzwinge oder als "die einzig richtige Wahrheit" darstelle und noch schlimmer, jemanden persönlich beleidige der nicht dieser Meinung ist ist es doch okay diese zu äussern bzw. zu vertreten. Daß es dadurch fast immer zu Diskussionen kommt ist wohl vorprogrammiert.
AMD brauchte das Geld und hat es eben versucht. Jedes Unternehmen versucht den Gewinn zu maximieren und AMD ist da keine Ausnahmen, auch wenn manche sie für die Wohlfahrt zu halten scheinen. Hoffentlich hat man aus dem Flopp damals gelernt, aber es würde mich auch nicht wundern, wenn die Fanboys die RYZEN blind kaufen werden, zuerst einiges mehr bezahlen müssen als diejenigen, die etwas länger abwarten, wobei man da auch nie weiß wie viel der Hersteller und wie viel die Händler drauf schlagen, oder gibt es bei AMD auch eine öffentlich Preisliste? Der Handel lässt jedenfalls auch keine Chance aus kräftig war drauf zu schlagen, wenn die Nachfrage größer als das Angebot ist, so wie es bei Skylake in der Anfangszeit war und jetzt aktuell bei den Samsung 960 Evo und Pro SSD ist. Da kann AMD nur etwas dagegen tun, wenn sie genug auf Lager haben um den ersten Ansturm befriedigen zu können.Die FX-9xxx Modelle sind ein eher schlechter Vergleich. ... Doch dafür so irre hohe Preise auszurufen war einfach mal total schwach
Bei den Chipsätzen greift AMD ja angeblich inzwischen auf ASMedia Technologie zurück und schon bei den USB3 Ports der APUs Chipsätze war ja ASMedia drin.Vielleicht verwechseln da die Leute auch nur etwas denn ich habe im Hinterkopf zu AMD und schlechten Treibern eigentlich nur so etwas wie die VIA Chipsatztreiber im Kopf. AMD hat ja (vor Phenom) nur sehr wenige Chipsätze im Angebot, da war VIA, nVidia und teils SiS oder gar ATi etc. stärker vertreten.
Für die Chipsätze müssen die Hersteller die Treiber immer selbst anbieten, die Frage ist doch eher, ob es welche für ältere Windows Versionen als Win 10 geben wird. Wenn, dann wird Microsoft diese nicht integrieren, da sie ja schon angekündigt haben Win 7 und 8.1 keinen Support mehr für neue Plattformen zu spendieren und so massiv wie MS versucht (hat) den Leuten Win 10 unterzuschieben, sollte es mich nicht wundern wenn MS auch noch den paar Heimanwender die trotzdem versuchen Win 7 oder 8.1 auf RYZEN zum Laufen zu bekommen, Knüppel zwischen die beine wirft. Da auch OEMs keine Lizenzen für Win 7 und 8.1 mehr bekommen, dürfte auch von AMD kein Treiber Support für die alten Windows Versionen zu erwarten sein, für die paar Heimanwender die kein Win 10 wollen, wäre der Aufwand zu groß und den Ärger mit Microsoft nicht wert. Win 10 wird wohl die Kröte sein, die man für RYZEN schlucken muss, wenn man nicht direkt auf Linux ausweicht, aber auch da dauert es gewöhnlich etwas länger bis die Treiber verfügbar bzw. im Kernel integriert sind. Hat da schon jemand was gelesen ob AMD schon Linux Unterstützung bieten wird?Beim Sockel AM4 bleibt ohnehin die Frage offen wer was für Treiber anbietet. Nachdem alle AM4 Prozessoren quasi SoCs sind kommen wohl die meisten Treiber von AMD direkt.
Troll.... extra angemeldet um keine geistigen Ergüsse zu posten.
IntelGamer schrieb:Endlich Zen, gibts ordentiche spiele Benchmarks?
So sieht es aus, aber weniger wegen der IPC, sondern wegen des Taktes, der dürfte bei Nutzung von nur 1 bis 4 Kernen, wie es aktuell die meisten Spiele machen, nicht mit Skylake oder gar Kaby Lake mithalten können und dazu dürfte die IPC auch nicht ganz an Intel ranreichen. Bei FPU offenbar schon, aber in der Breite der Anwendungen und Spiele wohl eher nicht. BF1 ist ja eines der wenigen Spiele die wirklich Nutzen aus den 8 Kernen ziehen können und daher wurde es wohl auch für die Demo gewählt. Künftig wird es sicher mehr Spiele in der Art geben, aber im Moment ist es eher die Ausnahme als die Regel, dass ein Spiel mit einem 8 Kerner bei geringerem Takt besser auf mit eine höher getakteten 4 Kerner läuft.Scheint keine Gaming CPU zu werden wegen zu geringer IPC in Games.
Nein, es gab eine Demo deren Ergebnisse auch einige Fragen aufwerfen und "gespielt" wurde nur BF1 im Vergleich mit Intels 6900K. Wirklich verwertbare Informationen werden erst die neutralen Reviews im Netz bringen.Endlich Zen, gibts ordentiche spiele Benchmarks?
Es geht nicht nur um die Herstellungskosten, die Umsätze eines Unternehmens müssen ja alle Kosten des Unternehmens decken und nicht die reinen Herstellungskosten. Wenn AMD den Kunden nur die Kosten in Rechnung stellt die GF und der Anbieter verlangen der die Dies in die Gehäuse der Chips packt, dann geht der Laden pleite, was wir uns auch nicht wünschen können. Wenn da teils über 300 Leute an der Entwicklung gesessen haben, dann sind die Kosten dafür eben auch wieder einzuspielen und ebenso die Kosten für das Marketing, die Verwaltung und natürlich auch die Kapitalkosten, AMD sitzt auf einem Berg von Schulden und muss dafür Zinsen zahlen, auch dies alles muss aus den Umsätzen bestritten werden. Rein von Herstellungskosten zu reden zeigt nur das totale Unverständnis für betriebswirtschaftliche Zusammenhängen und wieso sollte AMD nur kaufenswert sein, wenn ähnliche Leistung viel billiger als Intel anbieten?Teuer in der Herstellung ist der schon lange nicht mehr. Also unter 500€ definitiv kein Problem für AMD, sofern sie den wollen.
Intel könnte sofort etwas dagegen stellen, die Technik dafür ist vorhanden und die kleinen Xeon-D haben z.B. auf 8 und sogar bis zu 16 Broadwell Kerne mit Dual-Channel Interface in 14nm und sind SoCs. Um 6 oder auch 8 Kerne in einer S.1151 CPU zu bringen, muss man nicht auf Coffee Lake warten, aber Intel wird eben erst mit Coffee Lake 6 Kerne im kleinen Sockel bringen, weil dann die Fertigung nochmal besser sein wird und man auch bei Nutzung von nur einem oder bis 4 Kernen die Leistung wie nun beim kommenden i7-7700K erzielen wird. Das Modell mit mehr Kernen soll eben nicht in den meisten Anwendungen / Spielen langsamer sein als der große 4 Kerner und nur dann mal schneller wenn wirklich alle Kerne ausgelastet werden. Außerdem ist Dual Channel RAM bei so vielen Kernen auch nicht gerade optimal, die Kerne müssen ja auch mit Daten gefüttert werden und da kommt es Intel entgegen, dass immer schnellere DDR4 RAMs von der JEDEC spezifiziert werden.Intel wird erst in Q3-Q4 etwas dagegen stellen können.
Dies kann man derzeit nur vermuten und ich habe bei dem Event die angekündigte Vorstellung von AM4 Boards vermisst.Zudem wird AM4 deutlich preiswerter sein als das Sockel 2011 Ökosystem.
Es gab nicht 7 Jahre Stillstand, die Xeons haben immer mehr Kerne bekommen und auch bei den großen i7 gab es erst 4, dann 6 und nun 8 Kerne in der 1000$ Klasse und auch beim Mainstream wurde die Leistung immer weiter gesteigert. Die Preise sind in USD kaum gestiegen, in Euro wegen der Verfalls des Euro teils deutlich.Viele meinen nur weil es 7 Jahre Stilstand bzw sogar steigende Preise gab ist das unmöglich.
So sieht es aus, aber weniger wegen der IPC, sondern wegen des Taktes, der dürfte bei Nutzung von nur 1 bis 4 Kernen, wie es aktuell die meisten Spiele machen, nicht mit Skylake oder gar Kaby Lake mithalten können und dazu dürfte die IPC auch nicht ganz an Intel ranreichen.
fps Drops sehe ich weniger kritisch, man sollte nicht vergessen das es ja immer noch Vorserie ist, da dürfte noch Optimierungspotential sein.
Release abwarten und dann könnt ihr entweder recht haben oder einfach mal die Futterluke dicht machen.
So siehts aus. 8 Kerne sind nur dehalb kein Massenmarkt, weil es keinen Wettbewerb im Desktopmarkt gibt.
Lustig. Das Ding ist noch nicht auf dem Markt, aber sorgt für Kleinkrieg. Wer hat die dicksten ungelegten Eier?
Du tust ja gerade so, als hätte der Markt nur auf AMD gewartet, dass man sich endlich dazu erbarmt, einen Oktacore auf den Markt zu drücken...
Eigentlich haben alle lange darauf gewartet, dass Intel wenigstens mal den Sixcore bringt. Aber sie haben es ja fertiggebracht, selbst bei Broadwell-E ihren extrem verzögerten Zeitplan nochmals herauszuzögern(eigentlich richtig dreist), indem sie einfach vier CPUs (6-10 Core) auf der Enthusiastenplattform gebracht haben, statt, wie erwartet, den schwächeren Sixcore auf die Consumersparte zu verfrachten.
Natürlich existiert das nicht, aber hätte Intel gewollt, hätten die das schon for 3 Jahren entwickeln können. Wäre ja nur einer der E-platform chips mit nem 2Kanal Speicherkontroler sein müssen.ja, echt dreist, was nicht zu bringen, was nicht existent ist... Wo soll es bitte herkommen? Wenn du das ernsthaft erwartet hast, war die Erwartungshaltung massiv überzogen. Denn es gibt/gab keinen Ansatzpunkt. Nicht für Broadwell, bestenfalls für Skylake und selbst da war es massivst unrealistisch.
Was hier für Wunschvorstellungen rumgeistern ist echt feierlich.
Das mag sein, hätte aber Kosten verursacht... So ist es nunmal einfacher den "Abfall" des kleinsten Xeon DIEs als i7 zu nutzen. Da müssen die, bis auf den Namen und ein paar lasercuts wohl absolut gar nix machen. Selbst die Chipsätze bzw. der X99 ist weitestgehend mit dem kleinen Xeonableger identisch, sodass es warscheinlich ist, dass es das gleiche "unterm Deckel" ist.Natürlich existiert das nicht, aber hätte Intel gewollt, hätten die das schon for 3 Jahren entwickeln können. Wäre ja nur einer der E-platform chips mit nem 2Kanal Speicherkontroler sein müssen.
Fortschritt wobei? Bei mir misst sich Fortschritt nicht daran ob es einen Hexa- oder Oktacore Prozessor gibt. Wir sind seit Jahren schon weiter. Jeder der es wollte, hat es kaufen können. Es gab sogar Core2 Hexacores mit 3x Dualcore DIEs unterm Deckel. Kennt keiner, lief aber und war entsprechend "schnell".Es wäre jedenfalls Fortschritt gewesen, mehr Kerne in den _Mainstream_ zu bringen.
Was hast du denn eigentlich gegen Wunschvorstellungen, bzw wieso willst du dass die Leute mit Intel zufriden sind und sich das Unternehmen somit ausruhen kann?