HWL News Bot
News
Thread Starter
- Mitglied seit
- 06.03.2017
- Beiträge
- 113.867
... weiterlesen
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
1.882 MHz Das lässt ja hoffen das die gamerkarten mit ordentlicher kühlung richtung 2 Ghz gehen könnten. Bin gespannt was dann dabei rauskommen wird.
1.882 MHz Das lässt ja hoffen das die gamerkarten mit ordentlicher kühlung richtung 2 Ghz gehen könnten. Bin gespannt was dann dabei rauskommen wird.
Die 1882 sind doch schon unter Wasser...
Kann mir nicht vorstellen, dass da noch 2 Ghz im 24/7 Betrieb drinnen sind.
btw.. 600 Euro Aufpreis für eine Wasserkühlung? Liefern die gleiche einen kompletten Satz Schläuche, Pumpe etc. mit
Nix RAM-Takt, HBM2 hat nie einen solchen Takt1600mhz core, 1882mhz ram.
Erstaunlich ist daran gar nichts, wenn man sich mal ein bisschen mit der Materie auseinandersetzt. Es geht bei HBM doch nicht nur um Bandbreite. HBM ist flexibel. Man setzt es so ein, wie es am sinnvollsten ist. Wenn nicht mehr Bandbreite als mit GDDR5(X) notwendig ist, dann belässt man es eben bei wenigen Stacks und spart deutlich an Energie. Wird mehr Bandbreite benötigt, dann implementiert man eben mehr Stacks. Mit 4 HBM2 Stacks ist im Moment deutlich mehr Bandbreite möglich als mit GDDR5X. Hinzu kommt die Flächenersparnis mit HBM, was PCBs vereinfacht und kompaktere Karten ermöglicht.Aber find ich erstaunlich dass glorious HBM2 kaum schneller ist als GDDR5X auf der 1080ti bzw langsamer als auf der Titan Xp
Wo steht bitteschön was von 400W? Die Frontier Edition mit Luftkühlung hat eine TDP von 300W. Das hat der P100 übrigens auch.Doppelautsch schon vor den Benchmarks! Neben dem Preis schockt mich vor allem der irre hohe Stromverbrauch trotz 14nm.
Mit diesen 400 Watt kann man sich, wenn der Haarföhn mal ausfällt, prima die Haare föhnen und im Winter kann man die Heizung auslassen..
Doppelautsch schon vor den Benchmarks! Neben dem Preis schockt mich vor allem der irre hohe Stromverbrauch trotz 14nm.
Mit diesen 400 Watt kann man sich, wenn der Haarföhn mal ausfällt, prima die Haare föhnen und im Winter kann man die Heizung auslassen..
Stimmt, aber der P100 ist eine andere Liga als Vega FEDas hat der P100 übrigens auch.
Naja, wenn man keine offiziellen Infos bekommt, muss man eben aus den vorhanden Infos etwas spekulieren.Warum können einige dieses dumme Gebashe im Vorfeld nicht einfach mal bleiben lassen?
Stimmt, du bist ja da....aber daran merkt man hier im Forum, dass bald ein neues AMD Produkt ansteht und die Trolle aus den Höhlen kriechen -.-
Die TDP ist meist geringer als die reale maximale Verlustleistung
TDP wird in der Elektronikindustrie ein maximaler Wert (bei manchen Herstellern auch der durchschnittliche Wert) für die thermische Verlustleistung elektrischer Bauteile oder eines Prozessors bezeichnet, auf deren Grundlage die Kühlung (falls erforderlich) sowie die Stromzufuhr ausgelegt werden.
Wo steht bitteschön was von 400W? Die Frontier Edition mit Luftkühlung hat eine TDP von 300W. Das hat der P100 übrigens auch.
Die luftgekühlte Version wird einen 8+6-poligen Stromanschluß haben, die wassergekühlte einen 8+8-poligen. Es stehen also 300W bzw. 375W zur Verfügung. Irgend jemand hat dann daraus die TDP gezaubert.
Thermal Design Power – Wikipedia
Was hier wieder für Mist verbreitet wird ist nichtmehr feierlich, aber daran merkt man hier im Forum, dass bald ein neues AMD Produkt ansteht und die Trolle aus den Höhlen kriechen -.-
Jaja der fideliovienna, kann auch nicht sachlich bleiben, hast dich wohl von mir angesprochen gefühlt
Du bist echt scharf drauf, bist immer der Erste der alle als Trolle bezeichnet und dann jammert du herum wenn dir jemand passend antwortet.Jaja der fideliovienna, kann auch nicht sachlich bleiben, hast dich wohl von mir angesprochen gefühlt
Du solltest langsam mal lernen, meine Posts im Zusammenhang mit den Quotes zu lesen/verstehen.Dass die TDP für die Auslegung der Kühlung relevant ist wissen wir alle, darum steckt auch das T in der Abkürzung.
Dass Grafikkarten aber meist sogar noch mehr Strom brauchen als die TDP-Angabe, das lässt du mal locker flockig unter den Tisch fallen und kommst jedem mit "kennst du den Unterschied zwischen TDP und Stromverbrauch nicht
Meinst du mir geht es anders?Würde mich freuen wenn nach der HD7970 wieder eine AMD-Karte in meinem Rechner stecken würde, aber ich bin da eben offen für alle Hersteller weil es mir nur um das Produkt selbst geht.
Die Karte mit Wakü wird eben nochmal mehr Performance bieten. Wo ist das Problem? Das ändert doch nichts an der Standardvariante mit Lukü und 300W TDP. Wobei man hier erstmal abwarten muss. Wie smalM schon richtig anmerkte, AMD hat mW noch nichts über offizielle TDPs gesagt. Von mir aus kann die Karte auch eine TDP von 1000W besitzen. Solange die Performance stimmt ist alles iO. Nach unten skalieren kann man immer.die wakü karte hat 375W, das sind im volksmund schon mal 400W.
Irrelevant. Das war gar nicht Thema meiner Antwort an Mawa62. Ich bezog mich nur auf seine Aussage zur Bandbreite.dein exkurs zu hbm ist richtig, aber in der Produktion ...
Nein, kommt nicht. Ausserdem bläht ein solches SI den Chip nur noch weiter auf. Viel Spass mit den Yields.und nunja mit einem breiterem si kann ich mit gddr5x auch deutlich mehr bandbreite rausholen. nimmt man z.b. das 512er si der 290er gepaart mit dem neusten gddr5x kommen da deitlich mehr gbps rum als mit dem aktuellen hbm
Doch. Das sind wesentliche Vorteile von HBM.der stromsparvorteil von hbm sowie das kompakte pcb sind, positive, begleiterscheinungen aber sicher nichts was weltbewegend wäre.
Nein, wäre er nicht. Die Effizienz wäre definitiv schlechter gewesen. Der 980 Ti hätte man so nicht Paroli bieten können. Und eine Nano wäre auch nicht möglich gewesen.fiji ist wegen hbm sicher kein stromsparwunder und wäre mit 512er si und gddr5 8gb sicher besser gefahren
Nein, ist es nicht. Es war eine riskante, letztendlich aber richtige Entscheidung. Jetzt fehlt eigentlich nur noch low cost HBM für die kleineren Ableger.anfangs fand ich toll dass amd auf hbm setzte aber wie es dann gelaufen ist war es leider eine Fehlentscheidung.
Düster? Auf welchen Fakten basiert denn diese Einschätzung? Vega schaut bisher ziemlich vielversprechend aus. Architekturverbesserungen, HBM2, verbesserte 14nm Fertigung im Vergleich zu Polaris inklusive höherem Takt usw. Es müssen sich jetzt eigentlich nur noch die Vorabeindrücke auch in er Praxis bestätigen. Dann hat AMD mindestens einen zweitens Ryzen, nur diesmal bei den GPUs.ich hoffe vega wird nicht wie fiji...obwohl es prinzipiell schon düster aussieht um vega.
AMD muss gar nicht aufholen. Architekturseitig liegen sie schon seit der ersten GCN Generation in Front. Vega eliminiert lediglich ein zwei Nachteile, die sie bisher gegenüber Nvidia hatten, siehe DSBR. AMD muss nach Fiji nur endlich mal wieder ein grosses Design auf den Markt bringen, für professionelle Bereiche und Gaming-Enthusiasten. Genau das macht man nun mit Vega.volta sieht ja nicht ferade nach einem großen wurf für gamer aus, vlt läuft es da wie bei den prozessoren, dass amd aufgrund fehlender innovation der konlurrenz wieder aufholen kann
Also wenn's um Deep Learning geht, stimmt. Da scheint der P100 eine Liga darunter angesiedelt zu sein.Stimmt, aber der P100 ist eine andere Liga als Vega FE
Dummes Gebashe, gepaart mit absichtlich falschen Behauptungen, bleibt dummes Gebashe. Das hat mit Spekulieren nix zu tun.Naja, wenn man keine offiziellen Infos bekommt, muss man eben aus den vorhanden Infos etwas spekulieren.
Nein, der P100 ist erst seit einigen Monaten erhältlich. Daran ändert auch nix, dass er vor einem Jahr vorgestellt wurde. Wie oft willst du dieses Märchen eigentlich noch erzählen? Ob die FE FP64 Support hat, ist bisher nicht klar. Das kannst du also gar nicht wissen. Ist aber auch nicht wesentlich. Die FE richtet sich vor allem an Deep Learning Kunden und Workstations. Da zählt vor allem FP32 und FP16. Da hat die FE auf jeden Fall deutlich mehr zu bieten als der P100 oder die Titan Xp. Vega selbst unterstützt natürlich FP64. Für die Bereiche, wo es gebraucht wird, werden natürlich auch entsprechende Ableger kommen. Mach dir da mal keine falschen Hoffnungen. CUDA? LOL. Warum soll sich AMD mit proprietärem Altschrott belasten? Es gibt keinen Grund, für neue Projekte CUDA zu benutzen. Es gibt genügend gleichwertige oder teils sogar bessere Alternativen. OpenCL ist lediglich eine davon. Ausserdem, schon mal was von CUDA Konvertierern gehört, wie zB HIP? Es stimmt zumindest, dass FE und P100 andere Ligen sind. Das bezieht sich aber lediglich auf den Preis. Das was die FE zu bieten hat, da schaut der P100 jetzt schon irgendwie alt aus. Da wird es der Titan Xp wohl nicht viel besser ergehen.P100 gibt es seit über 1 Jahr und P100 hat neben CUDA Support FP64 mit am Start. Das fehlt m.E. Vega FE. Ich würde daher beide nicht vergleichen. Das sind ganz andere Ligen.