AMD soll doch noch in diesem Jahr eine erste Grafikkarte mit Vega-GPU vorstellen

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was soll eine Dual Lösung denn bringen?
Der Kundenkreis ist klein, klar wird es Games geben wo die Karte ihre Stärken voll ausspielen kann, dennoch macht man sich mit solch einer Lösung das Leben nur unnötig schwer.
Aber Fails und falsche Entscheidungen ist man bei AMD ja gewohnt.
 
Was soll eine Dual Lösung denn bringen?

Wie oben erwähnt, wäre die Karte für VR konstruiert. Wenn das Spiel LiquidVR implementiert hat, berechnet jedes Auge eine GPU. Somit braucht man kein Crossfire- Profil und es kann auch nicht zu Mikrorucklern kommen.

Ich denke auch nicht, dass VR ein großer Erfolg wird, trotzdem haben sich sehr viele auch 3D- Fernseher gekauft :d, bevor sie festgestellt haben, dass ständig Brille aufsetzen für den kleinen Vorteil kein Hit ist.
 
solabnge das nicht kabellos, günstig und ohne "helm" auf dme kopf möglich ist, wird das auch eher nur ein kurzer hype bleiben.

will ich nebenbei fernseh gucken muss ich das ding abstetzen, will ich aufs klot muss ich das ding absetzen. will ich was trinken oder essen muss ich das ding absetzen, etc... also so richtig flexibel ist das ding nicht.
 
VR und nebenbei fernsehen? :fresse:
 
Scrushs Gedanke ist aber schon richtig.

Wenn man eine VR Brille innerhalb eines Knopfdrucks so deaktivieren kann wie eine Hololens so dass man direkt durch schaut, erst dann wird es Massentauglich.
 
Ich hab ja schon lange den Verdacht, dass Vega nicht auf 14LPP setzt sondern auf 14HP, was gut zum Zeitplan passen würde.

Wenn 14LPP bei knapp 1000MHz perf/Watt schon schlapp macht ist das kein Wunder, daß Vega auf 14HP laufen wird. Außerdem ist der 14LPP wohl mehr für SoCs gedacht, nur meinte eben AMD die RX400 Series darauf auch laufen lasen zu müssen, was ja wohl mal ein derber Fehlschlag war.

Aber naja, bei #AMD darf ja keine Kritik geübt werden, weil...

offtopic:
VR ist wie 3D Fernsehrs: Schmarn! Wenn ich mir mal so die Homepage von der CES2017 durchlese, dann würde ich mich net wundern, wenn unser IT-Clown Steve Wozniak die Keynote 2017 hält...
 
Scrushs Gedanke ist aber schon richtig.
Wenn man eine VR Brille innerhalb eines Knopfdrucks so deaktivieren kann wie eine Hololens so dass man direkt durch schaut, erst dann wird es Massentauglich.
Aktuell kann man eine VR-Brille mit einem Handgriff abnehmen, wo ist das Problem?
Nebenbei fernsehen ist ja wirklich totaler Quatsch, man baut extra ein VR-System auf um wirklich mittendrinnen im Spielgeschehen zu sein und schaut dann nebenbei fern?

Und trinken kann ich ohne Probleme auch mit VR, ich schaffe es auch mit geschlossenen Augen ein Glas an meinen Mund heranzuführen (wenn ich schon zu faul bin um vorher die Brille abzunehmen)
VR ist nicht für zwischendurch, VR ist mittendrin statt nur dabei.

Aktuell sind die Systeme noch zu teuer und die HW-Anforderungen zu hoch um für den Mainstream tauglich zu sein, genauso wird sich noch einiges bei den Displays verbessern müssen.
Aber generell ist VR am kommen, Vergleiche mit 3D sind absolut sinnbefreit, wer VR mit 3D vergleicht hat noch nie selbst ein VR-Spiel erlebt
 
Ich sage es mal so: als Bub habe ich Taucherbrillen immer gehasst. Beim Bund bin ich mit der Atemmaske fast durchgedreht. Also bevor ich mir sowas wieder freiwillig antue, müßte es einen Superlativ für das Stockholmsyndrom geben, was atm aber zum Glück net der Fall ist (die Gaming Industrie kommt da aber seit 2011 ziemlich dicht dran :)
 
Vergleiche mit 3D sind absolut sinnbefreit

Finde ich jetzt nicht. Bei 3D hast Du die Brille, und die lohnt sich für den Effekt nicht. Bei VR hast Du einen perfekten 3D- Effekt, dafür ist die Brille nochmal um Längen nerviger.

Wenn 14LPP bei knapp 1000MHz perf/Watt schon schlapp macht ist das kein Wunder, daß Vega auf 14HP laufen wird.
Wo hast Du das denn her?
unigine.jpg

Zugegeben, 85W sind vielleicht noch nicht perfekt und das HP kommt dann vllt. auf 50, aber sooo abartig schlimm finde ich das Verhältnis für Polaris 10 nun echt nicht.
 
Jay2Cents hat ja gezeigt dass seine XFX 480 GTR knapp 30W weniger braucht als die Reference.. Also das finde ich schon gut , weil so ist man eben nicht mehr bei 170W Boardpower
Aber was ich dann wirklich Spannend finde ist dass diese Karte 1400Mhz knackt.. Ich würde zugerne ne RX480 mit GDDR5X sehen, würde wohl keine 1070 knacken aber man wäre wohl nah bei einer Fiji
 
Ich habe es jetzt mal bei mir getestet. Dazu habe ich die Lüfter voll aufgedreht. Bei genau 1400MHz war leider schluss, und zwar, weil ich leider die Spannung nicht mehr erhöhen konnte, da ich sonst ans Stromlimit komme... Das hat Xfx bei der 480 RS anscheinend so tief angesetzt, dass ich selbst mit +20% am Ende bei 150W nicht weiterkomme. Ich bin mir sicher, dass die GPU auch noch höher gegangen wäre, aber gut, 1400MHz sind für Luft auch OK. Die GPU hat aber durch die Übertaktung dann ca. 32W mehr verbraucht gegenüber 1260MHz, also rund 40% mehr Verbrauch für knapp 7% mehr Leistung, und hinzu kommt, dass ich den VRAM nicht übertaktet habe, sodass sie wahrscheinlich dann in den Min. FPS ins Limit gekommen ist, also bei ca. 1260, vielleicht 1265(so genau hab ich das nicht getestet), hat zumindest meine Karte sicherlich ihren Sweetspot.

unigine_1400.jpg
 
Also das gleiche wie bei Jay..
Denn bei seinen 1477Mhz (glaube waren so) hatte er ne Draw Power von 135W..
Ich überlege mir ne GTR anzuschaffen weil ich den Kühler mega finde und Sapphire mich dann doch eher enttäuscht hatte
https://www.youtube.com/watch?v=zWASNajSdpg
Es zeigt sich wieder dass GloFo einfach Mist gebaut hat und dass AMD die Vcore erhöhen musste.. Schade eig. Aber gut, mal gucken, Powercolor hat die 480 Red Dragon 4G bei 199€ Angesetzt.
Wenn die XFX GTR bei 250e liegt würde ich direkt kaufen. So werde ich bis nach Weihnachten warten. War eigentlich bei der 1060 von Zotac, aber die GTR hat was. Powerlimit ist mir da dann egal ;) Selbst die 480 ist OP
 
Wenn 14LPP bei knapp 1000MHz perf/Watt schon schlapp macht ist das kein Wunder, daß Vega auf 14HP laufen wird. Außerdem ist der 14LPP wohl mehr für SoCs gedacht, nur meinte eben AMD die RX400 Series darauf auch laufen lasen zu müssen, was ja wohl mal ein derber Fehlschlag war.

Die 1050er Geforces haben aber was anderes gezeigt.
 
bei seinen 1477Mhz (glaube waren so) hatte er ne Draw Power von 135W..

1477MHz unter Luft bei der Temperatur - alle Achtung!

Ich würde zugerne ne RX480 mit GDDR5X sehen, würde wohl keine 1070 knacken aber man wäre wohl nah bei einer Fiji
Also bei 1477MHz hätte die GPU 6.8 TFLOPS und wäre damit rechnerisch schon knapp über der GTX 1070. Natürlich ist der VRAM die Bremse... Aber die Überlegung stimmt eigentlich schon, wenn AMD es schaffen würde, den Takt auf ca. 1500-1600MHz zu steigern, könnte eine Vega, die so klein wie Polaris ist (zusammen mit der Platzeinsparung durch das HBM- Interface) die vergleichsweise ziemlich große 1070 auf jeden Fall schlagen.
 
Die 1050er Geforces haben aber was anderes gezeigt.

http://www.anandtech.com/show/10768/nvidia-announces-geforce-gtx-1050-ti-gtx-1050

This in turn may explain the clockspeeds of the GTX 1050 cards. All of the other desktop GeForce 10-series cards have an official boost clock of 1600MHz+, with all but one of those cards being 1700Mhz+. The massive jump in clockspeed relative to Maxwell 2 is one of the signature elements of the Pascal architecture, and a major factor driving the significant performance gains of this generation compared to the last. The GTX 1050 series, by comparison, is only rated to boost up to 1455MHz for the GTX 1050, and lower still for the GTX 1050 Ti at 1392MHz.

For those reasons the transistor count is quite a bit larger than GM107; NVIDIA has gone from 1.87B transistors to 3.3B, an increase of 76% (greater than the increase for any of the other Pascal GPUs). Or to put this another way, GP107 is 75% of the transistor count of GP106. Die size meanwhile stands at 135mm2, down a bit from the 148mm2 die size of GM107.


Selbst wenn es stimmen sollte, daß Nvidia den GP107 bei Samsung mit 14LPP Wafer herstellt, dann stimmt zumindestens meine Annahme, daß oberhalb von 1000MHz Schluss ist. Und das bei einer ziemlich kleinen Diesize.

Um den Vega Vollausbau zu füttern, braucht es wohl etwas mehr als ~1000MHz mit bis zu ~300Mhz Boost. Mal im Vergleich, mein bei TSMC gefertigter GP104 (GTX1070) hatte stock 1.5GHz +370MHz Boost gehabt, und das bei 150Watt Verbrauch, was wohl atm nur mit Samsung HP Process möglich sein wird.
 
Also bei 1477MHz hätte die GPU 6.8 TFLOPS und wäre damit rechnerisch schon knapp über der GTX 1070. Natürlich ist der VRAM die Bremse... Aber die Überlegung stimmt eigentlich schon, wenn AMD es schaffen würde, den Takt auf ca. 1500-1600MHz zu steigern, könnte eine Vega, die so klein wie Polaris ist (zusammen mit der Platzeinsparung durch das HBM- Interface) die vergleichsweise ziemlich große 1070 auf jeden Fall schlagen.

Wenn ich mich richtig erinnere landet seine 1470mhz 480 etwas über einer 980ftw. Eine gut laufende 1070 ist dann ca. 30% schneller. Da wird man auch mit 100mhz mehr nicht in Schlagdistanz kommen. Ich hoffe daher, dass AMD bei den Shadern kräftig aufrüstet, damit die Karte im Sweetspot betrieben werden kann. Bei AMD hat sich bei vielen Karten der letzten Generationen gezeigt, dass sie oftmals jenseits davon betrieben werden müssen um halbwegs mithalten zu können.

PS: Bei meiner Betrachtung geht es um die Realleistung in Spielen, da mir eine theoretische Rechenleistung im Alltag recht wenig hilft.
 
Zuletzt bearbeitet:
Die 1050er Geforces haben aber was anderes gezeigt.

Korrekt, wenn es Unterschiede gibt, sind die minimal. P10 ist einfach nicht optimal designt, es gibt ja auch einige wenige Exemplare, die 1,5 bei recht wenig Stromverbrauch packen, alles in allem ist die Varianz bei P10 extrem groß, was auf ein nicht ganz ausgereiftes Design hindeutet. Da dürfte ein Metalspin Wunder wirken. Ich nehme an, wenn AMD P10 aus Kostengründen auf 14LPP+ produziert nächstes Jahr (ist wohl keine neue Maske nötig, wie es aussieht), wird es auch einen Metalspin geben und die 1,4-1,5GHz sind dann normal. Die Rev. z.Z. für P10 ist A0 afaik (die ganzen Tools zeigen diesbezüglich durch die Bank einen Teil der PCI-ID an, nicht die Rev), dann kommt nächstes Jahr A1. Kann ja auch nur A0 sein, Tapeout Oktober, Produktionsbeginn April, da war keine Zeit für einen Respin.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Ist die Node (Process) der daran Schuld hat, wenn man es so sagen darf. Wer weiß was P10 bei TSMC net so geleistet hätte :d

Warum?
Die GP107 rennt bei höheren Taktraten einfach ins PT... Mit dem Prozess hat das doch erstmal wenig zu tun. Schau dir die Reviews an, wo die realen Taktraten verglichen wurden. Die rennen obenraus idR ins PT. Eine Anhebung der Taktraten hat also wenig Sinn wenn man das PT nicht raufsetzt. Aber genau das wollte man offenbar halt nicht. Es gibt aber, bspw. von EVGA ne 1050TI mit 120W inkl. nem 6 Pin Stromstecker. Die boostet dann auf Wundersame weise auch höher, nämlich ähnlich hoch der anderen Pascals und lässt sich mit OC noch weiter steigern bis es eben wieder nicht reicht. Die kleineren Modelle (im Luxxtest ist dort die SC mit 75W und ohne Stromstecker mit 1,6-1,7GHz angegeben, realer Takt natürlich)

Möglicherweise hätte Polaris mit dem TSMC Prozess etwas besser dagestanden, wir wissen es einfach nicht. Aber dem GP107 tut es schlicht keinen Abbruch, wenn man das PT versucht auszuklammern, was die Taktraten angeht... Deine Schlussfolgerung ist für mich also nicht nachvollziehbar.

Aber die Überlegung stimmt eigentlich schon, wenn AMD es schaffen würde, den Takt auf ca. 1500-1600MHz zu steigern, könnte eine Vega, die so klein wie Polaris ist (zusammen mit der Platzeinsparung durch das HBM- Interface) die vergleichsweise ziemlich große 1070 auf jeden Fall schlagen.

Warum übertreibst du eigentlich immer bei solchen Spekulationen? Im CPU Bereich die Aussage zu einer APU mit 10TFLop/sec, bis 32GB HBM und das schon in 7nm, was mindestens eine Verdreifachung der Leistung/Watt zur Folge hätte, wenn nicht gar mehr. Und nun hier, nen Vega soll so klein wie Polaris werden? Wo denn? Das Ding wird mit 4096 ALUs gehandelt im Moment. Wenn da ne Teildeaktivierte Version auf 3000-3500 kommt, OK, aber es wird keine 2048-2304 breite Vega GPU geben, mit HBM in ansprechenden Mengen (also mindestens 8GB) schon gleich gar nicht... Wer soll sowas kaufen in der Mittelklasse, wo es eher aufs Geld (aus Endkundensicht) ankommt? Oder spekulierst du das GCN5 mit Vega auf einmal xx% pro Takt schneller ist als GCN4 von Polaris? -> mag möglich sein, aber ob das in diese Region geht, die du dir das vorstellst, ist mindestens mal zu bezweifeln. Da stehen grob 40%, teils sogar mehr auf der Uhr. Wo soll das her kommen?

Bitte einfach mal die Kirche im Dorf lassen...
 
Wer sagt denn, dass die Abwärme immer auf 95W begrenzt bleiben wird? Wenn man eine APU mit den Specs baut, die man für 800 - 1.000€ an den Mann bringt, kann sie problemlos doppelt so groß sein und 200W verbrauchen. Kühlbar wäre es auf jeden Fall. Halte ich für absolut realistisch, dass man da umdenkt, schließlich gibt es auch Grafikkarten, die ein paar hundert Watt ziehen.
 
Warum?
Die GP107 rennt bei höheren Taktraten einfach ins PT... Mit dem Prozess hat das doch erstmal wenig zu tun. Schau dir die Reviews an, wo die realen Taktraten verglichen wurden. Die rennen obenraus idR ins PT. Eine Anhebung der Taktraten hat also wenig Sinn wenn man das PT nicht raufsetzt. Aber genau das wollte man offenbar halt nicht. Es gibt aber, bspw. von EVGA ne 1050TI mit 120W inkl. nem 6 Pin Stromstecker. Die boostet dann auf Wundersame weise auch höher, nämlich ähnlich hoch der anderen Pascals und lässt sich mit OC noch weiter steigern bis es eben wieder nicht reicht. Die kleineren Modelle (im Luxxtest ist dort die SC mit 75W und ohne Stromstecker mit 1,6-1,7GHz angegeben, realer Takt natürlich)

Möglicherweise hätte Polaris mit dem TSMC Prozess etwas besser dagestanden, wir wissen es einfach nicht. Aber dem GP107 tut es schlicht keinen Abbruch, wenn man das PT versucht auszuklammern, was die Taktraten angeht... Deine Schlussfolgerung ist für mich also nicht nachvollziehbar.



Warum übertreibst du eigentlich immer bei solchen Spekulationen? Im CPU Bereich die Aussage zu einer APU mit 10TFLop/sec, bis 32GB HBM und das schon in 7nm, was mindestens eine Verdreifachung der Leistung/Watt zur Folge hätte, wenn nicht gar mehr. Und nun hier, nen Vega soll so klein wie Polaris werden? Wo denn? Das Ding wird mit 4096 ALUs gehandelt im Moment. Wenn da ne Teildeaktivierte Version auf 3000-3500 kommt, OK, aber es wird keine 2048-2304 breite Vega GPU geben, mit HBM in ansprechenden Mengen (also mindestens 8GB) schon gleich gar nicht... Wer soll sowas kaufen in der Mittelklasse, wo es eher aufs Geld (aus Endkundensicht) ankommt? Oder spekulierst du das GCN5 mit Vega auf einmal xx% pro Takt schneller ist als GCN4 von Polaris? -> mag möglich sein, aber ob das in diese Region geht, die du dir das vorstellst, ist mindestens mal zu bezweifeln. Da stehen grob 40%, teils sogar mehr auf der Uhr. Wo soll das her kommen?

Bitte einfach mal die Kirche im Dorf lassen...

Hehe wie viel Kraft du jedesmal in einen AMD Thread reinsteckst ist Unglaublich. Im NV Thread kaum von dir was zu hören sowie über Intel Cpu´s. Sobald es um AMD geht warte ich jedesmal deine Argumente und bin mir zu 99% Sicher was du schreibst.
Manchmal habe ich das Gefühl du hasst AMD abgöttischst.
 
fdsonnes Beiträge sind in solchen Threads einige der wenigen, welche man als realistisch und plausibel bezeichnen kann.

Dieser Thread genauso wie der "Zen für 275€" Thread ist voll mit Beiträgen die entweder eine niedrigere Performance als bisherige AMD Produkte voraussagen, sowie Leute die bereits wissen dass die ultimativste Leistung für einen lächerlich niedrigen Preis kommt. Bei den Gerüchten werden genau die raus gepickt, die für die jeweilige eigene Glaskugel passen.


Dabei ist die Leistung von Vega doch einfach mal sooo vorhersehbar. der Takt wird irgendwo unterhalb von der RX480/470 kommen, 1,2GHz klingen Plausibel. Die Leistung wird also ca. 1,9 Fach so viel einer RX470 sein. Selbst wenn sie den Takt auf RX470 Niveau oder sogar etwas drüber bekommen dann sind es im bestenfalls 2,1 Fach gegenüber RX470.
Sowohl von der Speicherbandbreite als auch von der ALU Anzahl wird Vega nämlich gegenüber RX470 eine glatte Verdopplung sein. Die Effizienz wird - hauptsächlich durch den HBM Speicher - etwas besser sein als Polaris.
Wie es schon vor viiieelen Monaten spekuliert war - Vega (4096) wird irgendwo zwischen 1070 und 1080 landen. Die Frage ist hauptsächlich WANN.
Abhängig von Spielen welche mehr Speicherbandbreite benötigen oder von Gameworks wirds manchmal über 1080 und manchmal auch unter der 1070 landen.
 
fdsonnes Beiträge sind in solchen Threads einige der wenigen, welche man als realistisch und plausibel bezeichnen kann.
Seine Abneigung gegenüber AMD ist aber mehr als deutlich zu erkennen.

Dabei ist die Leistung von Vega doch einfach mal sooo vorhersehbar.
Eigentlich nicht, dafür ist zu wenig bekannt.
Selbst die Anzahl der CUs ist noch reine Spekulation.

der Takt wird irgendwo unterhalb von der RX480/470 kommen
Woher willst du das abschätzen können, wenn noch nichtmal bekannt ist in welchem Prozess man Vega fertigen wird?
Eine RX 490 kann auch nicht Vega sein, WCCFTech ist nur mal wieder zu blöd für alles und ihr Unsinn wird verbreitet.
Die Seite macht sich einen Spaß daraus alle zu verarschen...

Die Effizienz wird - hauptsächlich durch den HBM Speicher - etwas besser sein als Polaris.
Wenn Vega wie vermutet wirklich wegen SOI so spät kommt, dann wird die Effizienz mehr als nur "etwas" besser werden.
 
Zuletzt bearbeitet:
Verstehe net warum AMD so ein Tara um HBM macht, wenn sie dann doch nur wieder 64ROPS bei Vega ala Fiji verbauen werden. Naja, sollte es stimmen das der komplette Backend beim GP100 intakt ist, dann müßte der Mega BigDaddy stolze 128 davon haben :eek:

Schade daß man das Ding so net kaufen kann :o so samt HBM2 und so...



Wenn Vega wie vermutet wirklich wegen SOI so spät kommt, dann wird die Effizienz mehr als nur "etwas" besser werden.

Und wie wäre dann die perf/watt im Vergleich zum P10 mit GloFos 14LPP?
 
1. Seine Abneigung gegenüber AMD ist aber mehr als deutlich zu erkennen.


Eigentlich nicht, dafür ist zu wenig bekannt.
2. Selbst die Anzahl der CUs ist noch reine Spekulation.


3. Woher willst du das abschätzen können, wenn noch nichtmal bekannt ist in welchem Prozess man Vega fertigen wird?
4. Eine RX 490 kann auch nicht Vega sein, WCCFTech ist nur mal wieder zu blöd für alles und ihr Unsinn wird verbreitet.
Die Seite macht sich einen Spaß daraus alle zu verarschen...


5. Wenn Vega wie vermutet wirklich wegen SOI so spät kommt, dann wird die Effizienz mehr als nur "etwas" besser werden.

1. Dann hasst du wohl viele seine Beiträge zu Nvidias proprietärer Haltung in manchen Dingen und zu Gameworks nicht gelsen. Oh und über die GTX970 hat er sich wenn ich mich richtig erinnere auch entsprechend geäußert.
2. Dass Vega mit 4096 SPs kommt bzw einer der Vega Chips so groß sein wird ist so lange bekannt da hieß Vega noch Greenland. Es wurde sogar schon von Mitarbeitern geleakt. (Linked In Profil eines AMD Chipingeneurs z.B.)
3. 14LPP liegt auf der Hand?
4. Hab ich auch nicht behauptet und dass Vega noch dieses Jahr kommt die Hoffnung hab ich aufgegeben. Nächstes Jahr wird sicherlich der Name 590 verwendet
5. Warum bist du so verdammt sicher das der SOI Prozess verwendet werden soll? Gibts da auch nur überhaupt ein einziges Gerücht was das je gesagt hat??
Du Verteidigst so Dinge die du annimmst einfach weil sie schön wirken. Ich hätte nichts dagegen wenn der Chip dank SOI deutlich effizienter ist aber der 14nm SOI Prozess wird noch nicht mal auf Global Foundries eigener Website als aktuelle Fertigungsprozesse aufgezählt.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh