Engineering Sample der Vega-Grafikkarte erstmals zu sehen

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.143
<p><img src="/images/stories/logos-2016/amd-vega-logo.jpg" style="margin: 10px; float: left;" />Bisher hat AMD keinen echten Blick auf die Hardware der zukünftigen Vega-Generation zugelassen, sieht man vom <a href="index.php/artikel/hardware/grafikkarten/41355-vega-architektur-mit-hbm2-und-neuer-compute-engine-vorgestellt.html" target="_self">Vorzeigen der Chips auf der AMD Tech Summit 2016</a> einmal ab. Auch auf der CES 2017 waren die Systeme, die mit RYZEN-Prozessor oder Vega-Grafikkarten ausgestellt wurden, komplett geschlossen und selbst neugierige Blicke auf die Slotblende sollten verhindert werden.</p>
<p>LinusTechTips bekam aber offenbar dennoch die Gelegenheit, einen ersten Blick auf die eigentliche Hardware zu werfen. Bei der gezeigten Karte handelt es sich um ein Engineering...<br /><br /><a href="/index.php/news/hardware/grafikkarten/41532-engineering-sample-der-vega-grafikkarte-erstmals-zu-sehen.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wieso die überhaupt was zeigen, wenn sie nichts zeigen wollen .... :coffee:
 
Das Video war von AMD gesponsert. Die wollten was zeigen, wollten die Bedingungen aber stark kontrollieren.
Und wie macht man das wohl am besten so das es auch alle mit bekommen? Man nimmt halt den Youtuber der in der Branche die meiste Beachtung hat und in dem Thema der größte influencer ist. Und wenn am Netzteil ein Strang raus kommt sagt das dennoch nix. Ob nun z.B. beide Anschlüsse angesteckt werden oder nur einer usw.
 
NasaGTR hat recht. Normales Vorgehen im Marketing.
Aber in Gegensatz zu einigen anderen habe ich mir das Video von Linus nicht angesehen, um mögliche Pannen oder Fehler von AMD zu finden. Viel mehr hören sich die ersten Daten wirklich vielversprechend an. Ich hoffe nur, dass die Behauptungen auch gehalten werden können...Wenn Ryzen und Vega es wirklich schaffen Intel und Nvidia den Kampf anzusagen, dann werden die nächsten Jahre wirklich spannend und gleichzeitig gut für den Endkunden:)
 
Wieso die überhaupt was zeigen, wenn sie nichts zeigen wollen .... :coffee:
Naja schon alleine um zu zeigen daß da tatsächlich was von AMD drin werkt ist ja schon mal okay. Hätte ja auch ein Intel System mit irgendeiner GPU sein können :fresse:

@Topic
Warum zum Teufel haben die den Gehäuselüfter hinten abgeklebt?!?!?
Damit keiner von hinten in ein normalerweise wohl geschlossenes finsteres Gehäuseinnere durch einen laufenden Case Fan blicken kann? REALLY? :lol:
 
das mit dem Lüfter ist echt übertrieben, dann lieber weglassen oder einen dichten Staubschutzfilter wie z.B. die vom Demciflex da kann man mit der Kamera nichts durch erkennen^^
 
.... es wurde der Anschluss heimlich fotografiert als sich durch die Wärme das Klebeband gelößt hat und das Bild geleaked.

images.jpeg

:fresse2: Warum zeigt man soetwas bloß und verheimlich mit 2m² Klebeband die Stromanschlüsse ... das gibt doch nur böses Futter für Spekulatius :shot:
 
Hehe ... für den Anschluß hätten sie aber etwas mehr Klebeband benötigt, oder er ist senkrecht auf der Karte da horizontal in keine Richtung genug Platz bei so ziemlich den meisten Gehäusen ist. lol.

... Warum zeigt man soetwas bloß und verheimlich mit 2m² Klebeband die Stromanschlüsse ... das gibt doch nur böses Futter für Spekulatius ...
Naja das sowieso, aber ich vermute mal daß das ES vielleicht mehr Stromanschlüsse hat als notwendig und bevor dann gleich wieder spekuliert wird von wegen "wooo die Karte braucht ja bestimmt so und soviel Watt" wurde das halt abgeklebt.
 
Also wird das wieder nix - andonsten würden sie ihre Karten ja nicht so verstecken.
Sad.
 
.... es wurde der Anschluss heimlich fotografiert als sich durch die Wärme das Klebeband gelößt hat und das Bild geleaked.

Anhang anzeigen 387202

Naja, nach NVIDIAs Vorstellung der GTX1080Ti würde es mich nicht wundern.
fermi-attrappe_mfi-0b33cda70a0148b8.jpeg

:fresse2: Warum zeigt man soetwas bloß und verheimlich mit 2m² Klebeband die Stromanschlüsse ... das gibt doch nur böses Futter für Spekulatius :shot:

Manche Leute besitzen eben krampfhaft die Formel (X * Pin + Y * Pin) + Fermi = P in Kernkraftwerk für die Leistungsaufnahme einer Grafikkarte im Kopf.
Da ES gerne mal X² verwenden, würde es zu massenhaften Irritationen im Netz führen.
Daher werden die Anschlüsse abgeklebt. ;)

- - - Updated - - -

Also wird das wieder nix - andonsten würden sie ihre Karten ja nicht so verstecken.
Sad.

andonsten...Kindergarten schon wieder aus ? :p
 
Als es mit der 1080 FE los ging waren laute Stimmen zu vernehmen die meinten 1x8pin sei zu wenig für OC. Hier ist AMDs 3x8pin Karte plötzlich was Schlechtes :fresse2:
 
Da ES gerne mal X² verwenden, würde es zu massenhaften Irritationen im Netz führen.
Daher werden die Anschlüsse abgeklebt. ;)

... was natürlich zu keinen Irritationen im Netz führt :haha:


Es wäre ja zu einfach zu sagen "hey, die karte ist ne ES und kommt mit weniger anschlüssen auf den markt"

Mit offenen karten spielen kam schon immer besser an, so ist es halt wieder Spekulation - "oh, die habe Angst wg. dem Stromverbrauch und kleben besser alles ab"

- - - Updated - - -

Als es mit der 1080 FE los ging waren laute Stimmen zu vernehmen die meinten 1x8pin sei zu wenig für OC. Hier ist AMDs 3x8pin Karte plötzlich was Schlechtes :fresse2:


weniger stromanschlüsse sind immer besser, für mehr dürfen dann gern die Customhersteller für OC sorgen :drool:
 
hm ok wenn hier schon wieder das mutmaßen losgeht:
evtl wollen sie nur verschleiern wie sparsam die Karte ist um die Konkurrenz zu blenden;)
Ich sehe da irgendwie nur 2 Kabel vom Netzteil weggehen:
1 mal 8 Pin PCI-E für die Karte und einmal 6 Pin Sata für die SSD.
 
Zuletzt bearbeitet:
so gehts mir auch wobei das beim 24pin mobo wohl davor noch das sata power kabel abgeht für die ssd, kann man (ich) aber nur schlecht erkennen

und das pci-e kabel im Vordergrund am Netzteil hat an der Graka Seite maximal 2ma 8 pin - also geht die Möglichkeit von 1x 6Pin bzw 1x 8Pin über 1x 8Pin & 1x 6Pin bis zu 2x 8 Pin.

ich könnte so wie bei meiner Fury auch gut mit 2x 8pin leben wenn die Leistung passt vermute aber 1x 8 Pin oder eher 1x 8Pin + 1x 6Pin
 
Zuletzt bearbeitet:
Die "Pixelengine" hört sich super an.
Die Entwickler von Witcher 3 haben doch so etwas ähnliches, wo Objekte die man nicht sieht, nicht berechnet werden.

Die Karte scheint momentan bei den Settings, in Doom, schneller zu sein als jede gtx 1080 die selbst auf 2 GHz+ übertaktet wurde.
Diese fällt bei anspruchsvollen Szenen gerne mal auf 45 - 55 frames, wo die amd-Karte noch bei 55 - 65 ist.
 
Man sollte bedenken dass die Karte dort unter Vulkan lief, was AMDs Paradedisziplin ist, insbesondere da Vulkan ja einfach ne Weiterentwicklung von Mantle ist....
 
Man sollte bedenken dass die Karte dort unter Vulkan lief, was AMDs Paradedisziplin ist, insbesondere da Vulkan ja einfach ne Weiterentwicklung von Mantle ist....

Ähm... nein. Vulkan ist eine low-overhead API, welche die Nachteile von AMD (Treiber mit viel overhead) ausbügelt und damit die Rohperformance auf die Straße lässt, anstatt mit angezogener Handbremse (Direct X) durch die Gegend zu juckeln.
NVidia hat das Problem durch Shader-Ersatzmittel im Treiber gelöst, um den Overhead für bestimmte Anwendungen zu reduzieren - was aber nur bei großen Titeln Anwendung findet. Da der overhead bei Nvidia bereits gering war, profitieren diese kaum von Vulkan - erst Recht, da die allgemeine Architektur der aktuellen Nvidia Karten eher noch auf Direct X zugeschnitten ist, als auf Vulkan/DX12.

In Zukunft wird also die Rohleistung einer GPU entscheidend sein, da sowohl das grüne als auch das rote Team kaum noch overhead sehen werden - und dort hat AMD vor allem Hinsichtlich Preis/Leistung einen Vorteil. So lange DirectX 11 der Platzhirsch ist, wird man aber mit Nvidia glücklich sein können.
 
Zuletzt bearbeitet:
Ich glaub ich bin etwas zu naiv und blöd schon um die Uhrzeit, aber wo ist unten am NT in dem Video was groß angeschlossen ?!

ATX - check
EPS / 8 Pin - check
-> Dann müsste die letzten Stecker 1x 8 Pin GPU sein ( ev. gesplittet oben versteckt ?! ) und 1x Molex/S-ATA.
Aber soviel erkennt man ja nicht.

https://abload.de/img/unbenanntp1uoy.jpg



Lag damit garnicht mal so falsch:

Hier das NT selbst: http://i.imgur.com/i6jE5dj.jpg

Hier das Bild eines anderen Users nochmal markiert von ihm:

http://i.imgur.com/jB3kIE7.jpg
 
Zuletzt bearbeitet:
Ich glaub ich bin etwas zu naiv und blöd schon um die Uhrzeit, aber wo ist unten am NT in dem Video was groß angeschlossen ?!

ATX - check
EPS / 8 Pin - check
-> Dann müsste die letzten Stecker 1x 8 Pin GPU sein ( ev. gesplittet oben versteckt ?! ) und 1x Molex/S-ATA.
Aber soviel erkennt man ja nicht.

https://abload.de/img/unbenanntp1uoy.jpg



Lag damit garnicht mal so falsch:

Hier das NT selbst: http://i.imgur.com/i6jE5dj.jpg

Hier das Bild eines anderen Users nochmal markiert von ihm:

http://i.imgur.com/jB3kIE7.jpg

stimmt da hast du recht - das wird ein 6+2 VGA Anschluss sein!

Das wäre Top!
 
Naja Moment - es gibt genug NTs die einen PCI-E Stecker haben, der dann oben nen Splitn auf 8 Pin + 6 pin macht.

Selbst dann wären es rechnerisch *hust* 225 Watt.

Ich hab jetzt 25 mins nach allen Thermaltake Netzteilen gesucht, finde aber das mit schwarzen modularen Steckern und non-modularem ATX + 8Pin nicht. Sorry.
 
Hää, irgendwie hat sich mein Internet verschluckt - habe geschrieben:

"Stimmt auch wieder, hat ja sogar mein EVGA 550 "
 
Zuletzt bearbeitet:
Ich hoffe dennoch das die den/die PCIe Stecker großzügig dimensionieren damit man (CO) Spielraum hat.
 
Der Kühler macht nicht so viel her, als das er nen Boliden mit 300 Watt kühlen könnte.

Gesendet von meinem BTV-W09 mit Tapatalk
 
Ich kenne mich mit den Spezikatinen nicht aus aber wenn man per Afterburner +100 mv auf eine 290x klatscht,
einen Stromzähler an den Rechner hängt und dann Furmark startet kommt man zum Ergebnis dass 6+8 ziemlich
weit reichen:fresse2: Im Gegenteil, dieser affige 2x8-Overclockers Dream hat mir bei den Fury-Karten den Rest gegeben.

Puh das kann aber auch wirklich alles werden, vom Überflieger bis zum -ähm- Gegenteil
 
naja im Schlimmsten Fall hat Vega nur 35% gegen Fury X, im realistischen 45% und im besten rund 60% Leistungsplus...

Kaufen werde ich sie Definitv , solange der preis dazu passt. Ich rechne aber mal 650 bis 700€ und so ein Plus von 45 bis 50% gegenüber Fury X
 
In Fachkreisen munkelt man dass AMD die Vega Karten mit kleinen Druckwasserreaktoren austatten wird, so hat die Karte einen negativen Energieverbrauch. Sie speist über den PCI-E Slot sogar noch das Mainboard und kann in Krisenfällen als Notfallgenerator genutzt werden, daher auch der von Schapy geleakte Anschluss!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh