AMD wird die Radeon RX Vega Ende Juli auf der Siggraph 2017 vorstellen

wir haben noch genug fullHD TFTs in der Firma im Einsatz ohne DVI nur mit VGA im Einsatz - so abwegig ist das wirklich nicht ....
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das klappt? Ok dann wäre ein Kritikpunkt weg. Außer das ich dann halt ein neues Kabel holen muss.
 
Das klappt? Ok dann wäre ein Kritikpunkt weg. Außer das ich dann halt ein neues Kabel holen muss.

Wenn du mir verrätst um was für einen Monitor es sich handelt, könnte ich dir gezielt antworten.

Von der technischen Seite her spricht jedenfalls nichts dagegen. Und sofern dein Monitor echte 120Hz bei 1080p über den DVI-Eingang entgegen nehmen kann, sollte der Grafikkartentreiber auch schlau genug sein um die hinterlegten EDID-Daten korrekt auszulesen und dir dann eine entsprechende Auswahloption für 1080p/120Hz anbieten.


Edit:

Schande über mein Haupt. Ich muss meine Aussage(n) hier korrigieren. Leider habe ich übersehen, dass 1080p/120Hz nur über DVI-Dual-Link läuft, d.h. 6 TMDS-Adernpaare (DVI-Single-Link 3 Adernpaare). HDMI dagegen nutzt jedoch immer nur 3 TMDS-Adernpaare. Zwar liefert HDMI 2.0 theoretisch genug Bandbreite für 1080p/120Hz nur wird dies durch eine höhere Frequenz der 3 bestehen TMDS-Adernpaare realisiert. Damit ist es leider nicht möglich über HDMI ein 1080p/120Hz Signal an DVI-Dual-Link zu schicken.
 
Zuletzt bearbeitet:
Was ist das denn für ein Monitor? Grundsätzlich, wenn der DVI-Eingang am Monitor 1080p/120Hz entgegen nehmen kann, dann klappt das auch mit einen passiven DVI zu HDMI-Adapter/Kabel, da bei beiden mit dem gleichen TMDS-Signal gearbeitet wird. DVI ist von der technischen Seite her HDMI nur ohne Ton. Um das Signal passiv übertragen zu können, muss der HDMI-Ausgang der Grafikkarte aber mindestens dem HDMI 2.0 Standard entsprechen, da nur ab diesen erst die nötige Bandbreite für 1080p/120Hz ausgegeben werden kann. Einen aktiven Adapter bräuchte es nur wenn die Grafikkarte HDMI 1.4a/b oder darunter ausgeben kann. Da das Referenzdesign von Vega mindestens über 1 HDMI-Ausgang nach HDMI 2.0 oder höher verfügen wird, sollte somit auch sein Monitor über ein passive(s) DVI zu HDMI-Adaper/Kabel laufen.

Nein, das funktioniert so nicht und stimmt technisch auch nicht!
Nicht DVI ist HDMI von der technischen Seite, sondern HDMI 1. irgendwas (welcher genau, kein Plan, auf jeden Fall alt) ist vom technischen her das gleiche wie SingleLink DVI und selbst das stimmt nur bedingt, Abwärtskompatibel trifft es vllt. eher. Aber hier ist der Knackpunkt, 1440/1600p und auch 120Hz "DVI" Monitore nutzen DualLink DVI. Das sind einfach zwei TMDS Stream parallel. Der DVI Standard wurde dahingehend aber nicht weiter angepasst, HDMI hingegen schon... Was Bandbreiten angeht, so erreicht schon HDMI 1.3 eigentlich genug. FHD@120Hz ist da aber nicht vorgesehen und tut idR. auch nicht, 1440/1600p geht aber wohl offiziell.
Mit passiv/aktiv hat das auch nix am Hut :wink: denn weder HDMI 1.x noch 2.0 noch DP 1.x verwenden zwei Streams. Gibts also nicht in passiv... Was es gibt sind aktive DP auf DualLink DVI Konverter. Ggf. auch als HDMI 2.x auf DualLink DVI, ebenso aktive Konverter.

Und sofern dein Monitor echte 120Hz bei 1080p über den DVI-Eingang entgegen nehmen kann, sollte der Grafikkartentreiber auch schlau genug sein um die hinterlegten EDID-Daten korrekt auszulesen und dir dann eine entsprechende Auswahloption für 1080p/120Hz anbieten.

Das wird so nix... Denn der Monitor erwartet wie gesagt zwei TMDS Streams. Dazu kommt, das was technisch am Port raus geht (gehen kann) und was technisch am anderen Port rein geht sind zwei paar Schuhe.
Ich hab hier nen HDMI 1.4a fähigen TV, der kann 3D native in FHD ausspucken, bspw. von einer SBS 3840x1080 großen Videoaufnahme und das noch in 60Hz abgespielt vom internen Mediaplayer von ner USB Disk -> das Panel gibt es also offenbar her. Rein von der Bandbreite -> DualLink DVI ist kleiner als HDMI 1.4a, ersteres geht, letzteres nicht. Obwohl es der HDMI Standard her gibt, es frisst der TV einfach nicht.
Das gleiche auch hier, man muss aus HDMI oder DP für einen DualLink DVI Monitor erstmal zwei TMDS Signale rausbekommen, das benötigt schlicht doppelte Kontakte, nicht umsonst hat der DL-DVI Stecker mehr Pins :wink:


PS: das ist wie bei PCIe, 4x 3.0 ist von der Bandbreite das gleiche wie 16x 1.x -> wenn das Device aber nur 1.x supportet, dann musst du vorn zwingend 16 Lanes raushauen, sonst reicht es einfach nicht. Oder du arbeitest mit Konvertern, ein PLX Switch kann von auch 4x 3.0 rein lassen und hinten ggf. 16x 1.x auspucken... passiv einfach nur angeklemmt reicht aber nicht.
 
Ja, du hast Recht fdsonne! Habe es korrigiert. :)
 
Platzverschwendung (Lüfterschlitze,..):angel:
Oh wie schlimm. Beschwerst du dich über Hdmi und mehr als 2xDP?

@ Cippoli Ist ein Samsung 2233 RZ. Und den geb ich ohne Not auch nicht einfach auf.
 
Zuletzt bearbeitet:
Naja, möglich ist es schon, du brauchst halt einen Konverter, dieser spuckt dann hinten halt nativ DualLink DVI aus und muss vorn nur entsprechend schnell versorgt werden. Da sollte technisch HDMI 1.4 reichen, ggf. schon 1.3, Wichtig ist nur, der Konverter darf da nicht max. FHD@60Hz zur Grafikkarte propagieren.
 
Und so ein Konverter ist teuer.
 
@fdsonne:

Wenn der Ausgang nicht mindestens die Bandbreite für das auszugebende Format bereitstellen kann, dann gibt es Einschränkungen. HDMI 1.4 bietet z.B. nicht genug Bandbreite für 1080p/120Hz. Alles was ein Konverter dann leisten kann ist das Bild auf das Zielformat hochzuskalieren, was mit Qualitätseinbußen einhergeht. Wenn über HDMI 1.4 z.B. 1080p/60Hz ausgegeben werden dann skaliert der Konverter das Bild i.d.R. auf 1080p/120Hz hoch indem er jeden einzelnen Frame doppelt anzeigt. Das ist dann aber kein "echtes" 1080p mit 120Hz.
 
Ich bin gespannt ob man auch mit der Spieleleistung überzeugen kann oder ob man sich nur den Speicher bezahlen läst.
 
100 Prozentig würde ich dies nicht für die Finalen Preise deuten, aber gut möglich :-)
Doch die werden schon stimmen, aber die FE ist ja auch ne Workstation Karte.



Was mir eher Sorgen bereitet sind die 300 bzw 375W TDP.

Denn wenn die wirklich so viel Saft zieht, muss sie entweder auch brutal viel schneller sein als ne TXP, sonst kommt sie nicht wirklich für mich in Frage. Vor allem will ich sehen wie die 300W mit nem dualslot blower kühlen...

Sent from OP3T
 
Takt gesenkt für die Luftversion und die Wasservariante deutlich schneller getaktet.
 
hmm trotz neuer kleinerer Architektur und mit kolportiert geringeren Taktraten als Consumer Vega (oder gilt das nur für die MI Ableger ? ) 300 und 375 Watt das wäre schon ein bisschen ein Schlag ins Gesicht für mich - mir ist es zwar grundsätzlich egal solange es gut und leise gekühlt wird - aber das wäre ja schon min gleichviel wie meine Fury als Riesenchip in 28NM verbraten hat und die war nun wahrlich kein Kostverächter
 
Ja, ich habe mittlerweile auch die Hoffnung aufgegeben das Vega was "vernünftiges" wird. Die prophezeite 1080 TI Leistung wäre zu spät und zu wenig, bei wahrscheinlich immer noch höherem Stromverbrauch.
 
Wenn der Ausgang nicht mindestens die Bandbreite für das auszugebende Format bereitstellen kann, dann gibt es Einschränkungen. HDMI 1.4 bietet z.B. nicht genug Bandbreite für 1080p/120Hz. Alles was ein Konverter dann leisten kann ist das Bild auf das Zielformat hochzuskalieren, was mit Qualitätseinbußen einhergeht. Wenn über HDMI 1.4 z.B. 1080p/60Hz ausgegeben werden dann skaliert der Konverter das Bild i.d.R. auf 1080p/120Hz hoch indem er jeden einzelnen Frame doppelt anzeigt. Das ist dann aber kein "echtes" 1080p mit 120Hz.

DualLink DVI hat die doppelte Bandbreite von SingleLink DVI. Ersteres KANN 120Hz@FHD, letzteres nicht. Nur ist HDMI ab 1.3 von der Bandbreite sogar minimal überhalb von DualLink DVI ;) Es ändert nix an der gängigen Praxis, keine Frage, aber technisch ist das durch einen Konverter defintiv machbar, sonst würde es mit DualLink DVI auch nicht gehen.

Der Knackpunkt bei HDMI ist eher, es gibt keine garantierten Einstellungen. Es gibt wohl eine minimal zu gehende Kombo und der Rest da obenraus ist offen... So können sich auch zwei Geräte nicht verstehen und dann geht da absolut gar nix. Was bei den Anfängen von HDMI 2.0 gern mal dafür sorgte, dass da schlicht kein UHD@60Hz ging.
 
Wieso die leistungsregion der aktuellen Topkarte plötzlich nicht mehr genug für die vega sein soll, erschliesst sich mir nicht wirklich. Klar, da hätte man sich auch gleich die ti kaufen können, aber aus irgendeinem grund hat man ja gewartet, wenn man gewartet hat.
Stromverbrauch habe ich schon eher hoch erwartet, alleine schon weil amd in der näheren vergangenheit nicht gerade sparsam unterwegs war.
Ausserdem rechne ich fest damit, dass die karte wieder an der kotzgrenze betrieben wird, um entsprechend mit der ti mitzuhalten. Aber dank wakü interessiert mich die tdp eh nicht. Hauptsache p/l passt.
 
hmm trotz neuer kleinerer Architektur und mit kolportiert geringeren Taktraten als Consumer Vega (oder gilt das nur für die MI Ableger ? ) 300 und 375 Watt das wäre schon ein bisschen ein Schlag ins Gesicht für mich - mir ist es zwar grundsätzlich egal solange es gut und leise gekühlt wird - aber das wäre ja schon min gleichviel wie meine Fury als Riesenchip in 28NM verbraten hat und die war nun wahrlich kein Kostverächter

Wäre für ne dual vega ok single no go. Oder sie pulverisiert die TI. :lol:
 
Zuletzt bearbeitet:
Was mir eher Sorgen bereitet sind die 300 bzw 375W TDP.

Denn wenn die wirklich so viel Saft zieht, muss sie entweder auch brutal viel schneller sein als ne TXP, sonst kommt sie nicht wirklich für mich in Frage. Vor allem will ich sehen wie die 300W mit nem dualslot blower kühlen...

Der Gegner dieser Version dürfte doch viel eher die Quadro/Tesla mit GP100 sein... Und was steht da auf der TDP Uhr!? :wink:
Beim Gamermodell gehe ich von 250-275W aus. Mal gucken, was es am Ende wird. Wunder sollte man so oder so nicht erwarten...
 
Zuletzt bearbeitet:
Also die 300 und 375 Watt erinnern doch sehr stark an 2x8pin 150 Watt und PEG 75 Watt.
Würde mich nicht wundern wenn die Angaben nicht stimmen, weil sonst wäre es ja fast denkbar dass Vega sogar über 375 ziehen könnte. Kaum vorstellbar.
 
Wieso die leistungsregion der aktuellen Topkarte plötzlich nicht mehr genug für die vega sein soll, erschliesst sich mir nicht wirklich. Klar, da hätte man sich auch gleich die ti kaufen können, aber aus irgendeinem grund hat man ja gewartet, wenn man gewartet hat.
Stromverbrauch habe ich schon eher hoch erwartet, alleine schon weil amd in der näheren vergangenheit nicht gerade sparsam unterwegs war.
Ausserdem rechne ich fest damit, dass die karte wieder an der kotzgrenze betrieben wird, um entsprechend mit der ti mitzuhalten. Aber dank wakü interessiert mich die tdp eh nicht. Hauptsache p/l passt.
Vielleicht weil AMD uns immer hingehalten hat? Kommt bald, kommt bald? Wieso soll man das dann noch honorieren, wenn man dann noch den selben Preis verlangt, wie der Konkurrent für ein "altes" Modell?
 
Zuletzt bearbeitet:
Wieso die leistungsregion der aktuellen Topkarte plötzlich nicht mehr genug für die vega sein soll, erschliesst sich mir nicht wirklich. Klar, da hätte man sich auch gleich die ti kaufen können, aber aus irgendeinem grund hat man ja gewartet, wenn man gewartet hat.

Die gibst dir doch selbst die Antwort -> du hättest gleich ne TI kaufen können. Warum hat man also gewartet? -> möglicherweise weil die Ankündigung zu 4096 ALUs mit 1600MHz 13+ TFLop/sec macht, samt der Ankündigungen zur neuen Architektur, dem super dollen HBM, HBCC usw. usf. Bis dato galt halt, das dauert einfach alles ca ein Jahr mehr als GP102 den Markt erreicht hat, wenn es dann aber nicht reicht!? Abwarten...
Das was NV mit der TXp "abzieht", also erstmal ultra hochpreisige Modelle raushauen, zeigt doch, dass da überhaupt keine Not vorhanden ist. Technisch gesehen hätte eine 1080TI schon Mitte 2016 kommen können. Der Chip ist 1:1 der gleiche. AMD hat aber einfach nix im Moment -> und alle Welt hofft auch Vega. Nicht nur das Modell RX Vega, sondern primär die Architektur. Denn damit entscheidet sich für die nächsten Jahre, wie sich AMD im GPU Markt platzieren kann... Sprich ob sie weiter hinterher hinken oder ob es mal wieder ein Duell auf Augenhöhe gibt. Mit der ersten GCN GPU aka Tahiti war AMD näher dran an NV als jemals zu vor in der Geschichte. Und nun, nur 4 Jahre später sind sie weiter weg als jemals zu vor. Klar erkennbar ist dabei wohl, die Designtechnischen Entscheidungen haben sehr lange Gewicht. 4 Jahre sind eine Ewigkeit. Man baut erst seit 11 Jahren GPUs bei AMD :wink:

Kurzum, wer sich also nicht wünscht, dass Vega hier wirklich zeigt, wo der Frosch die Locken hat, der hat da irgendwie eine komische Vorstellung... Und der Wunsch nach P/L und niedrige Preise ist eins der Probleme, warum AMD permanent kein Geld hat -> es will vom Markt keiner das Produkt bezahlen. Immer nur billig und noch billiger geht nicht auf Dauer!
 
Der Gegner dieser Version dürfte doch viel eher die Quadro/Tesla mit GP100 sein... Und was steht da auf der TDP Uhr!? :wink:
Beim Gamermodell gehe ich von 250-275W aus. Mal gucken, was es am Ende wird. Wunder sollte man so oder so nicht erwarten...
Wieso sollte die gamerkarte 100W weniger ziehen? Soweit bekannt gibt es bei vega nicht zwei modelle aka eins vollaktiviert für business und eine mit deaktiviertem DP etc zeug.

Die gpus werden nach aktueller info identisch sein in der consumerversion.

Sent from OP3T
 
Wieso die leistungsregion der aktuellen Topkarte plötzlich nicht mehr genug für die vega sein soll, erschliesst sich mir nicht wirklich. Klar, da hätte man sich auch gleich die ti kaufen können, aber aus irgendeinem grund hat man ja gewartet, wenn man gewartet hat.
Stromverbrauch habe ich schon eher hoch erwartet, alleine schon weil amd in der näheren vergangenheit nicht gerade sparsam unterwegs war.
Ausserdem rechne ich fest damit, dass die karte wieder an der kotzgrenze betrieben wird, um entsprechend mit der ti mitzuhalten. Aber dank wakü interessiert mich die tdp eh nicht. Hauptsache p/l passt.

Ganz einfach, Volta ist um die Ecke und wird wieder einen drauf setzen. Wenn ich mit nem 1440p und 100 Hz unterwegs bin, brauch ich quasi jedes Frame. Ich sagte ja, Vega = zu spät, zu wenig.

Mir erschliesst sich wiederum nicht warum man ne teure WaKü betreibt aber dann auf P/L pocht.
 



Nein, ich hab mir die antwort nicht selbst gegeben. Denn die die damals einfach die leistung wollten, haben zugegriffen. Die die noch warteten, hatten einen grund, sei es technischer oder persönlicher natur. Und der grund ist ja wohl immernoch gegeben. Falls nicht, los gehen und ne ti kaufen. Aber nicht rumheulen, dass die leistungsspitze plötzlich nicht mehr genug sei... -.-

Zumal ein halbes jahr verspätung (im vergleich zur konkurrenz) im grakasektor ja nicht wirklich eine premiere ist.



Klar hoffe ich auf ne tolle karte, aber da auch amd nicht zaubern kann, erwarte ich keine karte die ne ti zersägt, oder irgendwelche frösche frisiert, sondern eine die wieder im highend mitmischen kann.



Und wieso fängst du wieder mit "billiger" an?

Hab nichts dergleichen erwähnt. Aber preisleistung muss stimmen, was nunmal absolut nichts mit geiz ist geil zu tun hat...



Bitte unterstell mir nicht irgendwelche aussagen.
 
Zuletzt bearbeitet:
Ganz einfach, Volta ist um die Ecke und wird wieder einen drauf setzen. Wenn ich mit nem 1440p und 100 Hz unterwegs bin, brauch ich quasi jedes Frame. Ich sagte ja, Vega = zu spät, zu wenig.

Mir erschliesst sich wiederum nicht warum man ne teure WaKü betreibt aber dann auf P/L pocht.


Toll, volta ist um die ecke.
Klar, das dürfte so sein. Aber wann war denn die nächste generation schon mal nicht absehbar und hat ne aktuelle kaufentscheidung evtl. Beeinflusst? Das ist immer so.

Ja vega ist spät. Verglichen mit den ersten geil-mach-häppchen sogar verdammt spät, aber jetzt mit irgendwelchen unrealistischen leistungsanforderungen kommen, nur um dann zu sagen, amd bringt die leistung nicht, ist imo falsch. Amd muss jetzt genau nur eines machen und das ist zu NV aufschliessen, um wieder im highend mitzumischen.

Und wieso solm ich mit einer wakü nicht aufs p/l achten?
Wie schon geschrieben, p/l hat mal genau garnichts mit billig zu tun.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh