schapy
Urgestein
wir haben noch genug fullHD TFTs in der Firma im Einsatz ohne DVI nur mit VGA im Einsatz - so abwegig ist das wirklich nicht ....
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Und wobei stört es dich?
Das klappt? Ok dann wäre ein Kritikpunkt weg. Außer das ich dann halt ein neues Kabel holen muss.
Was ist das denn für ein Monitor? Grundsätzlich, wenn der DVI-Eingang am Monitor 1080p/120Hz entgegen nehmen kann, dann klappt das auch mit einen passiven DVI zu HDMI-Adapter/Kabel, da bei beiden mit dem gleichen TMDS-Signal gearbeitet wird. DVI ist von der technischen Seite her HDMI nur ohne Ton. Um das Signal passiv übertragen zu können, muss der HDMI-Ausgang der Grafikkarte aber mindestens dem HDMI 2.0 Standard entsprechen, da nur ab diesen erst die nötige Bandbreite für 1080p/120Hz ausgegeben werden kann. Einen aktiven Adapter bräuchte es nur wenn die Grafikkarte HDMI 1.4a/b oder darunter ausgeben kann. Da das Referenzdesign von Vega mindestens über 1 HDMI-Ausgang nach HDMI 2.0 oder höher verfügen wird, sollte somit auch sein Monitor über ein passive(s) DVI zu HDMI-Adaper/Kabel laufen.
Und sofern dein Monitor echte 120Hz bei 1080p über den DVI-Eingang entgegen nehmen kann, sollte der Grafikkartentreiber auch schlau genug sein um die hinterlegten EDID-Daten korrekt auszulesen und dir dann eine entsprechende Auswahloption für 1080p/120Hz anbieten.
Oh wie schlimm. Beschwerst du dich über Hdmi und mehr als 2xDP?Platzverschwendung (Lüfterschlitze,..)
Doch die werden schon stimmen, aber die FE ist ja auch ne Workstation Karte.100 Prozentig würde ich dies nicht für die Finalen Preise deuten, aber gut möglich
Wenn der Ausgang nicht mindestens die Bandbreite für das auszugebende Format bereitstellen kann, dann gibt es Einschränkungen. HDMI 1.4 bietet z.B. nicht genug Bandbreite für 1080p/120Hz. Alles was ein Konverter dann leisten kann ist das Bild auf das Zielformat hochzuskalieren, was mit Qualitätseinbußen einhergeht. Wenn über HDMI 1.4 z.B. 1080p/60Hz ausgegeben werden dann skaliert der Konverter das Bild i.d.R. auf 1080p/120Hz hoch indem er jeden einzelnen Frame doppelt anzeigt. Das ist dann aber kein "echtes" 1080p mit 120Hz.
hmm trotz neuer kleinerer Architektur und mit kolportiert geringeren Taktraten als Consumer Vega (oder gilt das nur für die MI Ableger ? ) 300 und 375 Watt das wäre schon ein bisschen ein Schlag ins Gesicht für mich - mir ist es zwar grundsätzlich egal solange es gut und leise gekühlt wird - aber das wäre ja schon min gleichviel wie meine Fury als Riesenchip in 28NM verbraten hat und die war nun wahrlich kein Kostverächter
Was mir eher Sorgen bereitet sind die 300 bzw 375W TDP.
Denn wenn die wirklich so viel Saft zieht, muss sie entweder auch brutal viel schneller sein als ne TXP, sonst kommt sie nicht wirklich für mich in Frage. Vor allem will ich sehen wie die 300W mit nem dualslot blower kühlen...
Vielleicht weil AMD uns immer hingehalten hat? Kommt bald, kommt bald? Wieso soll man das dann noch honorieren, wenn man dann noch den selben Preis verlangt, wie der Konkurrent für ein "altes" Modell?Wieso die leistungsregion der aktuellen Topkarte plötzlich nicht mehr genug für die vega sein soll, erschliesst sich mir nicht wirklich. Klar, da hätte man sich auch gleich die ti kaufen können, aber aus irgendeinem grund hat man ja gewartet, wenn man gewartet hat.
Stromverbrauch habe ich schon eher hoch erwartet, alleine schon weil amd in der näheren vergangenheit nicht gerade sparsam unterwegs war.
Ausserdem rechne ich fest damit, dass die karte wieder an der kotzgrenze betrieben wird, um entsprechend mit der ti mitzuhalten. Aber dank wakü interessiert mich die tdp eh nicht. Hauptsache p/l passt.
Wieso die leistungsregion der aktuellen Topkarte plötzlich nicht mehr genug für die vega sein soll, erschliesst sich mir nicht wirklich. Klar, da hätte man sich auch gleich die ti kaufen können, aber aus irgendeinem grund hat man ja gewartet, wenn man gewartet hat.
Wieso sollte die gamerkarte 100W weniger ziehen? Soweit bekannt gibt es bei vega nicht zwei modelle aka eins vollaktiviert für business und eine mit deaktiviertem DP etc zeug.Der Gegner dieser Version dürfte doch viel eher die Quadro/Tesla mit GP100 sein... Und was steht da auf der TDP Uhr!?
Beim Gamermodell gehe ich von 250-275W aus. Mal gucken, was es am Ende wird. Wunder sollte man so oder so nicht erwarten...
Wieso die leistungsregion der aktuellen Topkarte plötzlich nicht mehr genug für die vega sein soll, erschliesst sich mir nicht wirklich. Klar, da hätte man sich auch gleich die ti kaufen können, aber aus irgendeinem grund hat man ja gewartet, wenn man gewartet hat.
Stromverbrauch habe ich schon eher hoch erwartet, alleine schon weil amd in der näheren vergangenheit nicht gerade sparsam unterwegs war.
Ausserdem rechne ich fest damit, dass die karte wieder an der kotzgrenze betrieben wird, um entsprechend mit der ti mitzuhalten. Aber dank wakü interessiert mich die tdp eh nicht. Hauptsache p/l passt.
wall of text!
Ganz einfach, Volta ist um die Ecke und wird wieder einen drauf setzen. Wenn ich mit nem 1440p und 100 Hz unterwegs bin, brauch ich quasi jedes Frame. Ich sagte ja, Vega = zu spät, zu wenig.
Mir erschliesst sich wiederum nicht warum man ne teure WaKü betreibt aber dann auf P/L pocht.