USB-zu-HDMI-Adapter: Ausgabe der GPU in CPU onboard über USB? Oder wozu dienen sie?

Tobias Claren

Enthusiast
Thread Starter
Mitglied seit
26.01.2004
Beiträge
293
Ort
Erftstadt
Hallo.

Es gibt USB-zu-HDMI-Adapter.
Ist es damit möglich die Onboard-Grafik bei Geräten die nur einen VGA-Port haben als HDMI auszugeben?
Z.B. wenn eine G1610T CPU drin ist. Oder G2020T oder E3-1220L v2.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo.

Es gibt USB-zu-HDMI-Adapter.
Ist es damit möglich die Onboard-Grafik bei Geräten die nur einen VGA-Port haben als HDMI auszugeben?
Z.B. wenn eine G1610T CPU drin ist. Oder G2020T oder E3-1220L v2.
USB-auf-HDMI Verbindungen kommen typischerweise in zwei Fällen zum Einsatz: Entweder verfügt dein Laptop oder PC über keinen anderen Multimediaausgang, oder aber dieser ist bereits belegt und du möchtet eine weitere Ausgabemöglichkeit ergänzen
 
Ja, darum geht es ja.
Aber eben nicht an einem Notebook.
Z.B. für einen HPE Microserver N54L oder Gen. 8.
Diese Adapter sind ja keine USB-Grafikkarten mit eigener GPU, sondern müssen intern auf eine GPU zugreifen.
Beim Gen. 8 wäre da z.B. die Frage (außer ob es überhaupt funktioniert), ob der auf die Matrox G200 (evtl. irre ich mich, aber ist die nicht viel älter als so ein Gen.8 selbst?) zugreift, oder auf die GPU in der wechselbaren CPU.
 
Hab noch nie gehört, dass per USB Typ A irgendwas an Video ausgegeben werden kann, das wäre wenn dann eine proprietäre Lösung des PC/Mainboard-Herstellers wo man vmtl einen speziellen Adapter des Herstellers braucht.
Video über USB geht nur über USB-C mit Alternate Mode, wo dann ein DisplayPort-Signal herauskommt (HDMI-Adapter haben dann entsprechend einen aktiven Wandlerchip)
 
Die Teile scheinen ja nicht ganz passiv zu sein, aber eben auch keine eigene GPU zu haben.
USB-Grafikkarten sind ja nicht besonderes. Aber doch größer.
 
Zuletzt bearbeitet:
Die Chips sind richtig winzig, ich hatte mal in der Hoffnung, dass meine Grafikkarte ein "DisplayPort+"-Anschluss hat, über den sie ihr HDMI 2.1-Signal ausgeben könnte, wenn ich nur einen passiven Adapter anschließe, einen solchen Adapter für 5€ gekauft bei eBay, es ging nicht mal 4K damit, mehr als 1080p ging nicht. Stellte sich heraus, das auch hier in so einem kleinen Adapter ein Wandlerchip wieder steckt.

Hast du mal ein Beispiel? https://www.ebay.de/itm/314493979305

Sind in meinen Augen alles USB-Grafikkarten, der Chip muss da ja nicht viel können und ist bewährte Massenware.
 
Es ist so. Kannst so ein Ding ja kaufen und ausprobieren.
Der USB-Standard sieht keine Videoausgabe vor bis eben auf den USB-C Alternate Mode.

Die Dinger werden nur nicht als Grafikkarte vermarktet weil das die Kundschaft wohl verwirren würde. Die wollen halt nur ihren HDMI-Monitor an den USB-Anschluss anschließen und das geht mit diesen Grafikkarten ja.
 
"Der USB-Standard sieht keine Videoausgabe vor bis eben auf den USB-C Alternate Mode."

Das war auch nicht der Gedanke.
Mein Gedanke war es, dass die Videoausgabe nicht direkt über den USB-Port ausgegeben wird, sondern Daten von einem Chip (keine GPU) in einem "Adapter" dann in digitale Videodaten gewandelt würden.
Aber die Arbeit liefe auf der GPU im Rechner.
Ähnlich Streaming, aber intern.

Das sähe man wohl im Gerätemanager.
Ist da eine weitere Grafikkarte, ist es eine eigene GPU.
 
Zuletzt bearbeitet:







Gibts natürlich und schon sehr lange mit DisplayLink Chip und wird absolut falsch oft als "USB-Grafikkarte" bezeichnet!

In Wahrheit werden die Videodaten da mit dem DisplayLink Treiber stark komprimiert per USB zum DisplayLink Chip in Adapter/Dock geschickt und von dem entpackt und zum Monitor geschickt und das hat schon erhebliche Nachteile besonders beim Zocken.

Ist ne alte Technologie, die durch den sowas von besseren USB C Alt Modus schon fast tot ist und da gibts definitiv nix anderes...
 
Zuletzt bearbeitet:
Wieso soll das falsch sein?
Das Teil erscheint im Geräte manager als Grafikkarte und ist auch genau das, es bekommt die Grafikbefehle vom Prozessor und rendert daraus ein Bild.
Dass die interne Grafikkarte das entsprechende Programm vorher gerendert hat oder nicht ist eigentlich unerheblich, es ist und bleibt eine vollwertige Grafikkarte und würde auch ganz ohne Onboard Grafik funktionieren
 
Sowas von falsch und du hast keinen blassen Schimmer von dem was da passiert!


Wenn ist da der DisplayLink Treiber absolut allein die immer virtuelle GPU!

Den großen Unterschied zwischen virtuell und real kaue Ich dir definitiv nicht vor.

"bleibt eine vollwertige Grafikkarte und würde auch ganz ohne Onboard Grafik funktionieren"

Ist sowas von falsch und definitiv auf AfD oder Trump Niveau...

Da wird absolut immer ne GPU emuliert und auf der englischen WiKi Seite ist das genau erklärt!

Ohne die onboard Grafik läuft da absolut nix und das ist so sicher wie das Amen in der Kirche!

Und wem man noch sagen muß das dazu immer ne reale GPU vorhanden sein muß...

Und "dein" Schrottbay Adapter aus China dürfte bei dem Preis never ever nen DisplayLink Chip besitzen!!!

Es gibt oder gab 1-2 Konkurrenten von DisplayLink in China mit absolut grottenschlechten Treibern und Chips!

Mindestens die Gefahr sich da absoluten Müll einzukaufen ist absolut immer hoch und bei den Billigteilen geben die Chinesen niemals an welcher Chip sich da drin verbirgt.

"But no matter which device you're using, the underlying process is the same:

  1. Encoding video on the host system
  2. Sending data
  3. Decoding data on the USB device"
"The first step of the process, encoding, happens in two stages. First, static video information is stripped from the signal. The idea there is to reduce the amount of data the system sends because transmitting more information costs energy, processing overhead, and precious bandwidth. Then, the video is actually encoded. In practice, DisplayLink divides the screen into sections and only encodes the video data for the sections that change. As a result, moving your mouse across the screen requires far less processing than watching full-screen video.

All of the encoding is done on the host (it's not offloaded to DisplayLink's logic). So, the workload is always the same on every DisplayLink-based device. The only factors that affect the processor workload are resolution and the on-screen activity.

Once the video data is stripped and encoded, it’s sent over USB to the DisplayLink device. This is where the company's hardware decompresses the stream and outputs a standard VGA/DVI signal. According to DisplayLink, all of the technology on the decode side is homegrown, which is another component of the secret sauce the company won't discuss any further."


Das sollte eigentlich jeder kapieren und ist da immer so...

P.S.



Außerdem wird da die CPU beim "Encoding video on the host system" natürlich immer sehr stark belastet (wenn ne lahme iGPU am Werk ist) und seine CPUs sind sehr lahm und alt und zwar bei der CPU und der iGPU!

Wobei der E3-1220L v2 natürlich keine iGPU hat.

=> das ist allgemein da ne Schnappsidee bei CPUs, die Ich aus guten Gründen schon vor langem der Tonne übergeben hätte.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh