Suche: 32zoll, 1440p, Gsync, 100hrz+

Sckies

Neuling
Thread Starter
Mitglied seit
01.12.2014
Beiträge
31
hi,
Hab jetzt vor Monat gesucht und nur 1-2 modele gefunden gehabt. (aoc,samsung)
Jetzt Monat später versuche ich nochmal mit euch :)

Suche:
- 32zoll (auch 31.5....)
- 1440p (WQHD)
- Gsync
- 100hrz+
- 10bit

was ich gern ma ausprobieren wurde ist.
- Flicker Free

Was nicht gut wäre
- kurve
- keine 4 Punkt Halterung Möglichkeit

Bin ich vielleicht noch zu früh mit der suche?
Hat wer Infos was nächsten Monat kommt in die Richtung?

Danke schon ma.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mh, also wenn ich in den Preisvergleichern „ab 30“ + WQHD + G-Sync“ filtere, dann erhalte ich einen Acer und einen LG, aber nix von AOC und Samsung.
Ansonsten: Wenn man im Preisvergleicher gleichmal 5!! Filter setzt (bei Dir Größe+Auflösung+bevorzugte Sync-Technik+Hertz+Farbtiefe), dann bleibt meist nix übrig, erst Recht nicht, wenn man sowas (heute noch) exotisches wie 10Bit einsetzt. Allein mit dem weiteren Filter G-Sync bleibt nur 1 Modell übrig, welcher aber mit UHD und 60Hz wohl weit von Deinem Gaming-Traum entfernt ist.
Frage: Was ist eine 4 Punkt Halterung Möglichkeit?
 
Bin ebenfalls auf der suche nach einem 32" 1440p, 144hz Monitor. Am besten gefällt mir momentan der Asus XG32VQ. Manko dort ist allerdings: Kein GSync.
Aber ich glaube, damit könnte ich leben.
 
Wir müssen noch warten, ich tippe auf Herbst 2018 - dann sollten genug 10bit, HDR, 100Hz und IPS mit Gsync in 4K am Start sein.
 
@joepc: werde den im Auge behalten. Kannte den noch nicht.

@fullHDade: ja recht hast du Gaming + 10 bit passt nicht(Hoffnung war da :) @4punk.VESA 75 100 glaub so heist es richtig.
der von samsung = Curved Monitor C32HG70 (32“) von den Daten ein Traum... aber halt freesync und kurve für mich leider nichts..

@Trisches: leider auch ein kurve.. ist bei mir nogo :) (vielleicht hat ja wer erfahrung in 3er verbund und kurve geht sowas ???

@Dozer3000: ja das es noch länger dauert dachte ich auch.. aber will ja kein 4k, da war die Hoffnung das vor Wachnachten die monitore in 1440p kommen :)

danke euch
 
Also ich suche gerade nach einem curved :d
Ich habe noch diesen hier gefunden: Acer Predator Z321QU
Aber der fällt dann auch raus.
 
ja recht hast du Gaming + 10 bit passt nicht…
Doch doch, das ‚passt‘ schon.
Dieses ‚10Bit‘ ist nämlich Bestandteil von HDR=High Dynamic Range.
Aber das ist ein weites Feld und derzeit basteln etliche Unternehmen an (untereinander inkompatiblen) Verfahren herum, um mit mehr oder weniger ‚echtem 10Bit‘ das HDR-Erlebnis in die Multimedia- und Gaming-Welten zu tranprtieren.
Leider ist es aber per Ende 2017 mit ‚ich mach mal ein Häckchen bei 10bit‘ nicht getan, um sich ‚tolle-bunte-HDR-Bilder‘ ins Haus zu holen.

ja das es noch länger dauert dachte ich auch…
Dozer bezieht sich auf einen anderen Punkt, nämlich dass es für UHD mit nennenswert über 60Hz den DP1.4-Standard braucht, welcher sich in 2018 verstärkt bei Monis und GraKas verbreiten wird.
Aber Deine Anforderung: WQHD+G-Sync+100/144Hz wird schon seit Jahren angeboten:
LCD-Monitore mit Auflsung: 2560x1440 (WQHD), Bildwiederholfrequenz: ab 144Hz, Variable Synchronisierung: NVIDIA G-Sync | heise online Preisvergleich / Deutschland
nur halt nicht so so sehr in der von Dir gewünschten Größe:
LCD-Monitore mit Diagonale ab 30sung: 2560x1440 (WQHD), Bildwiederholfrequenz: ab 144Hz, Variable Synchronisierung: NVIDIA G-Sync | heise online Preisvergleich / Deutschland
Das mit dem HDR ist noch im Kommen, aber das betrifft alle!! Monitor-/Fernseher-Varianten.
Im TV-Sektor sind per Roadmap HDR und ‚4k‘ fest miteinander verbandelt (HDMI-Protokolle) und beides wird aufeinander abgestimmt entwickelt.
Da WQHD bei Fernsehern keine Rolle spielt, ist davon auszugehen, dass HDR im Monitor-Bereich vorrangig in UHD(=‘4k‘)-Monis reinkommt.
Du bist also nicht ‚zu früh‘ oder ‚zu spät‘ , sondern schlicht ein Kunde, der sich zwar was aus dem technisch Möglichen zusammenstellt, was aber in dieser Kombination nicht angeboten wird.
 
Zuletzt bearbeitet:
@fullHDade "" Du bist also nicht ‚zu früh‘ oder ‚zu spät‘ , sondern schlicht ein Kunde, der sich zwar was aus dem technisch Möglichen zusammenstellt, was aber in dieser Kombination nicht angeboten wird. ""

das macht mich ja noch trauriger ^^

danke :)
 
Ich würde es in "einer der Kunden" ändern, da ich ja auch sowas suche. Vielleicht taugt ja der kommende LG was.
 
Ich würde es in "einer der Kunden" ändern, da ich ja auch sowas suche.
Jau, etwas in die Richtung hatte ich bereits (offline) formuliert, aber ich habe mich dabei leider ein wenig verstiegen, dies so ziemlich jedem HW-Luxx-Fragesteller zu unterstellen, drum habe ich es lieber neutral umformuliert.

@Sckies: Geh doch mal in eine beliebige Suchmaschine für Monitore, z.B.:
LCD-Monitore | heise online Preisvergleich / Deutschland
per 27.12.2017 sind dort 1.727, sie nennen es, Artikel gelistet.
Angeboten werden insgesamt 73 Filter-Optionen.
Man kann sich aber auch eine reduzierte Filterauswahl anzeigen lassen.
Wenn Du nun an 5 beliebigen Filter-Einträgen (vielleicht jetzt nicht die allerexotischen oder sich gegenseitig ausschliessenden Filter verwenden) was auswählst, ist das Ergebniss sehr wahrscheinlich: 0

Drum also sich ‚ausdenken‘ was einem so taugen mag, weil es wohl zu seinen Gaming-Welten passen könnte, ist wenig zielführend.
Also:
1.) Was ist der Haupteinsatzzweck des Monis?
2.) ist es was mit gamen, haben die Moni-Hersteller jede Menge Zeuch dazu anzubieten.
3.) alle paar Monate kommen neue Features (oder irgendeine Folge-Version) auf den Markt. Also egal was Du heute als tauglich fürs aktuelle Game wähnst, es ist morgen schon veraltet.
4.) Frag doch mal in den Foren Deiner bevorzugten Anwendungen/Games oder was auch immer nach , was die da so ‚nehmen‘.
(Uns erzählst Du es ja nicht.)
 
Zuletzt bearbeitet:
Ich erzähle es mal aus meiner Sicht, ich hoffe ich darf in diesem Thread, falls nicht, bitte Info!

- ca. 32" um Monitorgöße mit größerem Sehabstand kombinieren zu können. Noch etwas größer wäre auch ok, aber 40" wäre zu mächtig.
- Aktuell: Ein Eizo SW2431 auf ca. 80cm, würde mit dem 32" auf min. 90cm gehen wollen (halte ich für besser für die Augen bei entsprechender Skalierung).
- Auflösung 2560x1440, da alles drunter zu "grob" und 4K derzeit vom Kabel her nicht über 60Hz geht (Hauptgrund) und auch die derzeitigen Graka ordentlich dran zu kauen haben. Vernünftig (Stromverbrauch und Temperaturentwicklung) wird das vermutlich erst die übernächste Generation können. Gut, man könnte runterskalieren...
- G-Sync, da Nvidia + min 100Hz, da Shooter eine wichtige Anwendung sind. Ansonsten universeller Einsatz des PC (Programmieren, Fotobearbeitung, Office, Internet,...) und Strategiespiele. Freesync fällt weg, da ich eine AMD-Karte bräuchte und die hinsichtlich Stromverbrauch/Wärmeentwicklung erheblich schlechter als Nvidia sind. G-Sync + die Monitorgröße ist halt die tödliche Kombi. Gibt's derzeit kaum.
- 21:9 fällt weg ("Sehschlitz"), komme von 16:10.
 
21:9 fällt weg ("Sehschlitz"), komme von 16:10.
Dito

Jetzt verstehe ich auch Deine Bemerkung in #11
Vielleicht taugt ja der kommende LG was.
Ich hatte bei meiner eiligen Preisvergleicher-Suche (zu meinem Post #3) glatt übersehen, dass der LG Electronics 32GK850G noch garnicht verfügbar ist.
(Und der Acer Predator Z321QU ein dusseliges ‚curved‘-Modell ist. Also doch wiedereinmal: Nichts, was es nicht gibt…)

Ich war ja der Meinung, dass es WQHD@144Hz + Free-/G-Sync wie Sand am Meer gibt. Aber schon mit der Wahl ‚WQHD+G-Sync‘ wird die Auswahl bereits recht übersichtlich (3x 24“ , 11x 27“ , 2x 32“).
Die beiden 32“-Modelle, also der genannte LG und der Acer Predator Z321QU…, sind flammneu auf dem Markt (bzw. der LG noch garnicht verfügbar).

Aber wie sich zeigt, ist WQHD auf 31,5/32“ durchaus verbreitet:
LCD-Monitore mit Diagonale ab 30sung: 2560x1440 (WQHD) | heise online Preisvergleich / Deutschland
Dieses ersetzt wohl das gute alte WQXGA (2.560x1.600) auf 30“ in 16:10. (Was einst ein schweineteuer Büro-Koloss war und neu sind sie auch heute immernoch unanständig teuer.)
Und als ausgesprochener Büromoni wird WQHD@31,5/32“ eher selten für den Gaming-Sektor aufgebretzelt (->Sync/144Hz und Panel-Reaktionszeiten.)
Aber das haben sich die Hersteller bestimmt gut überlegt, denn 32“ sind gerade bei Reaktionsspielen nur noch schwer zu überblicken.
Naja, WQXGA / WQHD ist nicht mehr meine Baustelle, seit ich UHD in 32“ / 40“ und 42“ verwende (bin Nicht-Gamer).
 
Zuletzt bearbeitet:
Erstmal: Genau so einen Monitor suche ich ebenfalls. Für 2018 sieht es durch die Anzahl der 31.5 bzw 32 Zoll ja vielversprechend aus, wobei ich 32 Zoll wegen 16:9 bevorzugen würde. Mehr Höhe ist praktischer beim Surfen.

Wegen HDR & Co muss ich aber reingrätschen. HDR ist ein Standard, der fürs Heimkino und damit HDMI 2.0 geschaffen wurde und wenn ein Gamer eines nicht gebrauchen kann, dann HDMI.

Oder wie soll man da bitte 10 Bit, WQHD, 144 Hz mit 4:4:4 Farbabtastung übertragen? HDMI schafft bei UHD in der Konfiguration gerade mal 30 Hz, und WQHD sollte demnach mit max 60 Hz laufen, wenn man die Bandbreite vergleicht.

Und HDR, Dolby Vision usw sind alle nur fürs Heimkino gedacht und damit auf 4:2:0 Farbabtastung beschränkt.

Der Monitor sollte natürlich trotzdem 10 Bit (oder mehr) haben, es hat nur eben nichts mit den minderwertigen Heimkino-Standards zu tun. Lasst euch davon also nicht blenden.

P.S. wer einen UHD Monitor mit HDMI nutzt, der macht was falsch.
 
Zuletzt bearbeitet:
Wegen HDR & Co muss ich aber reingrätschen. HDR ist ein Standard, der fürs Heimkino und damit HDMI 2.0 geschaffen wurde…
Um da ebenfalls mal gleich reinzugrätschen:
HDR kommt aus der Fotografie.
Grundsätzlich ist HDR nur eine Ansammlung von Formeln zur Bestimmung von Farb- und Helligkeitsmerkmalen bei der Datei-Kodierung von digitalen Bildinhalten.
Es sind (Software-)Verfahren, um die Bandbreite in der Leuchtdichte über die Grenzen der 8Bit-Technologie (256Helligkeitsstufen pro Farbkanal) zu erweitern.
HDR hat also mit HDMI nix zu tun.
High Dynamic Range Image – Wikipedia

…und wenn ein Gamer eines nicht gebrauchen kann, dann HDMI.
Dem muss ich ebenfalls widersprechen.
Es sind nämlich ausgerechnet die Gamer, die in ‚HDR‘ durch ihre Spielewelten phantasieren wollen.

Aber derzeit dient das ganze gehypte HDR-Gedöns bei Monitoren/TV-Sets eigentlich nur dazu, die Datenblätter und Umverpackungen mit einem weiteren ‚Phantasie‘-Logo zieren zu können.
Der Endkunde soll es halt nur mit ‚is irgendwie bunter‘ assozieren, um ihm einen Kaufreiz zu bieten seinen Multimedia- oder Gaming-Fuhrpark aufzurüsten.
Was tatsächlich technisch dahintersteckt, und wie die verschiedenen Hersteller ihre HDR-Blendgranaten zusammenmurksen, soll ja garnicht kommuniziert werden.

HDR10 wird fest an UHD/4k gekoppelt, damit es schön in den hochpreisigen TV-Geräten bleibt (und die UHD<->HDR-Connection wird wohl auch bei Monis im Vordergrund stehen). Allerdings geht HDMI2.0 bereits bei ‚4k‘ ziemlich die Puste aus, drum muss HDMI2.1 die Sache richten. Da HDR ordentlich Bandbreite benötigt, bedarf es übertragungsbandbreiten-schonender Verfahren. Und genau da wird für den schmalbrüstigen HDMI-Murks getrickst, dass es quietscht.
In der Folge versuchen mehrere Konzerne (im Verbund mit der Filmindustrie) ihre Eigenentwicklungen zu einen ‚Quasi-Standard‘ zu etablieren (ganz so wie bei der Videokassette, der CD, der DVD und der Blueray).

wer einen UHD Monitor mit HDMI nutzt, der macht was falsch.
Da bin ich ganz bei Dir. Dies gilt übrigens für jeden Moni.
Drum hofft/wartet der PC-User ungeduldig auf die Verbreitung von DisplayPort in der Version 1.4, kurz DP1.4 (die Version DP1.3 wird wohl übersprungen).
Allerdings ist zu vermuten, dass sich die HDR-Standards nach dem erheblich lukrativeren TV-Markt richten werden, wo in der Tat HDMI den Takt angibt.

Der Monitor sollte natürlich trotzdem 10 Bit (oder mehr) haben, es hat nur eben nichts mit den minderwertigen Heimkino-Standards zu tun. Lasst euch davon also nicht blenden.
Eben, ein 10Bit-Moni sagt nix über dessen HDR-Fähigkleiten aus.
Denn es ist das Bildmaterial und die möglichen Ressourcen in der Bildsignalbandbreite, um HDR-Inhalte zu übertragen. Aber wenn die Moni-Elektronik nicht genau für diese ‚HDR-Sprache‘ ausgelegt ist, ist egal wieviel Bit das Panel hat.
 
Zuletzt bearbeitet:
HDR10 und Dolby Vision ist nicht nur einfach bunter. Um das zu erreichen muss der TV ein hohes Kontrastverhältnis haben. Dadurch hat man also ein gewisses Siegel, dass der TV allgemein besser ist als andere. So falsch finde ich das daher nicht. Alleine dadurch kommen nämlich mehr TVs mit Local Dimming auf den Markt. Aber klar. Schlussendlich soll es die Verkäufe ankurbeln ;)

Und der HDR10 Standard hat schon was mit HDMI und natürlich auch BluRays zu tun. Beide können keine hohe Farbabtastung mangels Bandbreite und Speicherplatz. Ich meinte jetzt nicht HDR im Allgemeinen damit, sondern das Siegel und dessen Voraussetzungen.
 
Zuletzt bearbeitet:
Dadurch hat man also ein gewisses Siegel, dass der TV allgemein besser ist als andere.
Naja, ‚irgendwie besser….‘
Jeder Hersteller steckt seine neue Technikentwicklung immer zuerst ins Spitzenmodell seiner Produktpalette, das war nie anders, egal ob Automarke, Haushaltsgerät oder Multimedia-Device.
Und die Premium-Ware gibt es vor allem nur zum Premium-Preis.

Ich habe ja nur Deine Ausführungen von HDMI in Bezug zu HDR aufgegriffen.
Klar, dass auch das Panel dazu geeignet sein muss, keine Frage.

----

Bezüglich HDR10+ vs. Dolby Vision war letztens ein interessanter Bericht in der c’t:
Wende im Streit zwischen HDR10+ und Dolby Vision | c't Magazin
 
Zuletzt bearbeitet:
Also kann ich aus der Diskussion mitnehmen, dass HDR fähige Monitore momentan noch nichts taugen und ich mit der Neuanschaffung besser noch warten sollte? xD
2K, >27" und HDR wäre nämlich auch so ein Wunschmonitor von mir ^^
 
aber wenn ein Sternenhimmel kommt sind die Zonen zu groß und man lässt entweder die Sterne hell wodurch das schwarz nur dunkelgrau ist oder man dimmt etwas wodurch das schwarz dunkler wird aber dann verlieren auch die Sterne an Helligkeit.
Oder Du gehst abends einfach mal vor die Tür und schaust Dir die echten Sterne an.
->Vollendgeil HDR, null Lag (naja, vielleicht ein paar Millionen Jahre, bis das Sternenlicht in Deiner Netzhaut ankommt), kein Tearing, keine Mikroruckler, kein schlieren (nur halt die Milchstraße selber) und absolut keine!!! Bewegungsunschärfe.
 
Bis OLED Monitore sich durchsetzen und erschwinglich sind, wird das wohl noch ein Weilchen länger dauern -_-'
 
Oder Du gehst abends einfach mal vor die Tür und schaust Dir die echten Sterne an.
->Vollendgeil HDR, null Lag (naja, vielleicht ein paar Millionen Jahre, bis das Sternenlicht in Deiner Netzhaut ankommt), kein Tearing, keine Mikroruckler, kein schlieren (nur halt die Milchstraße selber) und absolut keine!!! Bewegungsunschärfe.
Dafür hat man ne Rotverschiebung... :fresse:
 
Na gut, ihr habt mich überzeugt, dann hol‘ ich mir eben diesen LG OLED 65C6D für den Sternenhimmel.:haha:
Frage: hat der einen DVB-T2-Tuner, denn neben meiner Dinner-For-One-DVD (in Farbe!), verfolge ich nämlich gerne die Bundestagsdedatten auf phoenix.

Wobei…, ich hab‘ da jetz‘ nochmal ‚drüber nachgedacht.:hmm:
Wenn man da draußen so in den Nachhimmel guckt, hat das ja irgendwie auch sowas wie ein ‚curved‘-Effekt, und zwar nicht nur nach links und rechts, sondern praktisch mit bis zu 180Grad in alle Richtungen.:)
Kann das der 65C6D dann eigentlich genauso so gut?:confused:

Nachtrag: @Sckies und somit btt:
Viewsonic VX3276-2K-MHD mit 2K-Auflösung und 10-Bit-Farbverarbeitung
Bis auf 100Hz+ und G-Sync hatta alles, was sich der TS wünscht.
Für, nach meinem Empfinden, schmale 280Eus, kann man den Versuch glatt mal wagen.
 
Zuletzt bearbeitet:
erstmal danke euch allen hier.

Vielleicht etwas zu meiner Personen/Monitor suche.
ich gehöre zu einen Indie-Game Entwickler Team benutze zurzeit 3-27 Zoll Monitore.
warum ich gern die Spezifikationen in ein Monitor gern gehabt hätte.

- 32Zoll (auch 31.5....)
muss weil 27zoll einfach zu klein geworden sind..(arbeite mit 3d software-1-4 Programm gleichzeitig aufn Monitor keine Seltenheit.)

- 1440p (WQHD)
muss bei 32 zoll, auch richtung 4k geschaut da finde ich bei 3er kombo die hardware noch zu schwach für....

- Gsync - 100hrz+
neuste game Technik um einfach auch zum Testen..


- 10bit
were schön um einfach die besten real Farben zu bekommen (Texturen Erstellung/ Bild/Video Bearbeitung)

zu
Viewsonic VX3276-2K-MHD mit 2K-Auflösung und 10-Bit-Farbverarbeitung
werder da wohl die Tage ein Kombination aus 2-3 verschiedenen Monitoren machen, was ich gern vermieden hätte.

oder warten... was ich aber auch schon 3 Monate mache ^^
 
oder warten... was ich aber auch schon 3 Monate mache ^^
Das mit dem ‚warten‘ ist so eine Sache.
Da wartet man dann nämlich ewig.

Mache ->heute<- eine Liste mit all Deinen Wunsch-Features an einen Moni.
Resultat: Das gibt es ->heute<- noch nicht.
Lege die Liste, sagen wir für 1 Jahr?, beiseite.
Dann holst Du sie wieder hervor. Und Wunder: Es gibt Monis mit diesen Features.
Nur: Die 1 Jahr alte Liste ist für Dich schon gefühlt steinalt, es wirkt fast wie naives Kindergartengekritzel von Dir.
Deine jetzige! Liste hat sich in der Zwischenzeit um etliche Features verlängert und Deine Anforderungen an die üblichen Eckdaten sind sich ebenfalls deutlich höher.
Ergo: Die ‚Zeitspanne‘ , die Du meinst ‚warten‘ zu müssen, bis Deine Wunsch-Features verfügbar sind, bleibt immer gleich.

Bestimmt ist es wichtig zu testen, wie Eure Games so mit den ganzen Gaming-Features zusammenspielen, aber brauchst Du diese Features immerwährend und vollzählig für die Entwicklungs/Programmierarbeit?
Und die tollen, an einem farbverbindlichen 10Bit-Moni, erstellen Farben/Kontraste/Stimmungen musst Du ja auch mal einem 6/8Bit-08/15-TN-Gaming-Moni ‚testen‘.
 
:):):) stimme dir zu 100% fullHDade

""werder da wohl die Tage ein Kombination aus 2-3 verschiedenen Monitoren machen, was ich gern vermieden hätte.""
 
Der LG 32GK850 scheint in D angekommen:
LG Electronics 32GK850G-B, 31.5 | heise online Preisvergleich / Deutschland
LG 32GK850G-B: 32 Inch Class QHD Gaming Monitor with G-SYNC™ (31.5� Diagonal) | LG USA

Nur zahlt man jetzt natürlich noch den obligatorischen ‚Early-Adopter‘-Aufschlag.
Und ein Preis von 850Eus fühlt sich recht happig an, wenn man das Gefühl hat, dass ‚irgendwie‘ immernoch was fehlt, wie z.B. 10Bit/HDR.

Meine Prophezeiung:
Derzeit laboriert ja so ziemlich jeder Gaming-Moni an den Grenzen der Übertragungsbandbreite von DP1.2 herum.
In 2018 wird der Wechsel von DP1.2 zu DP1.4 kommen, wodurch vor allem bei den (hochpreisigen) Gamingmonis ein neues Zeitalter von ‚Zukunftsmusik‘-Features anbrechen wird.
(-> Mit Betonung auf ‚Zeitalter‘ , denn die technischen Möglichkeiten von DP1.4 werden nicht über Nacht in den Mons drin stecken, sondern nur tröpfchenweise und über Jahre Einzug in die Bildgeber finden.)
Es könnte also sein, dass der LG 32GK850 einer der letzten DP1.2-Gaming-Moni-Entwicklungen im oberen Preissegment ist.
(Nur mein Glaskugelgemurmel.)

Ich sehe es schon kommen: Sobald der erste Gaming-Moni irgendein Feature besitzt, welches zwingend DP1.4 voraussetzt, kommen folgende Stimmen auf:
‚Was, so teuer?‘
‚Was? Für DP1.4 wird ausgerechnet dieses xyz-Feature verwurstet, voll am Markt vorbeikonzipiert.‘
‚Na endlich, ‚die‘ haben uns jetzt lange genuch mit diesem ollen DP1.2 hingehalten‘
‚Na, und jetzt willich 8k mit 240Hz und G-/FreeSync in ein Gerät.‘
‚Die hätten das alles lieba ins HDMI-Kabl stecken solln, weil damit kann man alles verbin‘n.‘
‚Mist, uff meener 10xxTI tut DP1.4 druffstehn‘, aber diss neue DP1.4-Viehtscha von der Mohni hatta nich.‘
 
Zuletzt bearbeitet:

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh