System Latency Challenge: Viele Preise von NVIDIA

Es ist nur zu dumm das die PES Ergebnisse ziemlich exakte Parallelen aufzeigt zu meinem Leistungsmessgerät die nunmal passen, das ist quasi wie an einer Fräsmaschine "Bezugspunkt" festgelegt und bewiesen, sich wiederholende Mathematik eben.
@l0n ;-)

Du hast es immernoch nicht verstanden bezüglich der Spannung, wenn die Schaltkreise nicht geschlossen sind, fliesst kein Strom bzw. Ströme so schnell wie hier geschalten wird, wenn denn geschalten wird (Last), ohne Last wird eben nicht geschalten, also "Gate" ist zu und nicht auf vergleichsweise zu Audio..., es fliessen also keine Ströme.
Ohne Strom/Ströme, ist die Spannung egal, es fliesst nunmal kein verbrauchender Strom.

Ziemlich simpel, wo zwischen den Ohren aber absolut keiner Zuhause ist, oder zuviel Lernresistenz überwiegt, wird natürlich weiterhin wehement die Wahrheit für abwegig halten und weiterhin schlechte ausreden finden. siehe "Selas"

@Selas :
Ich sag dir was, kommt mit Gegenbeweisen, messe was anderes und beschreibe wie, mach einen sinnvollen Aufbau so wie ich es tue mit reproduzierbarer Last auf der CPU alleine schon.
Du wirst auch wenn deine Messtechnik die du verwendest noch soviel teuerer ist, auf dasselbe herauskommen.

Edit:
Ohne Maschienencode, Last , also kein fliessender Strom durch die Spannung, also ist der Verbrauch (IDLE) natürlich ziemlich gering, so oder so, Vergleichen muss man daher ja mit Last
Beispiel anhand meiner Güte bei meinem 2600X
3,9 (1,22xV) sind nicht so effizient wie 4,0gHz (bei 1,25V), das zeigt sich durch Teillast und Volllast in Cinebench, sowie in derselben Situation in Games.
PBO ist immer schlechter als 3,9gHz (meine ausgelotete Güte, er braucht dazu mindestens 1,22xV, dann ist die CPU da stabil), 4,1ghz (1,35V) ist weniger effizient immernoch, wie PBO.

Man holt also solange mehr Effizienz raus, solange die Last prozentual weniger wird und dabei die leistungsaufnahme sind, was bei 3,9gHz vs 4,0 gHz der Fall ist, ab 4,1gHz sinkt dann zwar die Last prozentual, aber die Leistungsaufnahme steigt dummerweise wieder.

Genau das spiegelt sich durch den PES - Skript mit Cinebench auch wieder, Single Core ist Teillast, Multi eben Volllast.
Das bei 4,1 unter Teillast die Effzienz noch steigt bringt im Alltag leider nichts, da wir nicht nur die Anzahl eines Kerns nutzen sondern Mutlithreading mit meheren Kernen unterwegs sind.
Einfach auch mal gucken wo während Cinebench durch das Scheduling die Last tatsächlich liegt, der Single Core Test mit Cinebench, Teillast so, kommt im Alltag quasi niemals vor, vorallem nicht im Gaming.
Audacity beispielsweise damit kann man wirklich super ne Einzelkernlast machen mit dem Exportieren, das macht tatsächlich nur Last auf einem Kern und nicht aufgeteilt auf mehrere Kerne.
Interessanterweise schafft es die akuellste Version auch ohne zutun von Process Lasso oder sowas auch das es nur auf dem 2. Kern läuft und nicht CPU0 also dem 1. Kern.
Auf dem 1.Kern läuft eben dummerweise das OS etc. was sonst Audacity Leistung kostet würde, bei diesem Lastszenario.

Gruss Dennis
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hier ein Beispiel, andere Baustelle Grafikkarte; diese verhält sich im Vergleich zur CPU völlig anders, hab ich mit jemandem im "Hardwareluxx extreme OC Channel" auf Discord zwecks HWBot darüber schwadroniert.
Man hat die Möglichkeit den maximalen Takt mit entsprechender Spannung festzusetzen auch im IDLE bzw für IDLE Lastsituation, ist nur ne ziemlich dumme Idee, denn diese sind wirklich sehr gut ausgetüftel zum einen, zum anderen sind die Schalterchen völlig anders verdrahtet als die CPU.
Die Grafikkarte funktioniert nunmal n bisschen anders mit den "ALU's"

Am besten gehts halt, mit in den Einstellungen auf "Adaptiv", was ja aber auch unlängst bekannt sein sollte.
Wenn ich meine RTX 2060 von MSI, die XS OC festsetze ganz oben, dann kostet mich das direkt mal 30 Watt im IDLE, da bringt das also nicht eine bessere Effizienz, schon ohne Last nicht, aber wie schon geschrieben, so eine Grafikkarte funktioniert nunmal anders, die ist anders aufgebaut und verdrahtet.

Hier mal Beispielkurven von meiner Karte:
Original
original.jpg
stumpfes OC mit Offset:
OC to the hell.jpg
Optimierte Karte, kaum Leistungsverlust am Ende des Tages, ist aber deutlich leiser unter Volllast:
optimiert.jpg

Ich erreiche optimiert fast denselben Takt, so grob über den Daumen gepeilt verzichte auf gut 100mhz unter Vollast, dummerweise muss die Karte nunmal wenn die was länger Volldampf abbekommt den Takt eh um genau diesen Takt senken, manchmal ein wenig mehr.
Das merkte man wenn man mit 3Dmark in nem Stresstest bei Time Spy mal 20 Loops, eine gewisse Errungenschaft erreichen wollte, Frame-stabilität, was ich zuvor nie kriegen konnte.

Dadurch das ich mit geringfügig weniger Takt ordentlich die Spannung runterdrehen kann ohne das die Karte dabei instabil wird und eben die Games abstürzen, habe ich hier die Leistungsaufnahme zum einen gesenkt und zum anderen ist der Kühler durch ner ganzen Ecke weniger Abwärme natürlich auch besser, sprich das Ding kühlt sich mit einer deutlich geringeren Lautstärke.

RTX ist nunmal nur mehr Leistung durch mehr Stromverbrauch und somit Abwärme, solche Probleme hab ich mit der GTX 1060 jedenfalls nicht bekommen das ich auch nur ansatzweise auf die Idee gekommen wäre mit Fan Control in dem Falle die Gehäuselüfter auch entsprechend der Grafikkarte mal höher gehen zu lassen und nicht wie laut Bios nur entsprechend der CPU.

Seit den RTX Karten ist das aber praktisch garnicht mehr möglich, selbst mit einem Gehäuse mit gutem Airflow an sich, wo 4 Gehäuselüfter verbaut sind, das man da unter Last nicht die Gehäuselüfter mit aufdrehen lässt, die Grafikkarte macht sonst eine "Schnappatmung" mit Volldampf auf den Lüftern, tja und denn kommt nunmal der Moment wo er an Hand der Standardkurve herunterdrehen muss.

Links im Diagramm ist der Takt, unten ist die Spannung, es ist denke ich offensichtlich wenn man sich die Vorschaubilder so nebeneinander bzw. Übereinander anschaut was das in der Praxis für einen Unterschied macht.

Der Kühler der Karte ist sicherlich nicht das ausgetüftelste was es so am Markt gibt, aber völlig unterdimensioniert an sich nun eigentlich auch wiederum nicht.
Man hätte vielleicht die GDDR6 unterhalt des Chips besser mit dem Kühler verbinden können, mehr Fläche nutzen, weil dort nicht die komplette Fläche der Chips mit Kühlerboden verbunden ist, was die tendenziell schonmal schlechter kühlt, die Backplate ist leider nur Schutz und Optik (Kunststoff) der leider nicht wie beispielweise eine Sapphire Nitro (RX 580) als Beispiel, tatsächlich aus Metall zum einen und zum anderen sogar mit Wärmeleitpaste zumindest enstrechend konzipiert auch das Platinenlayout die Stromversorgung zumindest mitkühlt. (Dazu ist da sogar Wärmeleitpaste)
Das mit der Sapphire Nitro weiss ich, weils die Rx580 is vom Kumpel aus dem Sauerbratenvideo, das war vorm neuen Jahr unbedingt nötig gewesen der mal neue WLP zu verpassen weil die genau eben deswegen gnadenlos immer überhitzte und ihm immer die Games abgeschmirgelt sind deswegen.
Ich habe das eh schon durch Anydesk schon geahnt, durch den Zuverlässigkeitsverlauf von Windows, zumal aufgrund diesen Fehlers der da auftauchte öfters geschrieben worden war, ich hab die Grafikkarte getauscht und das hat das Problem beseitigt.

Wenn so ne Graka nur gekauft wird, verbaut und genutzt, kann es nach 2 oder auch 3 Jahren wenn die Grundfunktion vorhanden ist, an sich nur ein Abwärmeproblem sein, das war eindeutig und zudem
stirbt so eine Grafikkarte auch nicht direkt davon sobald diese Problematik auftaucht.
Man sollte dann nur halt irgendwie langsam mal ran an die Buletten, sonst ist nämlich bald exitus und denn kann auch so jemand wie @AssassinWarlord nichts mehr daran grossartig reparieren, jedenfalls nicht mehr so das die Karte wieder so läuft wie im Originalzustand, denn wenn das erstmal soweit ist das durch ewiges Überhitzen die Karte stirbt, dann ist das irgendwann einfach nicht mehr reparabel.
Dazu muss ja nunmal wirklich ein Bauteil abgeraucht sein das er sowas reparieren kann, aber wenn aus was für Gründen auch immer durch Überhitzung garkein Bildsignal mehr rauskommt, wird da schon was verschmolzen sein was nicht hätte verschmelzen dürfen.
Das kennt man auch von der HDMI-Sektion aus gewissen AVR's, wenn die im Eimer sind, kannste die nurnoch Tauschen, mit Reparatur ist da aber nunmal nix mehr, zumindest was ich bislang so gesehen habe von AssassingWarlord da war immer optisch eindeutig was auf der Karte im Eimer an Bauteilen.

Aber dazu könntest du @AssassinWarlord wenn hier mal was schreiben ob ich da nicht vielleicht auch eher auf dem Holzweg bin, weil wie man hier ja eindeutig sieht, nach gewisser Logik wenn man so vorgehen würde, da kommt sonst eh wieder nur Senf dabei raus :d

Schon alleine auch immer der Quatsch mit dem Chipsatz vom Board...., der hat mal 0,0 Prozent mit dem Takt der CPU zutun oder mit der Stromversorgung vom Board, oder dem Bios bzw Microcode bezüglich der CPU

PBO ist ein Werks-OC das in gewissen Toleranzen nach Temperatur arbeitet und das wars auch schon, vom Optimimum der jeweiligen CPU die man hat und der jeweiligen Güte in der Chiplottierie die man sich da eingekauft hat, ist das meilenweit entfernt und nach wie vor ist das mit der Single-Core Leistung der totaler Unfug, denn wie man sieht, juckts SOTTR kein Stück und auch was RAM-OC angeht, juckts es SOTTR ebenso kein Stück ob der RAM bei 2800 oder 3000 läuft und da das Game (das das ja auch gern für RAM OC "rangenommen" wird) hauptsächlich GPU-limitierend läuft mit anständigen Settings die nunmal Alltagsrelevant sind ist das ja gerade so ein schönes Beispiel.
Das einzige was da CPU limitieren ist, das sind die Ladezeiten, das kann man auch schön sehen im Overlay vom Afterburner, da könnte dann bald DirectStorage was daran ändern, DX12 eben,
da bin ich bei SOTTR, sowie auch ROTTR auch sehr zuversichtlich, was das nicht alles an Patches erfahren hat seitdem es draussen ist, RTX, das neue DLSS hat es bekommen, zumindest mal das 2.0er was bei Control von Anfang an mit dabei war.

----
Ist auch nur urkomisch, son ein NFS HP2 damals, das lief seiner Zeit mit nichtmal 60fps, es gab derzeit garnicht die Hardware dafür das das ginge, da gab es auch kein "Gejammer" über Inputlag, sehr merkwürdig nech wahr ? :d
Lernt einfach mal ein wenig Mathematik/Logik, wie der Krempel funktioniert und oder hört vielleicht mal auf zu Kiffen oder alkohol zu Trinken, wenn ich mir paar Bier reinschraube dann habe ich auch Inputlag....manmanmanman :ROFLMAO:

Gruss Dennis
 
@Dennis50300 ist es wirklich notwendig, dass du 3 Posts hintereinander spammst, statt die Editier-Funktion zu benutzen?

Und würdest du bitte aufhören, "Idle" andauernd in Großbuchstaben zu schreiben?
 
Zumal du auch beachten musst du kannst das garnicht in einem YouTube-Video darstellen als Vergleich was nur 24 Bilder Pro sekunde hat, da man nicht mehr als 60 überhaupt auf YouTube draufbekommt, hinkt das ebenso, das kannst du also in die Tonne treten dieses Video :d

Du hast das Video nicht gesehen oder? Den Unterschied könnte man sogar auf einem ausgedrucktem Blatt Papier darstellen.
 
Du hast das Video nicht gesehen oder? Den Unterschied könnte man sogar auf einem ausgedrucktem Blatt Papier darstellen.
Wenn ihr euch damit mal richtig auseinandesetzen würdet würden sich hierdran aufhören die Geister zu scheiden..., ich habe erklärt warum das Video Quatsch ist, da es nur 60 Bilder pro Sekunde maximal auf youtube enthält und das man das so Rendern mit "Blender"....

@dboomer :
Das ändert genau 0 am Inhalt

Ich erkläre es so, beschreibe was ist, aufgrund von Feststellungen die man durch logisch, Reproduzierbare Messungen nunmal feststellen muss, nicht mehr und auch nicht weniger.

Das Scheiden der Geister:
-----------------------------
Mal abgesehen davon das es bei manchen, hauptsächlich älteren Games in der Tat kacke aussieht, geht mal ein wenig in euch und überlegt mal warum Spiele wie Filme "Motion Blur" haben zum einen und zum anderen warum es alles, ausnahmslos "Videogames" sind...

Ein gutes Beispiel für das sieht kacke aus war GTA 3, im Original natürlich, da hiess es in den Einstellungen "unschärfe FX" der Witz dabei war, hat man das ausgeschaltet danach lief es auch auf einer Geforce FX 5200 anständig spielbar damals, ja die Karte die man aus heutiger Sicht auch im Retrobereich ironischerweise immernoch nicht als "Grafikkarte" bezeichnen möchte :d

Leider lassen sich alte System schlecht messen, son MSI Afterburner mit OSD (also auch RTSS) funktioniert leider nicht auf einem Windows 98SE/ME
man könnte vielleicht mal probieren ob eine notfalls ältere Version vom HWMonitor läuft auf nem 2.Monitor ob man da was erkennen kann, aber ich würde Lachen es ist nicht immer die Grafikkarte die tatsächlich limitiert sondern doch die CPU. (was bei Pentium 3, Athlon XP, Pentium 4, sicherlich sehr schnell mal der Fall gewesen ist)

Gruss Dennis
 
:d

Leider lassen sich alte System schlecht messen, son MSI Afterburner mit OSD (also auch RTSS) funktioniert leider nicht auf einem Windows 98SE/ME
man könnte vielleicht mal probieren ob eine notfalls ältere Version vom HWMonitor läuft auf nem 2.Monitor ob man da was erkennen kann, aber ich würde Lachen es ist nicht immer die Grafikkarte die tatsächlich limitiert sondern doch die CPU. (was bei Pentium 3, Athlon XP, Pentium 4, sicherlich sehr schnell mal der Fall gewesen ist)

Gruss Dennis

Allein die Aussage stimmt schon nicht, klar läuft Riva Tuner Statistics Server unter 98/ME, entweder man nimmt einen alten Build oder updated die MFC Librarys unter 98/ME.
Ja Afterburner gabs damals nicht, das wollte auch kein Hersteller.
Messungen waren aber auch damals schon möglich. Für XP gabs auch noch Fraps.
 
Allein die Aussage stimmt schon nicht, klar läuft Riva Tuner Statistics Server unter 98/ME, entweder man nimmt einen alten Build oder updated die MFC Librarys unter 98/ME.
Ja Afterburner gabs damals nicht, das wollte auch kein Hersteller.
Messungen waren aber auch damals schon möglich. Für XP gabs auch noch Fraps.
joa schee, stimmt 8auer berichtete ja auch mal vom LOD-Trick, man kann halt nicht alles Wissen, wär halt nur mal genial wenn man mal auch informieren könnte, welche Version man genau braucht dazu und ob und wo man die noch bekommt.
Fraps wird aber sicherlich nicht das bieten was MSI Afterburner mit RTSS heute bietet, FPS alleine kann man nunmal nix mit anfangen.

Das man das "mal ebend" nicht darauf so macht, wie man es heute gewohnt ist, ist eben nunmal dummerweise so.

Als Beispiel, kannste hier mal reinklicken, 13:27, was ich so alles im OSD drin habe

Und es wäre halt mal richtig interessant ob man damit denn auch FPS-Limit setzen kann, wie man das heute eher weniger über RTSS machen sollte, schlichtweg bei Nvidia, weil es über den Treiber nunmal besser funktioniert und effizienter, geht mir ebenfalls aus meinen Messdaten hervor.


Gruss Dennis
 
Riva Tuner Statistics Server Windows 98

Bei den Geeks gibts die passende Version noch im Download...
Majorgeeks meinst du ja, joa die haben auch den LatencyMon
Solche Troll-Links kann man sich aber auch sparen, wie wäre es denn einfach so

Riva Tuner Statistics Server Windows 98
Und dann viellleicht einfach auch noch die Information mit dazu, falls das mal irgendwann nicht mehr funktioniert, wenn das jemand sucht und hieraus stösst,
das es die Version "2.24c" sein müsste.

Ist halt dummerweise immer derselbe Mist, man stösst auf n Hafen halbgares, ohne Ergebnisse

Gruss Dennis
 
Ziemlich simpel, wo zwischen den Ohren aber absolut keiner Zuhause ist, oder zuviel Lernresistenz überwiegt, wird natürlich weiterhin wehement die Wahrheit für abwegig halten und weiterhin schlechte ausreden finden. siehe "Selas"
Wieder persönlich werden, wenn man sonst nichts kann?
Sorry, aber du redest wieder einmal von dir selbst. Jemand der sich selber öffentlich doxxed, sollte sich vielleicht mal an die eigene Nase fassen. :ROFLMAO:
@Selas :
Ich sag dir was, kommt mit Gegenbeweisen, messe was anderes und beschreibe wie, mach einen sinnvollen Aufbau so wie ich es tue mit reproduzierbarer Last auf der CPU alleine schon.
Du wirst auch wenn deine Messtechnik die du verwendest noch soviel teuerer ist, auf dasselbe herauskommen.
Absoluten Blödsinn, dem niemand zustimmt, muss ich nicht widerlegen.
Es gibt öffentlich zugänglich auf verschiedensten Testseiten oder auch hier Messergebnisse inklusive gleichbleibendem Testszenario die konträr zu deinem Unsinn stehen. Du bist auch der Meinung RAM OC sei sinnlos, dabei zeigt dir jede Seite, das du wieder völlig ahnungslos auf dem Holzweg wandelst. Ebenso wie Stromsparmechanismen des Herstellers. Aber Dennis weiß es ja wieder besser. Einfach nur noch lächerlich.
Man du hast sogar im Audiobereich widersprochen, das jeder Kopfhörer gesounded ist, ebenso wie jedes Mic eine eigene Charakteristik hat. :ROFLMAO:
Du machst keine Messungen, du bleibst auf demselben Wünschelruten-Laien-Niveau wie dein Steckdosenmessgerät, über das jeder lacht, wenn du das als belastbare Messung heranziehst.

Mit einem Ryzen 2600 und einer RTX 2060 machst du halt keine großen Sprünge, rede dir das auf deinem 60 Hz ruhig irgendwie zurecht, aber du kennst ja auch nichts Besseres.

Was muss in einem Kopf vor sich gehen, der überall, egal bei welchem Thema, immer wieder, auf dem Holzweg wandelt und trotzdem vehement auf seinen Blödsinn besteht?
 
Zuletzt bearbeitet:
@Selas

Jau... wenn man trainierter competitive Gamer ist dann mag das sein das du was von 144HZ/FPS hast wenn diese auch stabil sind, wie ein Soldat der im Flieger G-Kräfte abkönnen muss, aber im normalen otto-normal Verbrauch ist das nunmal unfug.
Zudem in einem Video mit 60 Bilder pro Sekunde bringt man das nunmal nicht unter.

Bezüglich RAM, teste es doch mal selber, anstelle Werbung und Marketing geschwurbel zu betreiben...
Ich ziehe neben dem Leistungsmessgerät die Sensorik von CPU und Mainboard heran, die die sonst deine Hardware vor dem Hitzetod etc. schützt, wenn die nicht genau genug sind, deiner Aussage nach, damit hast du dann schon deinen Troll-Lall bewiesen ja...

Render-Queue ist und bleibt dennoch eine Warteschlange Frame für Frame...., ich machs im Rechner selbst langsamer um hinten raus ganz gering wieder was rauszuholen, was in keinem Verhältnis steht...., geile Idee

Gruss Dennis
Beitrag automatisch zusammengeführt:

Aber, joa hier kann jede/r nochmal nachsehen bei den SOTTR Screenshot:
Screenshots, mein Steamprofil

Dieses Game klemmt so oder so im Grafikkartenlimit und sobald Direct-Storage draussen ist und das sicherlich auch hier sowie bei ROTTR nachgepatched wird....
Die Screenshot vom Tool worum es hier zu gewissen Zwecken nunmal geht, spricht auch Bände, ich konnte anHand meiner Messungen erklären, zudem versteh ich nunmal wie die Bude funktioniert.
Ganz einfache Kiste, Timing der richtigen Bilder

bezüglich CPU's
hier richtige Mathematik und die ganze Wahrheit
@der8auer 8auer
Hier Intel-Werbung:
Igorslab

Oh Wunder der Herr Igor hat die Messmethoden da und erklärt auch die ganze Mathematik dahinter hinreichend, macht aber keine entsprechende Messung damit....
LDAT, Latenz....

Mal a weng das Hirn einschalten...wie "8auer" das tut, das wurde nicht ohne Grund kritisiert, sicherlich auch von mir auf seinem Kanal und dann macht er es halt einfach mal richtig :-)


Gruss Dennis
Beitrag automatisch zusammengeführt:

@Selas :
Thema Mikrofone, was meinst du wohl warum man in der Mikrofonie, unterschiedliche Instrumente mit unterschiedlichen Mikrofonen in einer völlig anderen aufstellung unter anderem Entfernung ung ggf. auch mehrere Mikrofone anwendet...?!??
Sicherlich aufgrund der Charakteristik eines Mikrofones...., also den Stuss den du hier von dir gibst, völlig aus einem Kontext herbeigezogen..., zumal sich die Frage stellt was von wann, angeblich von mir wo kam..., aber das ist genau das was ich meine z.B. @dboomer:
zitat, nicht genauer Wortlaut:
"ich mach das ja schon ne weile..."
Joa aber wenn das sich Weiter entwickeln ausbleibt...
Dann ist es keine IT mehr, nicht bei den Fakten sondern "Idioten Technik" was man aus IT machen kann, nicht persönlich nehmen, aber das ist nunmal dummerweise das was dabei dann herauskommt.

Kriegts ja nichtmal gebacken an anderer Stelle das die NB Soc (Northbridge) unlängst in der jeweiligen CPU drin ist und eben nicht mehr zum Chipset vom Mainboard gehört und die CPU prinzipiell ohne einem Chipset auskommt.
Was auch wiedermal unter anderem in der Vergangenheit gut erklärt worden ist von "Igorslab" in einem Video
Der gute Mann mit seinem Humor der mir an sich zusagt, ist halt aber nunmal mit Vorsicht zu geniessen, nicht alles was da glänzt ist halt nunmal auch wirklich Gold, so ist das nunmal.

Gruss Dennis
 
Zuletzt bearbeitet:
Mit einem Ryzen 2600 und einer RTX 2060 machst du halt keine großen Sprünge, rede dir das auf deinem 60 Hz ruhig irgendwie zurecht, aber du kennst ja auch nichts Besseres.

Was muss in einem Kopf vor sich gehen, der überall, egal bei welchem Thema, immer wieder, auf dem Holzweg wandelt und trotzdem vehement auf seinen Blödsinn besteht?
Weisst du, alles was du wie gewisse andere Konsorten hier und woanders bringt, mit solchen Aussagen ist das Resultat aus Narzismus und das fehlen an Information (Dummheit), das zusammengemischt ergibt genau das, in solchen Aussagen gegen die Logik und die Mathematik die dahinter steckt, ist lediglich Materialismus dahinter, kostenloses Marketing, nichts weiter.

Ohh mehr FPS..., ich sag dir warum man daran freude hat und sich sonstwas einbildet, es ist das Ergebnis aus Mangel an Informationen

Ich habe es hinreichend erklärt, warum das Tool bei mir im Vergleich zu solch einem Ergebnis kommt, da meine Mathematik nunmal stimmt die ich hier zu erklären weiss, deshalb ist das so, Timing, die richtigen Bilder zur richtigen Zeit, sorgen schlichtweg für eine bessere Treffgenauigkeit, das was man im englischen dann "Accuracy" nennt.

Wenn ich nach eurer Logik meine Abschlussprüfung im theoretisch Teil zum Industriemechaniker gemacht hätte, gute Nacht Maria, dann hätte ich sicherlich keinen Gesellenbrief auf der Hand, das kann ich dir versprechen :d

Gruss Dennis
Beitrag automatisch zusammengeführt:

Wobei man "Dummheit" bitte nicht persönlich nimmt, denn das ist nicht als Beleidigung gemeint, sondern einfach nur eben, der Mangel an Informationen oder viel mehr der ganzen und richtigen Informationen

Ich erkläre die Technik, weil es nunmal einfach so geht, ihr habt keine Argumente, könnte es nicht anders beschreiben, joa warum ist auch logisch, es gibt keine andere, weil es eben nicht anders ist, ganz einfache Sache das.
Beitrag automatisch zusammengeführt:

Und was den RAM sowie IF-Takt betrifft, alleine daran kann man an meinen eigenen Messungen schon sehen, das so eine pauschalisierung einfach nicht für alle Ryzen-Prozessoren gültig ist.
Das mag bei einem Threadripper sein, mit deutlich mehr Kernen, das mag bei einem Ryzen mit mehr Kernen und mehr Cache sein, 3000er anstelle der 2000er, aber auch das gilt es erstmal vernünftig zu beweisen.

was PES angeht, der Code steht offen im Github, von dem Skript, kritisieren ihn gerne, aber solang solche Leute die es pauschale wegkritisieren davon keine Ahnung haben, von der Logik und der Mathematik, ist das nunmal eine Bullshit Aussage, denn es beruht auf der Mathematik und Logik weshalb die Kiste überhaupt so funktioniert, wie sie nunmal funktioniert.

Lächerlich sind diejenigen die von Tuten und Blasen keine Ahnung haben und eben Argumentationslos dastehen und nur dumm herum-Flamen, was ich ganz sicher nicht tue...
Beitrag automatisch zusammengeführt:

Kurz und knapp aus dem Satire-Video, der Auftritt von Nico Semsrott, ist halt nicht nur Spass sondern hat auch viel Wahres:
Unbenannt.jpg
Aussage Aufklärende, sammeln die Fakten und bauen dann eine "Geschichte" darum, die anderen erfinden eine Geschichte und passen sich die Fakten an..., ich bin der Aufklärende, so jemand wie du hier @Selas & @dboomer etc. ihr seit die Nasen die einfach nur noch nichtmal versuchen die Fakten zurechtzubiegen.
In euren Postings steckt einfach mal absolut 0 Fachwissen, geschweigedenn Fakten.

Viel Spass mit Nico Semsrott, kann man durchaus feiern :d

Alles was ich mache ist die Fakten zusammenfügen zu einem Ganzen, was nun echt nicht besonders schwer ist, dummerweise funktioniert das in der Praxis

Gruss Dennis
 
Zuletzt bearbeitet:
Scheint mir, ihr kommt hier auf keinen gemeinsamen Nenner. Scheint mir auch, dass sich hier ein wenig im Kreis gedreht wird. Vielleicht versucht ihr mal an die frische Luft zu gehen und erst danach wieder zu posten. Außerdem wäre es schön, wenn Posts zusammenhängend geschrieben werden und/ oder editiert werden. Einfach einen neuen Post anfangen, wenn noch nichts weiteres geschrieben wurde ist etwas anstrengend zu lesen.

Bitte friedlich bleiben.

Gruß
 
@Nelen:
Ist halt relativ einfach, man muss nur halt mal reproduzierbar sie Settings durchwechseln und Vergleichen, was man hier durch diese Artikel im 1. Posting super machen konnte.
Ich beweise was ich mir eh schon durch Messen in der Praxis ausklamüstert habe und kann es sogar erklären.

Zudem hinterfrage ich das ja sogar selbst und Teste es hin und wieder ja nochmals :d
So wie hier mit dem entsprechendem Tool und die Ergebnisse sind bei lediglich 2 Settings die ich getestet habe wohl im Ergebnis recht eindeutig mit der Accuracy und woher die Punkte kommen.

Gruss Dennis
 
Jungs lasst @Dennis50300 in seiner Welt. Über die Jahre hat man schon so viel Kokolores von ihm gelesen das man ihn, zumindest bei Computerfragen, nicht ernst nehmen kann. Da wird jedes Mal viel von ihm geschrieben, aber richtig ist da meist nichts. ^^
 
Er hat mir auch schon mal geholfen. Bei gewissen Einstellung kam es bei einem System zu einer Beschleunigung.Und ja er kennt sich mit Software aus.Also beim Videoumwandeln.Zwar nicht wie einer der sich nur damit beschäftigt.Und das beste wenn man wen kennt,der sich wirklich auskennt,dann ist man in der Hinsicht wirklich Gold wert.

Und joa schwankende Fps sind schädlicher als solide gleichbleibende 60 fps.Das ist schon mal sicher.
 
Auch in Bezug auf Videocodec, Container und Techniken hat er schon jede Menge Unsinn erzählt... aber das ist ein anderes Thema. Für jemanden der sich nicht auskennt hören sich seine Ausführungen meist logisch an, wenn man aber etwas in die Tiefe geht merkt man schnell das es teilweise wirklich haarsträubend ist. Natürlich liegt er nicht überall falsch, das muss man erwähnen. Ihn als Anlaufpunkt für Hilfe zu nutzen würde ich aber dennoch nur im Notfall machen. Just my 2 cent.
 
ja bei dem Problem mit der Festplatte wird er gewiss mir auch noch helfen können.So sagte er mir ,das wohl die Festplatte unter einem Bug leiden könnte.Weil der Pc verhält sich nicht so wie ich mir das so vorstelle und auch aus der sicht anderer ist dies nicht der ideale Ist zustand. Leider ist das halt kein normales Problem.Darum weil es ein Spezial Problem ist,ist er in dieser Sache wirklich sehr gut.In dem Bereich ist er gut,da kann man nix sagen.
 
@Latiose
man sieht es ja ganz offensichtlich, keine Makten keine Logik nur Mimimi :d

Es ist entweder der Bug den MS da hatte, afaik auf Win10 sowie Win11 oder halt doch dein Datenträger, solange Crystaldiskinfo sagt alles is soweit grob erstmal ok und die Herstellertools ebenso, wird der Datenträger auf jeden Fall nicht defekt sein.
Schon auch urkomisch, ich habe hier ziemlich lange zwei Seagate Platte müssten es gewesen sein, an die 10 Jahre alt und immernoch einwandfrei, da hatte lediglich das Dateisystem über viele Jahre und zig Betriebsysteme sowie Mainboard Hardware mal einen weg was sich auch noch übergangsweise lösen liess :d

Aber auch dort, haben sich ganz andere zu Wort gemeldet, gehabt :d

Gruss Dennis
Beitrag automatisch zusammengeführt:

Schon alleine, das man es immernoch nicht verstehen will mit Lernresistenz, NVEnc ist eine API, kein Codec, den Codec regelt OBS Studio über FFMPEG, also kurz mal gegoogelt und es gibt einen AHA-Effekt,
Anstelle zu Lernen, weiterschwurbeln... :d
 
Zuletzt bearbeitet:
Tya reden haben die Menschen immer schon gerne. Mit Fakten und Wissen, können nicht viele dienen. Und auch die Bereitschaft praktisch zu helfen ist auch sehr selten. Die meisten schreiben nur. Ich finde also sehr selten Menschen die wirklich bereit wären zu helfen. Und sei es mit teamview oder anydesk oder halt sonstiges Programm.
 
Tya reden haben die Menschen immer schon gerne. Mit Fakten und Wissen, können nicht viele dienen. Und auch die Bereitschaft praktisch zu helfen ist auch sehr selten. Die meisten schreiben nur. Ich finde also sehr selten Menschen die wirklich bereit wären zu helfen. Und sei es mit teamview oder anydesk oder halt sonstiges Programm.
Wenn ich nichts anderweitig wichtiges zu tun habe, und Zeit habe, kann man mich direkt erreichen und ansonsten kann mich sich halt auch verabreden.
Das ist ja auch der Unterschied, zwischen meinem Discord und dem von Beispielsweise Technikkeller oder Rawiioli oder oder oder... :-)

Die meisten die nur gross schreiben und so auch hier, haben halt wie die meisten auch nichts auf dem Kasten, die würden sich ja die Blösse geben auf Teamviewer oder Anydesk :d

Gruss Dennis
 
Ja, viel Spaß in deiner Blase. Sorry, aber ich mache das jeden Tag beruflich und würde Nie Dinge kritisieren mit denen ich mich nicht auskenne. Deshalb habe ich es ja angesprochen. Im übrigen hat niemand behauptet dass an Nvenc ein Codec ist.., aber egal nun. Schönes Wochenende.
 
Das Problem hier ist doch recht simpel:

Wer was lernen möchte das darf gerne tun, wenn man hier allerdings nicht Dennis Meinung ist, hat man automatisch Unrecht, ich behaupte jetzt mal für mich (+20 Jahre Erfahrung in IT, 12 davon auch Beruflich), das ich nicht ganz doof bin.
Laut Dennis sind wir das hier wohl aber alle irgendwie etwas...
Hey cool wenn er was weiß was andere nicht wissen - Wenn Ihm aber mehrere Leute sagen das das alles irgendwie Quatsch ist was er erzählt und er trotzdem dagegen schießt, da hat dann auch keiner mehr Bock alles zu wiederholen und ihm seine Denkfehler (oder wie man das auch nennen möchte) aufzuzeigen.

Wie dem auch sei, ich klink mich hier jetzt endgültig aus, das führt alles zu nix. :wink:
 
Ja freilich weiß einer etwas mehr als der andere. Es können ja nicht alle gleich viel wissen haben. Ist ja nicht möglich. Und es hängt auch davon ab was man so alles gelernt hat. Es ist auch keine Schande das welche mehr weiß als der andere. Warum sollte man sich schämen.
 
@Romsky & @l0n :

Formel, andere Erklärung ?
Keine vorhanden ja ?
Weil es nunmal nicht anders ist, ganz einfache Kiste

Ich beweise es weil ich es erklären kann und die Fakten dazu sammle und ich kritisiere hier nicht, sondern habe festegestellt was wie warum ist und im Gegenteil, NVidia hat da durch den Treiber die letzte Zeit einige Verbesserungen vorgenommen.

- Effizienz
Das ist mal der eine Punkt, witzigerweise machen die es "verdeckt" es steht ja nichtmal in einem changelog drin, ist aber eindeutig nachweisbar an der Leistungsaufnahme
- Reaktionszeit Optimierung
Wie man sieht funktioniert es ja, aufgrund geltender Mathematik
Klar hat man das alte Pre-rendered im Prinzip zu umbenannt, das "ein" halt "1" ist, aber in wenig mehr hat man dann ja offenbar schon getan, insbesondere mit dem passendem Monitor (Freesync oder das G-Sync nvidia equivalent eben)

@Latiose
so von wegen gleichbleibende 60fps, das nochmal am Rande.
Das gibt es tatsächlich ohne Freesync (equi. NV) garnicht, wenn dein Bildschirm maximal 60Hz und somit 60 fps kann, wird das Gesamtsystem durch deine Eingriffe immer etwas einbrechen, was ich unter anderem schon längst gezeigt habe mit dem Overlay durch RTSS (MSI Afterburner)
Auch wenn es nur 1FPS ist, aber eben jener ist eben schon vom Timing her auch 1 Bild pro Sekunde zu wenig für den Bildschirm.

Daher ist das ja so eine super Entwicklung mit der variablen Refresh Rate beim Monitor, denn die Bilder passen dann eben durchgängig der Monitor muss nur innerhalb der richtigen "Range" Syncronisieren können können, wenn du wirklich absolut perfekte 60 haben möchte muss er also wenigstens 50 bis irgendwas über 70 darstellen und variabel Syncronisieren können.
Weil bei max. 60 der Rechner immer mal zwischendurch zwangsweise weniger wirklich perfekt rausbringt.

Praktisch ist das weit weniger schlimm als es Mathematisch ist, aber wenn man erstmal so einen Monitor hat der so variabel eben sich anpassen kann durch Kommunikation und Umstellen der "Bildaufbaufrequenz" dann willst du insbesondere beim Gaming keinen Monitor mit fester Refreshrate mehr haben.

Zu "höheren" FPS nochmals, es nennt sich Videogame weil es genau das nunmal auch ist, Motion Blur haben die meisten Games nunmal auch nicht ohne Grund, zudem, eine Warteschlange ist und bleibt nunmal eine Warteschlange, also mehr FPS, längere Reaktionszeit und wenn nicht dann soll ma das erstmal beweisen.

Das Timing spielt halt aber immernoch dieselbe Rolle, das zeigt das Tool hier nunmal flott auf, die richtigen Bilder zur richtigen Zeit, nichts weiter
Und wenn du 5000fps tatsächlich schaffen kannst bei irgendwas und das Monitor und Rechner schaffen würden, würde es garnichts verbessern, das Timing der Simulation ist immer dieselbe.

Nur mal so, ich bin 33 Jahre alt und macht das auch schon mein halbes Leben, etwas mehr noch und CRT's mit 100 sowie 120hz hat man ebenso besessen, dummerweise hab ich sogar immernoch welche hier :d

Man möchte hier gerne etwas besser wissen kann es aber nicht erklären, komisch
Ich sag euch was hier los ist:

"Jem Bendell" hatte Recht mit seinem Aufsatz was die meisten nunmal immer wieder beweisen, "uhh Effizienz, Energie einsparen..."
Nur zu dumm das ihr die Theorie die auf Fakten basieren nicht wiederlegen könnt, alles was da beschrieben wird ist doch längst der Fall, da wird etwas verbessert und für die Wahrheit wirst du geächtet
Genau das passiert, warum wohl hat Nvidia das nicht im Changelog, weil man dann einen der grössten Konzerne Flamen würde, genau aus diesem Grunde macht der Igor von Igorslab auch keine entsprechende Messung und veröffentlich diese, offen und Ehrlich.
Zumal das nicht ins Marketing reinpasst :ROFLMAO:

Dummerweise funktioniert meine Mathematik und das auch noch so das es bei jedem funktioniert und besser läuft, also eine Theorie die sich in der Praxis immer wieder beweist und sich eben nicht als anders herausstellt, nur teils wahr oder komplett wiederlegt wird.

Wer hier in irgendeiner Blase lebt, das seit ihr, weil ihr nunmal immer wieder geltenden Fakten schwurbelnd wiedersprecht, geht eure Aluhüte aufsetzen und "Spazieren"...

Gruss Dennis
 
OK dann senkt man halt die fps. Man setzt ein Limit. Wenn nun als Beispiel 200 fps es eigentlich schaffen würde, dann setzt man halt auf 85 fps fest oder 80 fps. Damit hätte man dann mehr fps als der Monitor an hertz eigentlich hat. Dadurch spart man dann Strom. Weil je weniger zu berechnen ist desto geringer taktet die gpu dann hoch. Mit denen wo 120 hertz oder 144 haben setzt man je nach den halt auf 125 oder 150 fps. Denn es ist ja bewiesen das ab einen gewissen punkt es sogar gefährlich für die gpu sein kann. Da gibt es ein spiel das gpus zerstört hatte weil unendlich fps berechnet wurden. Habe keine lust da drauf und es schont die Umwelt. Achja das mit den hertz da gibt es ein vidoe wo es aufzeigt welche Unterschiede die haben. Es zeigt es in Zeitlupe. Klar ist eigentlich fern ab von der reslität weil niemand in Zeitlupe spielen würde, allerdings ein interessantes Video dennoch. Das Video zeigte sehr deutlich das es ab 120 fps keine grosen unterscheide mehr. Aber dennoch kommen die Bildschirm hersteller auf die Idee mit immer mehr hertz um sich zu werfen. Der Mensch hat halt dummerweise selbst auch eine Latenz. Diese kann man eben nicht austricksen. Sonst wären wir ja übermenschen. Das hat eben die Natur bei uns nicht vorgesehen. Dann gibt es welche die von Haus aus ne eingeschränkte Reaktionszeit haben. Da bringen dann auch die 120 hertz leider auch nichts mehr. Zu den eingeschränkten gehöre leider ich dazu. Das Gehirn ist immer schnell,aber die Koordination bis es reagiert dauert eben viel zu lange. Ich kann daran leider nix machen. So starb ich genau den virtuellen Tod weil ich zu langsam reagiert hatte. Man kann am PC zwar alles tunen, den Mensch eben aber nicht. Da hilft auch Kaffee und Co leider nix. Es gibt Sachen die kann man eben nicht beeinflussen.
Das erklärt auch warum Dennis sagt mehr hertz bringt nicht viel. Und darum kann man den Herstellern Marketing vorwerfen. Die wissen halt nicht mehr, was man den käufern am besten schmackhaft machen kann.
 
@Latiose
kommt drauf an, mit nem 60Hz Monitor der kein Sync kann, kann man durchaus mit nem Limit auf 75 leben, ansonsten einfachste Lösung eben einfach VSync einschalten.
Die Latenzoption auf "Ein", testweise "Ultra"
Es geht ja bei weitem nicht nur darum sinnigerweise Energie zu sparen, sondern auch darum das die richtigen Bilder zur richtigen Zeit am Bildschirm sind.

Ich versuchs dir mal darzustellen hier in Textform,
VSync bei 60, 60hz Monitor
Rechner:
>>>>>>>>>>>
Moitor:
>>>>>>>>>>>

60Hz Monitor mit FPS Limit auf 75,
Rechner:
>>>>>>>>>>>>>>
Monitor:
>>> >>>>>>> >>>

Ich denke man sieht da schon worauf ich hinaus will, die 60HZ sind pro Sekunde, die FPS nunmal auch, liegt schon im Kürzel "Frames per Seconds" also übersetzt Frames pro Sekunde
Der Bildschirm ist also gezwungen Bilder wegzulassen, Timing eben

Gefährlich für die GPU kann es auf Dauer werden, wenn die Probleme mit der Kühlung hat, sprich Wärmeleitpaste muss mal ernuert werden, Kühler verstaubt, schlechte Gehäusebelüftung.
Hier der Tipp bezüglich Lüftersteuerung:

Ich verspüre jedenfalls 60Hz vs 75 schon keinen Unterschied, deswegen hab ich mir aber auch den AOC nicht gekauft, mir war das halt einfach mit der variablen Freshrate klar und ich wollte mich vergrössern, sprich einen grösseren Hauptmonitor haben.

Ich sag mal so, wenn es da was "abzufeiern" gäbe was irgendwie auch nur ansatzweise Sinn macht, warum lass ich den dennoch einfach mit 60Hz innerhalb seiner Range laufen und wenn ich es dann mal umstelle bringt es nichts:
1.jpg2.jpg3.jpg

Wenn was unausweislich passiert, weil der Rechner so funktioniert im EVA-Prinzip durch Eingriffe mit Maus und Tastatur einbricht um wenigstens 1 Frame pro Sekunde kein Problem ist, durch die variable Refreshrate, Monitor und Grafikkarte eben syncron, denn die Range ist von 30 bis 75Hz

Tearing bekommst du ausserdem ohnehin nur per VSync raus, ohne das es zuzüglich Leistung zieht, da VSync per se ein FPS Limit ist, stellt man also per Treiber einfach Vsync auf "Ein" und fertig, global richtig konfiguriert.

Bevor Nvidia das per Treiber an der Effizienzschraube so krass verbessert hatte, zog aktiviertes VSync ungefähr das an Leistungsaufnahme als hätte du kein FPS-Limit drin, heute ist es praktisch entsprechend einem FPS-Limit wenn du es ohne aktiviertem VSync auf die Hz deines Monitors anpasst.
Und das ist absolut API sowie Engine übergreifend so, ich hab hier alles durchgetestet was ich habe und ich hab von alt bis neu alleine auf Steam 400 Games, da ist alles möglich dabei, von alten Schinken, bis zu ganz aktuellen Games, alle möglichen API's sowie unterschiedliche Engines.

OpenGL, DX12, DX11, DX10, DX9, älteres wrappt man meistens eh, dgvoodoo(2) und solche Lösungen
Unreal Engine (fortnite), Cyberpunk 2077 (DX12), Shadow of the Tomb Raider (DX11 oder 12), Shadow Warrior 2, Raft, 7 Days to Die,....
Ich könnte hier entsprechend die ganzen Games reinhauen in die Liste :d

Gruss Dennis
 
Naja ich habe halt nur einen Monitor der nur vsinc kann da ja nur hdmi. Ich könnte also vsinc weg lassen wenn ich die fps selbst limitiere. Bliebe mir ja nichts anderes übrig da ja mein Monitor 75 Hertz kann. Da bringt ja vsinc nichts mehr weil der das nur auf maximal 60 fps begrenzt ist. Somit hat man also bei mehr als das was der Monitor kann keinen Vorteil mehr. Könnte also die fps über die 75 begrenzen. Also in meinem Fall vielleicht auf 100 fps. Oder wenn es knapper bemessen werden soll, auf 85 fps. Damit spiele ich also dann auch flüssig und das dann ohne Schwankungen. Denn selbst bei noch mehr fps kann es zu Schwankungen kommen. Sehe ich ja dann bei manchen games die dann mal 150 und dann mal 300 fps haben.ich bemerke auch das noch, auch wenn es genügend fps sind. Somit macht in dem Fall begrenzen der fps Sinn. Und gleichzeitig spart man da auch noch zusätzlich an Strom weil die gpu weniger ackern muss.
 
@Latiose
Vsync ist = FPS-Limit auf die Hz vom Monitor
Wenn du natürlich deine Auflösung auf 60hz eingestellt hast, dann ist das Limit dadurch 60 ja, hast du diese auf 75Hz eingestellt ist es eben auch 75FPS mit VSync.
Ausnahme sind Spiele wie Shadow of the Tomb Raider, die können deinen Bildschirm "exklusiv" nutzen dann kannst du es inGame gesondert einstellen.
Ist nur im Falle SOTTR sowiw ROTTR nicht zu empfehlen, das gibt Performanceprobleme, insbesondere wenn du gerne mal Alt+Tab verwenden möchtest, dann fängt das mit der exklusiven Nutzung leider an zu Buggen.

Ansonsten allgemein gilt aber natürlich Vollbild und exklusiv = bessere Performance

Mit Vsync sparst du genauso Strom, ein FPS Limit ohne VSync, beseitigt leider kein Tearing, solange es einen nicht stört is das natürlich ok, wie gesagt, selbst mit variabler Refreshrate, Vsync ist die Endlösung gegen Tearing auch da noch.

60Hz Monitor mit Limit auf 75fps war bei Shadow Warrior 2 bei mir auch kein Problem gewesen,
wenn man das Game kennt uns weiss was dann Irisinn Level 3 bis 5 bedeutet, das ist fast alles was geht bei diesem Game und das ist ein verdammt schneller Shooter, der versteht auch was es unter anderem natürlich von anderen fürn Quatsch ist mit noch deutlich mehr HZ/FPS, weil ganz einfach mal ne Aussage von mir dazu, "wenn ich warmgespielt bin, komm erstmal auf meinen Skill-Level, danach kann man weiterreden" :d

Das Sauerbratenvideo was ich da aufgenommen hatte was ich eingang erwähnte, bevor ich das aufgenommen hatte, habe ich mich bei weitem noch nicht warmgespielt und hatte schon gut Skill am Start, der Kumpel da der da auch mitquatscht und wir gegeneinander da Rumballern, der ist geübt in solchen Games, hört man ja auch, Quake Live und blablabla.
Wenn ich dem Stress mache und bin für ihn ein guter Gegner, was ist erst wenn ich mich richtig warmgemacht habe wieder los :ROFLMAO:

Edit:
Früher hätte ich aus Leistungsaufnahme Gründen gesagt, lieber nur FPS-Limit, aber heute spielt das keine Rolle mehr, ist dasselbe, also VSync rein und es ist einfach garnicht mehr möglich das Tearing auftauchen könnte was störend werden könnte.


Gruss Dennis
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh