Intel nach neuen HPC-Benchmarkvergleichen in der Kritik (Update)

Bitte nicht mit dem Desktop-Ryzen verwechseln. EPYC taktet viel niedriger und da EPYC und Ryzen dieselben Chips benutzen, kann man mit mehr an Energie durchaus mehr Leistung aka Takt herausholen, entsprechende Kühlung vorausgesetzt. Die im Test verwendeten Intel-Prozessoren mussten ja schliesslich schon mit Wasser gekühlt werden. (Ob da ein Chiller zum Einsatz kam? :hust:)
Wasser wird im HPC-RZ eingesetzt, weil man damit Warmwasserkühlung realisieren kann. Das spart enorm Geld gegenüber einer klassischen RZ-Kühlung via Chiller.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wasser wird im HPC-RZ eingesetzt, weil man damit Warmwasserkühlung realisieren kann. Das spart enorm Geld gegenüber einer klassischen RZ-Kühlung via Chiller.

Ändert aber nichts daran, dass die Intel CPUs fast doppelte Leistungsaufnahme und damit entsprechend auch Abwärme haben. Irgendwann stößt man da auch an die Grenzen, die Wärme abzuführen.

@News: Nicht umsonst werden aktuell etliche Supercomputer auf Epyc Basis geplant (siehe z.B. News heute). Die Leute, die solche Rechner in Auftrag geben, sind natürlich auch gut informiert. Die wissen ganz genau, was für ihre Anforderungen die beste Lösung ist. Und da kommt aktuell häufig AMD zum Zuge, weil die Effizienz bei solchen Anwendungsfällen für Epyc spricht.
 
Da find ich AMD's AVX-Vergleichsbenchmark fairer. Auch wenn dort Intel nicht AVX512 "durfte", haben sie zumindest Ergebnisse präsentiert, die auf demselben Befehlssatz basieren.
Was ist daran fair? Dies wäre wie einen Auto mit Turbomotor den Turbo auszubauen um es dann mit einem Auto mit Saugmotor zu vergleichen. Die AVX512 Einheiten sind da und werden von den Anwendungen auch genutzt. AMD hätte ja auch welche einbauen können, aber das haben sie eben nicht gemacht. Der Vergleich von Intel ist nicht geschummelt, sondern AMD Vergleich ist geschummelt, wenn Anwendungen die AVX512 nutzen könnten dies auf Intel CPUs nicht dürfen.

Wenn ich das richtig verstanden habe, dann vergleicht Intel aber AVX512 gegenüber "normalen" AVX.
Falsch verstanden, die Rome haben AVX2 und dies wurde auch genutzt, die haben aber eben kein AVX512 und daher kann dort auch kein AVX 512 verwendet werden. Außerdem lag Intels CPU auch bei vorne die Anwendungen ohne AVX512 sind.
Könnte Rome schon AVX512, wäre er hier um den Faktor 4 schneller.
Nein, Rome kann AVX2 mit 256Bit breiten Einheiten, es wäre also maximal Faktor 2 und da keine Anwendung nur AVX512 Befehle ausführt, in der Praxis dann noch weniger.

Vergiss nicht die Fußnoten. Intel durfte 2 Threads pro Kern bearbeiten, AMD nur einen.
Auch dazu gibt es im Update eine Stellungnahme:
Offenbar wurden die Tests auf beiden Plattformen jeweils mit und ohne SMT (HT) gemacht und das jeweils bessere Ergebnis verwendet.
 
Holt
Offenbar ist kein Fakt. Also kannst du auch keine Fakten bringen.
Fakt ist, Intel macht eine falsche Angabe zur Software. Letztlich ist generell immer Fakt, Intels Aussagen über Benches sind ohne Nachprüfung durch vertrauensvolle Quelle absolut unbedeutend.
Fakt ist auch, dass du Holt dies nicht kommunizieren willst.
 
... liest du nur das, was du lesen willst. :d

Hier geht es für dich weiter:

zum update... nur lustig das die mitarbeiter, die besagte software liefern, was anderes sagen:
Patrick J Kennedy auf Twitter:

- - - Updated - - -

Wasser wird im HPC-RZ eingesetzt, weil man damit Warmwasserkühlung realisieren kann. Das spart enorm Geld gegenüber einer klassischen RZ-Kühlung via Chiller.
Na dann ist der Xeon Platinum 9282 da ja bestens aufgehoben. Der muss nämlich mit Wasser gekühlt werden, weil er sonst thottled wie blöde. :)
 
Falsch verstanden, die Rome haben AVX2 und dies wurde auch genutzt, die haben aber eben kein AVX512 und daher kann dort auch kein AVX 512 verwendet werden. Außerdem lag Intels CPU auch bei vorne die Anwendungen ohne AVX512 sind. Nein, Rome kann AVX2 mit 256Bit breiten Einheiten, es wäre also maximal Faktor 2 und da keine Anwendung nur AVX512 Befehle ausführt, in der Praxis dann noch weniger.

Jein. Wenn ich richtig gelesen habe, kam eine Programmversion zum Einsatz, die AVX2 bei Zen 2 noch nicht kannte. Das heißt für mich, der Benchmark hat nur die 128er AVX-Pfade genutzt.
 
... liest du nur das, was du lesen willst. :d

Hier geht es für dich weiter:

Man vergleiche einfach Holt's ewig mantrahaftes Gesabbel mit dem, wie das Ganze dort von tatsächlich hinreichend kompetenten Leuten bewertet wird:

Very shady to use the older version. We also have consistently, and clearly mentioned our older results are not Zen2 optimized when we published them because of this.

In den hier nachzulesenden Anmerkungen zu 2019.4 steht ferner:

Added AMD Zen 2 detection
The AMD Zen 2 architecture is now detected as different from Zen 1 and uses 256-bit wide AVX2 SIMD instructions (GMX_SIMD=AVX2_256) by default. Also the non-bonded kernel parameters have been tuned for Zen 2. This has a significant impact on performance.


Das liest sich wie ein sehr deutliches 'Nein' zu dem, was Intel hier behauptet:

The 2019.4 results are in-line with our previous 2019.3 results. [...] Intel is committed to always provide fair, transparent, and accurate performance results and would not intentionally mislead. We will continue to share our latest technology developments and findings with you.

Sehen andere offensichtlich anders.
 
Zuletzt bearbeitet:
Das heißt für mich, der Benchmark hat nur die 128er AVX-Pfade genutzt.
Lies doch einfach was Intel selbst schreibt:
Arbeite besser mal an deinem Verständnisproblem, zumal Intel auch den Vergleich mit GROMACS 2019.4 wiederholt hat:
Würdest du dir auch die Mühe machen den Link der hinter den Zitaten liegt mal anzuklicken und damit die Quelle direkt zu lesen, würdest du sehen, dass mit GROMACS 2019.4 der Xeon im Schnitt um den Faktor 1,21 schneller ist und mit GROMACS 2019.4 um 1,20, also mit GROMACS 2019.4 nicht besser sondern minimal schlechter bzw. im Rahmen der Messtoleranz haben der Xeon und Rome im Verhältnis zueinander wie mit GROMACS 2019.3 abgeschnitten.

PS: Sehe gerade, mit GROMACS 2019.4 wurde wohl komplett mit HGT/SMT gebencht:
 
Zuletzt bearbeitet:
Ändert aber nichts daran, dass die Intel CPUs fast doppelte Leistungsaufnahme und damit entsprechend auch Abwärme haben. Irgendwann stößt man da auch an die Grenzen, die Wärme abzuführen.
Die Leistungsdichte ist bei HPC-Systemen zum Teil deutlich höher, mittlerweile geht das in Richtung 50kW pro Rack. Die Intel Xeon SP 92xx CPUs sind relativ groß, so dass sie sich gut kühlen lassen. 1,6kW (4xXeon SP/1U) pro 1U ist auch kein echtes Problem. Was interessiert ist die Gesamtleistung des Systems und die Leistung pro Watt (des kompletten Racks, die CPU ist nur eine Komponente).
 
So wie ich das sehe ist der 56C Xeon schneller als der 64C Epyc in AVX256.
Wenn noch AVX512 dazu genommen wird(warum nicht) würde sogar der 128C Epyc untergehen.
Aber da Netflix über Wechsel nachdenkt muss man ehrlich sein, ist wohl Intel zu teuer und AVX512 total unbedeutend.
Auch dass mehrere Super Computer mit AMD bestückt werden spricht auch für sich.
Natürlich wird gleich „fdsonne“ um die Ecke kommen wie alle keine Ahnung haben und der Weltmarkt alles sagt.
War ja auch bei Nokia damals.
Wo ist Nokia heute......
 
Wenn man Intel Glauben schenken darf. Glaubhafter wird das, wenn es von unabhängiger Stelle nachgeprüft werden würde, was Intel da an Messergebnissen präsentiert.

Intel ist ja nicht gerade immer ehrlich...
 
Jaimewolf3060, so ganz hast du das nicht verstanden, beim Xeon wurde AVX512 genutzt und beim Rome eben nur AVX2 mit 256Bit breite, weil der ja kein AVX512 unterstützt, von daher würde ich hier nicht sehen, dass der 56 Kerner schneller als ein 128 Kerner EYPC sein würde. Keine Ahnung welche Beweggründe Netflix oder andere Anwender haben, aber wenn man keine Software nutzt die AVX512 unterstützt, dann spielt die Performance mit AVX512 natürlich keine Rolle. Es muss halt jeder die für seine Anwendungen passende Hardware auswählen und dies gelingt Serverkunden in aller Regel weit besser als den Heimanwendern, es ist bei Servern aber auch leichter, da dies ja meistens für einen einzigen, ganz bestimmten Einsatz verwendet werden.

- - - Updated - - -

Man sieht übrigens auch am Beispiel des AMD TR3000 wie die Skalierung über mehr Kerne längst nicht immer linear ist.

attachment.php


Der 3970X mit 32 Kernen ist "nur" 2,05 mal so schnell wie der 9920X 12 Kerner, obwohl er 2,67 mal so viele Kerne hat und auch der 3960X kommt mit doppelt so viele Kernen nicht die doppelte Leistung. Zwar wissen wir nicht mit wie viel Leistungsaufnahme die CPUs jeweils gelaufen sind, aber wenn diese innerhalb der TDP liefen, dann dürften die TR auch deutlich mehr Leistungsaufnahme gehabt haben, waren also nicht durch die Leistungsaufnahme eingebremst. Aber selbst innerhalb der Familie ist die Skalierung nicht linear, der 9980XE hat mit 18 ja 50% mehr Kerne, aber nur 37% mehr Leistung und auch die 33,3% mehr Kerne des 3970X bringen ihm nur 20,6% mehr Performance als der 3960X hat.

AMD_TR3000_V-RAY.png
 
Es muss halt jeder die für seine Anwendungen passende Hardware auswählen und dies gelingt Serverkunden in aller Regel weit besser als den Heimanwendern, es ist bei Servern aber auch leichter, da dies ja meistens für einen einzigen, ganz bestimmten Einsatz verwendet werden.
Serveranbieter haben aber auch erkannt, dass AVX, insbesondere AVX512, erstens sehr stromhungrig & wärmefreudig ist und zweitens der meist daraus resultierende niedrigere AVX512-Takt auf einem CPU-Kern zur Folge hat, dass der zweite Thread auf diesem Kern auch nur noch mit diesem niedrigen Takt läuft - selbst wenn darauf keine AVX-Anwendung genutzt wird. Und wenn massive AVX512-Leistung angefordert wird, geht der Takt der gesamten CPU in die Knie. Und wenn dabei nur 10 von 24 Kernen mit AVX feuern, haben die restlichen Kerne eben die A*schkarte gezogen und werden auch eingebremst.

Es macht heute mehr Sinn, Anwendungen, die massiv von AVX, insbesondere AVX512 profitieren würden, auf GPUs auszulagern. Die rechnen nicht nur schneller, die beeinflussen nicht auch noch die restliche CPU-Leistung.

Gerade bei GROMAC wird ganz groß mit der GPU-Cloud geworben. Da haben die CPUs keine Chance.

Hier mal als Beispiel, dass AVX nur auf Maschinen Sinn macht, die ausschließlich auf AVX ausgelegt sind:
AVX-512: when and how to use these new instructions s blog

Maschinen, die "eierlegende Wollmilchsäue" sind (Server), sollten besser kein AVX nutzen.
 
Zuletzt bearbeitet:
@Holt
Rome hat doch 256 Einheit und macht die 512 mit halber Geschwindigkeit weil 2 Durchgänge benötigt werden.
So in etwa!
Im Grunde ist AVX512 eine Totgeburt wie bereits „fortunes“ erläutert hat, weil auf GPU solche Sachen schneller sind.

Im Grunde sind überhaupt Diskussionen über sowas Nonsens, da eh keiner von uns damit was zu tun hat.
 
@Holt
Rome hat doch 256 Einheit und macht die 512 mit halber Geschwindigkeit weil 2 Durchgänge benötigt werden.
So in etwa!
Nein, aus welchem Finger hast du dir dies gesaugt? So ähnlich war es vorher mit AVX2, aber Rome hat nach allen Quellen die ich finde, gar keine AVX512 Unterstützung, auch nicht in Form von Ausführung in zwei Schritten mit je 256 Bit.
Es wäre auch gar nicht nötig zwei 256 Bit Operationen nacheinander auszuführen, denn Zen2 hat:
Im Grunde ist AVX512 eine Totgeburt wie bereits „fortunes“ erläutert hat, weil auf GPU solche Sachen schneller sind.
Wenn fortunes etwas schreibt, kann man sich praktisch sicher sein, dass das Gegenteil wahr ist. Die GPUs können zwar Operationen viel schneller ausführen, aber die Daten müssen erst zur GPU hin und die Ergebnisse von dort wieder zurück übertragen werden. Die Nutzung der CPU lohnt sich also nur, wenn auch viele Operationen auf den Daten ausgeführt werden, AMD Fusion Ansatz für die APUs war ja genau dies durch die Integration der GPU in die CPU zu vermeiden, aber diese wurde erst mit Kaveri vollständig umgesetzt und war es schon zu spät, auch weil die SW Unterstützung dafür gefehlt hat und daran waren auch die mangelnden Entwicklungstools schuld. Denn um die GPU nutzen zu können, muss man eben die GPU programmieren, die GPUs unterstützen ja nun einmal keine x86 Befehle.

Wenn AVX512 eine Totgeburt wäre, wieso setzt Intel dann ab den 10nm CPUs auch bei den Mainstream und sogar den mobilen CPUs darauf? Und wieso zieht AMD nach und stattet Zen2 nun mit der Möglichkeit aus zwei 256 Bit AVX2 Befehle pro Zyklus abzuarbeiten? Dies würde doch keinen Sinn machen, wenn der Trend zur GPU Programmierung gehen würde, aber dies tut er nicht, im Gegenteil, die Cooper Lake werden mit bfloat16 die Nutzung von AVX512 für AI noch weitaus effizienter machen, damit können dann in einer AVX512 Einheit 32 je 16 Bit breite Variablen gleichzeitig berechnet werden. Bei AI braucht man vor allem Durchsatz und weniger Präzision der Berechnungen.

Im Grunde sind überhaupt Diskussionen über sowas Nonsens, da eh keiner von uns damit was zu tun hat.
Mit dem Argument könnte man jede zweite Diskussion hier abwürgen, aber irgendwie hättest du dir das dann auch vorher zu Herzen nehmen können und gar nicht erst hier schreiben sollen.
 
Der liebe Holt sollte eventuell mal genauer lesen:
Zen 2 has a newer AVX2 path that this benchmark is not fully taking advantage of.
Der erste Satz deiner Signatur trifft hier voll auf dich zu. Ohh! Ich vergaß das ich auf deiner Ignore-List bin.
 
@Holt
Nenn mal bitte real world Anwendung die User xy auf Notebook durchführen würde die auch Sinn macht, die AVX512 nutzt!

@Winchester
Allein dass jemand Ignore Liste nutzt sagt viel über die Personen aus.
Kommunikative Unfähigkeit!
 
Der Fairness halber muss man zugestehen, dass er inmitten seiner ganzen Propagandalitanei zumindest mal konzessiert hat, dass der Verbraucher selbst entscheiden muss, ob die von ihm genutzen Anwendungen AVX512 auch tatsächlich nutzen.

@Jaimie Dass das für einen im hohen zweistelligen Prozentbereich liegenden Verbraucherkreis aktuell marginal relevant sein dürfte, siehe Wiki.

Blender uses AVX2 in the render engine cycles.
OpenSSL uses AVX- and AVX2-optimized cryptographic functions since version 1.0.2.[33]. This support is also present in various clones and forks, like LibreSSL
Prime95/MPrime, the software used for GIMPS, started using the AVX instructions since version 27.x.
dav1d AV1 decoder can use AVX2 on supported CPUs.[34]
dnetc, the software used by distributed.net, has an AVX2 core available for its RC5 project and will soon release one for its OGR-28 project.
Einstein@Home uses AVX in some of their distributed applications that search for gravitational waves.[35]
RPCS3, an open source PlayStation 3 emulator, uses AVX2 and AVX-512 instructions to emulate PS3 games.
Network Device Interface, an IP video/audio protocol developed by NewTek for live broadcast production, uses AVX and AVX2 for increased performance.
Tensorflow since version 1.6 requires CPU supporting at least AVX.[36]
Xenia requires AVX instruction set in order to run.
x264, x265 and VTM[disambiguation needed] video encoders can use AVX2 or AVX-512 to speed up encoding.
Various CPU-based cryptocurrency miners (like pooler's cpuminer for Bitcoin and Litecoin) use AVX and AVX2 for various cryptography-related routines, including SHA-256 and scrypt.
libsodium uses AVX in the implementation of scalar multiplication for Curve25519 and Ed25519 algorithms, AVX2 for BLAKE2b, Salsa20, ChaCha20, and AVX2 and AVX-512 in implementation of Argon2 algorithm.
libvpx open source reference implementation of VP8/VP9 encoder/decoder, uses AVX2 or AVX-512 when available.
FFTW can utilize AVX, AVX2 and AVX-512 when available.
LLVMpipe, a software OpenGL renderer in Mesa using Gallium and LLVM infrastructure, uses AVX2 when available.
glibc uses AVX2 (with FMA) for optimized implementation (i.e. expf, sinf, powf, atanf, atan2f) of various mathematical functions in libc.
Linux kernel can use AVX or AVX2, together with AES-NI as optimized implementation of AES-GCM cryptographic algorithm.
Linux kernel uses AVX or AVX2 when available, in optimized implementation of multiple other cryptographic ciphers: Camellia, CAST5, CAST6, Serpent, Twofish, MORUS-1280, and other primitives: Poly1305, SHA-1, SHA-256, SHA-512, ChaCha20.
POCL, a portable Computing Language, that provides implementation of OpenCL, makes use of AVX, AVX2 and AVX512 when possible.
.NET Core and .NET Framework can utilize AVX, AVX2 through the generic System.Numerics.Vectors namespace.
.NET Core, starting from version 2.1 and more extensively after version 3.0 can directly use all AVX, AVX2 intrinsics through the System.Runtime.Intrinsics.X86 namespace.
EmEditor 19.0 and above uses AVX-2 to speed up processing.

Alle hier genannten Programme, die AVX512 unterstützen, utilisieren ebensso das Ryzen-kompatible AVX2. Mit anderen Worten: der mögliche Vorteil, den AVX512 in irgendeinem der genannten Szenarien bringen könnte, wird aufs Ganze betrachtet kaum mehr als eine Randnotiz darstellen.

Da bleibt es dann auch vollkommen irrelevant, wenn man in jedem zweiten Beitrag ,Aber AVX512!!!!1111' brüllt.
 
Zuletzt bearbeitet:
Wenn AVX512 eine Totgeburt wäre, wieso setzt Intel dann ab den 10nm CPUs auch bei den Mainstream und sogar den mobilen CPUs darauf?
Weil Intel eine hohe Marktdurchdringung mit aller Macht erreichen will, um die Softwareentwickler zur Unterstützung zu "zwingen". Wenn mehr Maschinen AVX512 unterstützen, sehen die Entwickler auch einen größeren Nutzen dahinter, es in die Software einzubauen.

Denn wie man sehen kann, sind die Programme, die tatsächlich AVX512 unterstützen (keine Benchmarks!) noch sehr spärlich gesät.

Und wieso zieht AMD nach und stattet Zen2 nun mit der Möglichkeit aus zwei 256 Bit AVX2 Befehle pro Zyklus abzuarbeiten?
Weil Intel sonst den AVX-Vorteil alleine inne hat. AMD muss an der Stelle mit der Zeit gehen, weil man nie weiß, wo das ganze mal hinführt. Bislang ist die Unterstützung für AVX2 aber deutlich höher als für AVX512. Und genau das bringt AMD jetzt in Zen2.

Zum Glück bin ich aber auf Holts Ignore-Liste. Denn ich bin nicht seiner Meinung und habe Recht. Das passt ihm nicht. :d
 
Zum Glück bin ich aber auf Holts Ignore-Liste. Denn ich bin nicht seiner Meinung und habe Recht. Das passt ihm nicht. :d

Das macht nichts, er liest trotzdem, was du schreibst. Persönlichkeitsbedingt. ;)
 
Das macht nichts, er liest trotzdem, was du schreibst. Persönlichkeitsbedingt. ;)

Ignore Liste zu nutzen hat etwas mit mangelnder sozialer Fähigkeit!
Ich frage mich, wie schaut das im Real Life bei ihm?
Wird dann der Piepton eingespielt wenn der unliebsame Kollege oder Familienmitglied zu ihm spricht....
 
Man kann im Real Life sehr wohl den Dummfug-labernden-Fremden ignorieren, oder ihn/sie mehr oder weniger freundlich fortschicken. Es ist mein gutes Recht, meine Zeit nicht mit der (vermeintlichen) Dummheit Anderer verschwenden zu müssen. Und weil das im pseudonymisierten/anonymisierten Internet noch viel schlimmer ist, gibt es zum Glück fast überall die Ignore-Funktion.
 
Weil Intel eine hohe Marktdurchdringung mit aller Macht erreichen will, um die Softwareentwickler zur Unterstützung zu "zwingen". Wenn mehr Maschinen AVX512 unterstützen, sehen die Entwickler auch einen größeren Nutzen dahinter, es in die Software einzubauen.
Denn wie man sehen kann, sind die Programme, die tatsächlich AVX512 unterstützen (keine Benchmarks!) noch sehr spärlich gesät.


Weil Intel sonst den AVX-Vorteil alleine inne hat. AMD muss an der Stelle mit der Zeit gehen, weil man nie weiß, wo das ganze mal hinführt. Bislang ist die Unterstützung für AVX2 aber deutlich höher als für AVX512. Und genau das bringt AMD jetzt in Zen2.

Zum Glück bin ich aber auf Holts Ignore-Liste. Denn ich bin nicht seiner Meinung und habe Recht. Das passt ihm nicht. :d
Das geht auch umgekehrt, Intel verzichtete z.B. auf FMA4 kurz nach dem es AMD in Hardware gegossen hat:

A similar compatibility issue is the difference between the FMA3 and FMA4 instruction sets. Intel initially proposed FMA4 in AVX/FMA specification version 3 to supersede the 3-operand FMA proposed by AMD in SSE5. After AMD adopted FMA4, Intel canceled FMA4 support and reverted to FMA3 in the AVX/FMA specification version 5 (See FMA history).[1][5][6]
XOP instruction set - Wikipedia

Diese Inkompatibilität wurde dann zu "AMD hat eine schlechte AVX implementation"

Aha
 
Man kann im Real Life sehr wohl den Dummfug-labernden-Fremden ignorieren, oder ihn/sie mehr oder weniger freundlich fortschicken. Es ist mein gutes Recht, meine Zeit nicht mit der (vermeintlichen) Dummheit Anderer verschwenden zu müssen. Und weil das im pseudonymisierten/anonymisierten Internet noch viel schlimmer ist, gibt es zum Glück fast überall die Ignore-Funktion.

Das stimmt durchaus.

Allerdings hat Jaime bezüglich besagtem Kollegen jetzt auch nicht ganz unrecht. Das regelrecht penetrant-wiederHOLTe Insistieren auf der eigenen Ignoreliste sagt wesentlich mehr über seine Persönlichkeitsstruktur aus als über die kolportierte Dummheit der von ihm Ignorierten. Dazu braucht es jetzt keinen akademischen Grad in Humanpsychologie.
 
Wo ihr schon dabei seit, möchte ich mal eine Lanze für Jaimewolf3060 brechen, seine Beiträge haben sich in letzter Zeit sehr zum Guten gewendet und damit meine ich jetzt nicht im Speziellen seine Äußerungen zu User Holt, bin wirklich sehr zufrieden mit Ihm, weiter so! :bigok:
 
Zuletzt bearbeitet:
Ja mei, ich wollte doch nur der Aussage, dass die Nutzung der Ignorelist auf mangelnde Sozialkompetenz hindeutet, wiedersprechen, sie deutet in den meisten Fällen eher auf ein Zeit- und/oder "Nervenmanagement" hin.
 
Naja man kann da geteilter Meinung sein bzgl. IG-Liste, will das aber hier nicht weiter ausführen, nur so viel, wir befinden und hier in einer Community, ein Raum der Kommunikation mit verschiedensten Individuen und ich finde es gehört dazu sich allen im Diskurs zu stellen, solange ein respektvoller Umgang gewährleistet ist, das mag aber natürlich jeder anders sehen. :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh