ATI Radeon HD4000 (R700) - [Speku-, News- & Sammelthread] (Part1)

Status
Für weitere Antworten geschlossen.
Alles rund um die ATI Radeon HD4000 Grafikkartenserie

Vorraussichtliche technische Daten:
HD 4870 (RV770XT), 55 nm, 850 MHz Chiptakt, 1050 MHz Shaderdomain, 1935 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 1008 GFlops, 27.200 MT/s, 256 Bit Speicherinterface, 1024 MiB GDDR5, 123,8 GB/s Speicherbandbreite, 150 W TDP, $349 MSPR, Release Mai 2008

HD 4850 (RV770PRO), 55 nm, 650 MHz Chiptakt, 850 MHz Shaderdomain, 1728 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 816 GFlops, 20.800 MT/s, 256 Bit Speicherinterface, 512 MiB GDDR5, 110,5 GB/s Speicherbandbreite, 110 W TDP, $269 MSPR, Release Mai 2008

HD 4850 GDDR3 (RV770PRO), 55 nm, 650 MHz Chiptakt, 850 MHz Shaderdomain, 1143 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 816 GFlops, 20.800 MT/s, 256 Bit Speicherinterface, 256/512 MiB GDDR3, 73,2 GB/s Speicherbandbreite, 110 W TDP

Quelle: Hartware.de

NEWS:
More RV770 and RV770X2 details

Die shrink with minor changes
ATI said a few things about its new upcoming RV770 chips, and as we've said before you can expect [...]
weiterlesen

RV770 will do GDDR 5 and GDDR3

Two flavours
We’ve learned that single chip RV770 card comes in two flavours. The first one [...]
weiterlesen

RV770XT supports 512-bit memory

Despite the claims
A German Website posted an interesting article with a lot of RV770XT and PRO specs, but [...]
weiterlesen

R700 to launch close to Computex

Or around, at leastRV770 chips are looking good and the highest end R700 based product might launch around Computex (starts at June 3 2008). We believe [...]
weiterlesen


RV770 is already in production
Test one
We learned
that the RV770 GPU already went to production and there is a big chance to see R700 generation much earlier than anyone [...]
weiterlesen

Wer noch interessante Links hat, bitte per PN an mich weiterleiten!


 
Zuletzt bearbeitet:
@ all
Gibt es eig irgendeine bestätigung dass die chips 48xx heißen werden .? denn wenn es wirklich ein R700 wird glaub ich eher dass der 4900XT heißt wie die 2900er.. und dann erst später die RV's nachgeschoben werden...
@ da oben
dooch er hat gesagt dass man die soweit übertakten kann bis sie locker X2 nivau erreicht
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zuletzt bearbeitet:
scheint üblich zu sein bei den ganzen hardware oder spiele mags ;)

einfach jeden mist aus foren oder anderen seiten ala fudo und co. abschreiben oder sich noch was zusätzlich reinreimen.

von daher gebe ich seit langem kein wert mehr auf die artikel von mags.
 
@Xptweaker

wundert das einen? War doch bei der HD2900 genauso.

Naja immer diese BWLer die sagen wir launchen dann und dann ohne auf die Meinung der Ingenieure zu hören. Die sinds sicher nicht die "so schnell wie irgendwie möglich" serienreif werden wollen...

Aber die Terminverschiebungen bei Ati sind schon krass, die machen damit ganz schön auf sich aufmerksam...nur ob das jetzt gut ist oder schlecht für die Verkaufszahlen lass ich mal dahingestellt.

Gibt ja viele die auf die Karten warten, aber nach der dritten Terminverschiebung irgendwann sagen, naja nehm ich halt doch die GTX

ATI hat noch keine offizielen Termin genannt für den Launch des RV770 :hmm:
Der RV670 kam sogar früher als es ATI in der Roadmap angab (sollte eigentlich 1/08 erst kommen)

Beim R600 wurde verschoben stimmt.
 
@ da oben
dooch er hat gesagt dass man die soweit übertakten kann bis sie locker X2 nivau erreicht
In dem von Le_frog99 zitierten Text steht davon aber nix. Ist auch egal. Dass das nicht hinkommen kann, sollte eigentlich jedem klar sein.
 
Zuletzt bearbeitet:
So, ein allerletztes mal werde ich deinen Stuss noch kommentieren. Nicht dass es mir Freude machen würde, aber manches kann man doch nicht so stehen lassen. In Zukunft werde ich das nur noch tun, wenn du kurz davor stehen solltest irgendwem mit deinem Geschwalle zu imponieren. Wie es ausschaut können sich die Leute aber in der Regel gut selber ein Bild davon machen wer Mist redet und wer nicht.

Wie üblich entbehrt Dein Posting jeder Grundlage und offenbart bestenfalls, wann Du in etwa die Schule verlassen hast, nämlich vor diesem berühmten Halbjahr, in dem andere die hohe Kunst der Prozentrechnung erlernten.

Ich habe mich nicht extra auf deine Rechnung bezogen (die mathematisch richtig ist), sondern wie schon einmal gepostet z.B. daran, dass du von nur einem Spiel oder einer technischen Gegebenheit auf das globale Leistungsvermögen der Karten schließt und dich verbissen an Dinge klammerst und propagierst die so keine absolute Richtigkeit besitzen.

Zwei Beispiele, wie sie sich in deinen Posts häufig finden:

Vorraussetzung: Die HDs sind den G80/92 in Sachen Texelfüllrate völlig unterlegen.
Rückschluss: Die HDs sind deshalb mit AFx16 in Stalker langsamer.
Fazit: Die HDs sind immer langsamer (Falsch!)

Vorraussetzung: DIRT liegt der RV670-Architektur sehr.
Rückschluss: Die HDs performen sehr gut in DIRT, besser als ein G92
Fazit: Die HDs performen immer besser (Falsch!)

Mir scheint es, als könntest du dir keine umfassende Einschätzung bilden. Bereits verlinkte Beweise (wie z.B. bei der AF-Qualität) negierst du völlig. Dinge die dir scheinbar recht geben (Rohrechenleistung) oder einen Screenshot überbewertest du in ihrer Bedeutung. Was man mit roher Rechenkraft oder Speicherbandbreite gewinnen kann hat doch der R600 gezeigt: Nicht immer viel. Ich verweise dabei wieder auf obige Beispiele. Die genannten Screenshots hat selbst der Ersteller als nicht geeignet für einen Vergleich bezeichnet. Sie sind zur Untermauerung deiner allgemeinen Aussagen nicht geeignet.


Eine HD 3870 X2 hat exakt die Leistung zweier HD 3850 mit je 512 MB, die ihres GDDR3 wegen etwa 80% der Leistung einer HD 3870 erreicht.

Zwo mal 80 sind nun 160, und da nach Adam Riese 100*100/160 62,5 sind, erreicht die kleinste HD 3870 mit 777/1126 etwa 62,5% der Leistung einer X2.

Bei 20% mehr Takt, die ich hier bei 40 Grad fahre, erreicht die HD 3870 bereits über 70% der Leistung einer X2, die bekanntlich um etwas mehr als 30% schneller als eine 8800 Ultra ist.

Damit liegt eine HD 3870 vor der Ultra, und das stützt sich sogar auf alle bekannten Tests. Lesen und rechnen muß man natürlich schon können.

Leute wie Du dürfen sich natürlich verzweifelt an die Idee klammern, schräge Benches bei 777/1126 hätten irgendeinen Aussagewert über Karten, die mit deutlich mehr als 900/1300 laufen, oder mit 10% mehr VGPU und VRAM über 1100/1400 erreichen.

Hier machst du einen anderen Fehler. Diesmal liegt er schon in der Vorraussetzung: Eine 3870X2 ist nicht nur doppellt so schnell wie eine 3850 sondern doppelt so schnell wie eine 3870. Vieleicht sogar noch etwas mehr.
Die kleineren Speicherlatenzen, sowie 50Mhz mehr an GPU-Takt machen den GDDR4 wieder wett.

Das die 3850 nicht wegen des deutlich niedrigeren GPU-Taktes sondern hauptsächlich wegen des GDDR3 langsamer ist so auch mehr als zweifelhaft.

http://www.computerbase.de/artikel/...deon_hd_3870_x2/2/#abschnitt_technische_daten

http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/april/hd_3870_gddr3_gddr4/

Wenn du darauf bestehst kann ich dir auch andere Links suchen.

Mit falschen Vorraussetzungen ist deine nobelpreisverdächtige Prozentrechnung natürlich relativ wenig wert.


Ist bestellt. Die Demo taugt nicht für sowas. Gibt allerdings keinen Grund, aus dem ein System, das CMR DiRT absolut souverän schultert, bei Crysis völlig versagen sollte.

Da wirst du dich aber wundern.


Meine 'ATI-fps' liegen bei mir wärend der gesamten Crysis-Demo mit AA und AF auf dem TFT bei 1280*1024 etwa doppelt so hoch wie Du hier behauptest. Mit knapp 12 fps läuft die Crysis-Demo auf meinem CRT bei 1920*1440.

Du weist genau was ich damit ausdrücken wollte: Dass du dich krampfhaft an die Überlegenheit deiner Karte klammer willst, komme was wolle. Du bist unbelehrbarer als 3 Meter Feldweg. Wenn eine 8800 Ultra mehr Frames liefert, "mircoruckeln" die eben. Basta!

Und dabei geht es weniger darum, wer den längsten hat, sondern eher darum, ob man anderen die Köppe zumistet, und Karten unterjubelt, die weit davon entfernt sind, noch irgendwelche 'Leistungskronen' erringen zu können.

Du hast die längste 3870, obwohl es darum ja garnicht geht, weis es das halbe Forum. Sie ist bei Vollast 40 Grad kühl, macht übr 900MHz ohne Voltmod und ist mucksmäuschen still. Ich kann mich nur nicht daran erinnern, das dich jemals wer danach gefragt hätte.

Bez. Leistungskrone: Sieh dir mal die Performanceratings auf von mir aus ALLEN Seiten durch die du findest. Wenn da einmal eine 3870 auf dem Spitzenplatz steht (alle Einzelwertungen zusammengezählt) und eine 8800 Ultra mitgetestet wurde, schick ich dir ne Flasche Wein. Ups, vergessen, sind alle vom grünen Teufel gekauft oder?

Mag sein, daß die preisgünstigeren Modelle der HD 3870 keine Geschwindigkeitsrekorde aufstellen, wofür sie ja auch ausgesprochen günstig sind, was ein ausgezeichnetes P/L-Verhältnis begründet,

Bis hierhin vollste Zustimmung.

aber die aufwendigeren Modelle sind ohne jeden Zweifel die derzeit schnellsten Einzel-GPU-Karten am Markt. Und das noch ohne Hardcore-Overclocking (Voltmodding), mit dem bekanntlich weitere 20% Leistungssteigerung erzielt werden können, mit der die Karten nur noch wenig hinter einer HD 3870 X2 oder einer 9800 GX2 zurückliegen.

Hier nicht mehr. Völliger Bullshit.

Ich behaupte ja auch nicht ein E7200 ist die schnellste Dualcore-CPU, auch wenn das nach Übertaktung sogar sein könnte. Wir vergleichen die Referenzmodelle sonst nichts.

Ansonsten empfiehlt sich (wie eigentlich überall): Wenn man keine Ahnung hat, einfach mal...

Nimms dir doch bitte einmal zu Herzen!
 
Zuletzt bearbeitet:
man das geht einem auf den sack mich juckt nur die 4000er serie nichts sonst also hört mal auf rumzu spammen
 
man das geht einem auf den sack mich juckt nur die 4000er serie nichts sonst also hört mal auf rumzu spammen

Ich werde versuchen mich zu beherrschen. Es ist nur verdammt schwer. Der provoziert einen so. :(

On Topic: Ich glaube nicht an 512Bit im Zusammenspiel mit GDDR5. Was hätte das groß für einen Sinn? Speicherbandbreite ist auch so genu da. Und ein 512Bit-Interface dürfte wesentlich kostenintensiver sein.
 
ATis RV770-GPU doch mit 512-Bit-Interface?

ATis RV770-GPU steht schon in den (noch unbekannten) Startlöchern und dementsprechend gibt es um den Grafikchip immer mehr Gerüchte. Bis jetzt ging man davon aus, dass ATis „Next-Gen-GPU“ wie der Vorgänger RV670 über ein 256 Bit breites Speicherinterface verfügen wird.

Unterstützt wird diese These durch die Vermutung, dass es sich beim RV770 voraussichtlich nur um einen erweiterten RV670 handelt, sprich man erhöht die Anzahl der Recheneinheiten, lässt deren Funktionen aber größtenteils gleich. Dementsprechend passen die Vermutungen mit 96 5D-Shadereinheiten und 32 vollwertigen Textureinheiten (mit eventuell 64 Texture Addressing Units) sowie 16 ROPs gut ins Gesamtbild.

In letzter Zeit vermehren sich aber die Spekulationen, dass der RV770 wie der unglückliche R600-Chip doch über ein 512 Bit breites Speicherinterface verfügen wird. Die Gerüchteküche Fudzilla gießt nun wieder Öl ins Feuer, und behauptet zu wissen, dass die schnellste RV770-Version, die voraussichtlich auf den Namen Radeon HD 4870 hören wird, auf ein 512 Bit breites Speicherinterface setzen wird. Gepaart mit dem wahrscheinlichen GDDR5-Speicher würde die GPU somit über eine beinahe schier unendliche Speicherbandbreite verfügen.

Auch wenn wir dies nicht widerlegen können, halten wir es aus mehren Gründen für unwahrscheinlich, dass die Radeon HD 4870 auf ein 512 Bit breites Speicherinterface setzen wird. Zuerst wäre es für ATi ungewöhnlich, dass aus einer Serie (Radeon HD 4800) nur das Spitzenmodell auf den maximalen Ausbau setzen wird und die kleinere Radeon HD 4850 nicht nur im Takt, sondern auch bei den Ausführungseinheiten kastriert ist. Darüber hinaus würde die Grafikkarte aufgrund des GDDR5-Speichers eine extrem hohe Bandbreite erhalten, mit dem der aufgebohrte RV670 wahrscheinlich aber gar nichts anzufangen wüsste – ähnliches konnte man auf dem R600 beobachten.

Ebenfalls würde ATi die GPU weitaus mehr modifizieren als bis jetzt gedacht. Die 256 zusätzlichen Leitungen müssen bekanntlicherweise auch an die GPU angeschlossen werden, was Platz in Anspruch nimmt und nicht zu der vermutlich kleinen DIE-Größe passt. Wir gehen davon aus, dass der RV770 weiterhin mit einem 256-Bit-Speicherinterface ausgestattet ist. Das 512-Bit-Interface könnte gut von dem von ATi eingesetzten Ring-Bus stammen, der in jede Richtung jeweils 256 Bit breit ist.

www.computerbase.de
 
Welcher Horst geht denn davon aus, dass ein größeres Speicherinterface was mit der Diesize zu tun hat -_-
 
@lord
ausgehen nicht, nur benötigt 512bit SI auch eine gewisse große.
und es wäre zu dem unwarscheinlich einen kleinen wirtschaftlichen RV chip ein dickes SI zu verpassen.
 
Auf das Märchen vom Wunder-GDDR3 sind schon genug Leute reingefallen. Mit latenzen ist bei solchen Taktrateh absolut gar nichts zu holen, und eine X" kommt nicht auf die GPU-Taktraten einer Einzelkarte, weil die SpaWas vorher aufgeben.

Auf dem gleichen System kommt eine X2 auch nicht auf die Leistung zweier HD3870, und unübertaktet kommt sie auch nie auf die doppelte Leistung beispielsweise einer Atomic, auf deren Takte aber jede Karte geht, die nicht mit GDDR3 bestückt ist. An der Tatsache, daß Benches über 16K in den Leistungsbereich einer X2 gehen, ist nicht zu rütteln.

:lol:

Junge, eine X2 macht ohne jegliche Voltmods oder sonstige 904 Mhz GPU Takt mit dem Standardkühler das schafft KEINE HD3870, und dein Speichertakt bringt dir 0,0 ob nun 1250 oder 1600 Mhz im 3DMark bringt das nicht 1 FPS mehr, kannst selber Testen und kann dir jeder User bestätigen die solche Karten haben, die Speicherband ist nicht der Flashenhals weil davon haben wir genug.
Die Spawas geben vorher auf ja ?
Die HD 3870 geben schneller den Geist auf als ne X2 ich hab schon einige 3870er Sterben sehen und auch schon 2 gehabt die gestorben sind.

Und was willst du hier überhaupt erzählen?
3Dmark juckt nurnoch die Kinder die eh kein Plan haben, und 1280x1024 sowieso keinen mehr.
 
Zuletzt bearbeitet:
Jetzt lasst doch mal das geflame. Man kann sich doch auch mal eine Reaktion sparen, wenn der andere sowieso wieder zurückgibt. Manche müssen hier wirklich zeigen, dass sie recht haben. Es geht hier nur um eine Grafikkarte. Also muss man nicht gleich auf den Damm steigen. Ausserdem schrecken solche Sachen nur andere Forumuser ab, hier etwas beizutragen, wenn die Hälfte aller Posts nur auf Angriff auf eine andere Person aus sind. Versucht doch einfach einfach sachlich zu diskutieren.

Danke!


@ Topic:
Die HD4870 soll ja in etwa die doppelte arithmetische Leistung haben. Wenn jetzt der Speichertakt durch das 512Bit SI und GDDR5 (was ich zwar für relativ unwahrscheinlich halte, eher GDDR3 oder 256Bit SI) die Speicherbandbreite so stark steigt und die chipinternen Verbesserungen auch noch was bringen, wird sie garantiert deutlich schneller als die Ultra sein. Vielleicht wird sie ja gar doppelt so schnell wie eine HD3870.
 
Rechne ATI will DAS VERSÄUMTE wieder zurechtbiegen und nun AA
"for free" anbieten, und dies gar bis zu 8xSSAA. Könnte da diese enorme Speicherbandbreite nicht von Nöten sein, zwar gar um einiges Teurer , aber besser einen guten Chip entwickeln welcher NV in die Schranken weisst. Vielleicht kostet ja der RV770 auch gute 300 Euro, aber er wird ein 2-ter G80, diesmal von der Konkurrenz.

Somit dürfte die Performance der HD4870-X2 alles bisher erwartet weitaus schlagen, Hoffen wir zumindest dass es so auch kommen mag.
 
8xSSAA for free? Da brauchst du viel, VIEL mehr als nur unbegrenzte Speicherbandbreite. ;) Außerdem gibt es kein "8xSSAA". Höchstens 2x2, 3x3, 4x4.
 
Das ist allerdings nur MSAA ;) Da kann die Bandbreite schon was bringen. Fraglich ist, wer noch höhere Levels an MSAA heutzutage braucht. An den wirklich wichtigen Stellen - der allgemeinen Bildruhe und den Texturen - bringt das nämlich garnix. Ich würde mir eher neue Algorithmen oder vernünftige SSAA-Implementierungen wünschen.
 
Sollte nicht die PRO Version im Mai ausgeliefert werden und die XT im Juni? Wenn sich die Karten nun so verzögern, dass keine auf der Computex im Juni vorgeführt werden kann, muss dies ja eine erhebliche Verzögerung sein :(.

Außerdem glaube ich immer noch, dass die meisten Hoffnungen (genau wie beim GT200) sehr weit von der Realität entfernt sind. Am ehesten traue ich ATI noch Shader mit eigenem Takt zu (wie bei Nvidia), wodurch sie nochmal einen deutlichen Sprung machen könnten.
 
@berni_ati
träumst wohl wieder? ;)
zum thema eDRAM hat man seit ewigkeiten nichts mehr gehört, wurde wohl abgeschossen wie der urpsprüngliche R700. und beim G80 ist AF nur so for free weil die architektur und bandbreite stimmt.
 
Das ist allerdings nur MSAA ;) Da kann die Bandbreite schon was bringen. Fraglich ist, wer noch höhere Levels an MSAA heutzutage braucht. An den wirklich wichtigen Stellen - der allgemeinen Bildruhe und den Texturen - bringt das nämlich garnix. Ich würde mir eher neue Algorithmen oder vernünftige SSAA-Implementierungen wünschen.

AC mit DX10.1 machts vor, das kostet fast nix :)
 
Rechne ATI will DAS VERSÄUMTE wieder zurechtbiegen und nun AA
"for free" anbieten, und dies gar bis zu 8xSSAA. Könnte da diese enorme Speicherbandbreite nicht von Nöten sein, zwar gar um einiges Teurer , aber besser einen guten Chip entwickeln welcher NV in die Schranken weisst. Vielleicht kostet ja der RV770 auch gute 300 Euro, aber er wird ein 2-ter G80, diesmal von der Konkurrenz.

Somit dürfte die Performance der HD4870-X2 alles bisher erwartet weitaus schlagen, Hoffen wir zumindest dass es so auch kommen mag.

8xSSAA wozu soll das bei 1920x1200 und höher gut sein????????????
 
Extreme Quality Settings, die man selbst mit einer Lupe nur schwer erkennt.
Dann lieber eine stark verbessertes AF!

Wir leben in einer Zeit wo langsam 24" Standard ist, und nicht selten Leute einen 30" oder noch grösser haben.

Schon mal vor nen 37" gesessen in 1920x1200 und nur 4xAA ?
Du bekommst Augekebs sag ich dir ;)

8xAA ist eifnach für Pflicht für mich und für viele andere sogar noch mehr, ich bin so einer wenn das Bild nicht Perfekt ist dann ist das Spiel auch scheisse.

NFS Pro Street zB: mit 4xAA:kotz: erst ab 8xAA wirds bissel besser aber richtig Perfekt ist es mit 8xS zB.

TDU: das selbe in Grün, 4xAA = Kotzkrampf mit 16xQ ist es fast Perfekt aber immernoch zu wenig für mich :bigok:

AC: Spiel ich schon garnicht mehr, die Geforce Karten glätten einfach nicht alles weil sie kein DX10.1 können mit der X2 war das Perfekt und genau mein Ding.

Crysis: kann ich nicht länger als 30 min Spielen sonst fallen mir die Augen aus vor geflimmere und den ganzen Kanten.

GRID Demo: 4xAA sieht schon halbwegs gut aus, aber für mich immernoch zuviele Kanten also muss 8xAA oder16xQ rein

und das alle bei 1920x1200 auf nem 24" auf der Glotze muss soagr noch mehr sein aber dann gehen die karten unter :fresse:
 
Zuletzt bearbeitet:
Wir leben in einer Zeit wo langsam 24" Standard ist, und nicht selten Leute einen 30" oder noch grösser haben.

Schon mal vor nen 37" gesessen in 1920x1200 und nur 4xAA ?
Du bekommst Augekebs sag ich dir ;)

8xAA ist eifnach für Pflicht für mich und für viele andere sogar noch mehr, ich bin so einer wenn das Bild nicht Perfekt ist dann ist das Spiel auch scheisse.

NFS Pro Street zB: mit 4xAA:kotz: erst ab 8xAA wirds bissel besser aber richtig Perfekt ist es mit 8xS zB.

TDU: das selbe in Grün, 4xAA = Kotzkrampf mit 16xQ ist es fast Perfekt aber immernoch zu wenig für mich :bigok:

AC: Spiel ich schon garnicht mehr, die Geforce Karten glätten einfach nicht alles weil sie kein DX10.1 können mit der X2 war das Perfekt und genau mein Ding.

Crysis: kann ich nicht länger als 30 min Spielen sonst fallen mir die Augen aus vor geflimmere und den ganzen Kanten.

GRID Demo: 4xAA sieht schon halbwegs gut aus, aber für mich immernoch zuviele Kanten also muss 8xAA oder16xQ rein

und das alle bei 1920x1200 auf nem 24" auf der Glotze muss soagr noch mehr sein aber dann gehen die karten unter :fresse:
lol bist du ein spinner:stupid:
 
Das ganze entscheidet jeder für sich allein , es gibt viele die auf diese Qualitätseinstellungen Wert legen, deswegen muß man die Leute nicht als Spinner bezeichnen. :hmm:
 
Das ganze entscheidet jeder für sich allein , es gibt viele die auf diese Qualitätseinstellungen Wert legen, deswegen muß man die Leute nicht als Spinner bezeichnen. :hmm:
ganz ehrlich wenn ich solche Sätze wie :
Crysis: kann ich nicht länger als 30 min Spielen sonst fallen mir die Augen aus vor geflimmere und den ganzen Kanten.
höre , dann muss man schon irgendwie krank sein :fresse:
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh