ATI Radeon HD4000 (R700) - [Speku-, News- & Sammelthread] (Part1)

Status
Für weitere Antworten geschlossen.
Alles rund um die ATI Radeon HD4000 Grafikkartenserie

Vorraussichtliche technische Daten:
HD 4870 (RV770XT), 55 nm, 850 MHz Chiptakt, 1050 MHz Shaderdomain, 1935 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 1008 GFlops, 27.200 MT/s, 256 Bit Speicherinterface, 1024 MiB GDDR5, 123,8 GB/s Speicherbandbreite, 150 W TDP, $349 MSPR, Release Mai 2008

HD 4850 (RV770PRO), 55 nm, 650 MHz Chiptakt, 850 MHz Shaderdomain, 1728 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 816 GFlops, 20.800 MT/s, 256 Bit Speicherinterface, 512 MiB GDDR5, 110,5 GB/s Speicherbandbreite, 110 W TDP, $269 MSPR, Release Mai 2008

HD 4850 GDDR3 (RV770PRO), 55 nm, 650 MHz Chiptakt, 850 MHz Shaderdomain, 1143 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 816 GFlops, 20.800 MT/s, 256 Bit Speicherinterface, 256/512 MiB GDDR3, 73,2 GB/s Speicherbandbreite, 110 W TDP

Quelle: Hartware.de

NEWS:
More RV770 and RV770X2 details

Die shrink with minor changes
ATI said a few things about its new upcoming RV770 chips, and as we've said before you can expect [...]
weiterlesen

RV770 will do GDDR 5 and GDDR3

Two flavours
We’ve learned that single chip RV770 card comes in two flavours. The first one [...]
weiterlesen

RV770XT supports 512-bit memory

Despite the claims
A German Website posted an interesting article with a lot of RV770XT and PRO specs, but [...]
weiterlesen

R700 to launch close to Computex

Or around, at leastRV770 chips are looking good and the highest end R700 based product might launch around Computex (starts at June 3 2008). We believe [...]
weiterlesen


RV770 is already in production
Test one
We learned
that the RV770 GPU already went to production and there is a big chance to see R700 generation much earlier than anyone [...]
weiterlesen

Wer noch interessante Links hat, bitte per PN an mich weiterleiten!


 
Zuletzt bearbeitet:
Ich red ATi nich schwach , früher hatten sie immer die passende Antwort auf Nvidias Aufgebot.

Wie kann man den einen Chip mit 250mm² gegen einen doppelt so großen Vergleichen wollen ? ATi wird bis zur 350€ Grenze sicher erstmal Spitze sein bloss im Highend ab 450€ hat man nichts außer der X2.

Es sei den es gibt Tatsächlich einen "Thunder" !

Ich zumindest finde ATi´s weg besser , Nvidia wird irgendwann an die Grenzen stossen mit ihren Monsterchips .

und somit wierd ATI für 90% aller user der gewinner sein da diese 90% nicht die grenze von 300-350euro überschreiten will
Hinzugefügter Post:
hier vergessen auch alle das sich mit Highend kein geld verdienen lässt ;)
ich hoffe sogar das sie sich auf den performance Bereich konzentrieren und nicht an die Spitze kommen zu wollen.

Sie haben mit der HD 3870 genau ins Schwarze getroffen und haben dadurch richtig gut geld verdient, kleiner Preis zu sehr guter Leistung und da war vom grünen lager einfach nichts da.

jetzt ist die 9600GT am Start die schon bissel was taugt aber immernoch bissel zu teuer ist, die 8800GTS ist nicht viel schneller aber 100 € teurer.

Die Leute die Highend kaufen sind ne so kleiner Front das man sich da kein Kopf machen brauch drüber.
Ob nun Crysis (zB) mit 30 FPS ATI oder mit 37 NV ist doch völlig egal, der Preis muss stimmen und ich glaub da geht ATI sowieso den richtigen weg.
Ich werd mit die karten auf jedenfall kaufen, und mir ist sowas von egal ob die nun 10-20 % langsamer sind wie der GT200, dafür hab ich mit Garantie:
-weniger Strom
-weniger Abwärme
-muss nicht soviel bezahlen
-bessere Treiber für Vista (nicht 10 betas im Monat die nix taugen)

PS: und nix mit Fanboy, ich hab SLI ;)

hehe da hatten wir zur fast der gleichen zeit den gleichen gedanken
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
jetzt ist die 9600GT am Start die schon bissel was taugt aber immernoch bissel zu teuer ist, die 8800GTS ist nicht viel schneller aber 100 € teurer.


Eine 960GT gibt es ab ~100€, identisch zur HD3850 von AMD. Und die 9600GT ist nicht langsamer, häufig sogar schneller. Keine Ahnung wo die noch zu teuer sein soll. Scheinbar wollen manche die Karte geschenkt haben.



Ich werd mit die karten auf jedenfall kaufen, und mir ist sowas von egal ob die nun 10-20 % langsamer sind wie der GT200, dafür hab ich mit Garantie:
-weniger Strom
-weniger Abwärme
-muss nicht soviel bezahlen
-bessere Treiber für Vista (nicht 10 betas im Monat die nix taugen)

PS: und nix mit Fanboy, ich hab SLI ;)


Du weißt gar nicht wie der Stromverbrauch, Abwärme etc. genau aussieht, genau sowas nennt man einen Fanboy. Und wenn du die geleakten nicht offiziellen Beta Treiber freiwillig installierst, ist das deine eigene Schuld. Ansonsten beschränkt man sich auf die Offiziellen.
 
@zocker28: Dass nach den letzten Releases noch IRGENDJEMAND das Argument guter Treiber zugunsten von ATi verwurstet, halte ich schon für etwas befremdlich. Ebenso ist "muss nicht soviel bezahlen" ein Scheinargument, denn du zahlst eben das, was du kriegst. Wer mehr Leistung will, muss auch mehr zahlen.
Strom und Abwärme gehören in denselben Topf und die sind noch nicht final. Aber ich wundere mich, dass jemand wie du, der ohnehin immer die geilsten Karten hat, mit sowas argumentieren muss, denn ich würde vermuten, dass es bei dir auf die Stromkosten dann auch nicht mehr ankommt.
 
@ soulja boy
Es gibt die schoene Funktion "Beitrag melden", wenn das konsequent gemacht werden wuerde dann waer hier auch nich son Chaos.

Zum Topic.

Ich freu mich auf die neuen Grakas von AMD. Die Grenze die ich mir setze bei neuen Karten liegt im Bereich um die 300€. Momentan gibt es von meiner 3870 daher keine wirkliche Alternative zum Aufrüsten (jetzt bitte nicht wegen 10-15% Mehrleistung auf nem 19Zoll anfangen). Ich denke die neuen Karten werden wirklich gut, und wenn dann mein S1 noch draufpasst, umso besser.

Gruss
 
@ soulja boy
Es gibt die schoene Funktion "Beitrag melden", wenn das konsequent gemacht werden wuerde dann waer hier auch nich son Chaos.


Nur weil man hier mal Off-Topic ist, sollte man sich nicht gleich aufregen, geschweige denn einen Beitrag melden... Wenns nicht so viele News gibt, muss man den Thread auch füllen, schaut mal beim G92:stupid:,G100 und GT200 Thread, da wird mehr über die G92 gelabert, obwohl die schon längst draussen sind. Nur bleibt man dort beim Thema Grafikkarten. Trotzdem...
Ausserdem empfinde ich das keineswegs als Chaos, wieso auch? Wenn es dir nicht passt, dann haste halt Pech:d
Lord schrieb:
@zocker28: Dass nach den letzten Releases noch IRGENDJEMAND das Argument guter Treiber zugunsten von ATi verwurstet, halte ich schon für etwas befremdlich. Ebenso ist "muss nicht soviel bezahlen" ein Scheinargument, denn du zahlst eben das, was du kriegst. Wer mehr Leistung will, muss auch mehr zahlen.
Strom und Abwärme gehören in denselben Topf und die sind noch nicht final. Aber ich wundere mich, dass jemand wie du, der ohnehin immer die geilsten Karten hat, mit sowas argumentieren muss, denn ich würde vermuten, dass es bei dir auf die Stromkosten dann auch nicht mehr ankommt.

Natürlich ist die Leistung ein Kriterium, doch das ist längst nicht alles. Der Stromverbrauch ist für mich genauso wichtig... Ausserdem kauft niemand Karten, die z.b. (spekus) 10% mehr Leistung für 20% mehr Geld kosten, ausser solche, die WIRKLICHES High-end wollen. Mein Vergleich hakt aber zugegebenermassen, weil die Low-End dann theoretisch die Besten wären, diese aber mal aussenvor gelassen.;)

EDIT: Sorry, flasch zitiert, geändert...:d
 
Zuletzt bearbeitet:
kannst davon ausgehen das sie ein bissel stärker ist als eine x²,da sie doppelt so schnell wie eine 3870 sein soll und eine x² ist nicht mal im bestenfall doppelt so schnell wie eine 3870;)
aber das sieht man ja schon an den flopwerten auch wenn das nicht alles ist.

Na, bei so vielen Flops wird die Karte sicher kein Flop! :banana:

Mal abgesehen von der Speicherart verstehe ich nicht warum so viele Bandbreitenspzialisten hier immer rumposaunen das man keine 512bit und 1024Mb brauch.

Und wozu will schon seit über nem Jahr das verwöhnte Widescreenpublicum sowas und brauch sowas ???

Demnächst heißte es dann, YEAH 128bit reichen bei GDDR6 oder was ?
Eben, bei meinen 1920x1200 (mit noch aa+af obendrauf) wären dann 512bit+1024MB durchaus schon von Vorteil.
 
Natürlich reichen 128Bit bei GDDR6. Das wird aber keiner machen, weil es GDDR6 nicht gibt und ein 256-Bit-Interface bezahlbar ist. Die Theorie hast du aber ganz gut verstanden. ;) Warum das verwöhnte Widescreenpublikum 512Bit will, weiß ich nicht, aber die haben offenbar keine Ahnung, denn mit 256Bit und GDDR5 gehts genauso.
 
Zuletzt bearbeitet:
Du musst nur die Bandbreite anschauen. Der wird bestimmt aus 2 Faktoren: das Speicherinterface und der Speichertakt. Wenn man die Bandbreite verdoppeln will, kann man entweder ein doppelt so grosses SI verbauen (hier 512 bit), was sich natürlich auf die Kosten niederschlägt. Oder aber man verdoppelt den Speichertakt. Egal was man macht, es bringt gleich viel. Und da das GDDR5 wahrscheinlich weniger kostet als ein 512-bit SI, hat ATi einfach dieseen verwendet...

Doch eigentlich wurde daqs schon etwa 5-mal geschrieben und alle sollten es langsam kapiert haben! GDDR5 + 512-bit wäre wie.....
1024-bit mit GDDR3, ALSO?!? Ganz einfach unnötig...!! Was habt ihr denn mit eurem 512-bit SI? Kauft euch ne 2900XT und Ruhe is...
 
soll die 4870 nicht zum gleichen Releasepreis rauskommen wie die 3870 ?
Ich weiß, derzeit nur spekus, aber dann wäre ATI dem GT200 um längen vorraus.
Bei nem Preis von ca 220.-€, oder X2 für 420,-€.....das sind Preise die brauchen wir :d
aber wohl gemerkt...das liegt aber auch am starken € !!
Die Preise die angesetzt werden sind ja $ und da kommt der € uns gerade recht. Lass den $ ruhig noch ein bissi fallen bis zum Release und wir bekommen die 4870 dann für 200 - lol :bigok:
 
Der Preis orientiert sich an der Leistung, der wird nicht vorher festgesetzt. Man kann nur spekulieren und schätzen. Wenn der RV770 mehr Performance als alles andere bietet, wird er auch mehr kosten. Die Hersteller sind nicht die Charité, die wollen auch Geld machen ;)
 
Ich werde mich nach meinen zwei Nvidia Ausflügen (7600GS, 8800GT) wieder nach ATi wenden. Diese zwei Karten waren einfach P/L-mässig super.
Bei der 8800GT habe ich aber das Gefühl, es wäre nie wirklich flüssig. Ausser über 100Fps. COD4 z.B. ist eine Ruckelorgie, wenn ich Vsync deaktiviere, auch wenn ich 80Fps habe.
War mit meiner 9000pro mehr zufrieden als mit denen zwei :fresse:

Hoffe sie schaffen es diesmal, einen Chip rauszubringen, der keine allzu grossen "Designfehler" besitzt. Sollte ja auch zu schaffen sein, ist ja immerhin mehr oder weniger die 2. Überarbeitung des R600-Designs.
 
Ich werde mich nach meinen zwei Nvidia Ausflügen (7600GS, 8800GT) wieder nach ATi wenden. Diese zwei Karten waren einfach P/L-mässig super.
Bei der 8800GT habe ich aber das Gefühl, es wäre nie wirklich flüssig. Ausser über 100Fps. COD4 z.B. ist eine Ruckelorgie, wenn ich Vsync deaktiviere, auch wenn ich 80Fps habe.
War mit meiner 9000pro mehr zufrieden als mit denen zwei :fresse:

Hoffe sie schaffen es diesmal, einen Chip rauszubringen, der keine allzu grossen "Designfehler" besitzt. Sollte ja auch zu schaffen sein, ist ja immerhin mehr oder weniger die 2. Überarbeitung des R600-Designs.

Joa, du musst du wohl einfach abwarten und schauen, welche der beiden Karten besser wird.
 
die 8800GT ist auch nicht für 8xAA gedacht....
 
ja das juckt nicht dann darf auch die 2900XT nicht 16af getestet werden fackt ist sie kann sehr wohl mit einer 8800GTX mithalten und ich bin sicherlich kein fanboy sonst hätte ich einen AMD flaschenhals drin und ich hatte die 8800gt selbst
 
Zuletzt bearbeitet:
hier mal ein mini vergleich:shot:

8800gt 1920*1200


und einmal auf ca.9800gtx niveau(sogar eher mehr) 750/1800/1100


3870 1920*1200
 
Zuletzt bearbeitet:
:eek:

Nochmals für dich:-[

Du musst nur die Bandbreite anschauen. Der wird bestimmt aus 2 Faktoren: das Speicherinterface und der Speichertakt. Wenn man die Bandbreite verdoppeln will, kann man entweder ein doppelt so grosses SI verbauen (hier 512 bit), was sich natürlich auf die Kosten niederschlägt. Oder aber man verdoppelt den Speichertakt. Egal was man macht, es bringt gleich viel. Und da das GDDR5 wahrscheinlich weniger kostet als ein 512-bit SI, hat ATi einfach dieseen verwendet...


GDDR5 mit 512-bit entspricht etwa 1024-bit mit GDDR3, wenn er nun wirklich bis 2, vllt. auch 2.5 ghz geht..., sonst GDDR3 mit 768-bit... also nur unnötiges Geldverschwenden...
 
wenn die cpu(e6700))nicht mal übertaktet ist das ein sehr,sehr gutes ergebniss.aber ob da was dran ist wird man noch sehen.aber ich find das ergebnis eigentlich schon viel zu gut um wahr zusein.nur mal als vergleich ein core duo 8400 default mit einem 3870x² kommt gerade mal auf ca.13500 bei 3d mark06 und da ist die cpu ja schon stärker.:d

puh wenn da was dran wäre wird die ja extrem rocken wenn die schon bei niedrigen auflösungen wie beim 3d mark06 schon die leistung verdoppelt wird dann will ich nicht wissen was bei hohen auflösungen +quality settings raus kommt (3fach-4fache leistung:lol:)ich würde es begrüßen:p
 
Zuletzt bearbeitet:
RV770XT runs twice as fast as 2900 Pro under 3DMark06

http://forums.vr-zone.com/showthread.php?t=267700

Das hört sich doch geil an.:drool:
Hinzugefügter Post:
hier mal ein mini vergleich:shot:

8800gt 1920*1200


und einmal auf ca.9800gtx niveau(sogar eher mehr) 750/1800/1100


3870 1920*1200

Oblivion läuft auch gut auf der ati...
Hinzugefügter Post:
die info wurde schon wieder von chiphell entfernt somit zu 99% fake ( was fast klar war )


Eher genau das gegenteil.

Stichwort NDA.
 
Zuletzt bearbeitet:
hier mal ein mini vergleich:shot:

Hör mal Herr Guru, nix für ungut, aber so bencht man doch nicht Oblivion.

a) First Person macht immer gute Frames.
b) AA, AAA & AF ist aus.
c) Läuft da ein Kastrationstool mit? Vermutl. Streamline, ich seh das doch.
d) Das sind ja nur Vanilla-Texturen. Wer spielt denn mit sowas?
e) Das ist doch der Bootssteg am Kanalausgang, gleich zu Beginn, wo sowenig Inhalt im Bild ist, daß jede Karte das locker stemmt.
f) Das ist ein Still-Leben, nicht mal ein Stilleben, weil ohne NPCs!

Also alles in allem so anspruchslos, daß damit sogar 'ne GT noch glänzen kann. In Fanforen würdeste für so hässliche Screenshots gleich 'ne Abmahnung kriegen :d

Nur damit man mal sehen kann, wie Oblivion aussieht, vor allem, welcher Renderaufwand mit den NPCs einhergeht, stell ich jetzt mal einen meiner Screenshots zur Verfügung.

ScreenShot10.jpg

Wer damit noch ohne Quad-CF 70 Frames benchen wollte, müßte wohl auf die übernächste Karten-Generation warten. Mit meinen Qualitätssettings und meiner Oblivion-Installation geht 'ne GT hart an den Rand einer Slide-Show.

Bei weniger Aufwand (wie man sieht, lauf ich mit drei Companions 'rum), aber vergleichbaren Einstellungen sind GT/GTS-User schon dankbar, wenn man ihnen zu 30 fps verhilft, ohne allzuviel abschalten zu müssen.

Ich denk mal, dieser Screenshot zeigt auch, daß der ganze Lärm um diesen albernen Shooter total überzogen ist. Was die Damen da tragen, sind aus voll gerenderten Ketten-Gliedern gefertigte Mäntel, unter denen Bekleidung mit eigenen Meshes sitzt, die nicht als Textur auf dem Körper aufgebracht wird. Die Körper sind (incl. Tattoos, Piercings, etc.) incl. entzückender Sommersprossen mit hochauflösenden Texturen darunter vollständig vorhanden. Man kann durch die Kettenglieder sehen, und das ganze bewegt sich im Kampf (alle drei Damen eigenständig), plus zwei bis drei beschworene Monster von ähnlicher Qualität, plus meine aufwendig gerüstete Wenigkeit, plus entsprechend große Gegnergruppen, selbstredend flüssig und dynamisch wie Schmitts Katze.

Wenn also immer noch jemand meint, das alles ginge so mir nichts Dir nichts mit 70 Frames, oder auf kleineren Karten...

Der Punkt ist: So spiele ich tatsächlich. Das ist kein gesteller Screenshot, sondern mittendrin spontan auf den Knopf gedrückt. Vielleicht wird jetzt manchen klarer, warum ich viele Tests nicht ernstnehme.

EDIT: Da meine Wenigkeit auf dem Screenie so wischiwaschi rüberkommt, hab ich noch einen dazugestellt. Der turnt so im Third Person rum. Schaltet man auf First Person um, macht die GraKa natürlich Erholungsurlaub.

ScreenShot1.jpg

Ist nur ein kleiner Bildausschnitt (komm mir noch einer mit Crysis).

PS man vergebe mir die JPG-Verluste. Als Original-Bitmap sieht das doch noch etwas anders aus. Es sollte halt schnell gehen.

EDIT: Einen noch, Bildausschnitt zum Detailgrad der Rüstungen.

ScreenShot6.jpg

Den Nahkampf der Damen lass ich mal lieber weg :d
 
Zuletzt bearbeitet:
sorry aber was interessiert mich ob das gut aus sieht oder nicht,es hat mich halt gewundert das es bei dieser auflösung ohne aa und af so grosse unterschiede gibt.hatte ich nicht mit gerechnet.
 
Das interessiert dich nicht?...
Dann kannst du doch mit ner X300 Crysis spielen...;) Auf 640x480 ganz ohne Detail, dann siehst du, dass es dich interessiert, obs gut aussieht oder nicht.
 
Eigentlich soll sie soweit ich das mitbekommen habe schon im Mai released werden !

ja, irgendwo war das mal verlinkt, dass die 4870 und sogar auch die x2 im Mai Released werden. Die X2 dann wohl eher ende Mai^^ aber egal :love:

was mich jetzt ein wenig wundert....der Thread wird ja nun gepflegt....finde ich gut. Doch dieses stand vor dem Update im 1. Post


- R750XT: 8 Kerne, 64 ROPs 256 Unified Shader, 1024 Bit, 20 MiB eRAM, GDDR5 0.5ns 1GB/2GB

- R750GT:6 Kerne, 48 ROPs 192 Unified Shader, 768 Bit, 20 MiB eRAM, GDDR5 0.5ns 768 MiB / 1,5 GiB

- R700XT: 4 Kerne,32 ROPs 128 Inified Shader, 512 Bit,10 MiB eRAM, GDDR4 0.7ns 512 MiB / 1 GiB

- R700GT:2 Kerne, 16 ROPs, 64Unified Shader, 256 Bit,10 MiB eRAM, GDDR4 0.7ns 256 MiB / 512 MiB

- R700LE:1 Kern, 8 ROPs 32 Unified Shader, 128 Bit , GDDR3 1.2ns 256 MiB / 512 MiB

Multicore Design
45nm Chip
digital power supply
DX10.1
Tessellation engine
PCI Express 2.0
HDMI 1.3
UVD und Displayport






HD4950XTX PE (R750XT) 2 GiB, 1.050 Mhz/1.500 Mhz, PCB 11 ", TDP 350W (PCI-E 2.0 + 2x8PIN power supply), Texas - X modified version, USD $ 949-999


- HD4950XTX (R750XT) 1 GiB, 950 Mhz/1.500 Mhz, PCB 11", TDP 300W (PCI-E 2.0 + 2x8PIN power supply), Texas - X modified version, USD $899-949

- HD4950XT PE (R750GT) 1,5 GiB, 1.050Mhz/1.500 Mhz, PCB 10.5 ", TDP 250W (PCI-E2.0 + 8PIN power supply), 2900 radiator four low-speed version, USD $ 499-549

- HD4950XT (R750GT) 768 MiB, 1.000Mhz/1.500 Mhz, PCB 10.5", TDP 220W (PCI-E2.0 + 8PIN),2900 radiator four low-speed version, USD $449-499

- HD4900XTX (R700XT) 1 GiB, 1.000Mhz/1.200 Mhz , PCB 9", TDP 150W (PCI-E 2.0 + 6PIN), 2950XT radiator, USD $399-449

- HD4900XT (R700XT) 512 MiB, 900Mhz/1.200Mhz, PCB 9", TDP 125W (PCI-E 2.0 + 6PIN), 2950XT radiator, USD $349-399

- HD4900PRO (R700XT) 512 MiB, 700Mhz/1.200Mhz, PCB 9", TDP 100W (PCI-E 1.1/2.0 + 6PIN), single slot cooling, USD $249

- HD4600XT (R700GT) 512MB, 1.000Mhz/1.200Mhz , PCB 6.5", TDP 75W (PCI-E 1.1/2.0), USD $199

- HD4600PRO (R700GT) 256 MiB, 900Mhz/1.200Mhz, PCB 6.5", TDP 60W (PCI-E 1.1/2.0), USD $149

- HD2400LE (R700LE) 256MB, 600Mhz/750Mhz, PCB 5", TDP 20W (PCI-E 1.1/2.0), passive, USD $79



Das stellt ldoch das HIGH END Segment des kommenden r700 und r750 dar. Warum wird das denn gelöscht?

Der Thread trägt doch den Titel r700 Speku-,News-, und Sammelthread.
Also kann man die Infos doch eigendlich stehen lassen wie ich finde^^





So, und nu gib mir bitte einer mal nen Tip was ich machen soll.
Ich habe ne leigabe an Grafikkarte drinne. Bis zum Release der 4870 wäre es kein problem die drinne zu halten, bin aber am überlegen, ob ich nicht doch ne super billige 3870 kaufen soll. Die reicht mir locker bis zum 3.-4.Quartal diesen Jahres, spare noch ein bissi und kaufe mir dann ne 4950XT PE.
Oder ich kaufe mir 2x 4870, aber dann ist erstmal wieder schluß für 1-2 Jahre.
Nen Upgrade von nem 19" TFT auf nem 22" wollte ich eigendlich auch noch vollziehen, sonst ist die Grakapower ja auch fürn Anus^^

Greetz Grinsemann
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh