nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] [Part 1.1]

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
wenn jedenfalls die GTX380 550-600 € kostet, muss die Dual weit mehr kosten, das ist logisch, sonst würde jeder 150-200 € drauf legen und eine Dual Karte statt single Karte kaufen ;)

eine 5870 kostet etwa 330,-€, eine x2 soll meines Wissens etwa 500-550,-€ kosten. Da sich die Leistung der GTX380 in etwa dazwischen abspielen wird denke ich nicht, daß die Karte mehr wie 550,-€ kosten wird. Den nVidia und starke Single-GPU "Aufpreis" mit inbegriffen. Die Zeiten einer 6800Ultra sind vorbei ;)
€dit: eine GTX390 wirds denke ich mal noch nicht geben. Wenn sie es denn irgendwann geben wird, dann haben sich die Preise sicherlich dann so eingespielt, dass die 390 dann sicherlich auch in dieser Preiskategorie zu finden ist. Weitblickend zum 4Q nächsten Jahres ;)
 
Zuletzt bearbeitet:
ne 6800Ultra hat weit über 700 gekostet. Damals halt noch DM^^ Die 6800GT gleich weit abgeschlagen im 400er Preissektor
 
Zuletzt bearbeitet:
na dann eben 1000,- DM :d :fresse:
Ich habe mich damals mit der GT beglückt ;), regte mich aber über die unverschämt hohen Preise der Ultra auf.
 
Gezeigt wurde ja schon eine.:d
Einige wirds vor weihnachten wohl noch geben aber wohl nicht sehr viele

also scäm dich das ist doch das originale und das bild was du angehängt hast ist doch die fälschung :-)

naja dann werde ich warscheinlich die graka holen mit einem intel i9
naja mal schauen was das noch alles gibt
 
das nv seit dem g80 stets schnellr ist unterschlägste ma flott ?
Ich unterschlage gar nichts. Reine Performance Vergleiche sind aber relativ sinnfrei. Nur mal als Beispiel GT200 vs RV770. Rechnen wir mal grosszügig mit 20% mehr Performance für den GT200. Klingt zwar erstmal toll, wenn man aber bedenkt, dass der GT200 125% (!) mehr Fläche braucht, ergibt das eine abartig schlechte Effizienz der nVidia Architektur. Und noch schlimmer sieht es aus, wenn wir nicht nur über Spiele, sondern auch GPGPU sprechen. Und selbst wenn wir bei gleicher Strukturbreite anhand von Spielen vergleichen, zB RV790 vs GT200b, sieht es immer noch nicht sonderlich gut aus. 10% mehr Performance für den GT200b bei knapp 70% mehr Fläche. nVidias byzantinisches skalares Design ist leider völlig überholt. Und ob der GT300 hier grundlegendes ändern wird, darf anhand der bisherigen Informationen bezweifelt werden. Es bleibt halt im Kern immer noch G80, mit erweiterter GP Funktionalität und vermutlich etwas kompakteren Shadern.

Immernoch nicht gleichwertig mit dem HQ Modus. Daher ist deine Aussage schlicht falsch.
AF ist @ default bei ATI besser, bei HQ hat nVidia Vorteile. Ich sehe das daher ausgeglichen. Zumal HQ auch gut Performance kostet und die wenigsten hier rumfummeln werden. Die Aussage ist daher vollkommen korrekt.

und vor allen Dingen C++ Support, ist schon beeindruckend.
Das ist leider nur Marketing Gewäsch. Fermi wird genauso viel oder wenig "C++ kompatibel" sein, wie andere Hardware auch. C++ ist eine plattformunabhängige Definition auf Papier. Da gibt es nichts zu unterstützen, was nicht sowieso implementationsspezifisch ist. Solche Aussagen sind einfach nur Bauernfängerei.
 
Nur mal als Beispiel GT200 vs RV770. Rechnen wir mal grosszügig mit 20% mehr Performance für den GT200. Klingt zwar erstmal toll, wenn man aber bedenkt, dass der GT200 125% (!) mehr Fläche braucht, ergibt das eine abartig schlechte Effizienz der nVidia Architektur.
wenns um den Flächenverbrauch in Relation zur theoretischen Leistung geht, ja, da steht Nvidia schlechter da.
Wenns aber hinsichtlich der Effizienz um das Verhältnis von theoretischer Leistung zu tatsächlich umgesetzter Leistung geht, da steht Nvidia deutlich besser da. Jedenfalls soweit es meine Erfahrungen betrifft (Folding@Home<---GPGPU-Anwendung).
Ob das nun an ATI liegt oder an den Programmiereren, die es nicht schaffen, die Leistung des ATI-Ansatzes (5D-Shader) auch zu nutzen, interessiert mich nicht. Beides entzieht sich meinem Einfluss.
noch was zur Effizienz (Steigerung des RV870 relativ zum RV790):
Flops-Leistung: 100 %
Pixelfüllrate: 100 %
Texelfüllrate: 100 %

Laut dem Computerbase test ****** die Steigerung anhand der Spieletests gerade mal 40-60 %. Ist das in euren Augen effizient?

Als zum G200 die ersten Daten (Taktraten, Shadereinheiten) bekannt wurden, hab ich die fps-Werte, die meine 8800 GTX in Crysis lieferte, hochgerechnet.
Die hochgerechneten Fps-Werte stimmten sehr genau überein mit dem was dann tatsächlich an Leistung da war.
Jetzt stelle ich mir aber die Frage, woran liegts, dass es beim Wechsel auf den RV790 so schlecht skaliert?
Liegts am Ansatz mit den 5D-Shadern, die sich nun mal schwerer auslasten lassen, oder haben wir bei den aktuellen Spielen einen Punkt erreicht, bei dem eine weitere Parallelisierung nichts mehr bringt und einfach mehr Takt notwendig wäre? Darauf habe ich leider noch keine Antwort gefunden.
Vielleicht braucht ja auch nur der Treiber noch etwas Zeit?

Ob es Nvidia mit dem G300 (Fermi) besser hinbekommt, muss sich noch zeigen.
Ich hoffe es jedenfalls.

edit
aber wisst ihr, was ich fast spannender als die GPUs von Nvidia und ATI finde?
den Hydra von Lucid. Ich bin echt gespannt, wie gut die das zu Beginn umgesetzt bekommen.

ciao Tom
 
Zuletzt bearbeitet:
Ich unterschlage gar nichts. Reine Performance Vergleiche sind aber relativ sinnfrei. Nur mal als Beispiel GT200 vs RV770. Rechnen wir mal grosszügig mit 20% mehr Performance für den GT200. Klingt zwar erstmal toll, wenn man aber bedenkt, dass der GT200 125% (!) mehr Fläche braucht, ergibt das eine abartig schlechte Effizienz der nVidia Architektur. Und noch schlimmer sieht es aus, wenn wir nicht nur über Spiele, sondern auch GPGPU sprechen. Und selbst wenn wir bei gleicher Strukturbreite anhand von Spielen vergleichen, zB RV790 vs GT200b, sieht es immer noch nicht sonderlich gut aus. 10% mehr Performance für den GT200b bei knapp 70% mehr Fläche. nVidias byzantinisches skalares Design ist leider völlig überholt. Und ob der GT300 hier grundlegendes ändern wird, darf anhand der bisherigen Informationen bezweifelt werden. Es bleibt halt im Kern immer noch G80, mit erweiterter GP Funktionalität und vermutlich etwas kompakteren Shadern.

Der GT200 war auch nicht die optimale Lösung für NV. Es interessiert den Kunden trotzdem nicht wie groß der Chip ist sondern was hinten raus kommt und dort ist NV nunmal schneller gewesen.

Das ist leider nur Marketing Gewäsch. Fermi wird genauso viel oder wenig "C++ kompatibel" sein, wie andere Hardware auch. C++ ist eine plattformunabhängige Definition auf Papier. Da gibt es nichts zu unterstützen, was nicht sowieso implementationsspezifisch ist. Solche Aussagen sind einfach nur Bauernfängerei.

Gebe ich dir recht. Selbst wenn der GT300 so etwas beherrscht ist es fraglich ob ich als normaler Endverbraucher irgendwas davon habe. Außerdem bedeutet das nicht das C++ Software schneller auf der GPU laufen wird.
 
Gebe ich dir recht. Selbst wenn der GT300 so etwas beherrscht ist es fraglich ob ich als normaler Endverbraucher irgendwas davon habe. Außerdem bedeutet das nicht das C++ Software schneller auf der GPU laufen wird.

Vielleicht kann es auch als CPU Unterstützung genutzt werden. Anscheinend sind aktuelle CPUs ja immernoch zu langsam und kann so gemeinsam als "Beschleuniger" genutzt werden damit sie nicht wie die 5xxxer ausgebremst wird.
 
Vielleicht kann es auch als CPU Unterstützung genutzt werden. Anscheinend sind aktuelle CPUs ja immernoch zu langsam und kann so gemeinsam als "Beschleuniger" genutzt werden damit sie nicht wie die 5xxxer ausgebremst wird.

Eine GPU ist aber nunmal nicht das "NonPlusUltra" was Berechnungen angeht. Deshalb wird es auch in Zukunft nicht sonderlich viel bringen Berechnungen mir nichts dir nichts auf die GPU auszulagern.


Und zu dem Erscheinungstermin, da wohl ein Großteil der User sich selbst oder andere mit einem PC zu Weihnachten beglückt wird es wohl das gesetzte Ziel sein die Karten vor den Feiertagen in die Läden und als OEM auf den Markt zu bringen, ob sie es schaffen kann man nur schwer beurteilen.
 
http://bbs.chiphell.com/viewthread.php?tid=56185

Translation :
Huang is said to take the card can run X10000 is the case of the frequency is not high. . . . 300 version of each update somehow surprise ah. . . . . At that time frequency is 495/1100/1000 ..
Do not believe that, then you can turn even before the storms of 5870 sub-N card .... the biggest problem now is to raise the frequency to rely on water suppression


So depending (a fair bit) on the system used is maybe a little above GTX295 performance at the moment. Likely will get better if they can get the frequency up and with a more mature driver.

http://forum.beyond3d.com/showpost.php?p=1344266&postcount=550
 
Zuletzt bearbeitet:
Das waren sicher keine DM mehr, die 6800Ultra ist von 2004 und haben soviel gekostet wie die 8800GTX er!

http://www.hartware.de/review_400.html

immer dieses gelaber...

Ich hab eine 6800GT gehabt für 430€und eine 6800Ultra für 540€ nach dem ich die 6800GT gegrillt hab beim Wakühlerumbau.
 
Zuletzt bearbeitet:
wenns um den Flächenverbrauch in Relation zur theoretischen Leistung geht, ja, da steht Nvidia schlechter da.
Wenns aber hinsichtlich der Effizienz um das Verhältnis von theoretischer Leistung zu tatsächlich umgesetzter Leistung geht, da steht Nvidia deutlich besser da. Jedenfalls soweit es meine Erfahrungen betrifft (Folding@Home<---GPGPU-Anwendung).
Ob das nun an ATI liegt oder an den Programmiereren, die es nicht schaffen, die Leistung des ATI-Ansatzes (5D-Shader) auch zu nutzen, interessiert mich nicht. Beides entzieht sich meinem Einfluss.
noch was zur Effizienz (Steigerung des RV870 relativ zum RV790):
Flops-Leistung: 100 %
Pixelfüllrate: 100 %
Texelfüllrate: 100 %

Du kannst aber nicht anhand einer einzigen Anwendung die GPGPU Performance aktueller GPUs vergleichen...
Zumahl Floding@Home eigentlich überhaupt keinen nutzen hat für den Anwender, sprich er hat da gar nix davon, wenn er da mitmacht, außer hohen Stromverbrauch!

Aber mal als anderes Beispiel, man schaue von RV670 auf RV770, Shaderleistung hat sich verzweieinhalbfacht, Plus den Mehrtakt der RV770...
Aber es bleiben nur ca. doppelte Performance in Games am Ende...

Das zeigt doch, das aktuelle AMD GPUs an weit anderen Stellen limitieren, als der Shaderleistung.
Und beim RV870 hat man nur alles mal zwei genommen, Plus Optimierungen hier und da, logisch, das sich an dem Verhältniss nicht wirklich viel ändern wird...
Aber das war anhand der Fakten vorher abzusehen, wer mehr erhofft hat, hatte einfach falsche Erwartungshaltungen...

Bei NV wird es nicht anders laufen...

hmm, weiss nicht. Mir ist da heute was in den Kopf gekommen. Alle schimpfen doch über cGPU welche dem Gamer nicht wirklich was nützt. Vielleicht könnte es aber auch genau das der Grund sein warum sie im gegensatz zur 5870 nicht ausgebremst wird und so ihre enorme Power erhält. cGPU für die eigene CPU zur Unterstützung um die volle GPU-Power entfalten zu können. Bei ATI sind es ja derzeitig absolute High-End CPUs die die Karte noch ausbremsen. Vielleicht hat nVidia so einen Weg gefunden noch ne gute Ecke rauszuholen. Rein spezifisch gesehen würde die Karte ganz knapp über der "Midrangekarte 5870" seitens ATI liegen. wer weiß...ist nur ein Gedankengang den ich euch mitteilen wollte^^

Das wird so nix werden...
Zumindest nicht mit aktuellen Programmen und Games...

Man müsste für den Fall gewisse Berechnungen auf die GPU auslagern, gut das wäre sicher machbar, aber macht nur dann Sinn, wenn beide Hersteller (und Intel in Zukunft wohl auch) da eine Einheitliche Lösung anbieten werden...
Speziell für einen Hersteller aufbereitete Software lohnt für den Entwickler nicht, es sei denn, der Hersteller der GPU zahlt hier kräftig mit.


Zum Verständniss, du kannst nicht einfach so ein normales Programm auf der GPU berechnen lassen.
Ebenso ist es ja nun mittlerweile gang und gebe, das Programme SSE nutzen, das kann die GPU nicht und müsste in dem Fall (wohl grottenlahm) emulieren...

Man müsste also für den Anwendungsfall spezielle Software entwickeln oder vorhandene Software speziell anpassen... --> Ein Mehrkostenaufwand für den Entwickler, der auch nur dann lohnt, wenn die GPUs noch Luft nach oben haben (und das haben sie wenn dann nur im HighEnd Bereich) Bei der Unter- und Mittelklasse sind die GPUs viel zu lahm um da noch signifikannt Berechnungen nebenbei durchführen zu können...

Wenn man so will, können GPUs zwar extrem schnell Berechnungen ausführen, weit schneller als CPUs, aber eben nur in Speziellen Anwendungsfällen, geht man davon etwas weg, wird das ganze sehr ineffizient... Und die CPU tritt wieder an die Spitze...

Eine GPU wird mit Sicherheit auch nie eine CPU ersetzen können...
 
Duplex ganz ehrlich du musst hier nich den möchtegern Mod spielen.

Ich glaube eben das Nvidia seine Preise wie immer beibehällt. Obs nun
die 6800Ultra/7800GTX/8800GTX/280GTX die lagen alle bei ca 500 - 600€am Anfang

Naja der Cell vom IBM macht ja auch alles
 
Duplex ganz ehrlich du musst hier nich den möchtegern Mod spielen.

Ich glaube eben das Nvidia seine Preise wie immer beibehällt. Obs nun
die 6800Ultra/7800GTX/8800GTX/280GTX die lagen alle bei ca 500 - 600€am Anfang

Naja der Cell vom IBM macht ja auch alles[/QUOTE]

Du musst dich aber als Hersteller an den Preisen der Konkurenz und ihren Produkten die im Wettbewerb gegen deine aufgestellt sind. Und da siehts mit bisheriger Preispolitik von NV nicht gut aus. Und genau aus dem Grund werden die Preise, sobald die Karten flächendeckend verfügbar sind, auch nicht mehr im Rahmen der letzten Jahre liegen. Anders wäre es wohl gekommen wenn ATI ihre neuen Karten auch erstmal zu wesentlich höheren Preisen auf den markt geworfen hätten.


Naja der Cell vom IBM macht ja auch alles

Aber nicht alles wirklich gut.
 
das war drauf bezogen das eine GPU keine CPU ersetzten wird darum hab ich mal den Cell der PS3 eingewurfen.

Ich brauch nicht diskutieren aber dein ewigesat BTT ist genau so nervif wie das OTT gerede. Also überlass es doch den Mods.

Also ATI mit der 9700 Pro das Rennen gemacht hat und die 5800er von NV auch nur teurer schrott waren, waren die 5er Karten auch nicht günstiger.
 
das war drauf bezogen das eine GPU keine CPU ersetzten wird darum hab ich mal den Cell der PS3 eingewurfen.

Der Cell in der PS3 ist aber auch eine gänzlich andere Architektur und die Software auf der PS3 ist speziell für den Cell und die GPU der PS3 zugeschnitten...

Wir hier haben aber quasi Software, die seit Jahr und Tag exisitiert, die neue Technik muss wegen der Abwärtzkompatibilität so gebaut werden, das sie eben auch mit älterer Software klar kommt...
Macht ein Hersteller das nicht, wird es wohl ein Ladenhüter...

Im Konsolenbereich ist das eher unkritisch, weil zu ner neuen Konsole auch neue Games kommen, aber im PC Bereich nutzt der User immer seine Software auch auf dem neuen Rechner...


Schlussendlich wird eine GPU (auch nicht die G300er Karten) eine CPU ersetzen können.
Bestenfalls können sie in einigen Speziellen Fällen Berechnungen für die CPU ausführen, weil einfach deutlich schneller, aber eben nicht ersetzen ;)
 
Wurde glaube ich noch nicht gepostet:

http://www.fudzilla.com/content/view/15831/1/

Fuad schrieb:
it looks like Nvidia wants to leave the market in hands of ATI, at least until Fermi GT300 comes out.

:shake:

nVidia braucht auf jeden Fall auch in den unteren Preissegmenten neue Chips!

Bis dahin ist die Situation dann nämlich folgende:
(Kosten=Herstellungskosten, nicht Retailpreise!)
(SKU= Stock Keeping Unit = Produkt)

Hemlock (2x Cypress) tritt mit ungefähr den gleichen Kosten gegen den Top-Fermi an, bei bisher unbekanntem Performanceverhältnis, höchstwahrscheinlich wird hier Hemlock aber mehr oder weniger deutlich siegen (wenn auch mit MR und Inputlag).

Der Top-Cypress (5890) tritt vorraussichtlich mindestens gegen die kleinere SKU von Fermi (sowie die Dual-SKU des GT200b, GTX295) an, bei ca. halben Kosten .

Die kleineren SKUs (5870&5850) von Cypress schlagen deutlich die Top-SKUs des GT200b (GTX285 & 275), bei vergleichbaren Kosten.

Die Top-SKU (5770) des Juniper tritt gegen die Low-SKU des GT200(b) (GTX260) (und evtl. auch noch die GTX275, vllt. auch als 5790?) an, bei ca. 60% der Kosten.

Die Low-SKU des Juniper (5750) schlägt die Top-SKU des G92b (GTS250) bei ca. 80% der Kosten.


AMD kann also die Preise quasi beliebig diktieren, zumal sie auch bei den Features besser aufgestellt sind (DX11), und nV kann nichts dagegen tun :wall:
Die Dual-PCB GTX295 war Anfang des Jahres ja auch nur ein Papiertiger, weil sie trotz 400€ Retailpreis damit Verlust gemacht haben.

Entweder also nVidia verliert Geld (und das scheinen sie nichtmehr zu wollen), oder Marktanteile (gut, davon haben sie momentan immernoch genug, davon können sie also erstmal noch gut welche abtreten bevor es kritisch wird).


Grüße,
Mr.Malik
 
Zuletzt bearbeitet:
Für meinen Geschmack sollte nVidia bis zur neuen Karte mal mit ein paar Preisaktionen gegensteuern. 285 GTX für 300 EUR ist nicht mehr zeitgemäß. Billige 275er GTX sind noch ok preislich, aber 285 und 295 sollten auf 250 bzw. 300 gedrückt werden.
 
wenns um den Flächenverbrauch in Relation zur theoretischen Leistung geht, ja, da steht Nvidia schlechter da.
Wenns aber hinsichtlich der Effizienz um das Verhältnis von theoretischer Leistung zu tatsächlich umgesetzter Leistung geht, da steht Nvidia deutlich besser da. Jedenfalls soweit es meine Erfahrungen betrifft (Folding@Home<---GPGPU-Anwendung).
Ob das nun an ATI liegt oder an den Programmiereren, die es nicht schaffen, die Leistung des ATI-Ansatzes (5D-Shader) auch zu nutzen, interessiert mich nicht. Beides entzieht sich meinem Einfluss.
noch was zur Effizienz (Steigerung des RV870 relativ zum RV790):
Flops-Leistung: 100 %
Pixelfüllrate: 100 %
Texelfüllrate: 100 %

Laut dem Computerbase test ****** die Steigerung anhand der Spieletests gerade mal 40-60 %. Ist das in euren Augen effizient?

Als zum G200 die ersten Daten (Taktraten, Shadereinheiten) bekannt wurden, hab ich die fps-Werte, die meine 8800 GTX in Crysis lieferte, hochgerechnet.
Die hochgerechneten Fps-Werte stimmten sehr genau überein mit dem was dann tatsächlich an Leistung da war.
Jetzt stelle ich mir aber die Frage, woran liegts, dass es beim Wechsel auf den RV790 so schlecht skaliert?
Liegts am Ansatz mit den 5D-Shadern, die sich nun mal schwerer auslasten lassen, oder haben wir bei den aktuellen Spielen einen Punkt erreicht, bei dem eine weitere Parallelisierung nichts mehr bringt und einfach mehr Takt notwendig wäre? Darauf habe ich leider noch keine Antwort gefunden.
Vielleicht braucht ja auch nur der Treiber noch etwas Zeit?

Ob es Nvidia mit dem G300 (Fermi) besser hinbekommt, muss sich noch zeigen.
Ich hoffe es jedenfalls.

edit
aber wisst ihr, was ich fast spannender als die GPUs von Nvidia und ATI finde?
den Hydra von Lucid. Ich bin echt gespannt, wie gut die das zu Beginn umgesetzt bekommen.

ciao Tom


Risen fast 100% skalierung.
bei CB verfälscht leider die tech demo crystasis sehr das bild ( zB komisch das ein game das extrem gut auf SLi anspricht gar nicht auf CF anspricht selbst nach einigen Patch versuchen atis, das zufällig fast komplett von NV gesponsort wurde )
 
Wenns aber hinsichtlich der Effizienz um das Verhältnis von theoretischer Leistung zu tatsächlich umgesetzter Leistung geht, da steht Nvidia deutlich besser da. Jedenfalls soweit es meine Erfahrungen betrifft (Folding@Home<---GPGPU-Anwendung).
Also ich glaube nicht, dass ein Fall repräsentativ ist. Wobei ich nicht mal weiss, wie gut F@H ATI GPUs überhaupt unterstützt. Ich habe da schon ganz anderes gesehen. Verweise findest du zB bei amdzone, die dem RV770 sehr gute Effizienz bei wissenschaftlichen Berechnungen bescheinigen. Da überflügelt eine HD 4870 auch eine GTX 280 problemlos, was der theoretischen Performance gerecht wird, 1200 GFLOPS vs 933 GFLOPS. Vieles hängt weniger an der Architektur selbst, sondern am Softwaresupport.

Laut dem Computerbase test ****** die Steigerung anhand der Spieletests gerade mal 40-60 %. Ist das in euren Augen effizient?
Spiele skalieren nun mal nicht linear mit der GPU. Das ist bei nVidia nicht anders. ;) Die Steigerung liegt absolut im Rahmen. Zumal auch nicht alles verdoppelt wurde, zB Speicherbandbreite.

Als zum G200 die ersten Daten (Taktraten, Shadereinheiten) bekannt wurden, hab ich die fps-Werte, die meine 8800 GTX in Crysis lieferte, hochgerechnet.
Die hochgerechneten Fps-Werte stimmten sehr genau überein mit dem was dann tatsächlich an Leistung da war.
Augen aufmachen! Tests dazu findest du ebenfalls bei Computerbase. Und dort liegt die GTX 280 auch nur etwa 40-60% vor der 9800 GTX.

Es interessiert den Kunden trotzdem nicht wie groß der Chip ist
Doch, das interessiert ihn sehr wohl. Das sollten die Leute endlich mal begreifen. Grösserer Die -> höhere Produktionskosten -> höhere Preise für Endkunden. Was glaubst du denn, warum AMD die Preise der 4000er Generation so aggressiv gestalten konnte? Genau, sie konnten die Chips deutlich preiswerter produzieren als nVidia. Die Launch Preise der GT200 Karten sind dir hoffentlich noch in Erinnerung.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh