nVidia G90, G92, G9x (9800 GX2 / GTX), G100, GT200 [Speku-, News- & Sammelthread](P1)

Status
Für weitere Antworten geschlossen.
nVidia G90, G92, G9x (9800 GX2 / GTX), G100, GT200 [Speku-, News- & Sammelthread](P1)

nVidia G90, G92, G9x (9800 GX2 / GTX), G100, GT200
[Speku-, News- & Sammelthread]


In diesem Thread, geht es um Informationen, Meinungen, Fragen und Spekulationen rund um das Thema:

nvlogodeluxxul8.jpg

bringt nVidia einen G90 als Refresh des G80,
oder kommt der G90 oder G9x bzw. G100 schon mit einer völlig neuen oder aufgebohrten Architektur,
wird es wieder eine nV ULTRA oder (9800)GX2 Variante geben
und kommt eine 8800 GS oder 9800 GS jetzt wirklich ?!?


Spekulationen zur Folge wird NV auch im Mainstream Bereich eine neue Graka auf beschnittener G92 Basis releasen und zwar die GF 9600 GT.

Außerdem, steht der G92 kurz vorm Release und aller Voraussicht, resultiert die GF 8800GT als erste Graka daraus, dicht gefolgt von einer neuen GF 8800 GTS.


Aber werden nun auch die beiden jetzigen HighEnd 8800 Modelle(GTX/ULTRA), als 65nm Refresh auf dem G92 beruhen, oder bringt nv nun doch noch einen G90 sprich eine echte 9800 GTX?!?

So wie es derzeit aussieht, wird wohl der G92 für die kommenden 9800er verwendet werden, was wohl eine Speicher-Interface Limitierung auf 256 Bit bedeutet. :(


Wie man sieht, Fragen über Fragen! ;)

----------------------------------------------------------------------------------------------------------



nv 9800 GX2


GeForce 9800 GX2: Weitere Bilder

Neue Doppel-Grafikkarte auf Basis von zwei GeForce 8800 GTS 512MB

"[...] soll die GeForce 9800 GX2 wie vermutet auf zwei GeForce 8800 GTS mit 512 MByte basieren und damit über insgesamt 1 GByte Speicher verfügen. Angeblich wird die neue High-End Grafikkarte am 14. Februar erscheinen und 449 US-Dollar kosten.

Die [...] GeForce 9800 GX2 besitzt zwei DVI-Anschlüsse, einen HDMI-Port und einen digitalen Audioausgang (S/PDIF). [...] SLI-Anschluss, d.h. man kann zwei Modelle parallel betreiben (Quad-SLI). Triple- bzw. 6-fach-SLI ist dagegen nicht möglich.
Angeblich reicht zum Betrieb ein Netzteil mit 580 Watt Gesamtleistung und mindestens 40 Ampere auf der 12-Volt-Schiene aus."

Quelle: hartware.de

gf9800gx2vv5.jpg

G100 to be named Geforce 9800


At least for now

"Nvidia’s new G100 chip might get the Geforce 9800 name.

[...]

to launch two new high end parts each. In Q1 probably in January Nvidia is about to launch D8E, dual G92 card and ATI will reply with the already demonstrated R680 card. Later, probably in Q2, ATI will follow up with R700 to fight the G100.

We haven't seen any new high end cards since April, and that is way too long for this market."

Quelle: fudzilla.com



----------------------------------------------------------------------------------------------------------


nv 9800 GTX / GT



y1p6irVfTHljTORj97o6FZTosq-Bo61HFKAFID-sfNqrZt93iHnz6snveztqw6LDdzmvmCQdO5aPaxi40n0jZDCuw


Vorläufige Specs.:
GPUZ_Exp.jpg




----------------------------------------------------------------------------------------------------------


nv 9600 GT


9600gt1gq1.jpg

GeForce 9600 GT: Bilder und konkrete Specs

"Abseits der immer noch anlaufenden Consumer Electronics Show (CES) sorgen momentan erste Bilder zur kommenden GeForce 9600 GT, [...] die Bilder sind der nun sichtbare Beweis für dessen Existenz.

[...] insgesamt 64 Shadereinheiten der 9600 GT. Ferner gilt ein 256-Bit Speicherinterface als sehr wahrscheinlich. Durch einen Speichertakt von 900 MHz würde man so eine reale Speicherbandbreite von 57,6 GiB/s erzielen, die so im Mid-End-Sektor noch nicht zu sehen war. Der Chip soll entgegen bisheriger Meldungen mit 650- statt 500 MHz angesteuert werden; die Shadereinheiten mit 1625 MHz. In der Summe soll der in 65nm-gefertigte Chip rund 90 Prozent schneller als eine 8600 GTS rendern.

[...] ein Netzteil mit mindestens 400 Watt Gesamtleistung pflicht. Des Weiteren muss es 26 Ampere auf der +12-Volt-Schiene liefern.
Überdies gilt mittlerweile als relativ gesichert, dass der Chip eins-zu-eins auf der GeForce-8-Architektur aufsetzt, damit also quasi nur ein abgespeckter G92 ist, der bei der 8800 GT und 8800 GTS 512 eingesetzt wird. Sollte nichts Unerwartetes passieren, so wird Nvidia den Chip zusammen mit der 9800 GX2 am 14. Februar veröffentlichen."

Quelle: www.hardware-infos.com

9600gt2oa2.jpg

GeForce 9600 GT: Erste Resultate


Neue Mainstream-Grafikkarte ist Nachfolger der GeForce 8600 GTS

"[...]

Der Grafikchip taktet mit 650 MHz, der Speicher wird mit 900 MHz angesprochen. Der Shader-Takt liegt bei 1625 MHz. Nach aktuellem Kenntnisstand verfügt der Grafikchip (Codename angeblich G94-300) über 64 Stream Prozessoren (Shader Einheiten).
Der schwarze Kühler ähnelt äußerlich dem der GeForce 8800 GT und kommt wie bei der GT wohl auch wieder von Cooler Master.
Im 3DMark06-Vergleich zeigt sich die GeForce 9600 GT etwa so schnell wie die Übergangslösung GeForce 8800 GS (-6 bis +2 Prozent). Die GeForce 8800 GT (mit 512 MByte) ist allerdings ein gutes Stück schneller, zwischen 21 und 28 Prozent."

Quelle: hardware.de


----------------------------------------------------------------------------------------------------------



nv 8800 GTS


9ii3rf78.jpg

g92tabyi3.jpg

g92newgtshf3.jpg

----------------------------------------------------------------------------------------------------------

Aktuelle News von November 2007:


Weitere Bilder und neuer Termin der „G92 GTS“


" [...] neue GeForce 8800 GTS auf Basis des in 65 nm gefertigten „G92“-Grafikchip [...]

nv8800gtssideaa4.jpg
nv8800gtstopgg1.jpg

[...] am 11. Dezember 2007. Die maximale Leistungsaufnahme wurde ebenfalls mit nun 140 Watt – vormals 110 Watt – ein klein wenig (nach oben) korrigiert, [...], um eventuellen Temperaturproblemen bei gestiegener Leistungsaufnahme vorzubeugen, ein Dual-Slot-Kühler mit ausreichend dimensioniertem Lüfter verwendet. Der Chiptakt wird nach wie vor bei 650 MHz liegen, während der Speicher effektiv mit 1.940 MHz arbeitet. Der Shadertakt liegt bei hohen 1.625 MHz."



Quelle: computerbase.de



Taktraten der neuen 8800 GTS "G92"


"[...] die "alte" GTS aufzubohren, indem man kurzerhand die Taktraten von 500/1200/800 MHz auf 575/1350/900 MHz erhöhte und obendrein noch die Shadereinheiten von 96 auf 112 erhöhte.

Damit nicht genug, kündigte man auch eine weitere 8800 GTS für den 3. Dezember an. Diese Karte sollte auf dem in 65nm gefertigten G92 basieren und damit auf demselben Chip wie die 8800 GT. [...]

Demnach soll der 512 MiByte große Texturspeicher der neuen 8800 GTS mit einer Taktfrequenz von realen 970 MHz angesprochen werden und an das übliche 256-Bit-Speicherinterface des G92 gekoppelt sein. Der Kerntakt soll bei rekordverdächtigen 650 MHz liegen, während die insgesamt 128 Shadereinheiten mit ebenfalls rekordverdächtigen 1625 MHz angesprochen werden sollen. Die 9-Zoll-Karte soll unter Last 140 Watt aus einem 6-Pin-PCI Express-Stecker ziehen und damit deutlich verbrauchsarmer als die bisherigen 8800-GTS-Chips. [...]

Die nVidia GeForce 8800 GTS 512 wird voraussichtlich am 3. Dezember für ca. 299-349$ das Licht der Welt erblicken. Interessant wird die Positionierung, da diese Karte der jetzigen 8800 GTX angesichts brachialer Shaderpower überlegen sein dürfte und sich der Ultra bedingt durch die Speicherbandbreite wahrscheinlich unterordnen wird müssen. [...]"



Quelle: hardware-infos.com



Zwei neue GeForce 8800 GTS bis Dezember


"Verwirrung gibt es derzeit um die Zukunft, beziehungsweise um die neuen Ableger der GeForce 8800 GTS. Nachdem sie aus dem eigenen Hause starke Konkurrenz in Form der GeForce 8800 GT bekommen hat und Nvidia gestern bereits verriet, dass es eine neue Version der GTS geben wird, [...]

Richtig neu wird es dann ab dem 3. Dezember 2007. Dann wird es die richtige Neuauflage der GeForce 8800 GTS geben – die 65-nm-Fertigung des G92 inbegriffen. Diese neue GeForce 8800 GTS setzt dann auf die Grundelemente der GeForce 8800 GT, verfügt jedoch über 128 SP anstatt 112 der GT. Das Speicherinterface wird ebenfalls wie bei der GT-Version bei 256 Bit liegen, insgesamt stehen 512 MB GDDR3-Speicher zur Verfügung. [...]"

Übersicht / Specs.:
g92gtsgf7.jpg


"Wie der Tabelle zu entnehmen ist, wird laut den Kollegen von HKEPC das Portfolio durch einen weiteren Ableger, der GeForce 8800 GS, abgerundet. Da die GeForce 8800 GT mit 256 MB Speicher bereits ab 199 US-Dollar verfügbar sein soll, wird die GeForce 8800 GS einen noch günstigeren Einstieg in die 8800er-Generation ermöglichen. Allerdings sollen sowohl die 256-MB-Variante der GT als auch der GS erst einige Wochen später im Handel verfügbar sein [...]

Des Weiteren werfen die beiden neuen GeForce 8800 GTS die Frage nach dem Verbleib der GTX auf. Jene weiß sich im aktuellen Test der GeForce 8800 GT bei uns gerade noch zur Wehr zu setzen, jedoch dürfte es mit einer nochmals technisch verbesserten Neuauflage der Anfang Dezember erscheinenden Version der GTS kaum eine Überlebenschance für die GTX geben. Die geringere Leistungsaufnahme und die höheren Taktraten dürften die neue GTS in fast allen Bereichen das Duell für sich entscheiden lassen. Darüber hinaus wird die neue GTS um den von der GeForce 8600 und der GeForce 8400 bekannten „Video Processor 2“ (VP2) erweitert, weswegen man den G92 als „PureVideo HD“-fähig bezeichnet. Somit kann die GPU der CPU die Mehrarbeit bei MPEG2- sowie H.264-HD-Filmen abnehmen, weswegen es selbst auf schwächeren CPUs kein Problem darstellt, einen HD-Film anzuschauen – ein weiterer Vorteil gegenüber der bisherigen GTX.

Doch wie geht es dann weiter?
Ob nochmals eine neue Version der GTX auf Basis des G92 in den Startlöchern steht, vielleicht mit etwas mehr Speicher, muss abgewartet werden. Es erscheint jedoch nicht völlig unrealistisch, da das Synonym „GTX“ (abgesehen von wenigen Ultra-Derivaten) bisher immer für die schnellsten Nvidia-Grafikkarten stand. Dies dürfte ohne weitere Palettenänderung bei Nvidia jedoch kaum mehr der Fall sein, zumindest nicht mehr in den verbleibenden wenigen Wochen dieses Jahres."



Quelle: computerbase



8800 GTS am 19. November?


Weitere G92-Grafikkarte bereits am 19. November?

"Erst vor einigen Tagen waren Gerüchte und erste Details zur kommenden GeForce 8800 GTS aufgetaucht. Diese soll über 112 Stream-Prozessoren verfügen und mit 512 MByte Grafikspeicher ausgeliefert werden - der allerdings nur per 256 Bit Interface angebunden wird, was den Abstand zur GeForce 8800 GT mit 512 MByte, die für den 29. dieses Monats erwartet wird, deutlich verringern dürfte. Laut aktuellen Gerüchten wird nVidia die 8800 GTS bereits knapp drei Wochen nach der 8800 GT vorstellen: Am 19. November.

Kosten soll eine derartige Karte rund 305 US-Dollar, womit sie preislich durchaus ein gutes Stück über den 8800 GT Varianten (200 bzw. 250 US-Dollar) liegt. [...]"



Quelle: hardware.net



----------------------------------------------------------------------------------------------------------

nv 8800 GT

Launchtermin ist der 29. Oktober 2007 und hier nun die von vielen heiß ersehnten Specs. der GF 8800 GT:
Anhang anzeigen 54072
(klick mich)
* G92-270-A2 revision (65nm, Week 37 2007)
* 37.5mm x 37.5mm 1148-pin FCBGA package
* Core clock : 600MHz / Shader clock : 1500MHz
* VGPU = 1.05±10.5mV
* 112 shader processors
* 10-layers PCB revision G92P393
* 8 chips of 16M x 32 Qimonda HYB18H512321 BF-10 @ 2V
* 256-bit 512MB GDDR3 @ 900MHz (Effective 1GHz)
* Coolermaster TM69 single slot cooler
* 3 heat-pipes, 1000-3200RPM, 34dB
* 110W TDP (Requires 6-pin PCIe connector)
* NVIO/HDCP
- allerdings nur 16 ROPs (im Vergleich zu 24 ROPs beim G80)
Anhang anzeigen 54128
(klick mich)
Foxconn präsentiert als erster Graka- Hersteller seine neue GeForce 8800 GT Grafikkarte:
Anhang anzeigen 54216
(klick mich)




________________________


News von Oktober 2007:


GeForce 8800 GT vorgestellt


Neues Modell löst GeForce 8800 GTS 320MB ab - Erhältlich ab 229 Euro

"Nach Wochen voller Gerüchte stellt nVidia nun endlich offiziell die GeForce 8800 GT Grafikkarte vor. Das neue Modell löst die 320-MByte-Version der GeForce 8800 GTS ab und soll laut nVidia von diversen Anbietern ab 229 Euro erhältlich sein. [...]
Im Vergleich zur GeForce 8800 GTS besitzt der Grafikchip der 8800 GT mehr Shader Einheiten bzw. Stream Prozessoren: 112 statt 96. Außerdem wurde der Chiptakt von 500 auf 600 MHz und der Speichertakt von 800 auf 900 MHz angehoben. Die Speicherschnittstelle ist dagegen nur noch 256 statt 320bit breit. Die GeForce 8800 GT wird mit 512 MByte GDDR3 SDRAM ausgestattet. Eine 256-MByte-Version folgt wohl später.
Außerdem wurde der Grafikchip der GeForce 8800 GT laut nVidia mit einer PureVideo HD Einheit der zweiten Generation ausgestattet, der High Definition Filme in H.264 und VC-1 beschleunigt. Die Karte entspricht dem PCI Express 2.0 Standard.
..."



Quelle: hardware.net



GeForce 8800 GT letzten Endes leicht zu kühlen?


"Vor einigen Tagen machten Schlagzeilen die Runde, Nvidia habe bei der kommenden GeForce 8800 GT mit Hitzeproblemen zu kämpfen. [...]

Das Problem schien der einfache Single-Slot-Kühler in Verbindung mit engen, schwach ventilierten Komplettsystemen zu sein. Es handelte sich offenbar um ein reines Kühlungsproblem, denn der G92, Grafikchip der künftigen 8800 GT, gilt mit einer Strukturbreite von 65 nm als gemäßigt hinsichtlich Leistungsaufnahme und Hitzeentwicklung. Die Fertigung des G92 wurde von Nvidia übrigens nicht wie sonst üblich bei TSMC sondern bei UMC in Auftrag gegeben.
G92 Package-Design​
Anhang anzeigen 53659
(klick mich)
Nvidia soll seinen Partnern mittlerweile bestätigt haben, dass die GeForce 8800 GT nicht zu heiß wird und dabei ungefähr 110 W an Leistung aufnimmt beziehungsweise an Wärme wieder abgibt. Im Zuge dessen ist auch ein neues Bild ins Internet gelangt, welches den Kühler der 8800 GT mit einem nun größeren Lüfter zeigt. Der Single-Slot-Kühler verrät aufgrund seiner in schwarz gehaltenen Abdeckung nach wie vor wenig über innere Qualitäten, soll aber über drei Heatpipes verfügen. Auf dem PCB ist eine einzelne herkömmliche 2x3 PCI-Express-Buchse zur Stromversorgung verlötet.

Des Weiteren verdichten sich Informationen um die Spezifikationen der GeForce 8800 GT. Gearbeitet wird mit einem Kerntakt von 600 MHz; der Speicher wird real mit 900 MHz (effektiv 1800 MHz) betrieben. Das Speicherinterface wird 256 Bit breit sein, die Speicherausstattung 256 MB oder 512 MB betragen – je nach Modell. Neu sind Angaben zur GPU-Spannung, welche bei 1,05 V oder 1,10 V liegen soll.

Interessant sind noch Angaben zur Chipgröße. Der G92 der GeForce 8800 GT soll mit 289 mm² kleiner sein als der 480 mm² große G80 einer 8800 GTS / GTX / Ultra. [...]

Außerdem scheint das PCB der 8800 GT zwar in der Länge einer GeForce 8800 GTS zu ähneln, das Layout scheint jedoch nicht mit dem einer GeForce 8800 GTS vergleichbar zu sein. Dieser Umstand ließ sich bereits aus der Erkenntnis ableiten, dass der Videospeicher auf der 8800 GT anders organisiert wird. Das kleinere, 256 Bit breite Speicherinterface der 8800 GT bindet acht Speicherchips an, während auf einer GTS mit 320 Bit zehn Chips und auf der GTX / Ultra mit 384 Bit zwölf Chips angebunden werden. Somit wären sämtliche bisher verfügbaren Kühler für die GeForce 8800 Serie nicht kompatibel zur 8800 GT.

Die GeForce 8800 GT wird am 29. Oktober der Öffentlichkeit präsentiert werden und soll zu ihren zwei DVI-Anschlüssen einen HDMI-Dongle spendiert bekommen."



Quelle: computerbase



GeForce 8800 GT


Neue Grafikkarte für $200 bis $249 mit flachem Kühler und guter Leistung

"Die neue GeForce 8800 GT von nVidia auf Basis des in 65nm Technologie gefertigten G92 Grafikchips wird bekanntlich Ende Oktober oder Mitte November eingeführt. [...] und kann im 3DMark06 10.000 Punkte übertreffen.

Das 3DMark06-Resultat von 10.769 Punkten hat nVidia den Grafikkartenherstellern als Referenz genannt. Es ist allerdings unklar, auf welchem System der Benchmark der GeForce 8800 GT durchgeführt wurde, so dass es keine vergleichbaren Leistungsdaten gibt. Mit über 10.000 Punkten im 3DMark06 rückt nVidia aber auf jeden Fall recht nah an die GeForce 8800 GTS heran, obwohl diese mehr Shader Einheiten und eine breitere Speicherschnittstelle besitzt.
Zum Vergleich: Während die GeForce 8800 GTS über 96 Shader Einheiten und ein 320bit breites RAM-Inteface verfügt, wird die GeForce 8800 GT "nur" 64 Shader Einheiten und eine 256bit Speicherschnittstelle besitzen.
Bislang rechnete man bei der GeForce 8800 mit 600 MHz Chip- und 900 MHz Speichertakt. Allerdings heißt es nun, dass der G92 Grafikchip auch höhere Taktraten gut verträgt und nVidia diese vor Einführung vielleicht noch erhöht. Das soll von der Leistung des neuen Konkurrenzmodells von AMD, der ATI Radeon HD 2950 Pro (RV670), abhängen, von der bislang noch keine Benchmark-Resultate durchgesickert sind.
Die GeForce 8800 GT soll mit 256 MByte Speicher für 200 US-Dollar und mit 512 MByte für $250 auf den Markt kommen."



Quelle: hardware.net


News von September 2007:


Aus G92 wird GeForce 8700 GTS


Im November: Grafikkarte mit G92 Chip heißt nVidia GeForce 8700 GTS

"Über den vermutlich Mitte November erscheinenden G92 Grafikchip von nVidia gab es bereits zahlreiche Gerüchte. Unklar ist weiterhin die genaue Leistungsfähigkeit, aber jetzt wird aus Asien berichtet, dass der offizielle Name der entsprechenden Grafikkarte "GeForce 8700 GTS" lauten wird. [...]
Zum Vergleich: Eine GeForce 8600 GTS taktet mit 675/1000 MHz und besitzt nur ein 128bit RAM-Interface. Die GeForce 8800 GTS läuft mit 500/800 MHz und verfügt über eine 320bit breite Speicherschnittstelle."



Quelle: VR-Zone


News von August 2007:


nVidia G92 angeblich am 12.11.


Neue G92 Grafikkarten sollen im November GeForce 8800 GTS ablösen

"Um den kommenden G92 Grafikchip von nVidia gab es widersprüchliche Meldungen. Einige positionierten diesen im High-End Segment, andere im Mainstream. [...]
Der in 65nm Technologie gefertigte nVidia G92 Grafikchip verfügt über eine 256bit breite Speicherschnittstelle. Zum Vergleich: der G80 Grafikchip der GeForce 8800 GTS wird noch in 90nm Strukturbreite produziert und besitzt ein 320bit RAM-Interface.
Grafikkarten mit dem G92 werden gegen die in den nächsten Monaten erwartete ATI Radeon HD 2950 Pro (RV670) positioniert. Genaue Produktbezeichnungen sind noch nicht bekannt, aber G92-Modelle werden wohl weiter zur GeForce 8 Serie zählen, noch nicht zur GeForce 9."



Quelle: HKEPCI

----------------------------------------------------------------------------------------------------------


Nvidia: GeForce 9800 GTX und GTS im November 07?


"Laut TweakPC sollen aus diversen Quellen bereits Informationen über die neue GeForce Generation ans Licht gekommen sein.
Ging man zuvor aus, dass der G92 eine Midrange Karte wird, so soll man jetzt zum Entschluss gekommen sein,
dass es ein High-End Modell sein wird, die GeForce 9800.
Nach unbestätigten Angaben soll der G92 bereits im November vorgestellt werden
und über eine Milliarde Transistoren verfügen, im G80 sind es lediglich 681 Millionen.

Spezifikationen des neuen G92 auf einer GeForce 9800 GTX sollen folgende sein:

65 Nanometer Prozess
Über eine Milliarde Transistoren
Unified-Shader-Architecture der zweiten Generation
Floatingpoint 64 Support
Über ein Teraflop Shader-Rechengeschwindigkeit
MADD+ADD Konfiguration für die Shader (2 + 1 FLOPS = 3 FLOPS pro ALU)
512-Bit-Speicher Interface
1.024 Megabyte GDDR4-Speicher
Direct-X 10.1 Support
OpenGL-3.0 Support
eDRAM die für "FREE 4xAA”
Eingebauter Audio-Chip (HDMI)
Verbesserte AA- und AF-Qualität
Die mutmaßlichen Preise der Karten sollen auch schon bekannt sein, so soll die GeForce 9800 GTX zwischen 549 und 649 US-Dollar und die GeForce 9800 GTS zwischen 399 und 499 US-Dollar kosten."

Quelle: TweakPC


----------------------------------------------------------------------------------------------------------

... und hiermit fing alles an:

Angeblich soll der G80 Refresh also der G81 mit 25% mehr Shader Einheiten kommen.


"Im März wird bekanntlich die neue DirectX10 Grafikkartengeneration von ATI erwartet.

nVidia hat seine neuen Grafikkarten (GeForce 8) bereits seit einiger Zeit auf dem Markt,
will aber offenbar nochmal nachlegen, um ATI jeglichen Wind aus den Segeln zu nehmen.

Angeblich ist eine GeForce 8900 GTX mit 25% mehr Shader Einheiten geplant, das wären dann 160.
Ob dieses Modell weiterhin auf dem in 90nm Technik gefertigten G80 Grafikchip basiert
und ob es höher getaktet wird als eine GeForce 8800 GTX, ist noch Spekulation."



Quelle: hartware.de
 
Zuletzt bearbeitet:
Was ist denn das für ein Mist? Du redest von Dingen wovon du nicht die geringste Ahnung hast.
Wem die Leistung einer GTX nicht reicht, ist bei der Singelkarte 3870x2 sehr gut aufgehoben, sehr sehr gut. Der Leistungsplus schwankt zwischen 30%- mehr als 100% , bedeutet also mehr als doppelt so schnell wie eine GTX bzw. Ultra. In jedem neueren Spiel wird CF nun unterstützt und Multi GPU ist bei beiden Herstellern die Zukunft.
Diesen Anspruch will Nvidia nun mit der 9800 GX2 erreichen, obs klappt werden wir sehen - wobei ich mir nicht vorstellen kann, dass es klappt - da bei der G92 Mogelpackung einfach nicht viel mehr rauszuholen ist.

So ein armseliges Fanboy gelaber hab ich ja schon lange nicht mehr gesehen...

Junge, der Durchschnitt ist nicht 30% - 100% sondern gerade mal 10-20% je nach Test...

Habe selber CF mit RV670 hier und da fehlt noch sehr sehr viel zu einem G80 SLI System, da ist kein Vergleich möglich. Der RV670 muss sich mit dem G92 messen, aber auch da sieht es schlecht aus für ihn...

Über die G92 Mogelpackung sag ich jetzt mal lieber nichts, ist einfach nur lächerlich...
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Sorry Dural aber das ist Unfug ;)

CF skaliert doch erheblich besser, und ist in vielen Games unseres Benchmarkparkurs weitaus schneller als ne GTX/ULTRA es gibt auch noch Ausnahmen wo CF noch Probleme hat. Manchmal wirklich doppel so schnell aber im Schnitt um die 60% Mehrleistung wenn es richtig konfiguriert ist.

Aber dauert noch ein paar Tage bis unsere Zusammenstellung Online geht.
 
Zuletzt bearbeitet:
Sorry Dural aber das ist Unfug ;)

CF skaliert doch erheblich besser, und ist in vielen Games unseres Benchmarkparkurs weitaus schneller als ne GTX/ULTRA es gibt auch noch Ausnahmen wo CF noch Probleme hat. Manchmal wirklich doppel so schnell aber im Schnitt um die 60% Mehrleistung wenn es richtig konfiguriert ist.

Aber dauert noch ein paar Tage bis unsere Zusammenstellung Online geht.

Mit was testet ihr den, 4GHz Quad? Mit einer normalen CPU sind solche Duchschnitts Werte einfach nicht möglich.
 
Quad auf 3.0Ghz auf X38. Alle Karten GT/GTS/GTX auf der selber Plattform mit CF verglichen sowie den aktuellen Treiber der jeweiligen Hersteller. ;)

Natürlich mit allen Hilfsmitteln wie EXE Renaming, da ja leider die Möglichkeiten eines Nhancer fehlen bei ATI.
 
Zuletzt bearbeitet:
CF ist trotzdem nur in Ausnahmefällen doppelt so schnell wie eine GTX. Rein logisch betrachtet ist das ja auch schon kaum möglich, schließlich ist die Rohleistung der GTX viel höher.
 
Quad auf 3.0Ghz auf X38. Alle Karten GT/GTS/GTX auf der selber Plattform mit CF verglichen sowie den aktuellen Treiber der jeweiligen Hersteller. ;)

Natürlich mit allen Hilfsmitteln wie EXE Renaming, da ja leider die Möglichkeiten eines Nhancer fehlen bei ATI.

Exe.renaming ist ja auch absolut legitim, man muss nur aufpassen, das man nicht anfängt für jedes Spiel den besten Treiber auszupacken, denn das entpricht dann ja kaum noch den Anforderungen der normalen Gaming Praxis und würde Benchmarks nicht vergleichbar machen, mit gängigen Benchmark Tests im Netz.
So nach dem Motto, Spiel A mit 8.45.2 X2 Treiber, Spiel B mit 8.1, Spiel C mit 8.2 u.s.w.
Eine maximale Vielfalt an Spiele Benchmarks ist halt auch wichtig, ansonsten wird das Ganze zu einem Schaulaufen.

Sowas zeigt dann zwar auf, was unter optimalen Bedingungen, mit maximalem Aufwand möglich ist, hat aber wenig mit einem echten Vergleich zu tun.
Das Problem dabei ist, das die Leute von unterschiedlichen Vorraussetzungen ausgehen.
Für den Crossfire Freak ist es selbstverständlich, das er die .exe bei Bedarf renamed, den passenden Treiber je nach Spiel draufhaut und deshalb ist für ihn der Performanceunterschied grösser, als er von Seiten wie CB in Performancerating sichtbar wird.

Leute, die dem nicht nachkommen und einfach den aktuellen Treiber draufhauen und losgamen, erleben dann aber schnell eine andere Realität.
Das sorgt dann häufig für die Diskrepanzen zwischen, CF Freak und X2 Besitzer, der nicht in der Lage ist, oder auch nicht bereit ist, diesen Aufwand zu betreiben.

Das macht es auch so schwer, engültige Urteile zu fällen.
Der erfahrene CF User holt halt durch das nötige Wissen mehr aus seinem Multi-GPU raus, als die Masse an Gamern, die mit einem CF eventuell überfordert sind, weil sie davon ausgehen, das ein CF sich verhält wie eine Single GPU, die ohne weiteres zutun, immer gleichmässig schön skaliert.
SLI und CF, aber insbesondere CF, sind halt Grafiklösungen, die mit den nötigen Streicheleinheiten, deutlich mehr Leistung haben, als wenn man sie Plug&Play betreibt, wie es die Testpages machen.
Die verwenden einen Treiber zum Testen, verzichten auf .exe renaming und das drückt dann das Potential eines CF, im Verhältnis zu dem was möglich wäre.
 
Zuletzt bearbeitet:
Wenn es mit optimiertem Treiber in hohen Auflösungen bei passender Plattform je Karte 30% sind langt das doch schon um die Existenz zu rechtfertigen.
Grad wenn man abzüglich 10% dann 50% SLI hätte und 100% bei Quad SLI mit 4 Karten währe das der unterschied zwischen unflüssigen 20 Frames mit der Ultra und 40 Frames mit dem 4er Quatet aus Geforce 9800 GX2 Karten.
Bei Grafikanwendungen wo exessive gerendert wird dürfte es noch deutlich werden wenn 2 - 8 GB Ram verwendet werden auf der Karte für große Visualisierungs Aufgaben.
Gut 1000 Watt sind 1000 Watt aber es wird eh in Richtung 1500 - 2000 Watt Netzteile gehn wenn man auf 30 Zöller gamen will mit der angemessenen Auflösung.
 
Zuletzt bearbeitet:
Exe.renaming ist ja auch absolut legitim, man muss nur aufpassen, das man nicht anfängt für jedes Spiel den besten Treiber auszupacken, denn das entpricht dann ja kaum noch den Anforderungen der normalen Gaming Praxis und würde Benchmarks nicht vergleichbar machen, mit gängigen Benchmark Tests im Netz.
So nach dem Motto, Spiel A mit 8.45.2 X2 Treiber, Spiel B mit 8.1, Spiel C mit 8.2 u.s.w.
Eine maximale Vielfalt an Spiele Benchmarks ist halt auch wichtig, ansonsten wird das Ganze zu einem Schaulaufen.

Sowas zeigt dann zwar auf, was unter optimalen Bedingungen, mit maximalem Aufwand möglich ist, hat aber wenig mit einem echten Vergleich zu tun.
Das Problem dabei ist, das die Leute von unterschiedlichen Vorraussetzungen ausgehen.
Für den Crossfire Freak ist es selbstverständlich, das er die .exe bei Bedarf renamed, den passenden Treiber je nach Spiel draufhaut und deshalb ist für ihn der Performanceunterschied grösser, als er von Seiten wie CB in Performancerating sichtbar wird.

Leute, die dem nicht nachkommen und einfach den aktuellen Treiber draufhauen und losgamen, erleben dann aber schnell eine andere Realität.
Das sorgt dann häufig für die Diskrepanzen zwischen, CF Freak und X2 Besitzer, der nicht in der Lage ist, oder auch nicht bereit ist, diesen Aufwand zu betreiben.

Das macht es auch so schwer, engültige Urteile zu fällen.
Der erfahrene CF User holt halt durch das nötige Wissen mehr aus seinem Multi-GPU raus, als die Masse an Gamern, die mit einem CF eventuell überfordert sind, weil sie davon ausgehen, das ein CF sich verhält wie eine Single GPU, die ohne weiteres zutun, immer gleichmässig schön skaliert.
SLI und CF, aber insbesondere CF, sind halt Grafiklösungen, die mit den nötigen Streicheleinheiten, deutlich mehr Leistung haben, als wenn man sie Plug&Play betreibt.


Da stimme ich dir voll und ganz zu.

Darum haben wir uns entschieden alles Hardware möglichst auf einer Plattform zu testen. Treiber werden natürlich immer die gleichen genutzt zum Spiel, den passenden Treiber heraus suchen wäre ja absolut Unfair.;)

Na dann testet doch bitte auch mal Vanguard und Gothic3.

dazu schrieb ich schon folgendes ->
es gibt auch noch Ausnahmen wo CF noch Probleme hat
diese Games sind solche Aussnahmen. Ich will nichts in den Himmel loben aber so schlecht wie CF oft hingestellt wird ist es bei weitem nicht und wenn sie der User Zeit nimmt ist es wahnsinnig effektiv bei vielen Titeln. Halt leider mit etwas mehr aufwand als bei NVidia da der User sich von Hand durch tricksen muß und keine Spieleprofile erstellen verwalten oder vorgegeben hat wie bei Nhancer. Wenn das bei SLI nicht wäre, würde die Welt genau so bescheiden wie bei CF aussehen. Das sollte mal nicht vergessen werden. ;)
 
Natürlich mit allen Hilfsmitteln wie EXE Renaming, da ja leider die Möglichkeiten eines Nhancer fehlen bei ATI.

Aber dann kann man solche Tests gleich vergessen, weil man sowas den Normalo User nicht zumuten kann. Außerdem wisst ihr nie ob das gesamte Game von Crossfire beschleunigt wird bzw. fehlerfrei funktioniert.
 
Wo liegt das Problem eine .exe um zu benennen?
 
Dass Otto Normaluser, der sich für viel Geld einen dicken CF-Ultraforce-PC ausm Prospekt bestellt hat, nicht mal WEIß, dass er die Datei umbenennen kann/sollte.
 
Wo liegt das Problem eine .exe um zu benennen?

Da gibts einige Games die das garnicht mögen...u.a. Kopierschutzmaßnahmen reagieren auf sowas sehr allergisch
Es geht darum das man einem Normalo User der sich z.b. eine X2 kauft nicht zumuten kann 100 EXE Datein durchzutesten, welche denn nun jetzt optimal rennt. Außerdem ist sowas immer mit Vorsicht zu genießen, da man nie sagen kann das ein Game durchweg auch mit Crossfire funktioniert. Oft sind auch Grafikfehler oder Schattenflackern die Folge...Und das ist kein Zustand. Daher sollte man auf sowas bei Tests achten , Treiber installieren out of the Box testen eben so wie sich Ati auch gedacht hat ohne irgendwelche Tricks etc. Da sich die Crossfire auch ändern bei neueren Treibern kann es zudem auch vorkommen das z.b. sam2.exe bei Cat 7.4 ganz anders bei Cat 7.8 reagiert...Und dann? Eben das ist kein Zustand.
 
Aber dann kann man solche Tests gleich vergessen, weil man sowas den Normalo User nicht zumuten kann. Außerdem wisst ihr nie ob das gesamte Game von Crossfire beschleunigt wird bzw. fehlerfrei funktioniert.

Der Test ist für unsere HWluxx User , sind wir hier Otto Normal?

Grade weil es nirgendwo anders gemacht wird haben wir das Thema mit aufgenommen um zu zeigen was geht an Leistung mit CF. ;)

Suchen übrigens immer noch jemanden der uns SLI benchen kann :hmm: 2xGT 2xGTS oder so? Wer sowas hat wäre schön wenn er sich mal meldet.
 
Um zu sehen, was an Leistung mit CF geht, würde ich aber eher das XS konsultieren. ;) Kleiner Scherz.
 
Im .exe Renaming liegt an sich überhaupt kein Problem.

Das öffentliche Hardware Pages wie CB und andere, soetwas nicht in ihre Tests integrieren, ist absolut berechtigt und nachvollziehbar.
Erstens ist es einfach ein Manko, seitens der Hersteller, die einfach keine vernünftigen Treiberprofile bereit stellen und zweitens richten sich solche Tests nicht primär an den CF Freak, sondern an alle potentiellen Käufer, also auch an die, die von einer Karte erwarten, das sie bei allen Anwendungen, ohne weiteres Zutun optimal skaliert.
Es geht ja bei derartigen öffentlichen Tests von CB,PCGH, u.s.w. nicht darum was wäre, wenn ich mir die Mühe mache mich zu informieren, um herstellerseitige Schlamperei, mit Eigeninitiative zu korrigieren.
Sondern es geht dabei, darum, was bringt die Karte mit den vom Hersteller bereit gestelleten Treibern und Profilen.

Für CF Freaks ist sowas eine Selbstverständlichkeit und mit dem nötigen Background, auch wenig zeitaufwendig.
Aber ein Produkt sollte auch ohne das Zutun des Käufers, seine maximale Performance entfalten.


Wenn Forum de Luxx, Tests mit .exe Renaming macht, finde ich das ok, wenn man den Lesern klar auf den Weg gibt, das CF unter simplen Plug&Play Bedingungen schlechter sklalieren kann.
Ebenso ist es notwendig, wenn man CF mit SLI in solchen Tests vergleichen will, das man bei SLi die maximalen Möglichkeiten mit nhancer ausnutzt.

Das einzige Problem ist, das es dem ungeübten User, ein falsches Bild von der Performance vermittelt, die er unter Plug&Play Bedingungen bei sich zu erwarten hat.
Das lässt sich aber mit einer für Anfänger verständlichen Erklärung über die Testbedingungen und Auswirkungen derartiger Tweaks klarstellen.


Noch sehr viel objektiver und aufschlussreicher, wäre in meinen Augen ein direkter Vergleich zwischen Crossfire + Konkurrenz mit .exe Renaming und nhancer und der direkten Gegenüberstellung zwischen CF und Konkurrenz ohne .exe Renaming und nhancer, unter Plug&Play Bedingungen.

Das würde vielen neue Einsichten geben und unsägliche Diskussionen über Testbedingungen und Realitäten vermeiden, dann hätte jeder das für sich passende Ergebnis und kann selbst entscheiden, was für ihn in Frage kommt.
Der Interesierte Tüftler orientiert sich an den getweakten Benchmarks, wer Plug&Play preferiert hat mit den tweakfreien Benchmarks, die für ihn relevanten Werte.

So ein Test, wäre vermutlich sogar eine Premiere und stellt die mit Abstand objektivste Variante dar, die Leistungsfähigkeit der Karten/Multi-GPU Systeme zu vergleichen.

Einziges Manko, es verdoppelt den Zeitaufwand.
Für den Mehraufwand, erhält man aber auch eine Verdoppelung des Informationsgehalts und einen objektiveren Test.

Denn sowohl Testmethoden, wie sie bei grossen Hardware Pages üblich sind, wie auch Tests die auschliesslich mit .exe Renaming gemacht werden, zeigen nur eine mögliche Betrachtungsseite.
Sie zeichnen aber kein komplettes Bild.
 
Zuletzt bearbeitet:
Mh gute Idee , ich schau ob wir das bei CF nochmal durchgehen können alles mit Standart und mit EXE Renaming , das es dann seperat erwähnt wird und man dann den Vergleich hat. :)
 
Sowas wäre dann absolut vorbildlich und ein Beispiel auch für andere Hardware Seiten, wie möglichst objektive Tests aufgebaut sein sollten.
Neben der grösseren Objektivität nimmt es auch allen potentiellen Spekulanten und Nörglern den Wind aus den Segeln.
 
Zuletzt bearbeitet:
Zwei 1,6 Liter Opel haben auch mehr Ps als 1 2 Liter BMW

was eine hirnloser Vergleich.. Die 3870 X2 muss sich WENN überhaupt mit ner 9800 GX2 messen ODER mit 2 alten GTX/GTX im SLI.. und da muss ich nicht mal benchen um zu sehen, daß die 3870 X2 die größere Mogelpackung der 2 Multi GPU Karten ist
 
Zwei 1,6 Liter Opel haben auch mehr Ps als 1 2 Liter BMW

was eine hirnloser Vergleich.. Die 3870 X2 muss sich WENN überhaupt mit ner 9800 GX2 messen ODER mit 2 alten GTX/GTX im SLI.. und da muss ich nicht mal benchen um zu sehen, daß die 3870 X2 die größere Mogelpackung der 2 Multi GPU Karten ist

Warum kommen immer wieder nur so hole Frasen? Damals wurde auch geheult das die 7950GX2 man ja als *einzel Karte* angesehen wird. Aber Ati darf das nicht? Als ATI noch mit der 1950XTX an der Spitze war und die GX2 noch nachgeschoben wurde um die Performance Krone zu holen weil Nvidia keine schnellere Single GPU Karte hatte wurde sich mit Händen und Füßen dagegen gewehrt die Karte nicht als SLI Multi GPU Karte zu werten. :hmm: Man man man ....

Aber eigentlich sind wir ganz schön OT und ich will Koebes nicht den Thread versauen :wink:

:btt:
 
Zuletzt bearbeitet:
Alle mit Sicherheit nicht... ;) Sieht man das nicht an den Kommentaren in den verschiedensten Threads? Du als Mod solltest das doch am ehesten wissen.. :)

:shot: naja ich dachte eigentlich schon ;)


Nein wie gesagt , werden die Sache mit *Tricks* und normal Vergleichen damit jeder User sehen kann und sich entscheiden kann ob er basteln mag oder nicht. :)
 
Warum kommen immer wieder nur so hole Frasen? Damals wurde auch geheult das die 7950GX2 man ja als *einzel Karte* angesehen wird. Aber Ati darf das nicht? Als ATI noch mit der 1950XTX an der Spitze und die GX2 noch nachgeschoben wurde um die Performance Krone zu holen weil Nvidia keine schnellere Single GPU Karte hatte. :hmm: Man man man ...

Naja damals hatte Ati keine 2 Chip Variante am Start, bei Nvidia wird sie im März folgen ich denke schon das man das bedenken sollte. Zumindest ist der Vergleich 8800GTX/Ultra Unsinnig aus mehrerlei Gründen 1. gibt es die Karte bereits seit November´06 zu kaufen, hier wird also alt gegen neu verglichen 2. Sollte man da eher 2x8800GT/GTS gegen eine X2/2x3870 antreten lassen. 3. Mikroruckerproblem was für eine GTX nicht zutrifft.
Das eine X2 wenn sie denn optimal funktioniert schneller als eine GTX/Ultra ist ist auch völlig normal ,das sollte man auch erwarten dürfen bei 2 Chips auf einer Karte. Das jedoch zu vergleichen ist unsinnig wenn dann sollte man sich noch bis März gedulden und die GX2 gegen die X2 benchen das macht dann eher Sinn. Meine Meinung.
 
ich seh die X2 als Singelgraka, ich sag ja auch net hab 4 CPUs weil ich nen Quad hab:hmm:

Dazu kann man bei der X2 keine CF Aktivieren oder Deaktiveren, also ist es für mich eine Graka, wieviel GPUs auf einem PCB sind ist mir sowas von egal.
 
Naja damals hatte Ati keine 2 Chip Variante am Start, bei Nvidia wird sie im März folgen ich denke schon das man das bedenken sollte. Zumindest ist der Vergleich 8800GTX/Ultra Unsinnig aus mehrerlei Gründen 1. gibt es die Karte bereits seit November´06 zu kaufen, hier wird also alt gegen neu verglichen 2. Sollte man da eher 2x8800GT/GTS gegen eine X2/2x3870 antreten lassen. 3. Mikroruckerproblem was für eine GTX nicht zutrifft.
Das eine X2 wenn sie denn optimal funktioniert schneller als eine GTX/Ultra ist ist auch völlig normal ,das sollte man auch erwarten dürfen bei 2 Chips auf einer Karte. Das jedoch zu vergleichen ist unsinnig wenn dann sollte man sich noch bis März gedulden und die GX2 gegen die X2 benchen das macht dann eher Sinn. Meine Meinung.

Die gleichen Sätze kamen damals auch von den ATI lern zu der GX2. Ist doch völlig egal , unterm Strich hat ATI aktuell die Performance Krone, wie ist doch völlig egal. So wird gerechnet und nicht wie die Usern das gern hätten so lief es damals mit der GX2 und jetzt halt anders herum mit der X2. ;)
 
So ein armseliges Fanboy gelaber hab ich ja schon lange nicht mehr gesehen...

Junge, der Durchschnitt ist nicht 30% - 100% sondern gerade mal 10-20% je nach Test...

Habe selber CF mit RV670 hier und da fehlt noch sehr sehr viel zu einem G80 SLI System, da ist kein Vergleich möglich. Der RV670 muss sich mit dem G92 messen, aber auch da sieht es schlecht aus für ihn...

Über die G92 Mogelpackung sag ich jetzt mal lieber nichts, ist einfach nur lächerlich...

Da ich schon die G92 mehrere Monate lang hatte, kann ich von mir aus zu Recht behaupten, dass die G92 eine reine Mogelpackung ist. Besonders die G92 GTS. Die sinnlose Rohleistung verpufft ohne AA/AF in Schall und Rauch. Wenn man Qualität zuschalten will, spricht 8xAA/AF kann man nicht mal Doom3 in hoher Auflösung ordentlich spielen.
Dass die 3870x2 mehr als DREIMAL so schnell ist als die G92 wollte ich nicht ausschlachten aber wer es nicht sehen will, guckt halt nochmal.

nvidiadeadro6.jpg


3870x2aa3.jpg


Diese Zahlen hab ich mir nicht aus der Nase gezogen, sondern entstammen von einem der renomiertesten deutschen HW Tester computerbase.de :bigok:
 
Die gleichen Sätze kamen damals auch von den ATI lern zu der GX2. Ist doch völlig egal , unterm Strich hat ATI aktuell die Performance Krone, wie ist doch völlig egal. So wird gerechnet und nicht wie die Usern das gern hätten so lief es damals mit der GX2 und jetzt halt anders herum mit der X2. ;)

Nein eben die haben sie ja nicht. Reden wir vom schnellsten oder reden wir über Einzelkarten (damit meine ich keine nach dem MultiGPU Prinzip)?
Nvidia hat TripleSLI damit die schnellste Plattform, Crossfire-X haben wir noch nicht, ebenso wenig QuadSLI. Damals gab es zur GX2 lediglich die X1950XTX also war nur dieser Vergleich möglich. Jetzt wissen wir aber das im März die 9800GX2 erscheint das ist ein himmelweiter Unterschied oder willst du im März nochmal alles durchtesten um dann zu einem ganz anderen Fazit zu kommen?
 
Nein eben die haben sie ja nicht. Reden wir vom schnellsten oder reden wir über Einzelkarten (damit meine ich keine nach dem MultiGPU Prinzip)?
Nvidia hat TripleSLI damit die schnellste Plattform, Crossfire-X haben wir noch nicht, ebenso wenig QuadSLI. Damals gab es zur GX2 lediglich die X1950XTX also war nur dieser Vergleich möglich. Jetzt wissen wir aber das im März die 9800GX2 erscheint das ist ein himmelweiter Unterschied oder willst du im März nochmal alles durchtesten um dann zu einem ganz anderen Fazit zu kommen?

Ich rede von der schnellesten Graka, nicht Single nicht Multi GPU, schnellste Graka ist die X2 *PUNKT* der Kunde geht in den Laden kauft sich die *schnellste Graka die es gibt* mit dieser Karte fährt er nach Hause baut die ein *fertig*. Da muß er nix mit CF Einstellen oder sowas, die Karte läuft normal wie ne Single GPU auch er hat nicht die Option CF an oder aus.

Fazit von mir und allen Hardwareseiten und Zeitschriften -> schnellste eigenständige Karte. :)

Diese Diskusion ist absolut Sinnlos, wurde damals schon geführt und jetzt wieder. Ihr denk das ist nicht fair? Jede Zeitschrift und Inet Seite denkt da anders und im Sinne des Verbrauchers. Karte zählt eigenständig , so wie es die GX2 auch tuen wird am Markt wenn sie erscheint.

Tripple SLI Quad CF, sind eindeutig System mit mehren Karten die der User kaufen und konfigurieren muß! Das ist bei der X2 und bei der GX2 nicht der Fall. Der Kunde kauft eine Karte und zerbricht sich über 2,3 oder 4 Karten die er ins System bauen muß nicht den Kopf. ;)
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh