GF100: Kommt der wohl heißeste Chip doch schon im Februar?

Binn mal gespannt darauf Nvidia lässt sich die Mehrleistung bestimmt wieder schön bezahlen, dann fällt der Preis der 5870 wieder und schob binn ich glücklich und kann mir 2davon holen.

Mal sehen wie die Leistung sein wird lange genug hamse ja gebraucht dafür, kann sich dann mit der 6870 rummschlagen ^^
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hab mich da auf Preis/Nutzen bezogen...
Eine Highend Karte für einen geringen Idle verbrauch zu kaufen wäre ja nicht grad wirtschaftlich.

Muss ja nicht für dich gelten, jeder wie er mag, oder?

Alles andere wäre ja schlimm :d
 
Verstehe nicht wenn man eine ATI 5850 das man dann noch auf Fermi umsteigt.Einfach lächerlich wie ich finde.
 
Als Schluderei würde ich das nicht unbedingt bezeichnen. Denn wenn man die 200-Watt-Marke erreicht, kann die TDP auch etwas oberhalb derer liegen.
Und wenn die Erde nicht flach ist, kann sie auch ein Würfel sein, oder wie? Ob deine Formulierung nun Absicht war oder nicht, Fakt ist, eine Marke zu erreichen und eine Marke zu überschreiten, ist erstmal nicht das gleiche. Wozu diese Interpretationsfreiheit führt, sieht man ja an pajaas Beitrag. Daher finde ich schon, dass du etwas geschludert hast. :wink:

Warum sollte Fermi heißer werden wo doch die ATI Radeon HD 5870 mehr Watt pro Quatradmillimeter abwirft?
Weil einfach viel mehr Quadratmillimeter vorhanden sind, die Wärme abwerfen? ;)
 
Weil einfach viel mehr Quadratmillimeter vorhanden sind, die Wärme abwerfen? ;)

Treibt das die Temperatur in die Höhe? Das wäre mir neu... Die Fermi-GPU hat mehr Fläche um die Wärme abzugeben und nur eine leicht höhere TDP, daher kann sie garnicht wärmer werden.
 
Treibt das die Temperatur in die Höhe? Das wäre mir neu... Die Fermi-GPU hat mehr Fläche um die Wärme abzugeben und nur eine leicht höhere TDP, daher kann sie garnicht wärmer werden.

Wenn der kühler aber jetzt in beiden fällen gleich viel energie an die luft abgibt, ist der Fermi wärmer, weil mehr mm² auch wenn energie/mm² etwas drunter liegt, in der summe hat der fermi mehr energie zum abführen. Und das muss der kühler dann schon bewerkstelligen.
 
Jetzt geht das schon wieder mit dem Stromverbrauch los.....


Annahme: Kilowattstunde 18 cent, 5 Stunden am Tag spielen dabei 100W Mehrverbrauch gegenüber einer "anderen Karte"

100W / 1000 x 5h x 365tage X 0,18€ =~33€ pro Jahr

33€ sind in der Preisregion dieser Karten lächerlich


Und was ist das Problem mit der Abwärme? Bis jetzt hat man es noch geschafft jede Karte zu kühlen also werden sie es bei dieser auch schaffen.....

Und für alle Umweltschützer....denkt lieber mal daran was die Karte zur Herstellung an energie und sonstige ressourcen verbraucht und danach mit nem schiff oder gar flugzeug und danach wieder mit dem LKW usw transportiert wird bis du das ding endlich in deinen PC steckst.....
da ist der mehrverbrauch das geringere übel, wenn man so denkt darf man gar keinen pc besitzen
 
Jetzt geht das schon wieder mit dem Stromverbrauch los.....


Annahme: Kilowattstunde 18 cent, 5 Stunden am Tag spielen dabei 100W Mehrverbrauch gegenüber einer "anderen Karte"

100W / 1000 x 5h x 365tage X 0,18€ =~33€ pro Jahr

33€ sind in der Preisregion dieser Karten lächerlich


Und was ist das Problem mit der Abwärme? Bis jetzt hat man es noch geschafft jede Karte zu kühlen also werden sie es bei dieser auch schaffen.....

Und für alle Umweltschützer....denkt lieber mal daran was die Karte zur Herstellung an energie und sonstige ressourcen verbraucht und danach mit nem schiff oder gar flugzeug und danach wieder mit dem LKW usw transportiert wird bis du das ding endlich in deinen PC steckst.....
da ist der mehrverbrauch das geringere übel, wenn man so denkt darf man gar keinen pc besitzen

Ja immer geschafft sie zu kühlen , aber die kunden wollen sicher kein FX kühler mehr sehen oder so, nicht jeder hat ne Wakü oder will umbedingt neuen Kühler montieren. Da sollt der stock auch leise und gut sein.
 
Jetzt geht das schon wieder mit dem Stromverbrauch los.....


Annahme: Kilowattstunde 18 cent, 5 Stunden am Tag spielen dabei 100W Mehrverbrauch gegenüber einer "anderen Karte"

100W / 1000 x 5h x 365tage X 0,18€ =~33€ pro Jahr

33€ sind in der Preisregion dieser Karten lächerlich


Und was ist das Problem mit der Abwärme? Bis jetzt hat man es noch geschafft jede Karte zu kühlen also werden sie es bei dieser auch schaffen.....

Und für alle Umweltschützer....denkt lieber mal daran was die Karte zur Herstellung an energie und sonstige ressourcen verbraucht und danach mit nem schiff oder gar flugzeug und danach wieder mit dem LKW usw transportiert wird bis du das ding endlich in deinen PC steckst.....
da ist der mehrverbrauch das geringere übel, wenn man so denkt darf man gar keinen pc besitzen


Naja man muss dazu sagen das auf einem LKW, Schiff oder Flugzeug nicht nur eine Karte transportiert wird sondern zig tausende.. So gesehen hast du recht da man aber bei den güterverkehren auf Masse setzt relativiert sich das.. naja und die Energiekosten für entwicklung mhh daran will ich garnicht denken

aber so gesehen würde ich mir keine Gedanken machen was denn besser werden könnte etc. Solange Fermi nicht draußen ist kann man Spekulieren wie man will. Papier ist geduldig, vergesst das bitte nicht
 
Zuletzt bearbeitet:
ich denke die GTX380 wird max. 250 Watt verbrauchen, die 65nm Karten also GTX280 hatten max. 236 TDP

darüber braucht man sich aber nicht streiten, der Stromverbrauch ist egal, die Leistung muss zählen!

Zur Not die Spannung senken, z.b. 1.06v, dann verbaucht die Karte weniger ;)
 
Zuletzt bearbeitet:
Der Stromverbrauch sollte aber nicht egal sein. Performance schön und gut. Aber das darf nicht mit schlechter Energieeffizienz erkauft werden. Und das manuelle Senken der Spannung ist kein Argument für den Grossteil der Endverbraucher. Zumal das ja auch bei der Konkurrenz eine Option ist.
 
im enddefekt wird der Endverbraucher nach Test entscheiden welche Karte er kaufen möchte, GTX380 oder 5890, ich freu mich schon auf Untersuchungen bei der Technik
AMD arbeitet offiziel am Refresh, wer weis vielleicht bekommen die Chips auch mehr Streamproessoren :d
 
Das gibts ja auch ganricht bzw. Physikalisch Unmöglich!
Aber manche,nicht du denken nur von der Couch bis zum Klo!

Energie wird heutzutage zu 80-90% Weltweit aus fossilen Rohstoffen gewonnen,die neigen sich dem Ende!Preis steigt...ausserdem ist Dtl nicht das einzigste Land,was Strom haben will,gerade aufstrebende Schwellenländer,wie China,Indien,Brasilien,vorderer Orient (Saudi,Dubai...)Russland lassen die Nachfrage steigen,Energie wird ganz normal wie alles andere gehandelt,ergo große Nachfrage,sinkendes Angebot...steigender Preis...Energie wird teurer,da kann man als Diplomvolkswirt solche Aussagen wie:"Mir egal" nicht stehen lassen,denn sowas,auch wenns den Mods nicht gefällt ist schlichtweg dumm!
Wenn die Karte (alles nur Gerüchte) für evtl 20% mehr Leistung,ein vielfaches z.B. 50% mehr Strom brauch,ist das eben der falsche Weg!Wenn ein Auto für 20km/h mehr Geschwindigkeit oder 20Ps mehr aufeinmal 10l statt der 8l des Vorgängers brauch...regen wir uns auch alle auf...was machen die Pkw Hersteller,entwickeln Motoren,die aus 1,4l 150Ps holen,statt früher 15l nur noch um die 8l wollen,Zurückgewinnung von Energie durch Bremsen usw...bei Grakas ist das doch im Prinzip das gleiche,durch bessere Entwicklung,etc. kann man mehr Leistung aus weiniger rausholen,Effizienz ist hier das Zauberwort.Als Konsument hat man nicht viele Möglichkeiten,aber Firmen durch Nichtkauf zu bestrafen,für einen falschen Weg gehört aber zu den wenigen Möglichkeiten!
Wennd er Fermi nur wenig mehr Energie will,für die (Gerüchte) 20-30% mehr Leistung sagt niemand was,wenn aber eben exponentiell mehr Energie für Power verlangt wird,ist das aus ökonimisches Sicht der falsche Weg!

Ich würde mal sagen, dazu fällt mir kaum mehr ein als ein "dito".

Denn wenn man nochmal ein Auto zum Vergleich heran zieht, selbst die Hersteller von Sportwagen, nehmen wir mal Porsche, sind mittlerweile zumindest zum Teil darauf bedacht, selbst den Verbrauch ihrer Topmodelle bei steigender Leistung entweder leicht zu senken oder aber zumindest gleichbleibend zu lassen(halt eine Art Effizienzsteigerung, sprich mehr Leistung bei gleichem Verbrauch).

Wenn ich die Kommentare von einigen Leuten hier so sehe, wird mir regelrecht übel, denn scheinbar ist der eine oder andere wirklich der Meinung, dass ein neuer Grafikchip gern doppelt soviel Strom fressen dürfte, um vllt auf 50% mehr Leistung zu kommen oder dergleichen...
Ich meine, ich bin nun wahrhaftig kein Ökofreak, aber das ist einfach net mehr zeitgemäß, denn heute wird in allen Bereichen die Effizienz hochgefahren, warum sollten da bspw. Grafikchips von ausgenommen sein?
 
Ganz einfach , Strom powered by eltern , den ist es dann egal!

Solang die kein eigenen Haushalt führen ist es doch egal wenn monatlich 50euro an den stromanbieter gehen!

Ich muss sagen das ich nicht zu den schlecht verdienern gehöre, aber geld für strom aus den fenster werfen tuh ich nicht gerne, da leg ich es lieber auf die hohe kante (und wenn es nur 10euro erspartes ist im monat ) und flieg dafür schön in den urlaub!
 
fangt doch nicht schon wieder mit der stromgeschichte an, das nervt.
@ coletikle: woher haste die angabe mit 80-90% der energie aus fossilen brennstoffen? wenn du strom als energie meinst, da sind wir schon weit drunter, wenn du den gesamtenergiebedarf meinst (heizung, kinetische energie für autos etc) da kommen wir dann evtl dahin, aber das weiss ich nicht genau.

klar sollte man stromsparendere karten bauen, aber so wie ihr das hinstellt, ist es ja der tod für euch :d

v.a. @ haro: du armer, gut verdienender mann der die 10€ stromersparnis im monat nötig hat :lol:
dein dell verbrät da deeeeutlich mehr, zumal er mehr läuft als ne gf100 bei vollast laufen würde :p

und nein, ich bin nicht sponsered bei daddy, bin student, lebe mit der freundin zusammen und wir sparen an strom wo es nur geht, nur sich darüber so aufzuregen ist mehr als überzogen
 
fangt doch nicht schon wieder mit der stromgeschichte an, das nervt.
@ coletikle: woher haste die angabe mit 80-90% der energie aus fossilen brennstoffen? wenn du strom als energie meinst, da sind wir schon weit drunter, wenn du den gesamtenergiebedarf meinst (heizung, kinetische energie für autos etc) da kommen wir dann evtl dahin, aber das weiss ich nicht genau.

klar sollte man stromsparendere karten bauen, aber so wie ihr das hinstellt, ist es ja der tod für euch :d

v.a. @ haro: du armer, gut verdienender mann der die 10€ stromersparnis im monat nötig hat :lol:
dein dell verbrät da deeeeutlich mehr, zumal er mehr läuft als ne gf100 bei vollast laufen würde :p

und nein, ich bin nicht sponsered bei daddy, bin student, lebe mit der freundin zusammen und wir sparen an strom wo es nur geht, nur sich darüber so aufzuregen ist mehr als überzogen

Ich rege mich darüber ja nicht so auf , wenn er mehr verbraucht wird er eben nicht gekauft gut ist.

Und ob man jetzt 50 oder 40euro im monat strom zahlt ist schon was.

Und der Laptop verbraucht in der summe vll mehr wenn er auf "höchstleistung" steht , aber der Fermi ist nur eine Grakka, im Schleppi steckt ein ganzer PC + TFT!

Das ja geil ein teil mit nem ganzen system vergleichen.



Mein Herd verbraucht auch weniger als woanders ne gnaze Wohnung :wall:


Aber wenn wer freiwillig geld ausm fenster wirft, selbser schuld ich achte da eben drauf und dafür schön All-in wo :asthanos:


Und wo steht das ich die 10euro nötig hab? wenn ich sie nötig hätte könnte ich sie nicht zurück legen und dafür lieber was luxus gönnen , wovon man mehr hat!

und P.S. ich wurde dieses jahr wieder Runtergestuft mit der monatlichen rechnung und haben geld zurück bekommen , dafür bin ich mit Familie erstmal lecker essen gegangen! ;)
vll verstehst du jetzt eher wa sich meine ;)
 
Zuletzt bearbeitet:
Energie wird heutzutage zu 80-90% Weltweit aus fossilen Rohstoffen gewonnen,die neigen sich dem Ende! Preis steigt...ausserdem ist Dtl nicht das einzigste Land,was Strom haben will,gerade aufstrebende Schwellenländer,wie China,Indien,Brasilien,vorderer Orient (Saudi,Dubai...)Russland lassen die Nachfrage steigen,Energie wird ganz normal wie alles andere gehandelt,..
Strom kann nicht am Weltmarkt gehandelt werden, da es keine Möglichkeit gibt Ihn weltweit zu transportieren.
Es gibt definitv europaweit ein Stromnetz, aber Schwellenländer wie China und Indien sind davon absolut unberührt.
Ressourcen werden knapp, klar, keine Frage und man darf nicht mit Scheuklappen durch die Welt laufen.
Aber wenns um ein OC-CPU geht die dann 15-20W mehr braucht ist das für die meisten hier auch kein Thema, auch wenn man die Mehrleistung eigentlich nicht wirklich braucht, oder?

Energieeffizienz sollte für uns alle ein Thema sein, aber bitte nicht nur beim PC, wenns um die nä. GraKa-Generation geht, sondern gleich überall beim PC und nicht nur dort. (Standby aller Geräte im Haushalt, Licht..)

Also, 2 System aufbauen, ein UltraSpar-System fürs Inet-Surfen usw und dazu nicht den übertakteten Spielerechner verwenden wär mal die erste Möglichkeit.
Weiter gehts mit unseren Fernsehern, die meisten von uns besitzen grosse Plasmas, oder LCDs, kaufen wir uns doch wieder kleinere und setzen und näher davor.
Und bitte hört auch gleich mit der ganzen Bencherei auf, denn ist eigentlich absolut "Anti-Öko", man spielt nicht einmal etwas, man fordert seinem PC nur Höchstleistung ab um irgendwelche Zahlenwerte zu ermitteln die völlig irrelevant sind.
 
Zuletzt bearbeitet:
Da wir ja bisher etwas den Faden verlieren...

Knappheit (in Stromerzeugen) biete auch die Möglichkeiten der Alternativfindung, wer als erster Anfängt hat den grössten Vorsprung :)

Nein mal ernsthaft, wer die Karte haben möchte und die "sicherer" Verlustleistung in kaufnehmen möchte der darf gerne zugreifen.

Für mich ist es eher interessant das Nvidia ja auch auf den Chiphersteller TMSC zurückgreifen möchte/wird was für mich den Erscheinungstermin im Februar/März wohl sehr unwahrscheinlich machen wird. Ich habe hier schon fast ein Déjà-vu.^^

Nvidia wird an das gemessen was die Presse derzeit liefert, aber ohne das tatsächliche Produkt sind Spekulationen nur reine Falschinformationen.

so thats my two cents
 
Die ganze Diskussion wegen Stromverbrauch ist doch für die Füße.
Wen juckts ob man wegen der neuen Grafikkarte 2,50 EUR im Monat mehr zahlt?
Und wenn jetzt die Urlaubssparer kommen, von wegen die investier ich in den Urlaub, bitte, aber für 30 Euro kommt man gerade mal an den Flughafen.
Und wenn man bedenkt was Flugzeuge an fossilen Brennstoffen verbrauchen,
da ist's für die Umwelt gesünder 2 Wochen auf Balkonien Urlaub zu machen und den OC-Rechner dauerzutesten.
Auch ein Zweitrechner der sparsam ist, ist ja schön und gut,
bis man die Anschaffung wieder drinne hat, muß man aber oft den "Großen" auslassen.
Außerdem werden bei der Produktion soviele schädliche Klimagase frei,
das die Gesamtbilanz dank 2.System deutlich schlechter ausfallen wird, als ein großes System, das viel rumIDLEd.
Und nun setzt ich mich in mein viel zu großes Auto, das 10l auf 100km frisst und hol mir ein Eis im Drive In.
 
Netbrust als Grafikkarte! Thermi kommt.

da hast du nicht viel von der sache verstanden, netburst ist das genaue gegenteil von riesengpus wie G80, GT200 oder Fermi

denn netburst versuchte die leistung aus dem takt zuholen bei einer relativ "schlanken" architektur und langer langsamer pipeline

die NV chips seit G80 holen die Leistung aus der Architekturbreite und möglichst hoher effizienz

bei den ganzen R600 refreshs wurden hauptsächlich einheiten angeklatscht, optimiert wurde wenig

daher wunderts auch nicht das der RV770 (4870) von den >1000 gigaflops nur vergleichsweise wenig auf die strasse bringen kann wenn man sich den nominell rechenschwächeren GT200 anguckt mit nur 933 gigaflops

noch extremer ist die geringe leisungssteigerung der aktuellen cypress generation (gemessen am transistorcount zuwachs)
 
Zuletzt bearbeitet:
da hast du nicht viel von der sache verstanden, netburst ist das genaue gegenteil von riesengpus wie G80, GT200 oder Fermi

denn netburst versuchte die leistung aus dem takt zuholen bei einer relativ "schlanken" architektur und langer langsamer pipeline

die NV chips seit G80 holen die Leistung aus der Architekturbreite und möglichst hoher effizienz

bei den ganzen R600 refreshs wurden hauptsächlich einheiten angeklatscht, optimiert wurde wenig

daher wunderts auch nicht das der RV770 (4870) von den >1000 gigaflops nur vergleichsweise wenig auf die strasse bringen kann wenn man sich den nominell rechenschwächeren GT200 anguckt mit nur 933 gigaflops

noch extremer ist die geringe leisungssteigerung der aktuellen cypress generation (gemessen am transistorcount zuwachs)

Dann hast du nicht viel verstanden von der sache Vec5 , warum ATIs bei den Flops in der praxis schlechter abschneiden als auf dem papier.:asthanos:

Und der GT200 war im grunde auch nur ein erweiterter G80 ;)

Erst der Fermi bringt ne neue Architektur
 
Zuletzt bearbeitet:
weil die architektur ineffizient ist und in realworld dingen bei weitem nicht ausgelastet werden kann da es zu stalls kommt
 
weil die architektur ineffizient ist und in realworld dingen bei weitem nicht ausgelastet werden kann da es zu stalls kommt

Sie kann ausgelastet werden , wenn man ein programm drauf anpasst und auch in den maßen parallelisiert werden kann , das jeder SP core des Vec5 eine augabe bekommt. Das ist nur die schwierigkeit, aber dacht GPGPUs hätten den vorteil viele aufgaben gleichzeitig zu erledigen und da kann der Vec5 bei anpassung der software punkten!


Und somit ein untershcied ob das design ineffizent ist oder nur die programmierung nicht optimal abgestimmt ist!
 
Zuletzt bearbeitet:
im prinzip sind die ATI SIMDs billig darum klatschen die davon auch immer mehr dran

cypress ist nix anderes als ein brute force r600 mit ein paar fixes

das wird jetzt aber offtopic, ich wollte eigentlich nur anmerken das der vergleich fermi und netburst etwas fail ist
 
das einzige was mich am neuen chip mal wieder stoeren wird ist der stromverbrauch in 2d
matrox bringt multimonitor faehige karten raus die 12 watt verbrauchen. niemand braucht fuern desktop mehr - und was machen ati/nvidia?
anstatt nen kleinen 2d kern mit ein bisschen speicher draufzuknallen wird einfach der fette 3d chip runtergevoltet und getaktet (na immerhin irgendwas) und die vollen 1gb ram weiter befeuert. und dann brauchts schon gleich mal 50 watt oder noch mehr - nur fuer 2d
hirnrissig
 
denn netburst versuchte die leistung aus dem takt zuholen bei einer relativ "schlanken" architektur und langer langsamer pipeline

Quark mit Soße. Eine lange Pipeline bzw. eine Pipeline allgemein entwirft man gerade aus dem Grund, dass das etwas schnelles ist. "Langsame Pipeline" ist ein Oxymoron.

temnozor schrieb:
weil die architektur ineffizient ist und in realworld dingen bei weitem nicht ausgelastet werden kann da es zu stalls kommt

Du magst recht haben, per Wortdefinition mag die Architektur "ineffizient" sein. Sie ist jedoch durchaus wohlüberlegt. Von Stalls zu reden ist hier aber Unsinn. Ein Stall ist ein Begriff des Pipelining und das liegt hier nur noch begrenzt vor. Stalls in klassischem Sinne gibt es in GPUs nicht mehr. Was durch die 5-fach superskalaren Shader entstehen kann und worin auch eines der Probleme liegt, sind "Holes" oder "Blasen" im deutschen Rechnertechnikjargon.
 
bei den ganzen R600 refreshs wurden hauptsächlich einheiten angeklatscht, optimiert wurde wenig
Das ist falsch. Angefangen beim Scheduler, über AA/AF, bis hin zu DP und dem Instruction Set wurde sehr viel optimiert. Nicht weniger als von G80 zu G200. Eher noch einiges mehr.

daher wunderts auch nicht das der RV770 (4870) von den >1000 gigaflops nur vergleichsweise wenig auf die strasse bringen kann wenn man sich den nominell rechenschwächeren GT200 anguckt mit nur 933 gigaflops
Das ist ebenso falsch.

HD 4870 vs GTX 280 - theoretische Performance - 1200:933,12 (~1,286)
HD 4870 vs GTX 280 - Performance Furmark - 6200:4267 (~1,453)

Die ATI Architektur zeigt also keine schlechtere Effizienz bei realen Peaks relativ zu theoretischen Peaks. Hier im Beispiel ist die Effizienz sogar höher. Das trifft ebenso für GPGPU mit aktuellem Software Support zu, siehe zB SGEMM/DGEMM.

In Spielen ist die GTX 280 zwar schneller, aber da ist Grafikleistung wichtiger. Und davon hat die GTX 280 mehr.

HD 4870 vs GTX 280 - Pixelfüllrate - 12000:19264 MPix/s (~0,623)
HD 4870 vs GTX 280 - Texelfüllrate - 30000:48160 MTex/s (~0,623)

Gemessen an den 10-15%, die eine HD 4870 durchschnittlich langsamer ist, arbeitet sie äusserst effizient.

noch extremer ist die geringe leisungssteigerung der aktuellen cypress generation (gemessen am transistorcount zuwachs)
Das ist ebenfalls eine ziemlich subjektive und polemische Meinung. Gemessen an der Anzahl der Transistoren ist die Performance völlig iO. Dazu kommen noch neue Features, die ebenfalls Chipfläche benötigen, wie Eyefinity, Direct3D 11, DirectCompute5, Stromsparmechanismen, usw. Desweiteren sollen mit neuen Treibern bisher ungenutzte Performance Features freigeschaltet werden.
 
Zuletzt bearbeitet:
Glaubst du ja selber nicht. :hmm: Aber die Hoffnung stirbt bekanntlich zuletzt.
Was ich glaube, steht hier nicht zur Disposition. Ich gebe nur Informationen weiter. Ich kann das zur Not auch noch näher spezifizieren. Aber das ist hier nicht der richtige Ort dafür.

Rest korrigiert bzw "entschärft".
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh