nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
Haben wir doch schon 100x gehabt, wird vermutet dass das kein Fermi ist.

-das Mainboard ist nichtmal an (keine LEDs an auf dem Board)
-der Lüfter steht von der Graka
-auf dem Schirm das ist der DX11 bench, bloss das HDR ist viel zu krass also kein DX11


Aber ist ja auch Latte, werden wir sehen was Fermi haben wird oder nicht.....
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zuletzt bearbeitet:
Es gibt genug, du musst ausserhalb von Geizhals mal gucken bei ebay sind gestern 2x 5870 für 700 € weg gegangen zB. ;)

ATi hat vieleicht nix in den Regalen, aber sie haben was auf dem Markt auch wenn schon alles weg ist :shot:
 
NV liefert aber auch nicht wirklich.
Bei Geizhals ist da auch nicht viel los, die 275, 280, 285 machen sich ziemlich dünne.

Wenn schon nicht der Fermi kommt, so sollte man zumindest die alten Karten weiterverkaufen und die Lieferengpässe waren auch schon vor zwei Monaten bekannt, da hätte man prima nachlegen können.
 
Es rentiert sich für Nvidia nicht die 275, 280, 285 weiterzuverkaufen. Sonst würden sie mit den Karten eher noch Verlust machen, wenn sie die Preise anpassen würden zur ATI HD 58xx. Die sind ja leider zurzeit nicht besonderst verfügbar, das was gutes für NV ist.

*Offtopic
Hab meine 5850 wieder abbestellt, da ich jetzt doch auf die NV warten werde. Ich lass mich überraschen und hoffe auf eine schön taktfreudige 360GTS ;)
 
Đęađliŋe;13464021 schrieb:
Es rentiert sich für Nvidia nicht die 275, 280, 285 weiterzuverkaufen. Sonst würden sie mit den Karten eher noch Verlust machen, wenn sie die Preise anpassen würden zur ATI HD 58xx. Die sind ja leider zurzeit nicht besonderst verfügbar, das was gutes für NV ist.

*Offtopic
Hab meine 5850 wieder abbestellt, da ich jetzt doch auf die NV warten werde. Ich lass mich überraschen und hoffe auf eine schön taktfreudige 360GTS ;)

Ich werde die HD5870 wahrscheinlich wieder verkaufen bei EBAY wenn Fermi da ist , hatte schon ein paar ATIS und leider immer wieder Grafikbugs & unerklärliche Framerateeinbrüche trotz neuester Treiber.
Mit NVIDIA hatte ich dagegen 0 schwierigkeiten da läuft alles problemlos, aber ist ja auch kein Wunder das NVIDIA-Logo kostet schliesslich viel.

Trotzdem, die HD5870 ist zu schnell darf man sich nicht entgehen lassen im moment.
 
Zuletzt bearbeitet:
Allerdings sollte jedem klar sein das ein Netzteil mit 2x6pin,einschliesslich des PCIE Steckplatzes,an der absoluten Grenze für eine TDP von 225Watt arbeiten würde.

Und wie ich oben schon anmerkte die Vergangenheit hat gezeigt das von keinem Hersteller im Worst Case(z.B Furmark) in der Vergangenheit diese Grenze gehalten wurde.

Deshalb muss ein Hersteller eine gewisse Sicherheit nach oben hin einbauen u das ist nur mit 6pinx8pin möglich bei 225 TDP

Neja nicht unbedingt...
Es gibt auch genügend Gegenteilige Beispiele...
R600, TDP 225W, realer Volllast Verbrauch bei den ersten Modellen mit 1,2V VGPU Spannung von ~160W. Furmark um die 190W.
Die letzten verkauften Modelle hatten nur 1,05V VGPU Spannung unter Volllast. Dementsprechend weniger Verbrauch.
Die Karte hat 1x6Pin + 1x8Pin, läuft aber auch mit 2x6Pin (und das selbst bei massivem OC und extremer VGPU Spannung jenseits 1,4V)

Aber das krasse Beispiel ist ja die 2900Pro 256Bit.
Die läuft mit 1,2V und XT Taktraten mit nur 1x6Pin Anschluss immernoch...
Am nur halben SI kann das nicht wirklich liegen ;)


Ich denke mal nicht, das NV hier wirklich auf 1x6+1x8Pin angewiesen ist, sondern die würden das wohl nur der Sicherheit wegen verbauen...
Wobei ich selbst 225W Volllast Verbrauch für zu viel für ne Single GPU halten würde. Da müssten dann aller mindestens 30% mehr Leistung zur HD5870 drin sein, damit die Karte gleich effizient arbeitet...

Wenn schon nicht der Fermi kommt, so sollte man zumindest die alten Karten weiterverkaufen und die Lieferengpässe waren auch schon vor zwei Monaten bekannt, da hätte man prima nachlegen können.

Bedenke aber auch das bei aktuellen Kaufpreisen für die G200er Chips NV nicht wirklich Gewinn einfährt.
Es gab sogar mal bestätigte Meldungen der Boardpartner, die sagten das eine 260GTX in der Form sogar Verlust einfährt. Und da lag der Kaufpreis noch gut 30€ höher als jetzt...

Also warum sollte NV hier Karten anbieten, wo sie noch oben drauf legen? Macht auch wenig Sinn.

Rev A2 war bei 1200mhz (40%<>soweit wie ATI heute...)....die werden uns alle das fürchten lernen...ihr werdet an meine Worte denken :d und an die 600 Ocken pro Karte.

Ne nicht wirklich, AMD brauch derart hoher Shadertaktraten nicht wirklich. Denn AMD Karten ab dem R600 waren nie wirklich Shaderlimitiert... Bei NV hingegen ging mit mehr Shadern immer gut was an Performance Plus.

Zumahl aktuelle AMD GPUs auch problemlos auf ~1GHz+ laufen, und das oft sogar mit Stock Spannung.
Coretaktraten jenseits 800MHz kann NV ebenso nicht wirklich bieten... (285GTX) ;) Da fehlen auch ~31% zu AMD ;) Bei NV macht man das eben mit mehr Ausführungseinheiten wett, was ja nicht verkehrt ist, aber auch den Chip aufbläht, Strom verbraucht und zu Produktionsproblemen aufgrund der DIE Große kommen kann... Es gilt also den Mittelweg zu gehen. Und ich hoffe mal NV packt das mit dem Fermi und verrennt sich da nicht durch zu riesige Chips in Taktproblemen...
 
Zuletzt bearbeitet:
hatte schon ein paar ATIS und leider immer wieder Grafikbugs & unerklärliche Framerateeinbrüche trotz neuester Treiber.
Mit NVIDIA hatte ich dagegen 0 schwierigkeiten da läuft alles problemlos
so geht mir auch. klar, nvidia bringt auch hin und wieder problemchen wie kein AA in stalker, aber dafür laufen die treiber und die grakas rund.
fermi kann kommen.:)

Wie uns seitens Herstellern angedeutet wurde, gibt es aktuell bereits lauffähige Muster, welche aber noch nicht für Vorstellungszwecke gedacht seien. Mit Pressemustern soll aber schon im Januar zu rechnen sein, so dass eine mögliche Marktvorstellung schon im Januar erfolgen könnte. Wie man uns allerdings auch mitteilte, plane NVIDIA keine Vorstellung zur kommenden CES Anfang Januar.
 
Neja nicht unbedingt...
Es gibt auch genügend Gegenteilige Beispiele...
R600, TDP 225W, realer Volllast Verbrauch bei den ersten Modellen mit 1,2V VGPU Spannung von ~160W. Furmark um die 190W.


Aber das krasse Beispiel ist ja die 2900Pro 256Bit.
Die läuft mit 1,2V und XT Taktraten mit nur 1x6Pin Anschluss immernoch...
Am nur halben SI kann das nicht wirklich liegen ;)

...
Wir reden hier aber schon noch von den Highendkarten;)

Also ich meine mich erinnern zu können das so einige ATI 4870,4890 als auch 280,285,295 GTX Probleme mit den Spannungswandlern bekommen haben in Furmark Durchläufen u es sogar Teilweisse zum Ausfall der Karten kam.
Weil eben anvisierte TDP nicht eingehalten wurde im Worst Case(Furmark) .
Oder sich das Netzteil ganz u gar abschaltete unter Furmark Runs

Nachgereichte Messungen haben den Karten einen Wattverbrauch jenseits ihrer spezifizierten Grenzen bescheinigt unter Extrembedingungen:)
 
Wir reden hier aber schon noch von den Highendkarten;)

Also ich meine mich erinnern zu können das so einige ATI 4870,4890 als auch 280,285,295 GTX Probleme mit den Spannungswandlern bekommen haben in Furmark Durchläufen u es sogar Teilweisse zum Ausfall der Karten kam.
Weil eben anvisierte TDP nicht eingehalten wurde im Worst Case(Furmark) .
Oder sich das Netzteil ganz u gar abschaltete unter Furmark Runs

Nachgereichte Messungen haben den Karten einen Wattverbrauch jenseits ihrer spezifizierten Grenzen bescheinigt unter Extrembedingungen:)

Und ich Spreche Bewusst von der R600 in Form der 2900XT bzw. der 2900Pro 256Bit, welche eben das TDP Limit weit unterschreiten. Und das selbst in Furmark ;)

Zumahl TDP nichts, aber auch gar nichts mit der Leistungsaufnahme der Karte zu tun hat... Ich frage mich warum das immer wieder in Zusammenhang gebracht wird...
 
Eben!

Fleißig Monsterchips bauen rentiert sich im Gamermarkt nicht wirklich, wenn die Konkurenz mit wirtschaftlicheren Gpus gleich schnell ist.

Aber fleissige Monsterchips bauen für den GPGPU Bereich in denen das Geld verdient werden soll bei Nvidia,die für die Gamer Sparte auch noch ihre Vorteile abwerfen,ist nichtmal die verkehrteste Lösung;)

Ich bediene den Profimarkt mit wirklich potenten GPGPU Lösungen u halte mir ebenfalls den Gamer Markt warm.

Diese Konzept kann aufgehen

Aber

Wenn ein Auftragsfertiger wie TSMC massive Probleme bekommt mit dem 40nm Prozess,dann ist das fatal für beide Hersteller wie man imo sieht.

---------- Beitrag hinzugefügt um 13:05 ---------- Vorheriger Beitrag war um 12:58 ----------

Zumahl TDP nichts, aber auch gar nichts mit der Leistungsaufnahme der Karte zu tun hat... ...

Das musst du jetzt erklären?

Je mehr Leistung die Karte zieht um so höher wird auch die TDP liegen,da der Chip nunmal zu 80% der Stromfresser ist.

TDP u Leistungsaufnahme der Karte sind also indirekt verknüpft
 
das mag zwar stimmen, aber dennoch sagt TDP über den Verbrauch nix aus...

Zumahl noch eine nicht ganz unerhebliche Unbekannte in der Betrachtung fehlt, nämlich der Wirkungsgrad der GPU selbst... Sprich wie viel Leistung von der die rein geht, wird in Wärme umgesetzt.
Dieser Wert sollte sich denke ich mal mit jeder Generation steigern und ist hier völlig außer Acht gelassen.

225W TDP bedeuten nicht automatisch auch 225W Verbrauch, und auch genau so wenig Volllast/Furmark Verbrauch... Da es wie gesagt Beispiele in beide Richtungen gibt. Einerseits mit extremer Überschreitung der TDP Angabe vom normalen Verbrauch, andererseits von extremer Unterschreitung dieser Angabe...
 
Einerseits mit extremer Überschreitung der TDP Angabe vom normalen Verbrauch, andererseits von extremer Unterschreitung dieser Angabe...

Deshalb habe ich bewusst die Highendkarten hervorgehoben u dazu zähle ich den Fermi der "wenn er denn irgendwann erscheint" auch in dieser Rige mitspielen wird zuerst einmal.

Später werden dann sicherlich auch Stromsparende Varianten auf dem Markt kommen,die ihre TDP einhalten.

Nur gehe ich beim GTX 380 nicht davon aus das dieses Vorhaben unter allen Bedingungen gelingen wird;)

Deshalb ist ein 6x8 Pin Stromanschluss eher wahrscheinlich als ein 6x6 Pin
 
Zuletzt bearbeitet:
Ich bediene den Profimarkt mit wirklich potenten GPGPU Lösungen u halte mir ebenfalls den Gamer Markt warm.

Von GPGPU war aber nicht die Rede.. Das NV sich vermehrt darauf zu konzentrieren scheint, sollte wohl jeder mitgerissen haben ;)

Nur hab "ich" gelernt, das sich ein Chip wie der GT200, schwer tut gegen einen RV770, was die Wirtschaftlichkeit angeht im Desktop/Gamerbereich. Sieht man ja auch an der jetzigen Situation (GTX2xx findet man fast keine mehr).

Tesla Gpus "dürfen" ruhig Monster sein, da keine wirkliche Konkurenz.

NV hat ja schon was über die modularität des Chips gesagt.. von daher mal weiter Tee trinken :)
 
Nur hab "ich" gelernt, das sich ein Chip wie der GT200, schwer tut gegen einen RV770, was die Wirtschaftlichkeit angeht im Desktop/Gamerbereich.

vollkommen egal ;) die derzeitgen nvs sind immer noch die beabsichtigten gegenspieler der 4xxxer Serie und haben ihr Geld eh schon eingefahren. von daher absolut :wayne: wenn die 5xxxer Serie besser dasteht
 
Deshalb habe ich bewusst die Highendkarten hervorgehoben u dazu zähle ich den Fermi der "wenn er denn irgendwann erscheint" auch in dieser Rige mitspielen wird zuerst einmal.

Später werden dann sicherlich auch Stromsparende Varianten auf dem Markt kommen,die ihre TDP einhalten.

Nur gehe ich beim GTX 380 nicht davon aus das dieses Vorhaben unter allen Bedingungen gelingen wird;)

Deshalb ist ein 6x8 Pin Stromanschluss eher wahrscheinlich als ein 6x6 Pin

Du solltest dich erstmal davon loslösen TDP mit dem Verbrauch auf eine Linie zu stellen.
Denn man kann nicht von TDP einhalten sprechen, wenn man nicht weis, wie effizient die GPU bzw. der Rest der Karte mit der reingegebenen Leistung arbeitet.
Ein Realer Stromverbrauch von ~370W beispielsweise (HD4870 X2@Furmark) bedeuten auch nicht 370W Wärmeabgabe. Wie viel drunter, weis kein Mensch.
Ergo lässt sich daraus auf überhaupt nix schließen.
Und ich glaube mich daran zu erinnern das die TDP Angabe auf die GPU bezogen ist, bzw. rein auf die GPU. Im Falle einer Karte mit GDDR5 Speicher kommt nochmal nicht zu verachtender Verbrauch der Speicherchips hinzu... Mehr Chips bedeuten auch mehr Verbrauch usw.

Aber sei es drum.
Fakt ist wohl, wenn die Karte einen realen Verbrauch von ~225W wirklich überschreiten würde, dann müsste die Leistung aller mindestens 30% größer dem Top RV870 SingleGPU Modell sein. Ob das bei den aktuell spekulierten Werten hinkommen würde? Könnte sehr knapp werden.

vollkommen egal ;) die derzeitgen nvs sind immer noch die beabsichtigten gegenspieler der 4xxxer Serie und haben ihr Geld eh schon eingefahren. von daher absolut :wayne: wenn die 5xxxer Serie besser dasteht

Weit gefehlt...
Die G200er Karten wurden/mussten von Anfang an schon sehr günstig verkauft werden. Was man an den Preisen kurz nach Release und dem darauf folgenden Preissturzt gesehen hat...
Ob NV hier sooo viel Gewinn bei den großen G200ern eingefahren hat, waage ich zu bezweifeln. Und kleinere Pedanten gabs ja vom G200 nicht. Außer jetzt jüngst mit den DX10.1 fähigen Modellen...

Der G200 war für NV sicher nicht das, was sie sich vorgestellt haben, aufgrund von starker RV770 Kunkurenz... Zumindest im Gamingbereich. Im Workstation Bereich hingegen schaut das anders aus. Daher vllt auch der Weg von NV vermehrt auf den Workstation/GPGPU Markt. Denn hier ist AMD kein Konkurent aktuell, trotz dennoch potenter Hardware.
 
Zuletzt bearbeitet:
Und ich glaube mich daran zu erinnern das die TDP Angabe auf die GPU bezogen ist, bzw. rein auf die GPU.

.
UM so prekärere wäre die Lage ja wenn sie nur auf die GPU bezogen wäre,dann würde man mit 6x6Pin bei 225 Watt TDP niemals auskommen;)
Nein nein ich gehe schon davon aus das die gesamte Karte gemeint ist
 
Zuletzt bearbeitet:
und du stellst schon wieder TDP mit dem Verbrauch bzw. der Leistungsaufnahme auf eine Stufe... :fresse:
 
und du stellst schon wieder TDP mit dem Verbrauch bzw. der Leistungsaufnahme auf eine Stufe... :fresse:

Die Verlustleistung muss ja auch irgendwo herkommen,noch hat niemand das Perpetuum Mobile erfunden;)

Sprich wenn ich 225 Watt habe die in Wärme umgesetzt werden muss ich auf der Leistungsaufnahmenseite mindestens auch 225Watt haben.Um es mal einfach ohne den Wikungsgrad mit einzubeziehen zu verdeutlichen.

Deshalb diese Aussage

"UM so prekärere wäre die Lage ja wenn sie nur auf die GPU bezogen wäre,dann würde man mit 6x6Pin bei 225 Watt TDP niemals auskommen;)
Nein nein ich gehe schon davon aus das die gesamte Karte gemeint ist"
 
Zuletzt bearbeitet:
Der springende Punkt ist aber, wir wissen weder bei aktuell erhältlichen GPUs noch bei kommenden GPUs wie viel Leistung wirklich in Wärme umgesetzt wird/werden wird... Sprich Wirkungsgrad unbekannt.

Wenn ich nun die TDP Angabe habe, weis ich einerseits nicht wie hoch oder niedrig dieser Wert angesetzt ist. Sprich ob dieser Wert der wirklichen Wärmeabgabe verdammt nahe kommt oder ob er völlig utopisch hoch angesetzt wurde, wie beim R600. (unbekannte No.1) Andererseits ist der Wirkungsgrad unbekannt. Ergo lässt sich nicht drauf schließen, wie hoch die Leistungsaufnahme ist und ob die TDP Angabe eingehalten wird.


Wenn wir jetzt annehmen, die reale Wärmeabgabe entspricht 1:1 der TDP Angabe und der Wirkungsgrad der GPU liegt bei größer 0 (was immer sein wird) dann könnten wir sagen, das mindestens so viel Leistung reinfließen muss, wie die TDP Angabe aussagt.
Da wir aber weder ersteres noch letzteres genau wissen, ist es schlicht unmöglich von der TDP Angabe auf den Verbrauch zu schließen.



Achso und wenn man weiter überlegt, die TDP Angabe ansich sagt nochnich mal genau aus, wie gut oder schlecht der Kühler sein muss. Beispielsweise ein Kühler der eine GPU bei 100W Wärmeabgabe auf 50°C halten kann wird auch eine GPU mit 200W Wärmeabgabe kühlen können, die Frage wäre nur, bei welcher Temp...
 
Zuletzt bearbeitet:
Ich denke nicht das die TDP Angaben der Hersteller unbedingt utopische Werte darstellen,sie sind mit Sicherheit nicht aus der Luft gegriffen sondern fußen auf ermittelten Werten,denn nach diesen Angaben richten sich auch die Boardpartner bei der Entwicklung entsprechender Kühllösungen und oder Spannungsversorgung.

Jedenfalls muss man davon ausgehen,das die Leistungsaufnahme im "Maximalfall" nie geringer sein sollte als die Angaben der TDP.Ansonsten machen solche TDP Angaben keinen Sinn.

Also ist das minimum für so eine Karte im Idelafall(der aber niemals eintreten wird) bei TDP Max ein 6x6Pin
 
Zuletzt bearbeitet:
Ob NV hier sooo viel Gewinn bei den großen G200ern eingefahren hat, waage ich zu bezweifeln. Und kleinere Pedanten gabs ja vom G200 nicht. Außer jetzt jüngst mit den DX10.1 fähigen Modellen...

Der G200 war für NV sicher nicht das, was sie sich vorgestellt haben, aufgrund von starker RV770 Kunkurenz... Zumindest im Gamingbereich. Im Workstation Bereich hingegen schaut das anders aus. Daher vllt auch der Weg von NV vermehrt auf den Workstation/GPGPU Markt. Denn hier ist AMD kein Konkurent aktuell, trotz dennoch potenter Hardware.

ich sagte doch die ham ihr geld eingefahren ;) was davon jetz noch verkauft wird ist ja sogar nv sowas von :wayne: ;) immer die vergleiche ala "Neue Generation schlägt alte"... Absolut schwachsinnig da überhaupt drüber zu diskutieren... jo der neue fiesta bietet auch mehr sicherheitsfeature wie nen mercedes von 1990 :rolleyes:

ob die gerneration nen erfolg war steht auf nem anderen blatt. wirklich schlecht war se sicher nedd
 
Zuletzt bearbeitet:
Ich denke nicht das die TDP Angaben der Hersteller unbedingt utopische Werte darstellen,sie sind mit Sicherheit nicht aus der Luft gegriffen sondern fußen auf ermittelten Werten,denn nach diesen Angaben richten sich auch die Boardpartner bei der Entwicklung entsprechender Kühllösungen und oder Spannungsversorgung.

Jedenfalls muss man davon ausgehen,das die Leistungsaufnahme im "Maximalfall" nie geringer sein sollte als die Angaben der TDP.Ansonsten machen solche TDP Angaben keinen Sinn.

Also ist das minimum für so eine Karte im Idelafall(der aber niemals eintreten wird) bei TDP Max ein 6x6Pin

Die TDP ist nicht zwangsläufig eine gemessene Größe, insbesondere heute steckt da leider auch viel Marketing drin. Es ist schon vorgekommen, dass die TDP über der gemessenen Leistungsaufnahme gelegen hat.
 
Das wäre aber fürs Marketing kontraproduktiv,findest du nicht;)

War missverständlich ;) Ich meinte auf lange Sicht. Die Verkäufe der 8800 Ultra hat man zB angekurbelt, indem man die TDP unter den Wert der 8800GTX gesenkt hat, weil sie dort viel zu hoch gewesen ist. Das ist sicherlich anfangs nicht die Intention gewesen, es ist eher ein Nebenprodukt und sollte nur die Tatsache beleuchten, dass zu hoch angesetze TDPs durchaus gang und gäbe sind.
 
War missverständlich ;)es ist eher ein Nebenprodukt und sollte nur die Tatsache beleuchten, dass zu hoch angesetze TDPs durchaus gang und gäbe sind.

Nun ja zumindestens bei den Highendkarten ist mir keine Karte (in den letzten Jahren)bekannt bei der die TDP jemals "zu hoch" angesetz worden ist.

Meistens sprengten sie den Rahmen aller TDP Angaben,was allerdings auch nicht Sinn u Zweck ist da gehe ich konform.

Oder sollte ich mich irren in der Hinsicht?
 
Zuletzt bearbeitet:
Da das mit der ganzen Verbrauchsgeschichte noch nicht wirklich einheitlich ist kann man sich da bis in alle ewigkeit Diskussionen liefern.

@Lord haste meine PM bekommen?
 
das mag zwar stimmen, aber dennoch sagt TDP über den Verbrauch nix aus...

Zumahl noch eine nicht ganz unerhebliche Unbekannte in der Betrachtung fehlt, nämlich der Wirkungsgrad der GPU selbst... Sprich wie viel Leistung von der die rein geht, wird in Wärme umgesetzt.
Dieser Wert sollte sich denke ich mal mit jeder Generation steigern und ist hier völlig außer Acht gelassen.

225W TDP bedeuten nicht automatisch auch 225W Verbrauch, und auch genau so wenig Volllast/Furmark Verbrauch... Da es wie gesagt Beispiele in beide Richtungen gibt. Einerseits mit extremer Überschreitung der TDP Angabe vom normalen Verbrauch, andererseits von extremer Unterschreitung dieser Angabe...


:haha:
Ähhhhhh wo soll den die Leistung sonst hin? Eine GPU setzt so ziemlich genau 100% der reingesteckten Energie zu Wärme um, die irgendwie abgeführt werden will. TDP soll eigentlich die maximal möglich und abzuführende Wärmeleistung angeben, nach der die Kühlung ausgelegt werden muss.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh