NVIDIA GK11x/ Geforce 7xx/ Kepler Refresh [Speku-, News- & Diskussionsthread]

Sie testen Titan nur noch mit Boost-Takt.
Du beziehst dich auf den Release-Test. Der steht doch für die Zukunft überhaupt nicht zur Debatte.

Und das ist auch richtig so. Schließlich verhält sich die Titan ohne manuelle eingriffe im schnitt genauso wie eben mit konstanten 876 MHz. Und ja, man kann die Titan manuell anpassen, das steht aber nicht zur debatte. Nvidia liefert die Titan so aus, wie sie ist. Und so muss sie sich eben den anderen Karten stellen.

Was redet ihr die ganze Zeit über Titan?
Naja, auch die Refreshgeneration wird wohl GPU-Boost 2.0 bekommen...
Aber du hast schon recht, hier sollte es um die 700er gehen...
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und das ist auch richtig so. Schließlich verhält sich die Titan ohne manuelle eingriffe im schnitt genauso wie eben mit konstanten 876 MHz. Und ja, man kann die Titan manuell anpassen, das steht aber nicht zur debatte. Nvidia liefert die Titan so aus, wie sie ist. Und so muss sie sich eben den anderen Karten stellen.

nVidia liefert Titan mit der Möglichkeit der Verstellung aus. Ginge es nach der selben Logik, dürften auch keine Einstellungen im Treiber sowie Spiele verändert werden.
 
hoffe die bezahlbaren mittelklasse grakas kommen zügig
 
boxleitnerb schrieb:
Ich kenne keinen Test, in dem eine Titan langsamer ist in Batman, Bioshock usw. Da ist nichts vergleichbar, weiß nicht wie du darauf kommst.

Ich kenne auch keinen Test in dem die HD 7970 ghz hinter der GTX 680 in Max Payne 3 liegt, bei CB ist dies der Fall.
Dennoch hast du mit deinen Beobachtungen recht und man muss dem kritisch gegenüberstehen, eventuell hat Peter ja mal kurz Zeit darauf einzugehen, ich werd mal nachfragen.
 
was ihr immer mit mit unterschiedlichen testergebnissen habt...vieles kommt schon durch unterschiedliche cpu`s je nach review u. takt.manchmal sind halt auch ergebnisse unterschiedlich von pc zu pc.das wisst ihr denke ich auch selber u. da dann bösartigkeit der reviewer bzgl. nv zu wettern finde ich albern.man ließt sich so o. so 2-3 tests durch um ne objektivität zu erhalten.was dann ist,wenn man das gute stückchen in den händen hält wird dann meistens dem eigenen fazit aus mehreren tests entsprechen,aber aben auch nicht immer.ich hatt schon einige graka,denen silent in diversen tests bescheinigt wurden u. real war das gar nicht gegeben.

so ist das manchmal.

bzgl. titan light meine ich das es stark abhängig von ist wie der skaliert mit oc u. wie der stromverbrauch dabei ist.ähnlich 570 zu 580.die 570 war die bessere karte,weil kein heatburner mit oc war.die 580 konnte ich nicht mal mit twin u. default clocks in meinen gehäuse betreiben....

aber vermutliche 800€ würde ich für die light auch nicht zahlen,selbst wenns ne "570" titan mit voller titanleistung bei oc wird.never!

ich hab 2 ti`s drin,oced auf 1215/1750.da bin ich auf 690 niveau für 600€ bei 3gb ram je karte.was will man mehr?

zugegeben schien das 670er sli bei 4x/8x sssaa/sgsaa genau passend zu sein,aber die schluckten auch schon in einigen games über 2gb ram.

mal schauen was kommt.
 
[Sarcasm] Ja ist schon gemein von HT4U das sie die Karten vorm Benchen aufheizen und so das Real Life nachstellen. Schließlich spielt man als Titan besitzer immer nur ein Paar Minuten und lässt die Karte danach wieder abkühlen um bessere FPS zu bekommen. [/Sarcasm]

HT4U zeigt genau wie CB und die PCGH wies um die Real Life Performance bestellt ist. ca. 30% schneller als die 680 und ca. 20% als eine 7970Ghz.
Das die anderen Seite "falsch" benchen und sich die Titan dadurch weitere 10% auf die 680 ercheatet (ja ich meins so wie ichs geschrieben hab) ist bedauernswert.
Ich hoffe das bei den kommenden Launches der GTX 700 mehr Seiten die Boost Problematik durchschauen und richtige Ergebnisse liefern.

Äh, Computerbase und PCGH liefern aber andere Ergebnisse, nur mal so. Es sind bei denen keine 20%, sondern 10%, was total lächerlich ist. Und ercheatet wird da gar nichts, schließlich ist das nicht umsonst - Stichwort Leistungsaufnahme und Lautstärke.

Ich kenne auch keinen Test in dem die HD 7970 ghz hinter der GTX 680 in Max Payne 3 liegt, bei CB ist dies der Fall.
Dennoch hast du mit deinen Beobachtungen recht und man muss dem kritisch gegenüberstehen, eventuell hat Peter ja mal kurz Zeit darauf einzugehen, ich werd mal nachfragen.

Allein der geringe Abstand zwischen 680 und Titan in diesen Spielen ist doch unrealistisch. 50% mehr Bandbreite, selbst bei 837 MHz mindestens 30% mehr Rechenleistung und Füllrate als eine 680@1,1 GHz. Ich kann mir im Leben nicht vorstellen, wir man da auf Leistungsdifferenzen von 10% oder gar weniger kommt. Tut mir leid, aber das stinkt, und wenn ich den Werten nicht trauen kann, kann ich dem Rest des Reviews auch nicht trauen.
 
Zuletzt bearbeitet:
wenn man einen einheitlichen testcase einführen würde wären die verschiedenen seiten vergleichbar
 
Was mich als Premiere Pro CS6 ... die ja nur eine GPU nutzen kann (also bei der GTX 690 nur die Hälfte...) und CUDA als Vorgabe hat an der Titan interessieren würde (aber der Preis sie für mich ausschliesst) sind Details wie hier herausgearbeitet.
HARDOCP - Introduction - Radeon HD 7990 versus GeForce GTX TITAN Review
Irgendwo muss die schon ganz schön 'rums' drinnen haben ;) (in Relation)

Bitte besonders auch wieder die Wattzahlen in Relation zur Leistung usw nicht übersehen.
Und was Leistung zieht, produziert doch normalerweise auch Wärme. Aufwendigere Kühlung kann auch ins Geld gehen, also sind da eventuell irgendwelche Preisvorteile wieder dahin. Oder man hat 'nen Totalschaden, weil man ein kleines Problem in der extra nötigen Wasserkühlung hatte. Oder auch nicht....
Außerdem scheint es ja auch gewaltige Unterschiede in der Lautstärke zu geben, gerade bei Arbeiten in Audition CS6 oder anderen Audio-Bearbeitungsprogrammen enorm wichtig. Oder wenn man keine Mitbewohner stören / auf sich aufmerksam machen möchte (Eltern/WG) oder noch nicht taub ist oder nicht immer den Kopfhörer aufhaben will oder der auf der anderen Seite von Skype noch was verstehen soll....

Mir ist wurscht, welche Karte mit wievielen Chips bei welchen Spielen 'gewinnen', ich denke aber die Titan dürfte bei Programmen, die auf single-GPU ausgelegt sind, mehr oder weniger unschlagbar sein (ausser denen, die pur Raedon ausgelegt sind, keine Ahnung). Oder gewissen Quadro-Karten für spezielle CAD-Programme... aber die kosten ja nochmal deutlich mehr wie die Titan.... ( quadro k5000 in PCIe Preisvergleich | Geizhals Deutschland )

btw, der post ist teilweise ein wenig ironisch gemeint, verstehe die ganze 'meiner ist .... besser' Diskussion nicht so ganz.

So, und wie sieht es jetzt zwecks Neuheiten oder Theorien zu den kommenden GPUs aus?
 
boxleitnerb schrieb:
Tut mir leid, aber das stinkt, und wenn ich den Werten nicht trauen kann, kann ich dem Rest des Reviews auch nicht trauen.

Tut mir leid, aber hier wird deine Aussage für mich nicht nachvollziehbar. Die GTX Titan liegt im Mittel genau 29% vor der GTX 680, was sich mit den Werten des PCGH Indexes und des CB Performanceratings deckt.
Ich lese grade das Review und für mich sind 2 Werte zweifelhaft, Peter hat auch geantwortet.

Und da gibt es scheinbar erstmal mehrere Möglichkeiten.
Zum einen der Takt, die Szene oder der Treiber, denn in der Regel misst man Szenen öfter, d.h. Fehlerquellen werden ganz gut ausgeschlossen. Was sagt du zu den Max Payne 3 Werten bei CB? Müssten deiner Meinung nach dann auch fehlehaft sein, ich hab selbige auch kritisert bei CB, aber habe sicherlich nicht das komplette review in Frage gestellt. o_O
 
Tut mir leid, aber hier wird deine Aussage für mich nicht nachvollziehbar. Die GTX Titan liegt im Mittel genau 29% vor der GTX 680, was sich mit den Werten des PCGH Indexes und des CB Performanceratings deckt.
Ich lese grade das Review und für mich sind 2 Werte zweifelhaft, Peter hat auch geantwortet.

Und da gibt es scheinbar erstmal mehrere Möglichkeiten.
Zum einen der Takt, die Szene oder der Treiber, denn in der Regel misst man Szenen öfter, d.h. Fehlerquellen werden ganz gut ausgeschlossen. Was sagt du zu den Max Payne 3 Werten bei CB? Müssten deiner Meinung nach dann auch fehlehaft sein, ich hab selbige auch kritisert bei CB, aber habe sicherlich nicht das komplette review in Frage gestellt. o_O

Der Punkt ist, dass hier vor allem die Werte innerhalb der Kepler-Familie nicht passen. Die Max Payne 3 Werte sind in dieser Hinsicht schlüssig - solche Ausfälle gibt es auf beiden Seiten ab und zu.
 
Jetzt nicht mehr "nur noch" OT, jetzt wird auch nett zugespammt....:wall::wall::wall::wall::wall::wall::wall::wall::wall::wall:
 
Die min fps bei hitman sind nicht mehr vorhanden seit dem aktuellem treiber!

Es ist immer der ram vollgelaufen und dann gabs kurz ruckler und nun verbraucht man deutlich weniger vram quasi 30% weniger

Alter sehe grad das es der gk110 thread ist und dann solche screenshot oh man...
 
Zuletzt bearbeitet:
Jetzt nicht mehr "nur noch" OT, jetzt wird auch nett zugespammt....:wall::wall::wall::wall::wall::wall::wall::wall::wall::wall:


Warum OT wenn der mini titan 700€ kostet und 15% langsamer ist wie der Titan kann man für das Geld bessere Karten Kaufen die mehr FPS haben und Günstiger sind.
Ziehe 10 FPS von der Titan Mini FPS Max FPS AVG FPS vom jeden Spiel und das wird der Kepler refresh sein GTX780 :wink:
 
Zuletzt bearbeitet:
deine amd ambitionen in allen ehren.wie würdest du reagieren wenn in nen amd thread jemand son fettes kunterbuntes bild bringt u. dann noch behauptet das nv die schnellste u. beste gamingerfahrung ist?

das ist spam u. fast schon flaming!

das ist nen speku thread für zukünftige karten.man kann sich mal in dem kontext über gelaufende testparcours unterhalten bzgl zünftiger leistungsfähigkeit,aber das jetzt einige einzeltests bringen u. jammern das einige cheaten ist albern.

man muß sich immer das testsetup mit durchlesen,damit man es wirklich vergleichen kann! weiter wurde zb. in einen test nur kurz erwähnt das sie aus praxisnahen gründen das power/temptarget angepasst haben.wie laufen eure titans überwiegend?richtig...

btt please!
 
Zuletzt bearbeitet:
Das ist eine Diskussion Thread oder ???

Ich bin der Meinung das der GTX780 eventuell 15% langsamer sein wird wie der Titan und wenn ich Mini Max AVG FPS von der Titan sehe wird der GTX780 schlapp machen in der Auflösung und unspielbar sein. Natürlich kann ich mich Täuschen, die Screens habe ich erstellt damit ihr ein Bild machen könnt wie der GTX780 ungefähr an Leistung hat.

---------- Post added at 21:26 ---------- Previous post was at 21:23 ----------

Alter sehe grad das es der gk110 thread ist und dann solche screenshot oh man...

Darum Powerplay
 
Zuletzt bearbeitet:
einfach nicht darauf eingehen und fertig. thema wäre in diesem thread die spekulation über die Geforce 7xxx

ädit: hier die whitepaper von 2012
http://www.nvidia.com/content/PDF/kepler/NVIDIA-Kepler-GK110-Architecture-Whitepaper.pdf

Hyper-Q – Hyper‐Q enables multiple CPU cores to launch work on a single GPU
simultaneously, thereby dramatically increasing GPU utilization and significantly reducing CPU
idle times. Hyper‐Q increases the total number of connections (work queues) between the host
and the GK110 GPU by allowing 32 simultaneous, hardware‐managed connections (compared to
the single connection available with Fermi). Hyper‐Q is a flexible solution that allows separate
connections from multiple CUDA streams, from multiple Message Passing Interface (MPI)
processes, or even from multiple threads within a process. Applications that previously
encountered false serialization across tasks, thereby limiting achieved GPU utilization, can see
up to dramatic performance increase without changing any existing code.
 
Zuletzt bearbeitet:
Alle fälle war die Radeon HD 7970 GHz Ausgabe CrossFire aus zwei separaten Grafikkarten immer noch die schnellste und beste Gameplay-Erfahrung, für einen geringeren Preis.
Ich glaube nicht, dass Du denn Sinn meines posts verstanden hast:
1. ist mir wurscht/wurst..... => für mich ging es um die GK 110 Möglichkeiten, die sich da andeuten. Dazu muss man aber nicht Irgendwelche anderen Firmen / Generationen zititeren, kann man ja da nachlesen. Übrigens auch deren Tenor war eher verwundert.
2. gibt es noch andere Gesichtspunkte (Nebenkosten per Strom, Kühlung... LÄRM! Nicht volle Nutzbarkeit bei dementsprechenden Programmen..., gähn, wo bleiben die 700er Details)
3. und hier wohl angebrachtestes: was hat das alles mit dem Threadthema zu tun?
4. noch 'kleiner' gings wohl nicht mehr mit der Off-Topic Darstellung? Ironisch....

---------- Post added at 22:00 ---------- Previous post was at 21:57 ----------

Das ist eine Diskussion Thread oder ???
Nur das die Diskussion ein spezielles Thema hat......

---------- Post added at 22:02 ---------- Previous post was at 22:00 ----------

einfach nicht darauf eingehen und fertig. thema wäre in diesem thread die spekulation über die Geforce 7xxx

ädit: hier die whitepaper von 2012
http://www.nvidia.com/content/PDF/kepler/NVIDIA-Kepler-GK110-Architecture-Whitepaper.pdf
DANKE !!!!!! Runtergeladen,wird vermutlich heut' Nacht noch gelesen :banana:
 
einfach nicht darauf eingehen und fertig. thema wäre in diesem thread die spekulation über die Geforce 7xxx

ädit: hier die whitepaper von 2012
http://www.nvidia.com/content/PDF/kepler/NVIDIA-Kepler-GK110-Architecture-Whitepaper.pdf

jepp,interessant!

äh ist das sone art virtuelle cpu kerne,die win o. dem programm dann vorgegaukelt werden?bis jetzt titan only,also gk104 haben das nicht ?

vielleicht gibts ja dann bald winrar o. megui für 32 +cpukerne,grins.
 
Zuletzt bearbeitet:
War so hungrig auf Details, hab's doch gleich gelesen:

Aus dem Whitepaper, das bawder hier netterweise verlinkt hat:

Performance per Watt:

A principal design goal for the Kepler architecture was improving power efficiency.

DAS ist, was ich interessant finde.

Und wenn man den hint bei dem Post/Link von mir beachtet, dort kann man da eine nette Tabelle finden, da waren je nach Umständen bei leicht reduzierter Leistung teilweise bis zu gefühlter knapp die Hälfte an Wattreduzierung dabei. Und dabei war das ja erst der erste GK 110.
Weniger Strom, normalerweise weniger Wärme, normalerweise längere Lebensdauer bzw stabiler.... auch der umliegenden Bauteile, kostengünstigere NT, kostengünstigere Kühlung, besserer Air-flow, mehr PCIe slots übrig für z.B. RAID controller, sound, Schnittstellen zu externen Video-Specialzeugs usw... kostengünstigere und leichtere Gehäuse (ich hab' nen mobilen Big-Tower), ... Leiser, da weniger GPU-Kühler, aber auch da kleinere NT leichter leiser zu betreiben sind, weniger Gehäuselüfter... ach ja, und geringere Stromrechnung. Merkwürdigerweise ist die ja oft nur die Einzige, die in Posts zum Vergleich herangezogen wird.

Was für Anwender wie mich noch interessant sein könnte und soweit ich das Whitepaper verstehe anscheinend typisch GK110 zu sein scheint / werden könnte:
Hyper-Q und/oder Dynamic Parallelism.
Da werden zwar die Programmierer der Software vermutlich noch erst ein wenig nachziehen müssen, da das ja wohl was Neues in dieser Form ist, aber das könnte ganz schön was bringen, oder?

Weiss schon irgendwer, ob die GTX 780 das ebenfalls haben wird?

Das mit dem Shuffle/shared memory macht mich sehr neugierig.

A propo memory, 5GB wären mir auch was Wert, speziell wenn das mit dem shared was bringt im Alltag, befürchte nur, dass die sowas in den ersten Reviews nicht abhandeln, da sowas ev. noch gar nicht in den Testszenarien eingearbeitet ist? (schiele zur Zeit immer noch auf die 670/770 mit 4GB, vielleicht kann ich ja doch noch mehr zusammenkratzen)

Hat das mit dem GPU-direct eigentlich schon mal jemand getestet? Ich selber kann es nicht gebrauchen - denke ich - aber es würde mich interessieren, wie sich das in der Praxis auswirkt bzw ob es da schon Anwendungsbeispiele gibt, für was / wann das interessant zum Verbessern... sein könnte.
 
jepp,interessant!

äh ist das sone art virtuelle cpu kerne,die win o. dem programm dann vorgegaukelt werden?bis jetzt titan only,also gk104 haben das nicht ?

Verstehe ich auch so... nur bin ich mir nicht sicher, inwieweit das 'vorgegaukelt' ist, ich denke, die verwenden da auch physische 'Teile'

SEHR neugierig.

Ich hoffe, die Art von Bild ist o.K.

Dynamic Parallelism.jpg
 
Zuletzt bearbeitet:
jepp!

um mal wieder zum spekulieren zu kommen:ich glaub schon das das ne "570" titan wird,wenn die wie die k20 kommt.weniger stromverbrauch bedeutet besseres pt verhältnis u. temps,ergo besseres oc.natürlich wird das pt wahrscheinlich angepasst sein,aber ich vermute das die out of the box besser zu ocen ist als big titan.weiter wird die dann aber auch zu wenig abgespeckt sein als das die nicht an die titan ran kommt.

gespannt bin ich wohl,aber wahrscheinlich bleibt vieles, unterm strich, beim alten bei sämtlichen 700er.

ist gpu-direkt nicht auch für spielestreaming? ich hatte mal gelesen,das nv dafür an was arbeitet bzgl. latenzen.


hä,optisch verstehe ich den unterschied fermi vs kepler,aber technisch den bezug zwischen cpu u. kepler nicht.

momentan sieht mir das eher nach dem grundaufbau vom titan supercomputer aus.:bigok:


das wird aber auch zeit,das die gpus mehr ins rechnen mit einbezogen werden,und damit meine ich nicht diese gpu-pseudovdideoconverter zb.

hab letzten tage mal 2 sachen getestet.mediacoder erzeugte doch sage u. schreibe 0% gpulast,2x 660ti liefen bei 1032 mit 46° u. das ergebnis war nur fürn papierkorb.:)

mit dem freemake videoconverter war ich schon deutlich besser zufrieden.10-20% gpulast auf einer 660ti bei 324 u. 38°.ramverbrauch sage u. schreibe 100-150mb.

mir ist schon klar das die wahrscheinlich nur die decodierarbeit übernehmen u. das meiste die cpu macht aber mit dem freemake tue ich mich momentan wirklich schwer den nicht doch für nen schwung dvd`s zu nutzen,weil der doch recht brauchbare ergenisse bringt bei 20min encoden für nen 90 minuten film.x264 ist u. bleibt natürlich noch was anderes.mh,mh wenns 10% bessere quali wäre würds mir die entscheidung doch leichter fallen.
 
Zuletzt bearbeitet:
ist gpu-direkt nicht auch für spielestreaming? ich hatte mal gelesen,das nv dafür an was arbeitet bzgl. latenzen.
Vermute ich auch, deswegen hatte ich gefragt, hier gibt es doch so viele Gamer, würde micht interessieren, ob die da schon was merken.

Abgespeckte Variante?

Huh, das war jetzt aber lustig: war Dein Text länger und hast Du da wieder einen Satz rausgelöscht, bevor Du ihn fertig gepostst hast (Supercomputer)? In meinem Zititeren stand mehr drinnen, wie dann in Deinem Post landete????
 
Zuletzt bearbeitet:
im endeffekt zählt nur was am ende rauskommt und bei uns in den PCs landet. kann auch gut sein, dass nvidia 50% der features beschneidet, weil die grakas eh schon schnell genug sind und die wollen auch 2014 noch was verdienen.
 
irgendwas spackt hier seit nen paar tagen.bin ich noch nicht hinter.drück nach editieren auf speichern u. es kommt löschen.

text bevor ich weiter mache sicherheitshalber in die ablage u. dann gings in meinen letzten post auf der vorherigen seite.ach so ist das?:stupid:
 
im endeffekt zählt nur was am ende rauskommt und bei uns in den PCs landet. kann auch gut sein, dass nvidia 50% der features beschneidet, weil die grakas eh schon schnell genug sind und die wollen auch 2014 noch was verdienen.
Ja, damit rechne ich auch, aber spekulieren / hoffen auf Eigenschaften, wo wenn nicht hier :banana:
2014: vor allem, wenn die jetzt ev. weniger Umsatz machen mit den kleinen Chips für Notebooks...

Schnell genug = also ich kann große Bandbreite, umfangreichen Takt, .... gut brauchen, aber ich spele ja auch nicht. Keine Ahnung, wie viel schneller da die PCs/GPUs eigentlich sein sollten

---------- Post added at 23:41 ---------- Previous post was at 23:39 ----------

irgendwas spackt hier seit nen paar tagen.bin ich noch nicht hinter.drück nach editieren auf speichern u. es kommt löschen.

text bevor ich weiter mache sicherheitshalber in die ablage u. dann gings in meinen letzten post auf der vorherigen seite.ach so ist das?:stupid:
Hmmm, ev Zusammengeschoben, wenn die zeitlichen Abstände sehr kurz waren?
 
irgendwas spackt hier seit nen paar tagen.bin ich noch nicht hinter.drück nach editieren auf speichern u. es kommt löschen.

text bevor ich weiter mache sicherheitshalber in die ablage u. dann gings in meinen letzten post auf der vorherigen seite.ach so ist das?:stupid:

Am besten mal hier posten: http://www.hardwareluxx.de/community/f155/fehlerthread-zum-redesign-2012-a-862672-38.html :wink:

@WoasNed
Bitte in Zukunft auch den Edit-Button benutzen, um Doppelposts zu vermeiden.

@Sharif
Ist ja schön und gut, dass du das als Gegenargument liefern willst, hier geht es aber in keinster Weise um diesen Kleinkrieg. Ohne genaue Infos kann man derzeit sowieso nicht vergleichen, Titan hin oder her. Wer weiß was noch alles an Treiberoptimierungen kommt. Also :btt:
 
@WoasNed
Bitte in Zukunft auch den Edit-Button benutzen, um Doppelposts zu vermeiden.
Meinst Du zur Vermeidung der roten Linien? Ich versuche schon die ganze Zeit herauszufinden, wie man das hier macht mit Mehrfachzitierungen in einem Post, damit man dann den Namen des Zitierten nicht verliert.
An den komme ich ja mit editieren nicht mehr heran. Irgendwie geht hier nicht alles, was ich von anderen Foren gewohnt bin, vermutlich eine andere Software...

Gibt es hier irgendwo imForum so eine Art Tricks und Tipps, was man wie machen muss, um was zu errreichen? Hab' schon danach geschaut und nix gefunden, aber vielleicht auch nur im falschen Eck gesucht?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh