AMD Radeon R9 Fury X in der Redaktion eingetroffen

Naja, so viel Unterschied zwischen Standard TI und Custom is jetz nich:
- 688€ http://geizhals.de/zotac-geforce-gtx-980-ti-zt-90501-10p-a1274904.html?hloc=de
- 739€ http://geizhals.de/evga-geforce-gtx-980-ti-superclocked-acx-2-0-06g-p4-4995-kr-a1275048.html?hloc=de

Gleichzeitig muss man die Straßenpreise abwarten. Wirklich günstig kanns nicht werden, wenn man sich den Artikel zu HBM hier durchgelesen hat und sind bei 700+ Euro einzuschätzen. Das Problem für mich wäre zusätzlich, ich hätte keinen Platz für den Radi (ich bin und bleibe aktuell aus anderen Gründen bei Nvidia, hätte aber dennoch keinen Platz ;)). Der Kühlerwechsel für Interessierte ist ja allem Anschein nach mit äußerster Vorsicht zu genießen (Garantie und Gewährleistungsverlust inklusive) und so bleibt die Standard Fury X vorerst die einzige Variante analog der Titan X von Nvidia.

Go go Benches in WQHD & UHD mit Frametimes (das Bild muss ruhig sein, sonst nützen alle fps nix), den AMD Folien glaube ich genauso wenig wie Nvidia Benches


Naja das ist auch die günstigste Custom Karte überhaupt u. zudem kaufen kannst du sie trotzdem erst f. 799,00€. Außerdem wurde hier ja auch von 1300MHz+ gesprochen, d.h du müsstest sie ja nochmals ein ganzes Stück übertakten. Wie potent dieser Kühler ist weiß ich allerdings nicht.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
stimmt...seit wann gibs die titan x ? ist schon ein starkes stück das amd nichemal ne eindeutig bessere karte rausbringt :-)
echt lustig welche fanboyscheiße hier mancche immer posten:\
sicher, man kann jede karte unterhalb einer 980TI einstampfen, weil die 980Ti ja billige einstiegsklasse ist...
Go go Benches in WQHD & UHD mit Frametimes (das Bild muss ruhig sein, sonst nützen alle fps nix), den AMD Folien glaube ich genauso wenig wie Nvidia Benches

Ja vorallem nach dem NV-4GBGate lol..

Great.. ;) ist echt belustigend dieser Thread > funny-thread !
 
Zuletzt bearbeitet:
Naja das ist auch die günstigste Custom Karte überhaupt u. zudem kaufen kannst du sie trotzdem erst f. 799,00€. Außerdem wurde hier ja auch von 1300MHz+ gesprochen, d.h du müsstest sie ja nochmals ein ganzes Stück übertakten. Wie potent dieser Kühler ist weiß ich allerdings nicht.

Naja, die Verfügbarkeit is bei den Customs noch nicht so gegeben, aber letztendlich bestellen kann man sie für diesen Preis, ab glaub ich 750 dann lieferbar. Wird sich allerdings genauso einpendeln wie die Preise & Verfügbarkeit der Fury X. Übertakten muss man in jedem Fall noch, denn out of the box gibts keine 1300mhz. MSI hat afaik 1178, weshalb ich diese auch vorbestellte.

@Cappuandy

Was ist an Frametime-Analysen auszusetzen? Oo
Im aktuellen Heft der PCGH stößt die GTX980 eben wegen 4GB schon ab und zu an ihre Grenzen mit spürbaren Nachladerucklern. Die Rohleistung der Fury X liegt darüber, umso wichtiger ist doch genau dieser Umstand?!?
 
ja das bleibt ein Geheimnis ^^

3x4k != 12k und 4K 40 FPS = 12K 60 FPS?

interessant ^^
Wieso wetterst du so dämlichst gegen ADM?
Und das schon in zahlreichen Posts...

Natürlich wurden hier die Settings reduziert! Das interessanteste am Artikel ist ja auch eher der Vergleich zur r9 295X2. Die soll offenbar nur 45-50Fps in den gleichen settings schaffen!
 
Da hat doch nix mit gegen AMD wettern zu tun? Der Artikel ist einfach mehr als Zweifelhaft um nicht Sinnlos zu sagen.
Keine konkreten Daten, nur ungefähre FPS. Keine Angaben zu den Settings (AMD sagt selbst 40fps @4k). Selbst im Quell Artikel gibt es keinen Vergleich zur 295X2 sondern da ist nur von einer Angabe seitens AMD die rede, nicht aber von einem Vergleichbaren Testaufbau. Dazu gehts im QUellartikel um um Dirt3.

Meine Kritik geht weder gegen AMD, noch die Fury, sondern gegen einen nutzlosen und schlechten Artikel der 0 Aussage hat
 
Das interessanteste am Artikel ist ja auch eher der Vergleich zur r9 295X2. Die soll offenbar nur 45-50Fps in den gleichen settings schaffen!

Sehe ich auch so.

Man sollte sich nicht an der etwas unglücklich gewählten 12k-Bezeichnung stören. 3x4k (= 24883200 Pixel, 8K = 33177600 Pixel)) trifft den Nagel auf den Kopf, und ist ja trotzdem noch ein ganz schöner Batzen.

edit: geändert, vergessene '0' hinzugefügt und fett korrigiert dank aufmerksamem fdsonne
 
Zuletzt bearbeitet:
Das kommt halt einfach davon, wenn die Leute den Artikel nicht verstehen (oder verstehen wollen)
Der Artikel will wohl offenbar auf HBM und das Speichermanagement aus.

Allerdings gepaart mit einer gehörigen Portion Marketinggeblubber ;)
"With HBM and better memory management we can achieve higher and higher resolutions without needing an increase in memory capacity. And we can then enjoy games such as Sniper Elite III at extreme resolutions at great performance. Such memory management can benefit all card makers as well."
Ja toll... Wo doch die Auflösung nicht sonderlich viel zum absoluten VRAM Bedarf beiträgt... -> typisch Marketing, man zieht ein Fazit über einen Umstand, der zwar auf der einen Seite sachlich durchaus annehmbar ist, aber eben das Problem gar nicht wirklich beschreibt.

Es finden sich im Netz diverse Aussagen zum VRAM Verbrauch von SE3. Wo bei ~5-6 Mio Pixeln ca. 3,5GB verbraucht werden. (mit Ultra Settings, wohlgemerkt) Das "12k" Setup hat ca. 4,5x so viele Pixel zu berechnen, allerdings eben auch verminderte Details, was anhand der FPS Rate für diese Auflösung klar ersichtlich sein dürfte). Rein die Auflösung ist ähnlich, aber leicht drüber, dem Sprung von FHD auf UHD. Und das resultiert in ca. 20-30% mehr VRAM Bedarf bei 4x so vielen Pixeln.
Es wundert also nicht, das SE3 hier kein Problem mit 4GB macht ;) Vor allem, weil man eben die Details reduziert um die FPS Rate zu packen. Das kann unter anderen Bedingungen ganz anders ausgehen. Vielleicht bei nur einem 4k Monitor, wo man die Settings eben maximiert. Ausgehend davon wären die 4GB durchaus pralle voll. Möglicherweise mit Framedrops und Nachladerucklern... Muss man mal nachmessen.

@ZebuluXX
deine Rechnung stimmt nicht.
4k aka UHD sind schon 8,2Mio Pixel. Da können 8k nicht 3,3Mio sein... ;)
Das "12k" was dort gewählt wird, ist ziemlich unglücklich... Weil es einfach hinten und vorn nicht der Realität entspricht. Es sind nichtmal 8k, denn 8k wären schon 33Mio Pixel.
Man muss allerdings dazu erwähnen, das ein Eyefinity Setup definitiv den Sichtbereich aufgrund des gestreckten Seitenverhältnises erhöht. Entsprechend wird auch mehr auf dem Monitor dargestellt.
 
Zuletzt bearbeitet:
Wieso wetterst du so dämlichst gegen ADM?
Und das schon in zahlreichen Posts...

Natürlich wurden hier die Settings reduziert! Das interessanteste am Artikel ist ja auch eher der Vergleich zur r9 295X2. Die soll offenbar nur 45-50Fps in den gleichen settings schaffen!

ich wetter gar nix

es sind keine 12K und 3x4 K kann nicht einfach mehr FPS als 1x4K haben

da muss man nun wirklich kein Genie für sein
 
4k aka UHD sind schon 8,2Mio Pixel. Da können 8k nicht 3,3Mio sein...

Denkt euch alle eine '0' dazu, kann halt mal passieren, wenn man nicht noch mal den eigenen Text überliest. ;)
 
https://de.wikipedia.org/wiki/4K2K

Mit 12K meinen die Kollegen "nur" die Horizontale Pixel Anzahl.
Das könnte man auch mit zwei 6K Displays erreichen, aber wer hat schon gern den Balken in der Mitte?
 
ist schon klar was sie meinen.. und 4k Triplescreensetup ist ne Hausnummer :)
 
logisch meinen die das... Allerdings geht der normale Anwender bei 4k entsprechend auch von 2x so vielen Pixeln in der Höhe aus. Was analog auch auf 12k (und die dortige Höhe) zutrifft.
Von echten 12k sind 3x4k im Eyefinity weit entfernt... Das wären ca. 3x mehr Pixel als im genannten Szenario.
 
echt lustig welche fanboyscheiße hier mancche immer posten:\

sicher, man kann jede karte unterhalb einer 980TI einstampfen, weil die 980Ti ja billige einstiegsklasse ist...

Nein, aber es gab mal eine Zeit da hatte sich ATI und Nvidia mit jeder Generation in Sachen Leistung überboten. Aktuell gibt Nvidia vor und AMD zieht 1/2-3/4 Jahr nach. Wenn AMD hier tatsächlich Konkurrenz zu Nvidia auffahren will, dann müsste die 390X die 980Ti in jedem Bench alt aussehen lassen und die Fury X sollte sich der Titan Z bis auf wenige % nähern. Beides ist nicht der Fall, also ist die 300er Gen. von AMD imho schrott.
 
Nein, aber es gab mal eine Zeit da hatte sich ATI und Nvidia mit jeder Generation in Sachen Leistung überboten. Aktuell gibt Nvidia vor und AMD zieht 1/2-3/4 Jahr nach. Wenn AMD hier tatsächlich Konkurrenz zu Nvidia auffahren will, dann müsste die 390X die 980Ti in jedem Bench alt aussehen lassen und die Fury X sollte sich der Titan Z bis auf wenige % nähern. Beides ist nicht der Fall, also ist die 300er Gen. von AMD imho schrott.

Ja recht hast du es gab auch mal eine Zeit da hatten wir noch einen Kaiser. Du bist leider in den 90er Jahren steckengeblieben u. träumst von Sachen die lange vorbei sind. Wir haben halt nicht mehr jedes Jahr eine neue Fertigung (immer noch 28nm!) u. bei der Leistungaufnahme sind wir schon seit mehreren Gens am Anschlag. Früher war Leistungssteigerung sehr viel einfacher. Neue Nodes standen sehr viel schneller u. kostengünstiger! zur Verfügung u. man hatte zudem noch die Möglichkeit die neuen Karten einfach deutlich mehr verbrauchen zu lassen. Beides ist so nicht mehr möglich. Gleiches gilt ja auch für die Spielegrafik. Der Rechenaufwand für Verbesserungen wird immer größer und der optisch wahrzunehmender Unterschied immer kleiner.
 
Nein, aber es gab mal eine Zeit da hatte sich ATI und Nvidia mit jeder Generation in Sachen Leistung überboten. Aktuell gibt Nvidia vor und AMD zieht 1/2-3/4 Jahr nach. Wenn AMD hier tatsächlich Konkurrenz zu Nvidia auffahren will, dann müsste die 390X die 980Ti in jedem Bench alt aussehen lassen und die Fury X sollte sich der Titan Z bis auf wenige % nähern. Beides ist nicht der Fall, also ist die 300er Gen. von AMD imho schrott.

Du hast komische Vorstellungen...

A) -> AMD hat die Karten mit den Nummern degradiert. Die 390X ist nicht mehr HighEnd, wie vorher, sondern es sind nur noch Performance Karten.
B) -> wie schon oben erwähnt wurde, die Fury Reihe wird sich den GM200 NV GPUs nähern.
C) -> du bekommst mit der Fury X wohl ca. die Leistung einer TitanZ, eine 295X2 dürfte noch etwas schneller sein, wie üblich aber eben (genau wie die Z) mit MGPU Problemen...

Und ja, die 300er Reihe ist im Grunde nichts, was wir nicht schon kennen... Der Aufwand diese Reihe zu bringen dürfte im Vergleich dazu aber auch ein Klacks gewesen sein. Entsprechend tut das auch AMD nicht weh, da anstatt 200er Nummern eben 300er Nummern drauf zu schreiben. Wie immer gilt -> VOR DEM KAUF INFORMIEREN. Dann hat man auch keine falschen Erwartungen.

PS: auch ist AMD nicht permanent hinterher ;)
Die Tahiti GPU aus der aktuellen GCN Architektur war VOR dem GK104 auf dem Markt. Auch war die HD5870 VOR dem Fermi auf dem Markt.
Nimmt man es genau, so ist AMD und NV auf einen relativ gleichen Leistungslevel. Es entscheidet am Ende eher, der der Vorlegt, weil der gibt die Messlatte vor... Der danach wird sich an der Messlatte ausrichten, mal etwas drüber, mal etwas drunter. -> was für den Kunden auch OK so ist, da es die Preise positiv beeinflussen kann.
 
Du hast komische Vorstellungen...

A) -> AMD hat die Karten mit den Nummern degradiert. Die 390X ist nicht mehr HighEnd, wie vorher, sondern es sind nur noch Performance Karten.
B) -> wie schon oben erwähnt wurde, die Fury Reihe wird sich den GM200 NV GPUs nähern.
C) -> du bekommst mit der Fury X wohl ca. die Leistung einer TitanZ, eine 295X2 dürfte noch etwas schneller sein, wie üblich aber eben (genau wie die Z) mit MGPU Problemen...

Und ja, die 300er Reihe ist im Grunde nichts, was wir nicht schon kennen... Der Aufwand diese Reihe zu bringen dürfte im Vergleich dazu aber auch ein Klacks gewesen sein. Entsprechend tut das auch AMD nicht weh, da anstatt 200er Nummern eben 300er Nummern drauf zu schreiben. Wie immer gilt -> VOR DEM KAUF INFORMIEREN. Dann hat man auch keine falschen Erwartungen.

PS: auch ist AMD nicht permanent hinterher ;)
Die Tahiti GPU aus der aktuellen GCN Architektur war VOR dem GK104 auf dem Markt. Auch war die HD5870 VOR dem Fermi auf dem Markt.
Nimmt man es genau, so ist AMD und NV auf einen relativ gleichen Leistungslevel. Es entscheidet am Ende eher, der der Vorlegt, weil der gibt die Messlatte vor... Der danach wird sich an der Messlatte ausrichten, mal etwas drüber, mal etwas drunter. -> was für den Kunden auch OK so ist, da es die Preise positiv beeinflussen kann.

Du hast das wohl etwas diplomatischer ausgedrückt als ich. ;)
Bin nur etwas enttäuscht, wollte mir eine 390X zulegen als Nachfolger für meine 780. Mal noch auf die Fury X warten, vlt. kann mich die Karte ja doch noch überzeugen.
 
bei derart hohen Auflösungen ist AA sowieso total nutzlos und frisst am meisten Vram.
 
Du hast das wohl etwas diplomatischer ausgedrückt als ich. ;)
Bin nur etwas enttäuscht, wollte mir eine 390X zulegen als Nachfolger für meine 780. Mal noch auf die Fury X warten, vlt. kann mich die Karte ja doch noch überzeugen.

Ist doch total Latte, was die Karte für einen Namen trägt... Willst du HighEnd, dann bleibt GM200 oder Fiji als Chip. Und das sind die 980TI/TitanX oder eben Fury X bzw. der kleinere Ableger davon.
AMD hat einfach nur oben drauf noch eine Reihe gesetzt, wie man es damals mit der HD69x0 Reihe ebenso getätigt hat, als man die HDx8x0 nach oben hin um ein Regal erweitert hat.

:rolleyes: Nein, man muss nur jemand sein, der glaubt man könne ein Spiel nur mit allen Reglern auf Ultra und x16 AA spielen...

Wie kommst du darauf? Seine Aussage impliziert dies keineswegs... Vor allem, das mit dem AA ist völlig aus der Luft gegriffen.
Der Vergleich sollte aber schon passen.
Wenn sich ein Hersteller hinstellt und mit "12k" umsich schlägt, stellen sich schon Fragen, wo doch 4k vom gleichen Hersteller und der gleichen Karte, wenn ich das richtig sehe, deutlich weniger FPS raushaut...

Theoretisch ist die Aussage von AMD dahingehend total für die Tonne. Du findest IMMER irgendwie Settings mit nahezu Jeder GPU (vielleicht die Kleinsten mal außen vor), wo du hohe Auflösung und brauchbare FPS schaffst. Über die Spielqualität und das Bildergebnis sagt das allerdings absolut gar nichts aus. Ebenso wenig über einen Vergleich zu Anderen.
Selbst mit zwei HD5870 Eyefinity Editions würdest du diese ominösen "12k" in 60 FPS bei genannten Spielen hinbekommen. -> nämlich wenn du dort 12x FHD Monitore dran klemmst und dir ne Videowall zusammen baust. Auch sind, je nach gewähltem Spiel und gewählten Settings dort 60 FPS drin... Warscheinlich würde das sogar mit 4x UHD funktionieren, wenn die HD5870 diese gleichzeitig ansteuern könnte.

bei derart hohen Auflösungen ist AA sowieso total nutzlos und frisst am meisten Vram.

Nein, AA kostet im Grunde nahezu gar keinen VRAM. Zumindest kein MSAA oder SSAA... Ebenso die ganzen Weichzeichner kosten im Grunde keinen VRAM.
Bitte nicht verwechseln mit irgendwelchen Bitspielereien bei NV -> welche durch eben Custom AA-Bits VRAM zum Frühstück fressen!
 
Wieso wetterst du so dämlichst gegen ADM?
Und das schon in zahlreichen Posts...

Natürlich wurden hier die Settings reduziert! Das interessanteste am Artikel ist ja auch eher der Vergleich zur r9 295X2. Die soll offenbar nur 45-50Fps in den gleichen settings schaffen!

Da empfehle ich dir den Artikel von PCGH zur 390X .
Wo genau steht wie der neue Treiber die 290X ausschließt bzw. die alte Gen und man gerade durch Tesselation die neuen Karten besser dar stehen lässt.
 
Wenn sich ein Hersteller hinstellt und mit "12k" umsich schlägt, stellen sich schon Fragen, wo doch 4k vom gleichen Hersteller und der gleichen Karte, wenn ich das richtig sehe, deutlich weniger FPS raushaut...
Äh, hab ich was überlesen?
Wo wurde denn in dem Test mit 4K verglichen?

Es ging um einen test mit 3 4K Bildschirmen. Es gab keinerlei Info über die genauen Settings, da ist es ja logisch dass man dann nicht einfach mit den üblichen 4K tests auf anderen Seiten vergleichen kann.
 
:rolleyes: Nein, man muss nur jemand sein, der glaubt man könne ein Spiel nur mit allen Reglern auf Ultra und x16 AA spielen...

es ist mir völlig egal was du glaubst :)
und das hat auch nichts mit Ultra und AA zu tun
es sind keine 12k, ganz einfach
 
es ist mir völlig egal was du glaubst :)
und das hat auch nichts mit Ultra und AA zu tun
es sind keine 12k, ganz einfach
Darum ging es doch garnicht. Von mir aus 8K, wie dort jemand weiter oben vorgerechnet hat.
Du hast einfach mal pauschalisiert dass man in getrennten Tests, nicht in >4k mehr FPS haben kann, als in 4K.
 
AMDs eigene Folien hatten in 4K in diesem Spiel 39 FPS, jetzt hat AMD im gleichen Spiel in dreifacher 4k Auflösung 60 FPS?
und die 4k Benches waren schon nicht mit vielen Detailstufen ;) wie wenig waren es denn da?

Edit und es ist auch kein 8K....
 
Äh, hab ich was überlesen?
Wo wurde denn in dem Test mit 4K verglichen?

Es ging um einen test mit 3 4K Bildschirmen. Es gab keinerlei Info über die genauen Settings, da ist es ja logisch dass man dann nicht einfach mit den üblichen 4K tests auf anderen Seiten vergleichen kann.

Ja klar, allerdings stellt sich doch die Sinnfrage nach der Aussage des "12k" Tests...
Welchen Zweck soll so eine Bewerbung eines Umstandes haben?
-> das die Karte 3x UHD im Eyefinity schafft? -> wissen wir und ist nix neues
-> das die Karte 60FPS in einem Spiel mit nicht näher genannten Settings schafft? -> ja toll, interessiert ohne die genannten Settings nicht
-> das der VRAM von 4GB reicht um 3x UHD mit 4GB HBM Speicher in 60 FPS zu stemmen -> auch das ist ganz toll ohne Details über die Settings, denn wir als informierte Leser und Technikinteressierte Leute wissen, dass eben der VRAM Bedarf mit der Auflösung eben nur wenig nach oben skaliert.

Also welchen Zweck hat dieses Marketinggeblubber?

Der einzige sinnvolle Zweck, der daraus ableitbar ist, AMD wollte damit ausdrücken, dass man 12k Resolution mit einer Fury X fahren kann und dabei sogar noch 60 FPS raushaut -> eben um zu zeigen, wie toll das Teil ist.
Das ist pures und reinstes Marketing BlaBla...
Und du siehst sogar an einigen Reaktionen hier im Forum, dass sowas durchaus fruchtet ;) Nämlich weil es dann Leute gibt, die sowas für bahre Münze nehmen und es weiter tratschen... Mit der heimischen Spielerealität wird das wohl nur zu den aller seltenstens Fällen auch nur ansatzweise übereinbringbar sein. Im Schnitt ist selbst mit nur einem UHD Monitor Stand heute die Leistungsklasse TitanX/FuryX schon überfordert... Drei davon bedeuten BQ Verlust. Und das muss keineswegs durch die dreifache Sichtfeldbreite aufgewogen werden, nämlich wenn die Texturen dafür matsche werden oder die Effekte ausgeschaltet werden müssen um überhaupt annähernd spielbare FPS zu bringen.

PS: die UHD Werte eines Monitores stammen übrigens ebenso von AMD, wie schon gesagt wurde. Was eben diese Aussagen mit den "12k" ziemlich komisch erscheinen lassen... Weil es offensichtlich auf der Hand liegt, dass man die Settings entsprechend so gewählt hat, dass die Karte gut dasteht. Das kann man machen, schadet der Kernaussage aber, weil es eben Fragen aufwirft, und das sogar berechtigterweise!
 
Zuletzt bearbeitet:
Die ganze "12K-Demo" dient doch vorrangig nur dazu etwas Aufmerksamkeit zu erzeugen. Braucht man nicht allzu ernst nehmen.
 
falls noch jemand einen HighRes Shot der Dual FuryX möchte:

Dual Fiji PCB
 
Ja klar, allerdings stellt sich doch die Sinnfrage nach der Aussage des "12k" Tests...
Welchen Zweck soll so eine Bewerbung eines Umstandes haben?
-> das die Karte 3x UHD im Eyefinity schafft? -> wissen wir und ist nix neues
-> das die Karte 60FPS in einem Spiel mit nicht näher genannten Settings schafft? -> ja toll, interessiert ohne die genannten Settings nicht
-> das der VRAM von 4GB reicht um 3x UHD mit 4GB HBM Speicher in 60 FPS zu stemmen -> auch das ist ganz toll ohne Details über die Settings, denn wir als informierte Leser und Technikinteressierte Leute wissen, dass eben der VRAM Bedarf mit der Auflösung eben nur wenig nach oben skaliert.

Nehmt das doch nicht alles so ernst.. Marketing bedeutet ja nicht nur klare Zahlen vor zu führen.
Der "Test" sollte einfach nur zeigen dass eine Einzelkarte, gaming auf 3 4K Monitore schafft, nichts weiter!
Für mich ist das schon beindruckend genug ;)

Sicher, ein Video um zu sehen wie stark der BQ Verlust tatsächlich ist, wäre interessant gewesen!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh