Aorus GTX 1080 Gaming Box im Vergleichstest

ein Vergleich mit einer internen 1080/70 wolltet ihr nicht machen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wäre für mich in Zukunft eine gute Alternative.
Aber erst wenn Pcie4.0 vorhanden ist und den Thunderbolt beschleunigt.
Aktuell wird das der Flaschenhals sein.
 
Und wenn PCIe 4.0 vorhanden ist, kommen die gleichen Kommentare wieder bezüglich 5.0.

Andere Leute zocken schon heute damit... ;)
 
früher oder später ja, aber wäre wir jetzt bei TB4 könnte man locker die nächsten 5 jahre damit auskommen, was gpus angeht. die bandbreite ist bei der gpu so schnell nicht im wechsel.

mal ganz abgesehen davon, dass m.2 mit pcie3 auch scchon länger am ende ist. es wird zeiit für was neues
 
Es gibt Leute die damals mit PCie1 x1 mit externen Grafikkarten gezockt haben. Thunderbolt ist quasi PCIe1 x16. Das reicht zum Zocken. Begrenzen tut eh der lahme 4x DMI in den meisten Intel-Boards...

Schlimmer ist doch in den meisten Notebooks inzwischen die lahme CPU. Dank QuadCore wird das so langsam wieder, aber 15W ist zu wenig um eine 1080 am Thunderbolt damit auszulasten. Die Grafikkarte wird schon schöne Bilder liefern. Ob nun ein paar Prozent weniger als am x16 wird man kaum bemerken. ;)

Also: Einfach mal ausprobieren.
 
was in dem schlechten test hier nicht drinsteht ist, dass im xps 13 die intel cpu mit ctdp up läuft, also 28W verbrauchen kann.
Intel XTU lässt man auf den unterirdischen hwluxx laptop tests sowieso nicht mitlaufen, dann könnte man wenigstens die taktraten usw. sehen. Da das xps 13 schon seit längerem XTU support hat könnte man dann sogar noch etwas untervolten und den boost usw. ausfahren, wäre sicher interessant gewesen zu sehen was das bringt. soweit ich informiert bin limitiert beim neuen xps13 die temperatur, bei meinem hab ich honehin flüssigmetall verbaut, hier wäre das nochmals interessanter, zumal gibts von dell einige lüfterprofile zum auswählen. aber all das kann man von den 5min luxx test leider nicht erwarten.

ja die egpu x1 zeiten sind aber schon länger vergangenheit, damals hatte man noch 4850er und konsorten bzw. vor allem nv dafür hergenommen. da hat man heute schon "etwas" mehr leistung daher limitiert TB3 bzw. 4xpciE3 deutlich mehr.

natürlich kann man jetzt bei dem test nicht sagen wieviel es ist, weil man sinnigerweise darauf verzichtet hat einen vergleichswert zu nennen, aber soweit ich weiß sinds 20%.

und schau doch einfach mal wie lange pciE2x16 ausgereicht hat und wie lange nun schon pciE3x16 ausreicht und ausreichen wird.

Bei dem preis einer 1080ti will man eben nicht 20% verpuffen lassen, leider gibts auch wenige tests wo z.b. der sweetspot liegt und wieviel OC usw. bringt.

Es wäre auf jeden fall jetzt der perfekte zeitpunkt für pciE4 und da ist ja auch schon was in der pipeline.
Damit wäre egpu dann eben perfekt, was den extrem hohen preis dann auch mal rechtfertigen würde. die pciE1 egpu kits haben ja kaum mehr als 80€ gekostet und gabs hier und bei techinferno auch oft gebraucht für kleines geld, diese egpu rigs jetzt kosten ja teils absurd kohle, was den eigentlichen sinn der anfänglichen egpu sache verdreht aber naja...
 
Habe gerade mal interesshalber gegoogelt.
Sind bei der hier getesteten 1080 wohl ca. 5-10% Performancedrop. Also nicht schlimm im Vergleich zu der Vervielfachung der bisherigen Grafkkartenleistung in den Notebooks, bei denen so etwas Sinn macht.
Da werden es bei der Ti vielleicht ein paar % mehr sein (Bei der Fury X waren es noch ca. 4%).

https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_1080_PCI_Express_Scaling/25.html

Aber das sind Tests mit 95W CPUs. Ich vermute, dass bei den 15W Gurken kein Unterschied mehr vorhanden sein wird. Das TDP-Up auf 28W bringt wirklich viel, vor allem da die interne Grafikkarte dann nicht mehr mitnuckeln muss. Das wird viel zu selten betont, wie du ja auch schon sagtest.
 
hast recht, hier skaliert das perfekt. ich meinte aber tests gesehen zu haben in denen es nicht so gut läuft. müsste ich jetzt aber sucher, was mir zu viel arbeit ist. man kann aber sehr gut sehhen, dass es sich in richtung 4k egalisiert und genau dafür würde ich ein egpu setup einsetzen, zumal dort auch die cpu last zurückgeht.
 
ich kann nicht editieren... ich sehe gerade erst dass es ja am desktop pc ein bandbreitenvergleich ist, der lässt sich leider nicht ohne weiteres auf egpu übertragen...
 
Das Dell XPS 13 in der 2017 Version ist doch da das falsche Notebook zum testen, da der thunderbolt Port nur mit 2x angebunden ist.
Erst das neue XPS das die Webcam Inder Mitte hat, hat x4 Anbindung des thunderbolt Port...
Da geht denke ich ne Menge Leistung verloren.
 
@hilfskoch, soweit ich weiß war das bei dem modell doch gefixt?!
 
Sie sagen ja leider nicht welches Modell genau es ist, aber das 2017 deutet auf das 9360 hin, und das hat laut test (siehe notebookcheck) noch eine x2 Anbindung. Erst das neue 2018 Modell (9370) hat eine volle x4 Anbindung.
 
Entschuldigt den Doppelpost, ich kann leider nicht Editieren, ich hab anscheinend keinen Zugriff auf mein Kommentar...
Es ist dezent verwirrend. Sie sagen zwar 9370 Als Model, reden aber dann wieder von 2017, was das 9360 wäre... Zudem ist in der Notebookbeschreibung Daten des 9360 aufgeführt, das neue hat keine 3.0 USB anschlüsse mehr (Also usb A), der Akku ist mit 60Wh angegeben, das hat aber auch das alte Model (9360) und als letztes indiez, die Webcam ist nicht mittig platziert, sondern am Rand und es ist matt, was nur das alte Model hat, das neue hat die Webcam nur noch mittig und egal welche Konfiguration (auch ohne Touch), nur noch Spiegel Displays zur auswahl...
Hätte ein tolles Notebook für Egpu werden können, aber haben so viel falsch gemacht um das Gehäuse minimal verkleinern zu können... aber das ist ja Offtopic.
Ich glaube es wurde hier mit einem 9360 Model getestet, das noch eine 2x Anbindung des Thunderbolt Ports hat, und somit ordentlich Leistungsverlust.
 
ja es ist nicht das neue modell, das ist klar. ich dachte nur beim coffe lake modell wäre dann mal TB3x4 dabeigewesen.
ich beobachte das xps13 zwar, da ich ja selbst gerade von einem tippe (9350), aber ich weiß auch nicht alles zu jeder iteration.

aber ich glaub dir das einfach mal und in dem fall ist der test dann hier ja vollends für die katz.
ich bin zunächst fälschlicherweise davon ausgegangen, dass man das aktuelle modell hernimmt, das 9360 hat glaube ich auch kein ctdp up, da da ja noch das "alte" kühlsystem drinsteckt. das einzige was am neuen xps13 wohl besser geworden ist...
 
Was könnt ihr zum Thema Lautstärke sagen?! Da hatte die Aorus 1070 Gaming Box total versagt. (Kühlung des Netzteilsektion war inakzeptabel laut)
 
naja wenn die Karte nur zu 50% ausgelastet war gehts mit der Kühlung. Dir wird hier aber wohl keiner Auskunft geben können, dieser Test ist eine Farce.
 
Ich meinte nicht die Kühlung der Karte, die war schon bei der 1070 leise. Aber das verbaute Netzteil war unsagbar laut. Auch ist dieser Test nur bedingt brauchbar, da alle XPS (bis auf das neue 9370) die Thunderboltschnittstelle nur mit 2 PCIe Lanes anbinden und damit 50% Bandbreite verschenken. ;)
 
Die Bandbreitenbeschränkung auf 2 Lanes und die dadurch verschenke Leistung sind bisher wohl noch nicht so klar getestet.

https://youtu.be/7G3IlMOVaQ4
 
Ich meinte nicht die Kühlung der Karte, die war schon bei der 1070 leise. Aber das verbaute Netzteil war unsagbar laut. Auch ist dieser Test nur bedingt brauchbar, da alle XPS (bis auf das neue 9370) die Thunderboltschnittstelle nur mit 2 PCIe Lanes anbinden und damit 50% Bandbreite verschenken. ;)

+1 wie macht sich die Kühlung des Netzteils in der 1080 Box?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh