Nur knapp vor der Founders Edition: Die INNO3D GeForce RTX 3080 ICHILL X3 im Test

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.151
inno3d-rtx-3080-x3.jpg
Mit der INNO3D GeForce RTX 3080 ICHILL X3 schauen wir uns ein weiteres Custom-Modell der GeForce RTX 3080 an. Nach der Einsteiger-Variante Twin-X2 stellen die ICHILL-X3-Modelle die Mittelklasse-Serie dar, nur noch übertroffen von den X4-Varianten. Wie sich die GeForce RTX 3080 ICHILL X3 im Vergleich zu den Konkurrenten aus dem Hause ASUS, MSI und Gigabyte schlägt, klären wir auf den kommenden Seiten.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich feiere ja das der offizielle Supporter das hier so abfeiert 😂
Also wieder eine Custom die nur mehr kostet und wegen RGB mehr verbraucht.

FE bleibt wohl die beste Version.
 
Die Preise der Partner sind mehr als unverschämt.

Man zahlt fast 200€ mehr aber bekommt nichts für.
 
Sehe ich ähnlich wie die Vorredner.

- Keine wirkliche Mehrleistung.
- furchtbare Optik (siehe Anhang...)
- Teurer...

Noch dazu dieses furchtbare RGB-Zeug.

Eine überflüssige Karte. Wäre schön wenn mehr Chips an die übrigen Boardpartner gingen, anstatt an Inno3D.
 

Anhänge

  • 33AC0226-9A69-447C-9323-ADCF53234CA7.jpeg
    33AC0226-9A69-447C-9323-ADCF53234CA7.jpeg
    139,4 KB · Aufrufe: 242
Die Optik, sowie das RGB finde ich ganz nett, aber im Vergleich sieht die FE natürlich schöner aus.
 
Hässlich, teuer, nicht leiser und verbraucht gerade im wichtigen Idle, deutlich mehr Strom. Naja, was sich die Ingenieure wohl dabei gedacht haben...
 
Wenn man bedenkt, dass man keine FE bekommt und auf dem Markt gut 1200€ für eine FE zahlt ist es doch im Moment ganz okay auf diese zu setzen wenn man Referenzdesign möchte.
 
Ob man die FE noch jemals zu kaufen bekommen wird - für die 699$ - wage ich zu bezweifeln (ich irre mich gerne - man wird es ja im Laufe des Jahres sehen) Der Preis liegt jetzt in etwa da, wo Nvidia die Karte am liebsten direkt platziert hätte - bei der Preisgestaltung spielt der Faktor AMD rein in dieser Generation (wollen zwar immer noch einige nicht wahrhaben, ist aber so). Auch das wird man dann am 28ten sehen - und Konkurrenz ist für uns als Kunden immer gut. Egal was der Kunde kauft - ohne Konkurrenz kommt am Ende so etwas wie die Preisbombe 2080TI (habe ja selber eine Lightning hier) raus oder die umgelabelte 2070 (die eigentlich vom Chip eine 2060 sein sollte) Ich bin froh das endlich wieder im High-End Bereich - denn da kaufe ich ja - AMD Karten geben wird. Ob ich die kaufe, muss ich sehen. Mit 2 GSync Monitoren (240Hz und der gute alte 34P) fällt es mir schwer, wobei ich bisher noch keine Not zum Upgrade oder Neukauf verspüre. Die 3080 ist nicht so viel besser als meine Lightning, wenn ich der die Sporen gebe. Mal sehen - ich schaue mir alles in Ruhe an und entscheide dann.
 
Hässlich, teuer, nicht leiser und verbraucht gerade im wichtigen Idle, deutlich mehr Strom. Naja, was sich die Ingenieure wohl dabei gedacht haben...
Die haben kein Stromproblem und müssen offensichtlich nicht so viel dafür zahlen .... 🤪
Wenn ich denke wie man wg. Vega und Stromverbrauch elend gemeckert hat .... jetzt scheint es egal zu sein. Hauptsache FPS knallen über den Bildschirm 😂
Beitrag automatisch zusammengeführt:

Nachtrag:
4K Auflösung und höchste Einstellungen verlangen einiges ab. Jetzt bin ich auf AMD gespannt was die morgen in die Welt verkünden ... wird AMD weniger Strom verbrauchen, billiger und für 4K völlig ausreichend sein? 😎
 
Zuletzt bearbeitet:
Danke für den Test (y)


Ist i.O. dass die Kondensatoren so krumm verlötet sind? Bild
 
Ja das ist nicht schön, darf aber so aussehen.
 
Die haben kein Stromproblem und müssen offensichtlich nicht so viel dafür zahlen .... 🤪
Wenn ich denke wie man wg. Vega und Stromverbrauch elend gemeckert hat .... jetzt scheint es egal zu sein. Hauptsache FPS knallen über den Bildschirm 😂
Beitrag automatisch zusammengeführt:

Nachtrag:
4K Auflösung und höchste Einstellungen verlangen einiges ab. Jetzt bin ich auf AMD gespannt was die morgen in die Welt verkünden ... wird AMD weniger Strom verbrauchen, billiger und für 4K völlig ausreichend sein? 😎

Heute geht es um ZEN3...
 
Ich hab mir die x4 von Inno bestellt, leider gibt es im Moment keine und daher weis ich nicht wann Alternate liefern kann.
 
Also die MLCC sind doch nachträglich von Hand verlötet, das kann doch so niemals von Band laufen ? Einzige FE Alternative ist für mich Asus TUF/STRIX.
 
Also ich hatte mit meiner Gigabyte Gaming OC noch keinen einzigen Absturz. Und die hat keine MLCC.
 
Wie mir das Thema RTX 3080 einfach nur noch auf den Senkel geht.. :LOL:
 
Hinsichtlich der Funktionsweise der Lüftersteuerung gibt es noch eine Ergänzung:

"Ab einer GPU-Temperatur von 59 °C oder wenn die Leistungsaufnahme größer als 50 W ist, beginnen sie bereits sich zu drehen. Lässt die Last wieder nach und die GPU-Temperatur fällt unter einen Wert von 40 °C, schalten sich die Lüfter wieder ab. Dies aber auch nur, wenn die Leistungsaufnahme unter einen Wert von 26 W sinkt. Es gibt hier also eine gewisse Abhängigkeit zwischen GPU-Temperatur und Leistungsaufnahme für das Abschalten der Lüfter."
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh