Jetzt mit GDDR6: Gigabyte GeForce GTX 1650 im Test

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.949
gigabyte-gtx1650-gddr6.jpg
In einer Phase der weitestgehenden vollständigen Umstellung auf den GDDR6-Speicher switchen NVIDIA und einige Boardpartner auch die GeForce GTX 1650 auf den schnelleren Speicher. In diesem Jahr zog NVIDIA die mobilen Varianten der GeForce-Super-Karten nach. Wir haben uns nun die Gigabyte GeForce GTX 1650 D6 Windforce OC 4G einmal etwas genauer angeschaut, die einige von wenigen Modellen der GeForce GTX 1650 ist, die nun mit dem schnelleren Speicher angeboten wird.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Schade, dass die Karten noch kein PCIe4.0 können. Mich würde interessieren, ob der GDDR6 i.V.m. PCIe4.0 nochmal so viel rausholt wie PCIe4.0 bei der RX 5500XT mit nur 4GB VRAM.

Oder ob die "Rohleistung" der 1650 schon "am Ende" ist.
 
Gibt es mit nur 4 GB Vram Nachladeruckler in den Spielen bei 1080p?
Ist jetzt anhand von fps Werten nicht herauszulesen.
 
also auch auf den kleineren karten jetzt der sehr empfindliche Ram :-/
najagut, die kleinen karten haben keinen so großen Kühler drauf der die Karte verbiegen lässt und somit dürften die Mechanischen kräfte auf die Lötkugeln noch recht gering sein...
 
Da legt man lieber noch mal 10 Euro drauf und nimmt die 1650 Super und hat eine wirklich gute Entry-Level Karte.
 
Da sind doch wieder Fehler in den Diagrammen.
In Kingdom Come soll die definitiv schnellere 1650 Super weniger FPS in WQHD bringen als die 1650? Niemals.
 
Wie kann die Leistungsaufnahme für das Gesamtsystem mit der GTX 1650 gleich z.B. zu einer GTX 1660 sein, obwohl die 1650 angeblich fast 50 Watt weniger unter Last verbrauchen soll? Es handelt sich doch um das identische Testsystem?
 
Ich habe eine 1050ti.
Was passiert nun mit meinem Stromverbrauch, wenn ich eine solche 1650 GDDR6 einbaue?
Entweder 6W mehr (nur Graka) oder 74W mehr (GEsamtsystem)? Müssen die anderen Komponenten plötzlich so viel mehr leisten?
Das stimmt doch hinten und vorne nicht.
 
Was ich nicht ganz verstehe ist das hier, https://developer.nvidia.com/video-encode-decode-gpu-support-matrix
Der Nvenc block ist ja sowieso nahezu identisch zwischen Volta und Turing, was es sehr schwer macht ihn zu prüfen, würde für HTPC Zwecke doch gerne ne Karte mit nem Turing NVENC haben wollen(den aufgebohrten Speicher nehm ich auch mit).
Daher hatte ich jetzt die Hoffnung das es in den Chip gepackt wird, @Andreas Schilling ist dir was aufgefallen ? Ein Encoding Programm konnte glaube ich alle Details aus dem Treiber oder Registry minutiös auflisten (war es Sony Vegas Pro?). Bei Techpowerup steht leider nichts, GPU-Z zeigt sowas auch nicht, in Tests steht wenn überhaupt nur die 1650 hat keinen NVENC Turing Block, nur wie prüf ich das vor dem Kauf ? Sprich alle 1650 Refreshs also auch kein Turing Nvenc Block ?

Ich habe eine 1050ti.
Was passiert nun mit meinem Stromverbrauch, wenn ich eine solche 1650 GDDR6 einbaue?
Entweder 6W mehr (nur Graka) oder 74W mehr (GEsamtsystem)? Müssen die anderen Komponenten plötzlich so viel mehr leisten?
Das stimmt doch hinten und vorne nicht.
6W ;D. Das kommt wohl drauf an was für ein Modell, normalerweise ist der Refresh ja sparsamer auch wenn er schneller ist, CPU, RAM usw. werden aber mehr gestresst natürlich zumindest wenn du der GPU freien lauf lässt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh