Technische Daten und Preis zur GeForce GTX 1650 bekannt

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.950
turing-gpu.jpg
Es ist längst ein offenes Geheimnis - und wird nun abermals bestätigt. Am 23. April wird die GeForce GTX 1650 erscheinen. Ebenfalls bekannt ist, dass der bisher kleinste Turing-Ausbau mit einem 4 GB fassenden GDDR5-Speicher auskommen muss. Nun aber ist auch die Anzahl der Shadereinheiten bekannt. Nicht 768, sondern 896 Shadereinheiten wird NVIDIA auf der TU117-GPU verwenden. Dies vermeldet einmal mehr Videocardz.Die genauer als TU117-300 bezeichnete GPU bietet 896 Shadereinheiten, die in 14 SMs (Turing Shader Multiprozessor) organisiert sind. Hinzu...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ist die GTX 1650 (896 Shadereinheiten) wahrscheinlich schneller, langsamer oder ungefähr gleich beim h.264/265 Rendering als/wie die GTX 960 (1024 Shadereinheiten)?
 
Das macht kein unterschied, die encoder/decoder Leistung ist bei allen GPU einer gen identisch weil separater chip
Nur unterschiedliche gen sind unterschiedlich schnell also ein e gtx960 h264 ist langsamer als der von gtx 1650
 
Eine gtx 1650 ti wird es wohl nicht geben oder ?

Es gibt schon Gerüchte zu einer TU117-400, der dann der Vollausbau sein soll und auf der Geforce GTX 1650 Ti eingesetzt wird. Auf der GeForce GTX 1650 kommt aber wohl die TU117-300 zum Einsatz.
 
Das macht kein unterschied, die encoder/decoder Leistung ist bei allen GPU einer gen identisch weil separater chip
Nur unterschiedliche gen sind unterschiedlich schnell also ein e gtx960 h264 ist langsamer als der von gtx 1650

Danke, @angelsdecay. Interessant. Wusste ich noch nicht. Dann muss man ja für solche Zwecke nicht mehr Geld ausgeben als nötig.
 
Es gibt schon Gerüchte zu einer TU117-400, der dann der Vollausbau sein soll und auf der Geforce GTX 1650 Ti eingesetzt wird. Auf der GeForce GTX 1650 kommt aber wohl die TU117-300 zum Einsatz.

Warum packt NV diesmal den Bereich der uninteressant-lahmen Grakas so voll und im höheren Bereich wird es schnell unbezahlbar? Zwischen GTX1650 und 1660 sehe ich ejtzt nicht wirklich wviel Platz.
Eine GTX1660Ti, eher RTX2060 ist doch das mindeste der Gefühle, wenn man zwei Jahre inigermaßen in FullHD oder WQHD dabei sein möchte, viele sehen aber die 6GB schon kritisch. Statt noch eine 2060Ti o.ä. oder eine Preissenkung der 2070 kriegen wir einen Haufen Kleinkram.
Naja, NV kann es mangels Konkurenz treiben, wie sie wollen, aber ich bezweilfe, dass sie mit den überteuerten Karten noch genug Verkaufen.
 
aber ich bezweilfe, dass sie mit den überteuerten Karten noch genug Verkaufen.

Dem Rest stimme ich uneingeschränkt zu.
Warum sie den low-end Markt so überfluten, verstehe ich absolut nicht. Alle 20 Euro ist ne neue GPU gefühlt. Ein Rabattcode und alle P/L Rechnungen sind im Eimer.

Das sie nicht genug teure verkaufen, darf aber hart bezweifelt werden.
--> Steam Hardware & Software Survey
Klick auf GPUs und Steuerung + F --> RTX suchen, danach nochmal Vega suchen.

Alle Versionen der Vega in Summe, über all die Zeit, die sie nun auf dem Markt sind, haben weniger Kunden als die 2080 TI für gut über 1000 Euro.
In diesen wenigen Monaten hat die teuerste non Titan GPU also mehr Kunden gefunden als die Vegas, die teils für 200 Euro verschleudert wurden. Das muss man sich mal deutlich klar machen.
Die RTX 2080 hat fast halb so viele Verkäufe wie die RX 580, die wohl lange Zeit mit Abstand die beste "billig GPU" war.

Der Preis schreckt Kunden nicht so sehr, ab wie man hier im Forum vermuten würde.
In der Realität scheinen Kunden dann doch eher nach Leistung zu gieren, statt nach Rabatten.
Für mich verständlich, da man so ne GPU ja über Jahre nutzen kann und sich jeder Preis da verdammt schnell relativiert.
 
Anscheinend wird oft vergessen das es noch einen Markt abseits von Spielen gibt.
Ich bin da eher überrascht wie viele Versionen es von so manchem Hersteller von nur einen Modell gibt.
Die 1050ti von KFA gibt es in mindestens 4 Varianten, dann nochmal so viele von der non ti.
 
Der Preis schreckt Kunden nicht so sehr, ab wie man hier im Forum vermuten würde.
In der Realität scheinen Kunden dann doch eher nach Leistung zu gieren, statt nach Rabatten.
Für mich verständlich, da man so ne GPU ja über Jahre nutzen kann und sich jeder Preis da verdammt schnell relativiert.

Als ob die Käufer von 2080 und 2080Ti diese lange behalten würden, die meisten verkaufen sie wieder, wenn die nächste Generation erscheint. Finde die Statistik trotzdem krass, die Karten sind für das gebotene ja nun wirklich unverhältnismäßig teuer. Ich meine auch, vor einer Weile gelesen zu haben, dass NV seine Gewinnprognose zurückschrauben musste und dies größtenteils auf die nicht wie erwartet laufenden Gewinne der Turings zurückzuführen sei.
 
Das macht kein unterschied, die encoder/decoder Leistung ist bei allen GPU einer gen identisch weil separater chip
Nur unterschiedliche gen sind unterschiedlich schnell also ein e gtx960 h264 ist langsamer als der von gtx 1650

Nicht ganz korrekt, gibt Karten die haben 2-3 NVENC engines, sprich es können 2 Threads verarbeitet werden,
das merkt man schon ziemlich, da sich in dem Fall die FPS verdoppeln bzw. verdreifachen.
Video Encode and Decode GPU Support Matrix | NVIDIA Developer
 
Nicht ganz korrekt, gibt Karten die haben 2-3 NVENC engines, sprich es können 2 Threads verarbeitet werden,
das merkt man schon ziemlich, da sich in dem Fall die FPS verdoppeln bzw. verdreifachen.
Video Encode and Decode GPU Support Matrix | NVIDIA Developer

Danke. Wertvoller Hinweis. Sowas wird ja weder unter "Technische Daten" auf nvidia.com noch unter "Technische Daten" z.B. bei einem Händler wie Mindfactory kommuniziert.
Früher dachte ich für Videorendering braucht man eine teure Quadro oder Tesla Karte. - Nee, man braucht eine Karte mit zwei NVENC Engines (bei drei gibt es leider Ärger an der Kasse ;)).
 
Zuletzt bearbeitet:
Was ich null verstehe, die 1650 positioniert sich Preislich da wo aktuell die RX580-8G Steht, und dass die der 75W Turing dann doch den Leistungsrang ab läuft ist wohl kaum strittig.
Der Preis ist definitiv zu hoch, vor allem bei gerade mal mageren 4GB VRAM. Da wird wohl auch weiterhin die RX570-8g zu etwa 140€ Einstiegspreis die Empfehlung bleiben.

Die 1650 ist doch nur noch für kleine OEM-PCs interessant, wo keine GPU mit Stromanschluss rein geht.
Dafür halte ich die Karte aber für zu teuer.
 
Als ob die Käufer von 2080 und 2080Ti diese lange behalten würden, die meisten verkaufen sie wieder, wenn die nächste Generation erscheint.

Sicher, aber das macht es ja noch extremer.
Die Hohen Preise können also jede Generation abgerufen werden.
Der Geiz-Ist-Geil-Trend ist doch eher auf kleine Foren wie Luxx begrenzt anscheinend. ;-)

Das NVidia die Gewinnprognose aufgrund von Turing zurückgeschraubt hat, ist von Medien verbreitet, nicht von NVidia (soweit ich das gelesen habe, könnt mich gerne korrigieren).
Soweit ich das gelesen habe, haben sie die Gewinnprognose wegen Minern zurückgefahren.
Die Verkaufszahlen von Turing wirken zumindest nicht schlecht. Es kann aber natürlich auch sein, dass sie NOCH bessere Verkaufszahlen erwartet haben.
Nach nur 6 Monaten haben die RTX GPUs aber viel billigere AMD GPUs überholt, die es teils schon viele Jahre auf dem Markt gibt, teils für 200 und weniger. Schlechte Verkaufszahlen sehen FÜR MICH anders aus, aber sind natürlich relativ. Tomb Raider war ja auch auf der Kippe, weil 14mio nicht genug Verkäufe waren. ;-)

- - - Updated - - -

Die 1650 ist doch nur noch für kleine OEM-PCs interessant, wo keine GPU mit Stromanschluss rein geht.

War das jemals anders bei xx50er, oder gar xx30er GPUs?
Ich habe das noch nie verstanden, ehrlich gesagt. Für nen Fuffi mehr bekommt man ne deutlich bessere GPU, egal von welchem Team.
Wofür man ne GPU kauft, die kaum schneller als ne integrated GPU ist, nur um nen 1-3h Lohn zu sparen, wird mir immer ein Rätsel bleiben.
Das kann doch nur für Office only PCs sein, die aber an 4k/60hz Monitoren angeschlossen sind und deswegen nicht mit integrated laufen können.
 
Der Preis schreckt Kunden nicht so sehr, ab wie man hier im Forum vermuten würde.
In der Realität scheinen Kunden dann doch eher nach Leistung zu gieren, statt nach Rabatten.

Ach deshalb sind die Absatzzahlen der GTX1060 6GB, RX580 und Co. so viel höher als die von teuren High End Karten. Weil der Großteil der Kunden nach möglichst hoher Leistung giert, so so.
Die höchsten Verkaufszahlen werden schon immer im Midrange und Mainstream erreicht. Eben, weil der Großteil der Spieler eben NICHT nach möglichst hoher Leistung schreit, sondern lediglich ausreichende Leistung zum Spielen haben will, die möglichst günstig zu haben ist.

Die RX580 war die meiste Zeit ihres Bestehens durch den Mining Boom vollkommen überteuert. Entsprechend gering waren da also auch die Absatzzahlen unter Spielern.
 
Zuletzt bearbeitet:
Ich habe das noch nie verstanden, ehrlich gesagt. Für nen Fuffi mehr bekommt man ne deutlich bessere GPU, egal von welchem Team.
Wofür man ne GPU kauft, die kaum schneller als ne integrated GPU ist, nur um nen 1-3h Lohn zu sparen, wird mir immer ein Rätsel bleiben.
Das kann doch nur für Office only PCs sein, die aber an 4k/60hz Monitoren angeschlossen sind und deswegen nicht mit integrated laufen können.
Was ist mit den zahlreichen älteren PCs wo deren Netzteil diese Mehrleistung nicht stemmen kann, wo generell keine Grafikkarte darin war oder eine die nur über den PCIe Slot den Strom bezieht, wenn einer von einer IPG oder sagen wir einmal einer GT700er oder R7 200er Karte aufrüsten will, weil er die Leistung jetzt benötigt, hmm...
Nicht jeder spielt die nur Leistungshungrige spiele, kein Wunder das viele Populäre Spiele kaum Grafikleistung benötigen.
Wer nicht sein ganzes System aufrüsten will, also viel höhere kosten haben will, kauft solche Karten, sollte eigentlich klar sein.
Das solche Karte ihre Daseinsberechtigung abgesprochen werden ist doch sehr befremdlich, vor allem in einem Forum das sich damit auskennen will, traurig.
Schon mal überlegt das nicht jeder die Leistung benötigt die man selbst haben will... scheinbar nicht.
Wenn solche Karten keinen Abnehmer finden würde, nach deiner geschätzten Meinung, würden AMD und Nvidia solchen Karten gar nicht auf den Markt werfen.
 
Nicht gleich so beleidigt sein, ich sehe das ähnlich. Wir sprechen ja hier über einen Preisbereich, wo man alle 20 bis 50€ eine schnellere Grafikkarte kriegt, nicht über den Bereich zwischen 2060 und 2070.
Ich verstehe, dass sich viele eine Grenze setzten, aber wenn ich jetzt für 200€ statt 150€ eine deutlich schnellere Karte kriege, muss ich doch nicht lange überlegen. Das führt auch irgendwie OC-Modelle ad absurdum, wenn ich da schnell wieder bei der nächstschnelleren Karte bin.
Und es stimmt auch, ich brauche auch die günstigen Karten nur, wenn ich zocken will, für Office und Multimedia reichen die IGPs, die man nun seit etlichen Jahren im Mainstream-Bereich in der CPU hat, ob man will oder nicht.
 
Ja, nur wenn die rx570-8g schneller bleibt, günstiger zu haben ist, ... wozu dann die 1650, wenn man preislich das neue Netzteil trotzdem zu zahlt und auf 8gb vram verzichtet?

Sorry, die Rechnung ging auf, so lange die Konkurrenz quasi nicht da war, dieses mal, nein.
 
Nicht gleich so beleidigt sein, ich sehe das ähnlich.

Keine Sorge, ich bin das gewohnt... es wird immer nur Schwarz weiß gedacht.
Versuche ja schon möglichst ausführlich zu beschreiben warum ich so denke, das geht aber bei den üblichen Verdächtigen einfach unter.
Ich habe gesagt, dass sich die 2080TI gut verkauft, also muss ich damit automatisch gemeint haben, dass midrange GPUs auf keinen Fall Abnehmer finden.
Irgendwie so muss die Logik funktionieren, ansonsten machen die Antworten keinen Sinn.
 
Was ich null verstehe, die 1650 positioniert sich Preislich da wo aktuell die RX580-8G Steht, und dass die der 75W Turing dann doch den Leistungsrang ab läuft ist wohl kaum strittig.
Der Preis ist definitiv zu hoch, vor allem bei gerade mal mageren 4GB VRAM. Da wird wohl auch weiterhin die RX570-8g zu etwa 140€ Einstiegspreis die Empfehlung bleiben. [...]
man kann damit "geforce GTX' ins MMark heftchen schreiben. und damit verkauft man pcs.
mit "radeon" funktioniert das nicht annaehernd so gut.

99% der kunden haben ueberhaupt keinen blassen schimmer von gpus. und wollen sich damit auch nicht beschaftigen.
"geforce gtx" und "core i7" sind die wichtigen schlagworte. danach wird dann geschaut, dass moeglichst mehr GB und GHz geboten werden. fertig ist der lack.
 
Danke. Wertvoller Hinweis. Sowas wird ja weder unter "Technische Daten" auf nvidia.com noch unter "Technische Daten" z.B. bei einem Händler wie Mindfactory kommuniziert.
Früher dachte ich für Videorendering braucht man eine teure Quadro oder Tesla Karte. - Nee, man braucht eine Karte mit zwei NVENC Engines (bei drei gibt es leider Ärger an der Kasse ;)).

Aber parellele Transcoding Streams können trotzdem nur 2 laufen, Nvidia beschränkt das im Treiber künstlich für Consumer Karten. Für mehr Streams musst du eine Quadro haben...
Unter Linux kannst du das umgehen btw.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh