GeForce GT 240: Spezifikationen und erste Benchmarks

SileX86

Enthusiast
Thread Starter
Mitglied seit
02.03.2006
Beiträge
784
Ort
Zelt
<p><img style="margin: 10px; float: left;" alt="nvidia" src="images/stories/logos/nvidia.gif" width="100" height="100" />Mit den Grafikkarten der "<a target="_blank" href="index.php/news/hardware/grafikkarten/12549-nvidia-zeigt-geforce-g210-und-gt220.html">GeForce GT 220</a>"-Reihe, die mittlerweile<a target="_blank" href="http://preisvergleich.hardwareluxx.de/?fs=%2Bgeforce+gt220&in=&x=0&y=0"> im Handel verfügbar</a> sind, hat <a target="_blank" href="http://www.nvidia.de">NVIDIA</a> seine ersten 40-nm-GPUs auf den Markt gebracht. Dazu soll sich in naher Zukunft die GeForce GT 240 gesellen, die neben dem kleineren Fertigungsprozess und der erstmaligen Unterstützung von DirectX 10.1 eine weitere technologische Premiere des Herstellers mitbringt:...<p><a href="/index.php?option=com_content&view=article&id=13293&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@ SileX86

Ich muss sagen,das die GeForce GT 240 schon ganz gute Benchmark Ergebnise mit sich bringt
,zumal die Geforce GT 240 dabei auch noch DX 10.1 hat,da spielt aber auch noch der Preis
eine große Rolle.

Evildead
 
Zuletzt bearbeitet:
SDDR3 habe ich jetzt noch nie gehört. Ist das noch langsamer als normaler GDDR3? Inwiefern unterscheidet sich der Speicher von GDDR2/GDDR4, usw.?

Erstaunlich, das die Karte mit 128-bit SI theoretisch schneller ist als die 9800gt mit 256-bit.

Mal schauen, wie es in den Spielen aussieht. Im Benchmark hatte die Karte nur 512MB, was doch schon das Minimum für Spielekarten darstellt.

Und: Eine 9600GT schlagen ist also wirklich keine Kunst mehr. Dafür ist vielleicht der Stromverbrauch nochmals niedriger...naja ich warte, bis nVidia mal was neues bringt *g*
 
hat jemand eventuell schon preisinformationen zu den beiden GT 240 varianten? suche für meine frau ne karte die ihre 8600 GTS
ersetzen soll...
 
Hm...SDDR3 könnte DDR3 sein. Allerdings hab ich bis jetzt nur von DDR2 bei den Low Budget Karten gehört.

Dank dem Fertigunsprozess würde sich die Karte sicher deutlich höher takten lassen - siehe Benches.

Ich denke aber NV will nicht, dass die Karte schneller als eine 9800 GT mit 256 Bit SI und GDDR3 wird. ;)


Die GT 240 wird wohl etwas teurer als die 220er werden. Diese gibt es ab 59€ und maximal für 69€ (Die kleine GT 210 kostet um die 42€).


Ich denke mal, dass die GT 240 sich etwa bei 75€ einsortiert - das Modell mit GDDR5 vielleicht bei knapp 80€. Wär also nicht so billig - im Vergleich zur 9800GT
(von 75€ - 103€ gelistet).
 
Zuletzt bearbeitet:
Ich glaube zum jetzigen Zeitpunkt ist die Karte bei weitem nicht so interessant, wie sie es vor einem halben Jahr gewesen wäre. Mit der Performance und DX10.1 ist sie gerade mal ganz gut, mit 40nm vielleicht leise und Sparsam.

Außerdem find ichs wiedermal ziemlich verwirrend, wenn NVs kleinere GPUs jetzt 40nm und DX10.1 sind, die schnelleren aber 55nm und DX10, von den alten 65nm gar nicht zu reden. Außerdem scheint diese
GPU ja Verbesserungen gegenüber dem G92b zu haben, die sie mit weit weniger Shadern und etwas weniger Takt und Speicherbandbreite wesentlich schneller als die GTS250 machen. Hatte der G200 solceh enormen Architekturverbesserungen?

@Edgecrush86: Doch, das ist normaler DDR3, wie er in moderne Mainboards kommt. Das gab es schon bei ein paar Karten, außerdem als Sideportspeicher für AMD IGPs. Der funktioniert dan ähnlich wie GDDR5, also ist der effektive Takt auch 8x der tatsächliche. Der ist nur bei weitem nicht so hoch taktbar. Scheint aber wesentlich besser als DDR2 zu sein.
 
Ja, die GT 240 basiert auf dem GT200b. Darum mehr Leistung bei niedrigerem Shadertakt im Vergleich zu G92(b).
DX 10.1 hat man wohl nur implentiert, damit die Karte heutzutage eine Berechtigung hat - denn die anderen NV Modelle haben ja bekanntlich nur DX10.
Jedenfalls hat man bewusst wohl kein DX11 implentiert, um später - im nächsten Jahr - kleine Ableger des G300 zu bringen. ;)
 
Zuletzt bearbeitet:
@Edgecrusher86: die von dir angesprochene gt220 liegt leistungsmäßig in etwa gleich auf mit der 4650er radeon 1gib und letztere ist mit 45€ gegenüber ca. 66€ ein gutes stück günstiger.

benches der 220 und 4650 (lieder 512MB): http://publish.it168.com/2009/0901/20090901012707.shtml
 
SDDR3 habe ich jetzt noch nie gehört. Ist das noch langsamer als normaler GDDR3?
SDDR3 ist höchstwahrscheinlich normaler DDR3-Speicher, wie man ihn auch als Arbeitsspeicher findet. In dem Fall wäre er technisch moderner als GDDR3, welcher auf dem DDR2-Prinzip basiert. Und er wäre auch sparsamer, da er mit einer niedrigeren Spannung bei gleichem Takt auskommt.
Ein weiterer Vorteil von normalen DDR3-Speicher ist, dass es den in Form von 4-Gigabit-Chips gibt, GDDR3-Speicher afaik nur bis 1 Gigabit. So kann man mit DDR3 auch an einem schmalen Speicherinterface werbeträchtige Speichermengen verbauen.

Allerdings ist normaler DDR3-Speicher nicht so sehr auf hohe Datenraten optimiert wie GDDR3-Speicher. Während z.B. bei Hynix derzeit bei den DDR3-Chips mit 1000 MHz das Ende der Fahnenstange erreicht ist, gibts GDDR3 bis 1300 MHz (Link).
 
Also wenn ich mir den effektiven Takt anschaue, scheint SDDR3 auch auf DDR2 zu basieren, genauso wie GDDR3.
 
DDR3 und damit höchstwahrscheinlich auch SDDR3 verwenden einen Prefetch von 8 Bit, bei DDR2 und GDDR3 sind es nur 4 Bits. Ist aber für die Taktraten egal, denn die beziehen sich auf das Interface und nicht die Speicherchips.
Die SDDR3-Taktrate der GeForce GT 240 liegt jedenfalls genau dort, wo auch normaler DDR3-Speicher liegt, nämlich bei 800 MHz (1,6 Gbps Datenrate).
GDDR3 bringt es trotz der älteren Technologie auf höhere Taktraten (bis zu 1300 MHz bzw. 2,6 Gbps Datenrate). GDDR3 ist halt auf eine spezielle Anwendung zugeschnitten.
Trotzdem hat normaler DDR3-Speicher auch Vorteile (siehe mein Posting oben).
 
Wahrscheinlich bietet sich DDR3 auch wegen der Momentanen Preislage gut an. Ich bezweifle das bei GDDR3 eine ähnliche Überproduktion herrscht zumal viele neue Karten schon auf GDDR5 setzen.
 
DDR3 und damit höchstwahrscheinlich auch SDDR3 verwenden einen Prefetch von 8 Bit, bei DDR2 und GDDR3 sind es nur 4 Bits. Ist aber für die Taktraten egal, denn die beziehen sich auf das Interface und nicht die Speicherchips.
Das ist aber unlogisch. Wenn SDDR3 ebenfalls einen 8 Bit Prefetch hat, müsste dann nicht auch der effektive Takt und damit die Bandbreite gleichwertig zu GDDR5 sein? Das ist aber nun mal nicht der Fall. Die Version mit SDDR3 hat nur die Hälfte der Bandbreite gegenüber der Version mit GDDR5. Und das bei gleichem Speicherinterface. Das spricht also eher für DDR2. Zumal es, wenn ich mir diverse Quellen so anschaue, SDDR3 wohl schon länger gibt. Da war DDR3 noch gar nicht auf dem Markt. Fragwürdig ist ebenfalls, sollte SDDR3 auf DDR3 basieren, welchen Vorteil man gegenüber GDDR5 hätte.
Ich habe vielmehr das Gefühl, SDDR3 scheint DDR2 basierter "Billig-Speicher" (höhere Latenz?) zu sein, den man so in grösseren Kapazitäten gegenüber GDDR3 verbauen kann.
 
Das einzig interessante ist der Idle-2D-Verbrauch.
WIE NIEDRIG wird der sein?? Und wie hoch typischer verbrauch?
 
@mr.dude: Du kannst DDR und GDDR bei gleicher Technologie nicht in der Datenrate vergleichen. GDDR-Speicher war schon immer auf deutlich höhere Datenraten ausgelegt als DDR-Speicher. Selbst innerhalb der GDDR-Entwicklung wurden die Datenraten bei DDR3-basierter Technologie deutlich gesteigert, vergleiche GDDR4 und GDDR5.

Es gibt auf jeden Fall genügend Karten am Markt, die DDR3-Speicher verwenden, welcher mit einem Prefetch von 8 Bit arbeitet. Warum sollte Nvidia bei der GeForce GT 240 ein eigenes Süppchen kochen und irgendwelchen exotischen Speicher verwenden?
 
ist es bei den 220 oder 240 karten moeglich den vga, den dvi und den hdmi ausgang gleichzeitig zubenutzen ?
 
Ich gehe stark davon aus, dass die Antwort auf diese Frage "Nein" lautet. Ansonsten wäre das eine echte Überraschung.
 
warum haben die ganzen karten 3 ausgaenge aber es koenne nicht alle benutzt werden !?
 
ne, sicher nicht... Ein Feature wie Eyefinity hat NV nicht im Angebot...
Dementsprechend bleibt es bei max. 2 Ausgängen pro Karte...

3 und mehr Ausgänge sind dran um die möglichst große Anschlussvielfalt zu gewährleisten. Man bräuchte sonst Adapter...
 
Die Karte kommt zu spät.
Die 5750/5770 stehen schon vor der Tür, ATI könnte leicht die 4650/4670 im Preis auch noch etwas nach unten Korrigieren.
Nvidia hat das ganze schon sehr verschlafen.
 

@ Motkachler

Ich selber finde ATI Grafikkarten auch nicht schlecht,ATI Grafikkarten haben auch ihre Positiven Vorteile,auch wen ich selber eine Nvidia Grafikkarte besitzte,ich selber finde das bei Nvidia Grafikkarten mit DX 10.1 die Grafik des Spiels entwas Dunkeler beleuchtet wird,und bei ATI Grafikkarten mit DX 10.1 wird die Grafik des Spiels ebend etwas heller beleuchtet.

Und deswegen heißt das nicht,das Nvidia nicht mit DX 10.1 zurecht kommt.

Im Gegenteil.
Bei Nvidia Grafikkarten mit DX 10.1 (wird zb die Sonne im Spiel dahin beleuchtet wo die Sonne auch Hinscheind,und deswegen wird das Spiel auch bei Nvidia Grafikkarten mit DX 10.1 auch etwas dunkler beleuchtet.

So sollte es auch eigentlich sein.

Evildead
 
Zuletzt bearbeitet:
Du kannst DDR und GDDR bei gleicher Technologie nicht in der Datenrate vergleichen.
Das habe ich auch nicht gemacht. Ich habe lediglich SDDR und GDDR verglichen.

Selbst innerhalb der GDDR-Entwicklung wurden die Datenraten bei DDR3-basierter Technologie deutlich gesteigert, vergleiche GDDR4 und GDDR5.
GDDR4 basiert auf DDR2, nicht DDR3.

Es gibt auf jeden Fall genügend Karten am Markt, die DDR3-Speicher verwenden, welcher mit einem Prefetch von 8 Bit arbeitet.
Ja, aber nur Karten mit GDDR5, soweit ich weiss. Für alles weitere hätte ich dann doch schon ganz gerne Quellen. :)

@Evildead
Schau dir mal die Brücke im Meer an oder was das sein soll. Normal sieht das jedenfalls nicht aus. Egal ob heller oder dunkler beleuchtet.
 
GT210
GT220
GT240
GT260
GT275
GT285

gehts noch? Was soll das denn sein?

Ultra Low End
Low End
Lower Midrange
Upper Midrange
High End
Ultra High End

Oder was haben die sich dabei gedacht ... halb so viele Modelle würden auch reichen um alle ansprüche zufrieden zu stellen
 
du hast die GTS250 vergessen ;)

GT210
GT220
GT240
GTS250
GTX260
GTX275
GTX285
GTX295
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh