Kein Sommerloch bei NVIDIA: Weitere Grafikkarten kommen ab Juli

Stegan

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
16.12.2005
Beiträge
16.271
Ort
Augsburg
<p><img style="margin: 10px; float: left;" alt="nvidia" src="images/stories/logos/nvidia.gif" height="100" width="100" />Neben der <a href="http://www.nvidia.de/page/home.html" target="_blank">NVIDIA</a> GeForce GTX 485 (<a href="index.php/news/hardware/grafikkarten/15664-nvidia-geforce-gtx-485-neues-flaggschiff-bald-mit-512-shadereinheiten.html" target="_blank">wir berichteten</a>) sollen spätestens im Juli weitere DirectX-11-Grafikkarten folgen. Allen vorne heran steht noch die NVIDIA GeForce GTX 460 ins Haus. Sie soll bereits auf dem kleineren GF104 basieren und auf 786 MB GDDR5-Videospeicher, welcher über ein 192 Bit breites Speicherinterface angebunden sein sollte, zurückgreifen können. Ging man vor ein paar Wochen noch von 240 CUDA-Cores aus, stehen jetzt 336...<p><a href="/index.php?option=com_content&view=article&id=15665&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
*gähn*
nvidia verliert so langsam den GraKa Kampf! Aber was will man auch erwarten? Das Spitzenmodell ist zwar ein Sprinter in der Leistung, verbrät aber deutlich mehr Strom und kostet auch zuviel. Was jetzt kommt sind die kleineren Karten, die auch nicht so wirklich überzeugen können. Eigentlich schade, denn Konkurrenz belebt das Geschäft... ergo: Keine Belebung im GraKa Markt. Naja, hoffen wir mal, dass zu Weihnachten was besseres kommt...
 
Ich bin froh dass meine GTX260 noch schnell genug ist, so muss ich mir nämlich dieses Jahr keine neue kaufen. Bis ich wieder eine neue brauche, gibts hoffentlich auch wieder Karten die leise sind und normalen Stromverbrauch haben.
Ich kann nur hoffen dass Nvidia draus lernt, denn ich will sicherlich nicht nur noch ATI als Option haben.
 
Also mit der Preissache... Wenn man mal überlegt was mach zu 8800GTX/Ultra Zeiten für die Viecher ausgegeben hat dann sind die ganzen andren ein Schnäppchen ;) Da war das normal dass eine High-End Karte um die 500 Piepen gekostet hat. Damals hatte ich noch mehr Zeit zum Zocken und da stand hier ein Tripple 8800GTX SLI... Mittlerweile nur noch ne gtx285 zum gelegenheitsspielen.

Aber da sieht man mal wieder wie extrem sich das preis/Leistungsempfinden der leute entwickelt hat. Und zwar eigentlich zum positiven hin. Wir sind nicht mehr bereit so extrem viel kohle für \"schwachsinn\" auszugeben und achten mehr aufs geld.

Jaja, was die Zeit so mit sich bringt ;)
 
Hmm vlt wird die 485 eine Option mal schauen ... Was das Geldbörsel dazu sagt..
 
Ich frage mich was alle immer mit dem leise haben.meine 470 ist leiser wie ne 260 oder 5850 rev1.

Ok bei den 480 kann es sein,habe da noch keine erfahrung gemacht.
 
485 GTX @ Wakü :love: ich hoff das Ding kommt bald....
 
ach ne
jetzt ist am WE meine EVGA GTX 480 endich gekommen und dann muss ich sowas hier lesen :(
Naja weniger wird die 485 nicht verbrauchen :)
 
*gähn*
nvidia verliert so langsam den GraKa Kampf!
nein. genausowenig wie ati ihn mit der hd2000 verlor. nvidia hat immer noch mehr marktanteil und ati holt auf. technologisch ist nvidia aktuell wieder spitzenreiter.
Aber was will man auch erwarten? Das Spitzenmodell ist zwar ein Sprinter in der Leistung, verbrät aber deutlich mehr Strom und kostet auch zuviel.
1. ursprünglich war der chip mit 128 tmus, später mit einer höher getakteten tmu domain geplant. beides scheiterte aufgrund der fertigung, sonst wäre der gf100 noch erheblich schneller und technologisch eine eierlegende wollmilchsau.
2. die leistungsaufnahme der topgrafikkarten steigt kontinuierlich seit jahrzehnten. die gf100 hat außerdem dp einheiten, ecc und noch irgendwas anderes was transis kostet, spielern aber nichts bringt.
3. die preise der topgrafikkarten rangieren seit jahren bei erscheinung um 1000 mark / 500€. die 4870 und gtx260 stellten aufgrund der agressiven preisgestaltung atis und der konkurrenz eine positive ausnahme dar.
Was jetzt kommt sind die kleineren Karten, die auch nicht so wirklich überzeugen können. Eigentlich schade, denn Konkurrenz belebt das Geschäft... ergo: Keine Belebung im GraKa Markt. Naja, hoffen wir mal, dass zu Weihnachten was besseres kommt...
inwiefern können die kleineren karten nicht überzeugen? ich würde den gf104 nicht unterschätzen. ich glaube das wird ein g92 nachfolger.
die gtx460 kriegt nicht den vollausbau des gf104 spendiert, und wird wohl trotzdem zum 465er killer.
bedenkt, dass nvidia den gf108 oberhalb des g215 ansetzt. darüber kommt noch der gf106 ~ rv840 und darüber der gf104. der low cost bereich wird erstmal gar nicht abgedeckt.
die gf100 grakas kranken an der ehemaligen paradedisziplin texturleistung.
die abgespeckte gf104 bietet mit 56 tmus genausoviele wie eine gtx470.
336 shader und 150W tdp hören sich auch gut an. außerdem verfügt er nicht über die speziellen (elektrische-) leistungsfressenden einheiten, die spieler sowieso nicht brauchen.
im vollausbau mit 384 shadern, 64 tmus, (hoffentlich) 32 rops und 256 si wird er sehr wahrscheinlich eine ablösung für meine altersschwache 88gt :love:
 
Zuletzt bearbeitet:
rk / 500€. die 4870 und gtx260 stellten aufgrund der agressiven preisgestaltung atis und der konkurrenz eine positive ausnahme dar.
Was jetzt kommt sind die kleineren Karten, die auch nicht so wirklich überzeugen können. Eigentlich schade, denn Konkurrenz belebt das Geschäft... ergo: Keine Belebung im GraKa Markt. Naja, hoffen wir mal, dass zu Weihnachten was besseres kommt...
inwiefern können die kleineren karten nicht überzeugen? ich würde den gf104 nicht unterschätzen. ich glaube das wird ein g92 nachfolger.
die gtx460 kriegt nicht den vollausbau des gf104 spendiert, und wird wohl trotzdem zum 465er killer.
bedenkt, dass nvidia den gf108 oberhalb des g215 ansetzt. darüber kommt noch der gf106 ~ rv840 und der gf104. der low cost bereich wird erstmal gar nicht abgedeckt.
die gf100 grakas kranken an der ehemaligen paradedisziplin texturleistung.
die abgespeckte gf104 bietet mit 56 tmus genausoviele wie eine gtx470.
336 shader und 150W tdp hören sich auch gut an. außerdem verfügt er nicht über die speziellen (elektrische-) leistungsfressenden einheiten, die spieler sowieso nicht brauchen.
im vollausbau mit 384 shadern, 64 tmus, (hoffentlich) 32 rops und 256 si wird er sehr wahrscheinlich eine ablösung für meine altersschwache 88gt
 
eine gtx470.
336 shader und 150W tdp hören sich auch gut an. außerdem verfügt er nicht über die speziellen (elektrische-) leistungsfressenden einheiten, die spieler sowieso nicht brauchen.
im vollausbau mit 384 shadern, 64 tmus, (hoffentlich) 32 rops und 256 si wird er sehr wahrscheinlich eine ablösung für meine altersschwache 88gt
 
Zuletzt bearbeitet:
nein. genausowenig wie ati ihn mit der hd2000 verlor. nvidia hat immer noch mehr marktanteil und ati holt auf. technologisch ist nvidia aktuell wieder spitzenreiter.
Kommt drauf an, was man als technologischer Spitzenreiter ansieht...
Die 1D Einheiten sind aber quasi in allen Hauptpunkten den 5D Einheiten von AMD unterlegen. Sowohl was die Leistung/Chipfläche, als auch die Leistung/Stromaufnahme anbelangt usw.

1. ursprünglich war der chip mit 128 tmus, später mit einer höher getakteten tmu domain geplant. beides scheiterte aufgrund der fertigung, sonst wäre der gf100 noch erheblich schneller und technologisch eine eierlegende wollmilchsau.
2. die leistungsaufnahme der topgrafikkarten steigt kontinuierlich seit jahrzehnten. die gf100 hat außerdem dp einheiten, ecc und noch irgendwas anderes was transis kostet, spielern aber nichts bringt.

Zum ersten, neja die TMUs haben ja ihre eigene Taktdomain, nur NV selbst weis warum diese eben genau mit halben ALU Takt kommt und nicht höher Taktet... Potentiell machbar wäre es aber ohne Probleme...

Zum anderen, schaut man sich den Verbrauch der AMD Karten an, bewegt man sich seit dem R600 in Bereichen von ca. 130-165W. (R600, RV770 und RV870 jeweils im Vollausbau)
Stellt man dagegen NV mit dem G80, G200(b) und GF100 steigert sich das ganze von ca. 130 auf über 230W...
Und das in realen Gamingsettings, Furmark und Co. mal außen vor...

Und ganz ehrlich, was NV unter der Haube in die Karten einbaut und wovon dem Endverbraucher nix bleibt ist dem Endkunden wohl total schnuppse, er muss den Strom zahlen, so wie sie die Karte verprasst.
Mal ganz davon ab, hat doch die GF100 keine DP Einheiten, man schaltet zwei ALUs zusammen um DP zu berechnen, was Leistungsmäßig im Verhältniss 2:1 für SP:dP endet.
Bei AMD werden alle 5 Teile einer ALU zusammen geschalten, was 5:1 für SP:dP ergibt.
 
Zuletzt bearbeitet:
eine gtx470.
336 shader und 150W tdp hören sich auch gut an. außerdem verfügt er nicht über die speziellen (elektrische-) leistungsfressenden einheiten, die spieler sowieso nicht brauchen.
im vollausbau mit 384 shadern, 64 tmus, (hoffentlich) 32 rops und 256 si wird er sehr wahrscheinlich eine ablösung für meine altersschwache 88gt

doch ich.

@brasilion
5850 und gtx260 wären mir auch viel zu laut und bedürften bei mir alternativer kühler. in meinen pc kommen nur lüfter die mit max 500rpm laufen sodass ich den pc auch nachts nicht höre. ssds würde ich mir auch u.a. wegen der lautstärke holen weil meine leise samsung im auf schaumstoff entkoppelten quiet drive noch das lauteste meines pcs ist.


Dann mach nen anderen Kühler drauf, wo is da das Problem?!
 
Naja die 470 hört man nachts auch nicht beim Film gucken :) oder wenn man im Bettchen liegt und kein Ton an ist ;)


Bin mal gespannt was das mti dem GF104 wird.Vielleicht mach ich ja nen fliegenden Wechseln,falls mit OC viel drin ist bei der 460.Was ja gerüchte verlauten lassen,aber eigentlich bin ich mit meiner jetzigen voll zufrieden:)
 
Kommt drauf an, was man als technologischer Spitzenreiter ansieht...
Die 1D Einheiten sind aber quasi in allen Hauptpunkten den 5D Einheiten von AMD unterlegen. Sowohl was die Leistung/Chipfläche, als auch die Leistung/Stromaufnahme anbelangt usw.



Zum ersten, neja die TMUs haben ja ihre eigene Taktdomain, nur NV selbst weis warum diese eben genau mit halben ALU Takt kommt und nicht höher Taktet... Potentiell machbar wäre es aber ohne Probleme...

Zum anderen, schaut man sich den Verbrauch der AMD Karten an, bewegt man sich seit dem R600 in Bereichen von ca. 130-165W. (R600, RV770 und RV870 jeweils im Vollausbau)
Stellt man dagegen NV mit dem G80, G200(b) und GF100 steigert sich das ganze von ca. 130 auf über 230W...
Und das in realen Gamingsettings, Furmark und Co. mal außen vor...

Und ganz ehrlich, was NV unter der Haube in die Karten einbaut und wovon dem Endverbraucher nix bleibt ist dem Endkunden wohl total schnuppse, er muss den Strom zahlen, so wie sie die Karte verprasst.
Mal ganz davon ab, hat doch die GF100 keine DP Einheiten, man schaltet zwei ALUs zusammen um DP zu berechnen, was Leistungsmäßig im Verhältniss 2:1 für SP:dP endet.
Bei AMD werden alle 5 Teile einer ALU zusammen geschalten, was 5:1 für SP:dP ergibt.

Es kommt vorallem darauf an wie man mit seinen Käufern umgeht bzw. auf Wünsche eingeht... sgssaa DX10 /11 ...DX9... die Zusammenarbeit mit zb. Grestorn (nHancer) AF HQ...kein Filterbeschiß! USW USW.

Frag doch mal bei ATI nach.... AI weg... anständiges Filtern bei AF...
zb. AI aus CF weg...ich lach mich schlapp......
bench mal Crysis ohne AI.....zum totlachen....aber hauptsache Balken....

Und Verbrauch und Wärme...... fragt doch die Leutchen mal die ihr Karten (zb.HD5)mit 960 mhz und mehr betreiben...wieviel sie haben :lol:

Von Cuda etc pp. mal ganz abgesehen.....

NV>untervolten andere Lüfter <>kälter als die G200....
Multimonitor<2 KLicks immer 2D....

Und bei ATI wird ja nie was anderes verbaut...weder Lüfter noch sonstwas.....

Technik...wie heißt die bei ATI?

AI?
Wie bescheiß ich am besten....?
Wenn sie so gute Karten bauen wieso brauchen sie AI?

So genug des AIs :d , 99% juckt es eh nicht...wie gesagt, hauptsache Balken und dummes Zeug schreiben.
 
Zum anderen, schaut man sich den Verbrauch der AMD Karten an, bewegt man sich seit dem R600 in Bereichen von ca. 130-165W. (R600, RV770 und RV870 jeweils im Vollausbau)
Stellt man dagegen NV mit dem G80, G200(b) und GF100 steigert sich das ganze von ca. 130 auf über 230W...
Und das in realen Gamingsettings, Furmark und Co. mal außen vor...

Und ganz ehrlich, was NV unter der Haube in die Karten einbaut und wovon dem Endverbraucher nix bleibt ist dem Endkunden wohl total schnuppse, er muss den Strom zahlen, so wie sie die Karte verprasst.
wenn man die geschichte der leistungsaufnahme betrachtet, gab es auch schon eine radeon 9700 pro, die "zu viel" verbrauchte, eine geforce 5800 ultra, ne 6800 ultra, ne x1800xt, 78- 7900gx2, x1950xtx8800gtx3870x2gtx2804870x2gtx295gtx480....... blabla etc etc.
nicht dass ich diese entwicklung unkritisch betrachte, aber ich und viele andere haben es zumindest immer akzeptiert, solange es gut und leise kühlbar war und das fps/W-verhältnis stimmt. krasse ausreißer wie 5800 ultra, hd2900xt und vielleicht jetzt auch gtx480 (letztere wohl im vergleich noch am ausgereiftesten) wurden zwar abgestraft, aber mittlerweile beschwert sich niemand mehr über eine karte mit einem verbrauch im bereich einer 5800 ultra.
aber selbst wenn viele (wie ich) zu denen zählen, die eine gtx480 für zu stromfressend halten, so ist das thema der news ja "weitere grafikkarten" z.b. mit gf104. und gerade hier deuten die indizien 150W tdp, besseres shader-tmu-verhältnis, kleineres si und fehlende spezialeinheiten ja auf ein besseres fps/W-verhältnis.
 
er akzeptiert, solange es gut und leise kühlbar war und das fps/W-verhältnis stimmt. krasse ausreißer wie 5800 ultra, hd2900xt und vielleicht jetzt auch gtx480 (letztere wohl im vergleich noch am ausgereiftesten) wurden zwar abgestraft, aber mittlerweile beschwert sich niemand mehr über eine karte mit einem verbrauch im bereich einer 5800 ultra.
aber selbst wenn viele (wie ich) zu denen zählen, die eine gtx480 für zu stromfressend halten, so ist das thema der news ja \"weitere grafikkarten\" z.b. mit gf104. und gerade hier deuten die indizien 150W tdp, besseres shader-tmu-verhältnis, kleineres si und fehlende spezialeinheiten ja auf ein besseres fps/W-verhältnis.
 
Warum postet du alles 2-3 mal?

Aber ich finde,man sollte sich erst zu den Karten äusern wenn man sie hat bzw hatte.

Viele sagen,das ist scheisse und das und dies und jenes.Und dann wissen sie es nur von irgend welchen Test oder Reviews aus dem Internet.Aber selbst haben sie sich das Produkt nie angeschaut,aber machen es stehts runter :d.


Eine Sache die ich doof finde ist,das die Karte sachen hat die sie nicht braucht und man sie noch nichtmal so abschalten kann das sie keine Wärme oder strom verbrauchen.
 
Warum postet du alles 2-3 mal?
damit das bei den news auch steht.
Aber ich finde,man sollte sich erst zu den Karten äusern wenn man sie hat bzw hatte.
stimmt aber ich mag halt spekulatius. und wenn viele spekulatius dafür sprechen, dass meine nächste traumgraka ansteht (gf104 vollausbau), dann beteilige ich mich supergern an den spekulatius.
Viele sagen,das ist scheisse und das und dies und jenes.Und dann wissen sie es nur von irgend welchen Test oder Reviews aus dem Internet.Aber selbst haben sie sich das Produkt nie angeschaut,aber machen es stehts runter :d.
jo stimmt. wobei man sich mittlerweile ja gut informieren kann im internet wenn man sehr viele quellen zur hand nimmt.
Eine Sache die ich doof finde ist,das die Karte sachen hat die sie nicht braucht und man sie noch nichtmal so abschalten kann das sie keine Wärme oder strom verbrauchen.
daher sag ich ja: warum wettern so viele in einem fred für kommende grakas gegen den gtx480? der gf104 wird doch wahrscheinlich prima. wobei: wärme verbrauchen wäre auch prima ;)
 
Zuletzt bearbeitet:
keine Wärme oder strom verbrauchen.[/QUOTE]
daher sag ich ja: warum wettern so viele in einem fred für kommende grakas gegen den gtx480? der gf104 wird doch wahrscheinlich prima. wobei: wärme verbrauchen wäre auch prima ;)
 
Zuletzt bearbeitet:
Das steht doch acuh so in den news.

Wie immer heisst es abwarten und WM gucken :d
 
jo die italiener müssen mal verlieren und ausscheiden bevor sie gut werden und uns im halbfinale schlagen.
 
Guten..


also ich würde mich mal freuen wenn Nvidia auch mal Karten mit Bitstreaming für HD Audio herstellen würde .. und kein PCM Zeugs.


I30R6
 
*gähn*
nvidia verliert so langsam den GraKa Kampf! Aber was will man auch erwarten? Das Spitzenmodell ist zwar ein Sprinter in der Leistung, verbrät aber deutlich mehr Strom und kostet auch zuviel. Was jetzt kommt sind die kleineren Karten, die auch nicht so wirklich überzeugen können. Eigentlich schade, denn Konkurrenz belebt das Geschäft... ergo: Keine Belebung im GraKa Markt. Naja, hoffen wir mal, dass zu Weihnachten was besseres kommt...


das sind mir wieder die liebsten kommentare

null hirn
kein plan von irgendwas
aber hauptsache seinen senf dazugeben. der obendrein überhaupt nix zum thema beiträgt

oh du armes deutschland


ich bin mal gespannt was die kleinen fermi ableger jetzt wirklich zu leisten vermögen
und ob nvidia hier jetzt auch einen weg findet den verbrauch zu drücken, und diesen dann späzerr auf die gf100 nafolger zuu übertragen!

auf gehts Nvidia!
 
Bei der GTX485 werd ich zuschlagen (sollten die ersten offiziellen Tests akzeptabel sein)

Dann geht meine 9800GT in Rente...
 
wenn man die geschichte der leistungsaufnahme betrachtet, gab es auch schon eine radeon 9700 pro, die "zu viel" verbrauchte, eine geforce 5800 ultra, ne 6800 ultra, ne x1800xt, 78- 7900gx2, x1950xtx8800gtx3870x2gtx2804870x2gtx295gtx480....... blabla etc etc.
Neja wir sollten beim G80/R600 anfangen zu rechnen, denn ab dieser Generation hat sich quasi grundlegend an den GPUs seit Jahren vorher was geändert. Freiprogrammierbare Shader wenn man so will.
Im Nachhinnein betrachtet kann man aber sagen, AMD ist aus Leistung/Verbrauchssicht den besseren Weg mit den 5D Einheiten gefahren, auch wenn man mit dem R600 Startschwierigkeiten hatte...
Alles was davor kam, ist Altbacken und lange schon nicht mehr aktuell.

nicht dass ich diese entwicklung unkritisch betrachte, aber ich und viele andere haben es zumindest immer akzeptiert, solange es gut und leise kühlbar war und das fps/W-verhältnis stimmt. krasse ausreißer wie 5800 ultra, hd2900xt und vielleicht jetzt auch gtx480 (letztere wohl im vergleich noch am ausgereiftesten) wurden zwar abgestraft, aber mittlerweile beschwert sich niemand mehr über eine karte mit einem verbrauch im bereich einer 5800 ultra..

Das liegt wohl daran, das mit jedem neuen Schnittstellen Standard die maximalen Leistungsangaben für Steckkarten in dem Slot erhöht wurde.
Bei PCIe 2.0 sind es eben max. 300W pro Karte. Mit PCIe 3 werden es nochmals mehr, und ich wette mit dir, die Hersteller werden sich nicht lumpen lassen, diese Grenzen neu auszuloten.
Das Problem ist eben, wir kommen langsam in Regionen wo es Kühlungstechnisch kritisch werden kann.

Unterm Strich ist das aber auch alles Banane, wenn man die Effizienz betrachtet, mit dehnen die GPUs arbeiten.

daher sag ich ja: warum wettern so viele in einem fred für kommende grakas gegen den gtx480? der gf104 wird doch wahrscheinlich prima. wobei: wärme verbrauchen wäre auch prima ;)

neja es geht um kommende GPUs, eine mögliche 512 ALU Version wird sicher nicht auf dem GF104 aufbauen ;)
Wenn man da nicht signifikannt was am GF100 ändern kann, wird das ein heißer Sommer für Käufer der Karte ;)
 
Neja wir sollten beim G80/R600 anfangen zu rechnen, denn ab dieser Generation hat sich quasi grundlegend an den GPUs seit Jahren vorher was geändert. Freiprogrammierbare Shader wenn man so will.
Im Nachhinnein betrachtet kann man aber sagen, AMD ist aus Leistung/Verbrauchssicht den besseren Weg mit den 5D Einheiten gefahren, auch wenn man mit dem R600 Startschwierigkeiten hatte...
Alles was davor kam, ist Altbacken und lange schon nicht mehr aktuell.
ich betrachte das lieber ganzheitlich. quake 3 war fotorealistisch, hw t&l revolutionierte das rendering, dx8 shader hat auch "grundlegend" was geändert...
das kann gut sein dass amd mit den 5d einheiten einen guten weg eingeschlagen hat. das habe ich nicht bezweifelt. hd2000 hatte ja nur verkackte rops und etwas wenig texturpower.
Das liegt wohl daran, das mit jedem neuen Schnittstellen Standard die maximalen Leistungsangaben für Steckkarten in dem Slot erhöht wurde.
Bei PCIe 2.0 sind es eben max. 300W pro Karte. Mit PCIe 3 werden es nochmals mehr, und ich wette mit dir, die Hersteller werden sich nicht lumpen lassen, diese Grenzen neu auszuloten.
Das Problem ist eben, wir kommen langsam in Regionen wo es Kühlungstechnisch kritisch werden kann.
seh ich doch genauso. gtx 480 != leise luftkühlung. für mich ist der gf 100 "zu groß"
Unterm Strich ist das aber auch alles Banane, wenn man die Effizienz betrachtet, mit dehnen die GPUs arbeiten.
was meinst du jetzt damit? dass ne hd4770 effizienter ist als eine 9700pro, dass grakas "elektrisch" gesehen ne effizienz von ~ 0% haben oder ganz was anderes?
neja es geht um kommende GPUs, eine mögliche 512 ALU Version wird sicher nicht auf dem GF104 aufbauen ;)
Wenn man da nicht signifikannt was am GF100 ändern kann, wird das ein heißer Sommer für Käufer der Karte ;)
daher will ich ja auch ne karte mit gf104 vollausbau mit 384 shadern, 64 tmus, 32 rops und 256 bit si :love:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh