nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Das sind 44% gegenüber der GTX680 und 36% gegenüber der 7970GHz mit 1050MHz bei Betrachtung der Spiele.
Das liegt doch komplett im Rahmen der Leistungserwartung.

Schon interessant, wie sich die Leistungserwartung im Lauf der Zeit so entwickelt hat. Erst wurde von 85 Prozent der Leistung einer GTX 690 gesprochen und keiner wollte wahrhaben, dass diese Leistung aufgrund der voraussichtlichen Spezifikationen eigentlich nicht zu erreichen sind.

Und plötzlich, nachdem erste Benchmarks auftauchen, die möglicherweise echt sind und zufällig zu der spekulierten Hardwareausstattung passen, ist die Leistungserwartung plötzlich nur noch halb so groß.

Das beziehe ich jetzt nicht speziell auf dich, sontin. Sondern so generell auf das Rauschen im Blätterwald...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Seit Oktober eine 7970GHz für 330€ im Rechner. Wenn natürlich alle bei Nvidia kaufen und die Preise hinnehmen ändert sich auch nichts. Die GTX680 kostet immernoch knapp 400€. Klar könnte Nvidia mit dem Preis runtergehen, aber warum sollten sie? titan ist sowieso nicht für die breite Masse. Reicht ja auch anscheinend ein Free-to-Play-Bundle aus... :fresse:

Ich bin gespannt ob sie wirklich 6GB verbauen. Waren ja auch dort immer eher zurückhaltend. GTX690 mit 2GB. :stupid:
Schon interessant, wie sich die Leistungserwartung im Lauf der Zeit so entwickelt hat. Erst wurde von 85 Prozent der Leistung einer GTX 690 gesprochen und keiner wollte wahrhaben, dass diese Leistung aufgrund der voraussichtlichen Spezifikationen eigentlich nicht zu erreichen sind.
War doch bei jeder Grafikkarte in den letzten Jahen so.
 
Zuletzt bearbeitet:
Und was soll uns dieser Chinatext jetzt sagen? Das wissen wir doch schon alles seit ein paar Tagen was da steht, also nix neues.

Dass den Herstellern anscheinend keine Taktraten aufgezwungen werden. Also könnten EVGA, Asus etc. auch höher taktende Modelle bringen, wenn sie denn wollten.
Im XS Forum meint einer, Galaxy wäre nicht der einzige Partner, der die 875 ohne Boost bringt, es gäbe auch eine 900MHz Version von einem anderen AIB.
 
Zuletzt bearbeitet:
@ MusicIsMyLife

Nahe an den 1 Jahr alten Dual karten hätte es schon sein sollen nach dem rauschen im Blätterwald. Satz mit X war wohl nix.:)
 
Zuletzt bearbeitet:
@Cloudstrife
Allein die PCB Bestückung mit 256Bit und 2GB Ram hat doch schon gesagt ich bin kein Highend.
Von den knapp 300mm2 will ich nicht Anfangen.
Anstatt die Nvidia kunden zu belohnen hat NV die Leute masslos geschröpft den die verkaufen Teurer wie AMD obwohl sie billiger fertigen.
Da für muss man keinen Dr. Titel haben um das zu erkennen.
Eieiei, mal nicht so "von oben herab".
Zum Releasezeitpunkt der 680 war dies nunmal "High End", zusammen mit der 7970 (Pendant).
Es war halt nicht "High-End" in Deinen Augen. Leider bist Du nicht der Nabel der Welt ;)
 
Jetzt kommt doch der Gedanke auf, dass nur EVGA, ASUS und ggf. MSI "OC-Titans" bauen dürfen.. die anderen dürfen dann nur "Referenz"?

Nachher kommt alles anders.. keine Limitierung der Stückzahl, keine Beschränkung der Partner, alle dürfen nur Standard-PCB machen, aber die "Großen" bekommen Boost 2.0.
Wirkt alles gaga..
 
@Cloudstrife
Allein die PCB Bestückung mit 256Bit und 2GB Ram hat doch schon gesagt ich bin kein Highend.
Von den knapp 300mm2 will ich nicht Anfangen.
Anstatt die Nvidia kunden zu belohnen hat NV die Leute masslos geschröpft den die verkaufen Teurer wie AMD obwohl sie billiger fertigen.
Da für muss man keinen Dr. Titel haben um das zu erkennen.

So sieht es aus. Bin mal gespannt wie das weitergehen wird, vielleicht werden in Zukunft ja garkeine neuen Karten mehr entwickelt und Nvidia konzentriert sich nur noch auf den mobilen Sektor. Irgendwie passt die Entwicklung zu dieser Annahme.
 
jo bleibt uns wohl nichts als auf donnerstag zu warten bis wir definitiv mehr wissen.
 
Sollte nicht von oben herab sein.
Die GTX 680 liegt gegen die GHZ Edition in der Leistung zurück .
Wieso senkt NV nicht den Preis? weil die Leute kaufen.

Mir soll es Wurst sein nur hat sich die NV Gemeinde diese Situation selbst aufgehalst.

Ist jetzt nicht auf dich bezogen der Satz der kommt.

Wer will den den AMD ramsch haben sagten hier mal 2 3 Leute und jetzt ist der Titan zu Teuer?
LOL ich hau mich darüber schon seit Tagen weg.
Wer will den den 680er Ramsch noch haben:heuldoch:
Leid tut es mir für die Leute die Standhaft geblieben sind wie Dozer und Uhjj
 
Zuletzt bearbeitet:
Und was soll uns dieser Chinatext jetzt sagen? Das wissen wir doch schon alles seit ein paar Tagen was da steht, also nix neues.

das der Takt fest ist und nicht inkl Turbo ;)
DAS wäre der neue Aspekt an der Geschichte.
Das Boxleitner plötzlich mit ner Info einer über 900mhz taktenden Version rausrückt verwundert mich nicht, aber warum jetzt erst ?:shot:
 
Allein die PCB Bestückung mit 256Bit und 2GB Ram hat doch schon gesagt ich bin kein Highend.
Von den knapp 300mm2 will ich nicht Anfangen.
Anstatt die Nvidia kunden zu belohnen hat NV die Leute masslos geschröpft den die verkaufen Teurer wie AMD obwohl sie billiger fertigen.
Da für muss man keinen Dr. Titel haben um das zu erkennen.
Völlig irrelevant ob High End oder Performance, die Fertigungskosten spielen auch keine rolle, die Karte ist schneller und effizienter als die HD7970 im Gaming Bereich, es war AMD der den Preis als erstes so hoch angesetzt hat, soweit ich weiß waren es Anfangs 499 € für die HD7970.

Im CPU Bereich ist es nicht anders
Sandy Bridge 4C/8T > 216mm²
Bulldozer 4M/8T > 315mm²
Die Intel CPUs kosten auch nicht plötzlich weniger als die AMDs, nur weil die Fertigung günstiger ist heißt das nicht, das man die Preise günstiger als bei der Konkurrenz festlegen kann.
 
Zuletzt bearbeitet:
Turbo gibts ganz sicher, es bleibt den Partnern aber evtl. freigestellt, ihn nicht zu nutzen?
 
fragt sich dann aber wie das OC Verhalten der Turbo vs non Turbo Karten ausfällt.

€dit: wtf^^ nun kann man in 1000 Richtungen denken und kommt auf keinen grünen Zweig. Ich bin froh wenn die Woche vorbei ist *G*
 
Zuletzt bearbeitet:
Ich finds lustig :d
OC-Verhalten dürfte sich nicht ändern, glaub nicht, dass das groß selektiert wird und z.B. EVGA die besten Chips bekommt.
 
OC ist immer glückssache, hatte damals 4x GTX580 Karten und nur eine hat stabile 1000 GPU gepackt.
 
Völlig irrelevant ob High End oder Performance, die Fertigungskosten spielen auch keine rolle, die Karte ist schneller und effizienter als die HD7970 im Gaming Bereich, es war AMD der den Preis als erstes so hoch angesetzt hat, soweit ich weiß waren es Anfangs 499 € für die HD7970.

Im CPU Bereich ist es nicht anders
Sandy Bridge 4C/8T > 216mm²
Bulldozer 4M/8T > 315mm²
Die Intel CPUs kosten auch nicht plötzlich weniger als die AMDs, nur weil die Fertigung günstiger ist heißt das nicht, das man die Preise günstiger als bei der Konkurrenz festlegen kann.

was für ein vergleich.. Die Intel CPU ist aber auch mal eben 60% schneller in den Games und verbraucht deutlich weniger und bietet dann noch eine bessere skallierung mit OC
Ein 2700K kostet grade 202€ bei Amazon und ein FX8350 167€ was grade mal 20% preisunterschied sind bei 60% mehr power und besserem OC+ Weniger Verbrauch da passt einfach alles

Bei den GPUs ist es so das die GTX680 zwar weniger verbraucht aber auch ne ecke langsamer und auch noch teurer ist dann auch nur 2GB Vram mit 256Bit anbindung besitzt. Beim OC skalliert die HD7970 perfekt und die GTX680 kaum wegen bandbreitenlimit.
Deswegen ist das ein vergleich der garnicht passt.
 
Zuletzt bearbeitet:
Nix für ungut, aber nachdem ich das jetzt 20x gelesen habe, muss ich was sagen :)

Es heißt skalieren, nicht scallieren.
 
@Duplex
Es gab ja auch nichts in der Fertigung von 28 NM und 500 Euro war ist halt Highend Preis aber ist ja Latte ihr macht das schon.
AMD hat durch die schlecht optimierten Treiber die Preis für die HD7970 angepasst dan kam die GHZ Edition mit nun derzeit Optimierten Treibern und NV rührt sich nicht im Preis im Gegenteil die GHZ Edition ist günstiger und schneller.

Das ist das Problem was manche haben immer alles schön reden.

Egal hier geht es ja nicht um Preise sondern um den Titan nur kommt das Thema halt sehr oft auf.

@Powerplay
So sieht es aus Powerplay.
 
Seit Oktober eine 7970GHz für 330€ im Rechner. Wenn natürlich alle bei Nvidia kaufen und die Preise hinnehmen ändert sich auch nichts. Die GTX680 kostet immernoch knapp 400€. Klar könnte Nvidia mit dem Preis runtergehen, aber warum sollten sie? titan ist sowieso nicht für die breite Masse. Reicht ja auch anscheinend ein Free-to-Play-Bundle aus... :fresse:

Ich bin gespannt ob sie wirklich 6GB verbauen. Waren ja auch dort immer eher zurückhaltend. GTX690 mit 2GB. :stupid:

War doch bei jeder Grafikkarte in den letzten Jahen so.

ist der selbe grund warum die leute lieber bmw als toyota kaufen, auch wenn jektiv gesehen nen toyota genauso gut ist und erheblcih billiger.
Image ist nunmal viel wert, und die ganzen kleinen extra gimmicks die nvidia dazu bietet.

Geh mal in den Freundeskreis und sag ich hab ne Geforce GTX, da gibts anerkennende blicke ,sagste ich hab ne AMD wird man gefragt obs mom finanziell nichso dicke is..

auch bei den ganzen leuten ohne pc ahnung ist fest im kopf nvidia= top amd= nichso gut, das leigt daran das amd und marketing schon seit jahren nicht zusammenpassen und die leute ohne ahnung die mit ahnung fragen und die nvidia empfehlen.

Ich hab letztes jahr 8 pcs in der preisklasse 1000Euro+ für bekannte gebaut, überall ne nvidia drinne, die läuft mit den treibern stehts perfekt und ich hab kein gejammer am tele von wegen das rennt nicht usw^^

ICH bezahle gerne den NVIDIA Aufpreis weil ich gerne die Features hab, die bessren Treiber und weniger Probleme sowie eutlich energieeffiezienter, andere bezahlen gerne weniger und ärgen sich dafür mehr, jeder eben wie ers mag bzw im Geldbeutel so hatt^^
Wurde ja schon öfters hier genannt, hätte nvidia dieselben preise, bzw würde das preisdumping mitgehen, würden nochmals erheblich mehr ne nvidia kaufen, von daher kann amd froh sein das nvidia das nicht nötig hat und sie die geiz ist geil kundschaft abgrasen können
 
Zuletzt bearbeitet:
Da ich nicht rund um die Uhr hier mitlese, die wichtigste Farge von allen: Sind noch alle gesund hier? Der Stress ist nämlich nicht gut fürs Herz... :d
 
Ich hätte genauso wie Nvidia gehandelt, wenn die Karte schneller und effizienter im Gaming Bereich als AMDs Lösung ist, dann verkaufe ich die Karte auch teurer. Die Nachfrage nach den Kepler Chips ist so oder so vorhanden!
 
@Duplex
Ich hätte genauso wie Nvidia gehandelt, wenn die Karte schneller und effizienter im Gaming Bereich als AMDs Lösung ist, dann verkaufe ich die Karte auch teurer

Das ist doch das Ding sie sind nur noch effizient aber nicht mehr schneller.

Egal.
 
Das ist doch das Ding sie sind nur noch effizient aber nicht mehr schneller.
Ich bezog mich aber auf die 7970 non Ghz.
Von der Ghz war keine rede, die verbraucht deutlich mehr Strom...
Eine GTX680 mit 1.25 Ghz ist dann auch schneller, verbraucht aber auch mehr :rolleyes:
 
Zuletzt bearbeitet:
naja ich habe bei mir auf arbeit ein paar leute rumrennen die keinen plan haben und nun der meinung sind das wenn sie sich einen PC kaufen es ein AMD 8 kerner sein muss -8kerner sind halt besser :lol:
Daher tut sich was in sachen Werbetrommel auch wenn es Bullshit ist was die damit verkaufen wollen...
 
Zuletzt bearbeitet:
naja ich habe bei mir auf arbeit ein paar leute rumrennen die keinen plan haben und nun der meinung sind das wenn sie sich einen PC kaufen es ein AMD 8 kerner sein muss -8kerner sind halt besser :lol:

Für solche Leute gibt es PCs bei Mediamarkt, da hat die GT520-Gaming-GPU auch schon 4GB RAM für Skyrim-mods... :asthanos:
 
Duplex der Markt hat sich aber bewegt und es gibt eine GHZ Edition aber NV ordnet den Preis nicht .
Mir ging es doch nur darum das die Kunden die Preise mit bestimmen nun lese ich das viele erzürnt sind über die Preise die sie selber mit diktieren.
 
mit Turbo und somit mit Boost 2.0 dann wärmegesteuert und entsprechend variierender max Spannung inkl entsprechender Kühlung deutlich besser zu takten als ohne Turbo und Lock ? ;)

Ja die Spekulationen und die brodelnde Gerüchteküche ist das was so einen Launch ausmachen. Das ist der Spaß an so nem Fred. Das was jetzt hier aber abgeht ist schon wiederlich :asthanos:
Mit Leistungsdaten von etwa 30% verstehe ich nicht wie man annähernd auf die Idee kommen würde einer GTX690 mit etwa 80% sich annähern zu können. Ich klammer mich immernoch ein wenig an die Aussage das man an 85% Leistung einer GTX690 kommen würde, wenn man jenseits der 300W OCen könnte. Lass es mit OC mal 75% sein. Es fehlen aber einfach zu viele Fakten.
1. 85% in welchem Bereich?
2. Auflösung?
3. Game oder synt.Bench?
4. wenn welche(s) Game(s)
5. von welchem Skalierungswert der GTX690 ging man da aus
 
Duplex der Markt hat sich aber bewegt und es gibt eine GHZ Edition aber NV ordnet den Preis nicht .
Mir ging es doch nur darum das die Kunden die Preise mit bestimmen nun lese ich das viele erzürnt sind über die Preise die sie selber mit diktieren.

hier liegt der grund
ist der selbe grund warum die leute lieber bmw als toyota kaufen, auch wenn ojektiv gesehen nen toyota genauso gut ist und erheblich billiger.
Image ist nunmal viel wert, und die ganzen kleinen extra gimmicks die nvidia dazu bietet.

Geh mal in den Freundeskreis und sag ich hab ne Geforce GTX, da gibts anerkennende blicke ,sagste ich hab ne AMD wird man gefragt obs mom finanziell nichso dicke is..

auch bei den ganzen leuten ohne pc ahnung ist fest im kopf nvidia= top amd= nichso gut, das leigt daran das amd und marketing schon seit jahren nicht zusammenpassen und die leute ohne ahnung die mit ahnung fragen und die nvidia empfehlen.

Ich hab letztes jahr 8 pcs in der preisklasse 1000Euro+ für bekannte gebaut, überall ne nvidia drinne, die läuft mit den treibern stehts perfekt und ich hab kein gejammer am tele von wegen das rennt nicht usw^^

ICH bezahle gerne den NVIDIA Aufpreis weil ich gerne die Features hab, die bessren Treiber und weniger Probleme sowie eutlich energieeffiezienter, andere bezahlen gerne weniger und ärgen sich dafür mehr, jeder eben wie ers mag bzw im Geldbeutel so hatt^^
Wurde ja schon öfters hier genannt, hätte nvidia dieselben preise, bzw würde das preisdumping mitgehen, würden nochmals erheblich mehr ne nvidia kaufen, von daher kann amd froh sein das nvidia das nicht nötig hat und sie die geiz ist geil kundschaft abgrasen können
 
Geh mal in den Freundeskreis und sag ich hab ne Geforce GTX, da gibts anerkennende blicke ,sagste ich hab ne AMD wird man gefragt obs mom finanziell nichso dicke is..

auch bei den ganzen leuten ohne pc ahnung ist fest im kopf nvidia= top amd= nichso gut, das leigt daran das amd und marketing schon seit jahren nicht zusammenpassen und die leute ohne ahnung die mit ahnung fragen und die nvidia empfehlen.

Ich hab letztes jahr 8 pcs in der preisklasse 1000Euro+ für bekannte gebaut, überall ne nvidia drinne, die läuft mit den treibern stehts perfekt und ich hab kein gejammer am tele von wegen das rennt nicht usw^^

ICH bezahle gerne den NVIDIA Aufpreis weil ich gerne die Features hab, die bessren Treiber und weniger Probleme sowie eutlich energieeffiezienter, andere bezahlen gerne weniger und ärgen sich dafür mehr, jeder eben wie ers mag bzw im Geldbeutel so hatt^^

Sorry, aber deine Argumente werden immer lächerlicher. Ganz ehrlich. Jetzt schiebst du schon den angeblichen "Freundeskreis" vor...
Mal als Gegenbeispiel. Ich habe einer meiner 470er nach 680er Kauf an nen Bekannten verkauft, der vorher ausschließlich AMD Hardware hatte. Und er schaute mich verwundert an und frage, ob das Teil taugt... Beschwerte sich aber nach wenigen Minuten spielen schon über die Lautstärke von dem Teil.
Auch ist das Teiberthema sowas von ausgelutscht... NV hat Monate gebraucht, bist die ersten Vista Treiber anständig liefen. NV hat Monate gebraucht, bis die ersten GK104 Treiber anständig zusammen mit älteren nicht Kepler GPUs liefen. NV hat genau so Probleme mit Abstürzen, auch gab es Treiber, die ganze Karten geschrottet haben usw. usf. Der besagte Bekannte spielt immernoch mit dem NV Treiber, wie ich ihn damals installiert habe. Und vorher hatte er mit ner HD4870 1GB nen Treiber drauf, der gute 1,5 Jahre auf dem Buckel hatte. -> ja sowas geht. Und das absolut schmerz- und problemfrei.
Setzt endlich mal die grüne Brille ab!

PS: und nurmal zu deiner Veranschauung.
Es ist leicht fail das Wort Energieeffizienz in Verbindung mit deinem Fermi zu bringen. Denn das Teil ist alles andere als Energieeffizient. Und das ICH! vorn zeigt dazu noch, das du hier nur Stunk machen willst.
So langsam nervt es.

:btt:
 
Zuletzt bearbeitet:
Immer der Blödsinn mit der Effizienz. Die nehmen sich beide nichts und die GTX580 ist dagegen in einer ganz anderen Liga. AMD ist besser im Idle. Nvidia unter Last. Zum Schmunzeln wenn die Personen die am lautesten mit diesem Argument kommen die meiste Zeit sich im Forum aufhalten.

Und solange hab noch nicht einmal ich (die letzte war eine 8800GT) die Karte im Rechner das sich der Aufpreis von mindestens 90€ rechnet.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh