nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Eine Dualkarte mit 2GB wie grausam.
Wenn die 384 Bit von 3D C stimmen für den BK sieht es zumindest gut aus für 3Gb
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
die frage ist doch eher was wahrscheinlicher ist
und es ist wahrscheinlicher, dass gk104 topdog schneller als 7970 wird, als dass gk104 langsamer als 7950 ist

deswegen ist natürlich trotzdem beides möglich


edit:
vllt machen sie ja mal etwas richtig und packen dann gleich 4gb auf die dualkarte
glauben tue ich allerdings nicht daran, weil auch gtx590 mit 2*1,5 und nicht 2*3 kam
 
Zuletzt bearbeitet:
Eine Dualkarte mit 2GB wie grausam.
Wenn die 384 Bit von 3D C stimmen für den BK sieht es zumindest gut aus für 3Gb

Nur wenn der erst im August kommt ist das auch müll weil so wie es aussieht wird der GK 104 zu 99% die High End werden!
Da sind dann 2GB verbaut was bei starkem SGSSAA oder Downsampling dann zu knapp werden kann!
Allerdings glaube ich auch bevor die 2GB verbraucht sind ist die GPU am ende!
Bei SLI mit 2 und mehr karten sind die 2GB aber ein K.O. kriterium wenn man diese leistung auch in Bildqualität umsetzen will!

Das der GTX680 langsamer wird als eine HD7950 halte ich für total ausgeschlossen!
DIe GTX680 wird mit sicherheit etwas schneller als die HD7970 weil was anderes wird NV sicher nicht hinnehmen und wenn sie dafür den takt an die grenze setzen müssen!
 
Zuletzt bearbeitet:
Ja August ist echt Käse.
 
Ist doch toll. Endlich ein Launch, wo man nichts weiß, alles möglich ist und viele Herzen brechen können.

Wesentlich interessanter als Fermi, wo man nach der CES "nur" noch auf Performance und verbrauch wartete und die Architektur schon längst bekannt war.
 
Ich würd drauf wetten, dass nichts mehr kommt. Soll aber nicht bedeuten, dass man nicht trotzdem noch hoffen kann. Ich glaube Kepler wird bestimmt kein Crapler aber die Sache mit GK110 wurmt mich. Wenns zeitnah 4GB Versionen geben sollte könnte ich mich vielleicht umentscheiden (bezweifle ich aber) aber so sieht SLI für mich gestorben aus... Schade drum
 
GF110 ist nur 40% flotter als GF114 und letzterer braucht 160W, keine 200.
Doch, fast 200 W. Um genau zu sein, laut HT4U Messung 193 W (Furmark). Beschönigende Nvidia TDP Angaben oder Teillast hilft hier doch keinem weiter, wenn wir über Chipeffizienz und den zu berücksichtigenden thermischen Rahmen diskutieren.

Nvidia würde keine Karte 680 nennen, die auf 580-Niveau liegt. Das wäre marketingtechnischer Selbstmord. Wenn Nvidia eines kann, dann Marketing.
Ja, beim Dummy mit Holzschrauben hochhalten sind sie ganz gross. :fresse: Was Nvidia gerne machen würde, ist nicht das Thema. Es geht darum, was Nvidia machen kann. Wenn ursprünglich ein GK100 geplant war, der performancetechnisch den GF110 ablösen soll, dieser im Moment aber nicht gefertigt werden kann, dann bleibt Nvidia nichts anderes übrig, als erstmal den kleineren Ableger zu bringen, GK104. Und genau danach schaut es ja bisher aus. Und der GK104 war sicherlich nicht geplant, den GF110 performancetechnisch ablösen, sondern etwa GF110 Level zu bieten bei weniger Kosten. Je nach Taktbarkeit hat man sicherlich noch Spielraum nach oben. Nur sollte man dann auch die damit verbundene steigende Leistungsaufnahme bedenken.


Würde ich so nun nicht zustimmen... Schon allein der Schritt R600 auf RV670 bescheinigt 25-30% weniger Leistungsaufnahme bei ziemlich identischer Leistung.
Ja, deswegen war man aber trotzdem nicht plötzlich klar besser als die Konkurrenz. Die 9800 GT bot im Schnitt immer noch mehr Performance als die HD 3870 bei vergleichbarer Leistungsaufnahme. Dafür hatte der RV670 eine bessere Flächeneffizienz als der G92b. Auch mit dem RV770/790 änderte sich das Bild nicht so extrem. Nvidia hielt mit dem G200(b) in etwa den Performancevorsprung. AMD baute den Vorsprung bei der Flächeneffizienz etwas weiter aus. Im Grunde änderte sich hauptsächlich das Verhältnis in der Energieeffizienz. Aus einigen Prozent Rückstand mit dem RV670 wurden einige Prozent an Vorsprung mit dem RV770. Erst der RV870 rundete dann diesen Entwicklungsprozess ab. Nicht zuletzt, da man ein halbes Jahr früher als die Konkurrenz am Markt war. Das war zwischen R600 und G80 noch umgekehrt.

Gerade in Bezug darauf, das NV selbst von gesteigerter Effizienz spricht und sich das weit vor Release auf die Fahne geschrieben hatte.
Nvidia hatte auch vor Fermi viel erzählt. Was daraus wurde, wissen wir ja. Nicht zuletzt, da die Fertigung eine Unbekannte bleibt, sollte man mit solchen Prognosen immer vorsichtig sein. Ausserdem habe ich die Effizienzsteigerungen in Bezug zu GPGPU verstanden. Dass das nicht ohne weiteres auf Spiele übertragbar ist, sollte klar sein.


Und man muss auch sehen, dass es diesmal eben AMD ist, die mit SI unter den Erwartungen geblieben sind.
Wo bitteschön ist man unter den Erwartungen geblieben? HD 7700-7900 bieten doch genau das, was man in etwa erwartet hatte. Einzig Tahiti scheint teils noch zu limitieren. Woran das genau liegt, ist bisher unklar. Ansonsten lag der Fokus für GCN ja auf der Vorbereitung für Fusion. Und gerade bezüglich GPGPU scheint GCN ordentlich zuzulegen. HT4U hat zB in LuxRender 86% Vorsprung für die HD 7970 gegenüber der HD 6970 gemessen. Ein "netter" Boost, wenn man bedenkt, dass Tahiti im Endeffekt nur 33% mehr SPs mitbringt.
 
Ich glaube ja, dass viele Leute hier positiv überrascht werden. Der Typ von Alienbabeltech sagt folgendes zu seinem "education trip" nach SF:

What can i say? Letsee. The trip and everything related to it exceeded my expectations; pleasantly surprised in all areas with no disappointments.
• View topic - When willl Kepler Launch? What's the "hold up"?

Nothing can ever exceed my biggest expectations .. and they were always conditional.

However, i have also learned to scale back extreme expectations to what is more reasonable. In that way, they are exceeded and i am satisfied
• View topic - When willl Kepler Launch? What's the "hold up"?

Wo bitteschön ist man unter den Erwartungen geblieben? HD 7700-7900 bieten doch genau das, was man in etwa erwartet hatte. Einzig Tahiti scheint teils noch zu limitieren. Woran das genau liegt, ist bisher unklar. Ansonsten lag der Fokus für GCN ja auf der Vorbereitung für Fusion. Und gerade bezüglich GPGPU scheint GCN ordentlich zuzulegen. HT4U hat zB in LuxRender 86% Vorsprung für die HD 7970 gegenüber der HD 6970 gemessen. Ein "netter" Boost, wenn man bedenkt, dass Tahiti im Endeffekt nur 33% mehr SPs mitbringt.

1. Eine GTX580 ist dort - dank neusten Treibern nicht mehr - deutlich schneller als Cayman. Trotzdem hier weniger als 1/2 der Rechenleistung zur Verfügung steht: http://www.pcgameshardware.de/aid,8...eon-HD-7970-und-Geforce-GTX/Grafikkarte/Test/

2. Pitcairn hat 64% mehr Transistoren und 10% mehr Takt als die 6870 und ist gerademal durchschnittlich 40% schneller. GCN ist massiv ineffizient, wenn es um Spiele geht. Wer das von GCN erwartet hätte, muss entweder ein riesiger Pessimist oder Hellseher gewesen sein...
 
Zuletzt bearbeitet:
Leute die 570 und 580 fallen schon im Preis. Es kommt bestimmt bald was. Oder aber worst case und NVIDIA hat nichts und kann nur über den Preis mithalten ;)
 
Worst Case halte ich aber für eher unwarscheinlich. Da würde sie eher Versuchen die Leute hinzuhalten. So sehe ich das zumindest.
@Dude: Warum bist du eigentlich der einzige im Thread, der den BigK immer als GK100 bezeichnet? Zumindest im Thread herrscht doch ein Konsens auf GK110 :fresse:
 
Doch, fast 200 W. Um genau zu sein, laut HT4U Messung 193 W (Furmark). Beschönigende Nvidia TDP Angaben oder Teillast hilft hier doch keinem weiter, wenn wir über Chipeffizienz und den zu berücksichtigenden thermischen Rahmen diskutieren.

Ich sagte wiederholt, Furmark interessiert mich nicht. Keine Grafikkarte läuft in Spielen permanent unter einer Furmark-ähnlichen Last. Und lerne zu differenzieren: Chipeffizienz kann sich sowohl auf Gaming als auch auf GPGPU beziehen. Dreimal darfst du raten, was hier die meisten Leute interessiert. Lenke die Diskussion nicht in eine andere Richtung. Du selbst forderst bei den CPUs realistischere Teillastmessungen und sprichst dich gegen Prime/Linx-Lasten aus. Deine Aussagen hierzu kann man somit nicht ernst nehmen. GK104 wird primär ein Chip sein, der auf Spiele zugeschnitten ist. Jede Teslakarte in den letzten 5 Jahren, vielleicht sogar alle, basieren auf dem jeweils größten ASIC von Nvidia, und das wird GK104 kaum sein. Wir haben schon mit GF104 und GF114 den Ansatz einer Trennung hier gesehen, das wird vermutlich noch weitergeführt werden.
Weiterhin sind solche Werte durch möglicherweise unterschiedliche Implementierungen der Leistungsaufnahmebegrenzung nicht mal mehr nur bei Nvidia vergleichbar, ganz zu schweigen von einem Vergleich mit AMD. Die Karten werden bei Spielelast vermessen, denn das ist für die allermeisten von Belang. Wenn dich was anderes interessiert, kauf die Karte und teste selbst.
 
Zuletzt bearbeitet:
1. Eine GTX580 ist dort - dank neusten Treibern nicht mehr - deutlich schneller als Cayman. Trotzdem hier weniger als 1/2 der Rechenleistung zur Verfügung steht: Jetzt auch mit Radeon HD 7950 im Test: Luxmark 2.0 - GPU-Raytracing-Benchmark auf Radeon HD 7970 und Geforce GTX - radeon, grafikkarte, raytracing, geforce
Und was hat das mit meiner Aussage zu HD 7970 vs HD 6970 zu tun? :rolleyes:

2. Pitcairn hat 64% mehr Transistoren und 10% mehr Takt als die 6870 und ist gerademal durchschnittlich 40% schneller. GCN ist massiv ineffizient, wenn es um Spiele geht. Wer das von GCN erwartet hätte, muss entweder ein riesiger Pessimist oder Hellseher gewesen sein...
Und woher willst du genau wissen, welche Transistoren wofür genutzt werden? Wie schon gesagt, nicht jeder hinzugekommene Transistor bei GCN dient zur Erhöhung der Performance in Spielen, da der Fokus auf Fusion liegt. Pitcairn hat etwa 11% mehr Takt und etwa 14% mehr SPs als Barts. Mit 40% mehr Performance in Spielen ist die Effizienz also alles andere als schlecht. Ganz im Gegenteil, sie ist hier sogar noch gestiegen. Und nehmen wir mal LuxRender als Gradmesser für GPGPU (OpenCL), so ist die Performance mit 64% noch mehr gestiegen. GCN ist also äusserst effizient, auch in Spielen. Die Frage ist eher, warum das Tahati teils noch nicht zeigt.


Ich sagte wiederholt, Furmark interessiert mich nicht. Keine Grafikkarte läuft in Spielen permanent unter einer Furmark-ähnlichen Last.
Nein, aber auch in Spielen können solche Spitzen auftreten. Daher ist es wichtig, zu wissen, was die Karte unter maximaler Belastung braucht. Durchschnittliche Angaben sind da nicht hilfreich.

Und lerne zu differenzieren: Chipeffizienz kann sich sowohl auf Gaming als auch auf GPGPU beziehen. Dreimal darfst du raten, was hier die meisten Leute interessiert.
Was die meisten Leute hier interessiert, interessiert Boardpartner aber nicht. Die müssen die Karten schliesslich bezüglich Stromversorgung und Kühlung ausreichend dimensionieren. Lenke die Diskussion nicht ständig in eine andere Richtung. Die Rede war von maximaler Leistungsaufnahme und nichts anderes. Wenn du also auf Beiträge antwortest, solltest du auch dabei bleiben.

Du selbst forderst bei den CPUs realistischere Teillastmessungen und sprichst dich gegen Prime/Linx-Lasten aus.
Falsch. Ich habe mich nie gegen Sachen, die die maximale Leistungsaufnahme messen, ausgesprochen. Du solltest schon richtig zuhören und differenzieren. Ich sagte, dass sowas wenig für den Alltag aussagt und dass dort zusätzlich Teillastmessungen gemacht werden sollten. Um den Alltag ging es hier aber nicht, sondern um eine grundsätzliche Prognose zur Chipperformance/-effizienz. Und dafür ist Vollast immer noch das geeignetste Szenario.
 
Zuletzt bearbeitet:
HaHa !
Das was ich schon vorher mutmasste ist eingetroffen. Jetzt mal ruhig die endgültigen Spez abwarten und Benches geniessen.Den Fuzzi Chip aka GK104 kann AMD locker kontern.
So scheisse ist AMD mit Tahiti wohl nicht ..
 
wer hat gesagt das Tahiti scheisse is?

magst nicht wieder in den anderen Thread gehen?
 
Nein, aber auch in Spielen können solche Spitzen auftreten. Daher ist es wichtig, zu wissen, was die Karte unter maximaler Belastung braucht. Durchschnittliche Angaben sind da nicht hilfreich.

Für mich ist das nicht interessant, die Spitzen werden nämlich von den Schutzmechanismen angefangen. Mich interessiert, wie sich der Verbrauch in der Lautstärke und auf der Stromrechnung niederschlägt.

Was die meisten Leute hier interessiert, interessiert Boardpartner aber nicht. Die müssen die Karten schliesslich bezüglich Stromversorgung und Kühlung ausreichend dimensionieren. Lenke die Diskussion nicht ständig in eine andere Richtung. Die Rede war von maximaler Leistungsaufnahme und nichts anderes. Wenn du also auf Beiträge antwortest, solltest du auch dabei bleiben.

Wir sind keine Boardpartner. Es wurde zwar der Begriff TDP genannt, aber wir beide wissen, dass das für die meisten ein Synonym für Leistungsaufnahme ist, auch wenn das nicht stimmt. Der Kern der Diskussion ist der durchschnittliche Stromverbrauch. Die TDP interessiert den Endkunden, und das sind wir, wenig.
Außerdem würde ich dich bitten, mit der unsäglichen Unart aufzuhören, die Formulierungen deiner Diskussionspartner 1:1 zurückzuschießen. Das ist frech und arrogant und das hast du auch gar nicht nötig, oder?

Falsch. Ich habe mich nie gegen Sachen, die die maximale Leistungsaufnahme messen, ausgesprochen. Du solltest schon richtig zuhören und differenzieren. Ich sagte, dass sowas wenig für den Alltag aussagt und dass dort zusätzlich Teillastmessungen gemacht werden sollten. Um den Alltag ging es hier aber nicht, sondern um eine grundsätzliche Prognose zur Chipperformance/-effizienz. Und dafür ist Vollast immer noch das geeignetste Szenario.

Es geht sehr wohl um alltägliche Szenarien. Wir sind hier alles Endkunden. Du hängst dich am Begriff TDP auf, ignorierst dabei aber, dass die meisten diesen falsch verwenden. Du kannst gerne eine Umfrage hier machen, was die Leute mehr interessiert, TDP oder der wirkliche Verbrauch, wenn sie ein Spiel spielen. Ich jedenfalls spreche von letzterem und habe mich auch auf die entsprechenden Werte bei HT4U bezogen. Und wie gesagt, es gibt nicht "die" Chipeffizienz, man muss schon sagen, auf was man diese bezieht.

Wir müssen hier auch gar nicht groß rumdiskutieren - ich persönlich hab ja gesagt, was für mich interessant ist und wenn du über was anderes diskutieren willst, musst du das leider alleine machen.
 
Zuletzt bearbeitet:
So Leute, jetzt haben sich alle hier ausgeheult und nun zurück zum Thema ;)
:btt:
 
mr.dude schrieb:
Die Rede war von maximaler Leistungsaufnahme und nichts anderes. Wenn du also auf Beiträge antwortest, solltest du auch dabei bleiben.

Vollastmessungen mit Furmark haben seit der Einführung von Drosselungsverfahren eh wenig Belang.
Wenn dann einen Durschnitt aus mehreren Spielen nehmen und davon die Effizienz ableiten.

sontin schrieb:
Pitcairn hat 64% mehr Transistoren und 10% mehr Takt als die 6870 und ist gerademal durchschnittlich 40% schneller. GCN ist massiv ineffizient, wenn es um Spiele geht.

Und wieviele Tranistoren werden für das eine und wieviele Transistoren für das andere verbraten?
Eine massive Ineffizienz kann daraus gar nicht resultieren, da du dazu zu wenig Hintergrundwissen hast, um das zu beurteilen.
Wenn deine AMD feindlichen flachen Argumente hier im Luxx genauso weitergehen wie im 3DC, muss ich mir sowas wirklich nicht antun, immer das gleiche Schema.
 
Zuletzt bearbeitet:
As an employee of one big pc retail company i've had a chance to see evga mini presentation of GTX 680 2 days ago. According to evga rep GTX 680 will launch on march 22nd, it packs 1536 cores, 2gb DDR5, it will have two 6-pin pci power connectors and TDP of 190w, MSRP is $550. He also said that gtx 560ti /570 /580 will get price cuts up to $50. And that GTX 570 wont get replaced until late may. The guy was super excited.

[TPU] GeForce GTX 680 Features Speed Boost, Arrives This Month, etc., etc.
 
Vollastmessungen mit Furmark haben seit der Einführung von Drosselungsverfahren eh wenig Belang.
Wenn dann einen Durschnitt aus mehreren Spielen nehmen und davon die Effizienz ableiten.

Das kommt auf die Betrachtungsweise an...
Mir nutzt es nix, wenn der Hersteller die Hardware künstlich einbremst. Auch aus dem Grund, weil ich mich durchaus auch mal in den GPGPU Bereich bewege oder auchmal die ein oder andere Prof. Anwendung auf die Karten loslasse. Was eben jenseits von Spielen steht.
Für mich sieht das so aus, als will man auf biegen und brechen das max. an Leistung. Nur eben läuft die Karte dann eben Gefahr in die Drosslung zu laufen.

Um es mal mit einem Autobeispiel zu erklären.
Das ist wie, wenn der Hersteller das Auto mit 200PS angibt. Man die 200PS zwar ausfahren kann, wenn man allein in der Karre sitzt. Sitzen aber fünf Hanseln im Auto und das Teil erreicht das maximale Gewicht. Bricht die Leistung auf 100PS oder weniger ein.
Nur was macht eben der, der fünf Leute transportieren will? Der kommt sich in meinen Augen reichlich vera. vor...

Und das es auch Anwendungen jenseits von Furmark gibt, sollte denke ich klar sein. Irgendwie hat doch CB vor ner Weile mal diesen DX11 Tessbench getestet. Wo die NVs (und ich glaube auch die AMDs) in gewissen Tests gedrosselt wurden.
Sowas kann in meinen Augen eigentlich gar nicht angehen ;)


Ich hoffe dank der gesteigerten Effizienz mit Kepler geht da beim GK104 zumindest durchaus mehr. Bzw. eben erreicht man das Limit in der Praxis sogut wie nicht... Aber das werde wir sehen ;)
 
wtf^^ nix neues :shake: 3 Seiten nur geflenne bis auf den Link das der GK104 tatsächlich als GTX680 erscheint und somit die Gunst der High-End Ausbäute antreten darf um weitere Arbeiten am realen High-End Chip zu finanzieren.
Frech, mal sehen wie frech der Preis wird. 35-40% Mehrleistung sind mir 450,-€ bis 520,-€ nicht wert. Nicht nachdem das ein Performancechip sein sollte. Selber Mist wie bei AMD.
Was mache ich euch eigendlich nen Vorwurf *G* ich flenne ja selber. Was bleibt einem auch anderes übrig :hwluxx:
 
Wahrheitsgehalt oder nicht? Das ist hier die Frage.. Vllt will er sich auch wichtig tun und einfach nur mal zeigen, was für ein toller er ist. Gab ja auch genug hier im Luxx die im Februar meinten die Karten kommen.
und eine GTX680 mit nur 2GB wäre nunja ein wenig am Kunden vorbeientwickelt. Wenn man schon so ein großes SI hat, warum dann nicht auch 4Gb in der Performanceklasse.. Da werden die ganzen leute die VRAM brauchen doof aus der Wäsche gucken. Bleibt zu hoffen nur EVGA plant das so und nicht NV selber
 
Und wieviele Tranistoren werden für das eine und wieviele Transistoren für das andere verbraten?
Eine massive Ineffizienz kann daraus gar nicht resultieren, da du dazu zu wenig Hintergrundwissen hast, um das zu beurteilen.
Wenn deine AMD feindlichen flachen Argumente hier im Luxx genauso weitergehen wie im 3DC, muss ich mir sowas wirklich nicht antun, immer das gleiche Schema.

Aha. AMD feindlich. Mal überlegen: Ich habe also SI designt? :lol:
Aber du kannst uns gerne erklären, wieso Pitcairn trotz 64% mehr Transistoren und 11% mehr Taktrate zur 6870 gerademal 40% schneller dürfte und dies auch vollkommen in Ordnung wäre.
 
fdsonne schrieb:
Mir nutzt es nix, wenn der Hersteller die Hardware künstlich einbremst. Auch aus dem Grund, weil ich mich durchaus auch mal in den GPGPU Bereich bewege oder auchmal die ein oder andere Prof. Anwendung auf die Karten loslasse. Was eben jenseits von Spielen steht.

Soviel ich weiß, gibt es selbst im GPGPU Bereich keine Workloads die eine GPU wie in Furmark auslasten.
Beim Verschlüsseln war die VLIW-5 Architektur von AMD voll ausgelastet, verbrauchte aber trotzdem weniger als im Furmark, konnte aber die Rechenleistung voll ausspielen, soweit ich mich erinnern kann.

fdsonne schrieb:
Für mich sieht das so aus, als will man auf biegen und brechen das max. an Leistung. Nur eben läuft die Karte dann eben Gefahr in die Drosslung zu laufen

Das hatte ich auch schon vor ein paar Monaten vermutet.
GK104 ist nicht gedacht um deutlich vor der GTX580 zu liegen, das kann ich mir kaum vorstellen, schon gar nicht nach den neuesten Prognosen einer Chipgröße von unter 300mm².
Klar kein 384Bit SI, aber das dürfte auch so um den Dreh im Vergleich zu 256bit nur 25mm² ausmachen.

Es scheinen ja erstmal 2 Karten zu kommen. GTX670 und GTX680.
Man sieht auch schön an den jetzt leicht gesenkten Preisen der GF110 Karten, wie man die kommenden Grafikchips platzieren will.

GTX580 --> 320 Euro
GTX570 --> 220 Euro
GTX670 --> 400 Euro
GTX680--> 500 Euro

Wenn man nach den Preisen geht, dürfte sich die GTX670 ca 10% über der GTX580 einfinden ( HD 7950 Gegner) bzw,
die GTX680 nommal 20% drüber, also HD 7970 Gegner.

Das alles bei einer TDP von 190Watt, die man wohl aufgrund des Turbos sogut wie immer voll ausreizen können wird, um zumindest mit der HD 7970 mitzuhalten, evtl nen Tacken schneller zu sein.

Wobei mich der Turbo eher stört, aufgrund von mangelnder Vergleichbarkeit, Cherry Picking und ungleichmäßigen reviews.
 
Aha. AMD feindlich. Mal überlegen: Ich habe also SI designt? :lol:
Aber du kannst uns gerne erklären, wieso Pitcairn trotz 64% mehr Transistoren und 11% mehr Taktrate zur 6870 gerademal 40% schneller dürfte und dies auch vollkommen in Ordnung wäre.

Schau dir mal an was AMD nur durch Treiber aus den Karten geholt hat.. 40% Mehrleistung bei weniger Verbrauch finde ich ok, nicht weltbewegend aber Ok.. Und nun mal wieder realistisch werden, NV wird auch keinen G80 bringen. Wenn GTX680 bei 7970 + 20 Prozent rauskommt und bei einem Lastverbrauch von durchschnittlich 200W ankommen wird, können wir uns glücklich schätzen. Idle wird NV AMD nicht das Wasser reichen und unter Last wird AMD auch besser dastehen, allerdings bei weniger FPS, und es ist ja bekannt das AMD so einiges in Pictrain und Tahiti noch deaktiviert hat. Als Beispiel z.b. die Quicksync Alternative

Ausserdem sind 550$ mal eine bodenlose Frechheit. AMDs Preistreiberei ist aber nicht besser, aber Apple beweist ja, dass auch viel Geld für technischen Schniackschnack ohne mit der Wimper zu zucken ausgegeben wird
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh