nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 4

Status
Für weitere Antworten geschlossen.
Also langsahm finde ich das sie wirklich mal mit dem Date des NDA Falls rausrücken können...ist ja nichtmehr auszuhalten. Dann hat man ja wenigstens ein Ziel vor Augen...auch wenn gesagt wird das ende März anfang April gelauncht werden soll.
Oder ist das wieder so ne durch die Blume gesagte Aktion gewesen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Grinsemann
Nvidia hat Probleme, sonst hätten wir schon lange Produkte im Handel.


wenn Nvidia die Preise oberhalb ATI anpasst, dann gibt es keine große Preissenkungen, ATI ist zwar immer günstiger als Konkurrenten, aber mehr als 50 € Unterschied wird es nicht geben. Die GTX470 müsste 350-400 kosten, AMD wird dann den Preis für die 5870 bei 300-350 € lassen. Also keine 200 € High End Produkte, dafür gibt es dann 5830 & evtl. GTX450 mit 256 Bit SI & weitaus weniger Shader als die 470.

AMD & Nvidia verdienen gleichzeitig mehr Geld durch hohe Preise.

Der Kunde muss nicht das Top Modell haben...
 
Zuletzt bearbeitet:
Also langsahm finde ich das sie wirklich mal mit dem Date des NDA Falls rausrücken können...ist ja nichtmehr auszuhalten. Dann hat man ja wenigstens ein Ziel vor Augen...auch wenn gesagt wird das ende März anfang April gelauncht werden soll.
Oder ist das wieder so ne durch die Blume gesagte Aktion gewesen?

Naja fakt is bis jetzt garnix sie könnten auch einfach noch bis zum release der nexten ATI revision warten und dann erst den Fermi releasen.

Und solang noch kein 3ter irgendwelche benchs zu der karte rausgegeben hat - glaub ich garnix, aber durchaus interressant das alle davon ausgehen das die 480 über der 5870 liegen soll von der leistung am ende aber gabs halt keine wirklichen daten und wie sich teslation in spielen verhält auf den Fermi karten weiß auch noch keiner.

Ich mein klar die reinen Teslationswerte können höher sein NUR benutzt ATI ne dezidierte einheit für Teslation und bei Nvidia übernimmts halt jeder chip eher so softwareseitig und somit isses wirklich schwer zu sagen wieviel in spielen dann effektiv beim fermi verlust durch teslation entsteht da ja die einheiten weniger leistung für andere sachen haben.

Interressieren würde mich auch was unter DX11 mit der Teslations einheit auf den älteren ATI karten is - die seit der HD2xxx drauf ist. Derzeit scheinen alle nicht ATI HD 5xxx Modelle Teslation treiberseitig zumindest geblockt zu haben.
 
NUR benutzt ATI ne dezidierte einheit für Teslation und bei Nvidia übernimmts halt jeder chip eher so softwareseitig und somit isses wirklich schwer zu sagen wieviel in spielen dann effektiv beim fermi verlust durch teslation entsteht da ja die einheiten weniger leistung für andere sachen haben.

.

Wer sagt das?

Falls du damit auf die Aussagen von Charlie anspielst die er Anfang Januar vor dem Sneak Preview getätigt hat vergiss es mal lieber wieder.
 
Zuletzt bearbeitet:
@scully1234
ich glaub, da kam es bei dem ein oder anderen zu einem Missverständnis, da die Hull- und Domain-Shader (Teil des Tesselationsprozesses) von den Shadereinheiten berechnet werden.
Das dürfte aber bei ATI nicht anders sein.<--- korrigiert mich, falsch ich hier falsch liege, aber bitte mit aussagekräftiger Quelle.

Als Besonderheit bleibt, dass nVidia keine einzelne Einheit, sondern 4 Stück verbaut. Deswegen ist der Tesselator aber immer noch in Hardware umgesetzt.

ciao Tom
 
Zuletzt bearbeitet:
@scully1234
ich glaub, da kam es bei dem ein oder anderen zu einem Missverständnis,

ciao Tom

Eigentlich kam es nur mal wieder bei Charlie zu nem "Missverständnis";)

---------- Beitrag hinzugefügt um 22:33 ---------- Vorheriger Beitrag war um 22:31 ----------

Deswegen ist der Tesselator aber immer noch in Hardware umgesetzt.

Genau u dies geht auch aus dem Withepaper hervor;)

---------- Beitrag hinzugefügt um 23:27 ---------- Vorheriger Beitrag war um 22:31 ----------

Donanimhaber.com geht von bis zu 600 US Dollar für den grossen 480er Chip aus.

Also definitiv kein Schnäpchen,liegt es nun an der gebotenen Leistung die alles übertrumpft oder der Produktionskosten das Nvidia den Preis so hoch ansetzen will:hmm:


http://translate.google.de/translat..._gelebilir-18144.htm&sl=tr&tl=de&hl=&ie=UTF-8
 

Anhänge

  • Unbenannt.jpg
    Unbenannt.jpg
    197,6 KB · Aufrufe: 64
Zuletzt bearbeitet:
Also vermute letzteres die Power wird da sein und auch die HD5970 schlagen ABER dennoch ist das zu viel, wäre verständlich wen ein WaKü Kühlung dabei wäre und die normale für 500$ vertickt^^
 
Ich glaube nicht, dass die Nvidia eine 5970 schlagen kann. Außer, sie hat auch eine dual-lösung integriert.

Denke mal so still vor mich hin und sage, dass die Karten von Nvidia schweine teuer sein werden und zudem vll. gegenüber einer 5870 von ATI einen Leistungszuwachs von 10-20 % haben werden ^^ (Und nein, ich bin weder ATI noch Nvidia Fanboy)

Lg. Eikju
 
Bei so ziemlich allen UE3-Engine-Titeln kann sich die 5870 kaum von der 285 absetzen. Allein deswegen sollte schon der durchschnittliche Leistungsvorsprung größer sein.
Neuestes Beispiel Mass Effect 2.
http://www.xbitlabs.com/articles/video/display/mass-effect-2_4.html#sect1

naja so gesehen liegen die 5870 und die GTX 285 ja preislich nicht weit auseinander...

Hier mal ein BF:BC2 Beta benchmark und die 5850 die ja preislich unter der 285 is, wäre da schneller ;)

http://www.gamegpu.ru/images/storie...mo/Battlefield_Bad_Company_2_Beta_1024768.jpg
 
Naja ME2 hat auch so einige sehr hässliche Ecken und ist grafisch auf guten, aber bestimmt keinen sehr guten Niveau. Außerdem finde ich, dass die UE-Engine einfach veraltet ist und für mich deshalb auch nicht entscheidend ist, was eine HD5870 in Spielen mit eben dieser leistet. Ich meine BioWare macht wirklich sehr gute Games, aber immer wieder verschenken sie durch den Einsatz der UE-Engine grafisches Potenzial, was sie bisher immer durch das teilweise geniale Gameplay ausgleichen konnten.
 
Moin moin zusammen

Ich weiß nicht ob es hier schon mal gepostet wurde oder ob ich der erste bin...

Bin eben bei Geizhals auf n Notebook von Sony gestoßen, wo angeblich ne GeForce G330M drinnen ist.
Es werden 1GB Grafikram angegeben, die dank shared memory bis zu 2.8GB werden könnten. Außerdem ist das Notebook bei 6 Shops verfügbar / lieferbar.

Hier der Link zum Notebook
http://geizhals.at/deutschland/a499591.html


Und auf der Seite von Sony ist das Notebook ebenfalls gelistet, auch mit der G330M. Jedoch kann laut Sony der Grafikspeicher maximal 4.6GB betragen...
http://www.sony.de/product/vn-f-series/vpcf11z1e-bi
 
Fermi in Form der GeForce Karte wird die Namen GTX4x0 haben, warscheinlich genau aus dem Grund den Du uns hier gerade aufzeigst, Verwechslung!

Die Mobile 300er Serie hat nichts mit Fermi zu tun ;)
 
das ist ne renamed Karte ala 240GT oder so...also keine GeforceFermi100. Fermikarten heißen GTX480/470/450

au mann...das passiert wenn man noch telefoniert^^ Bin ich ein Lahmarsch...***Kaffeholt***
 
Zuletzt bearbeitet:
Ich bevorzuge dann aber doch eher auflösungen ab 1680 ^^und ich find da lohnt sich nen upgrade von GTX auf radeon noch nicht wirklich für bf bc 2

wenn fermi da ähnlich wenig mehrleistung bietet, wird erstmal keine neue karte mehr gekauft:)
Grad bei höheren auflösungen sieht die GTX kein land gegen die 5K Radeons. Und beim Fermi wirds wohl genauso sein das der da viel besser ist als ne GTX.
http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5870/index26.php
Das wird bei bf bc 2 nicht viel anders sein.
 
Zuletzt bearbeitet:
Aber sobald AA an ist, liegt die GTX vorne, wo ist da das Problem?
Da ja jeder nur mit AA spielt sonst bringt es ja nix, da ist NV einfach nur die beste Wahl.
Was nützt mir eine ATI die bei AA "einbricht" siehe dein link!
 
Zuletzt bearbeitet:
Also vermute letzteres die Power wird da sein und auch die HD5970 schlagen ABER dennoch ist das zu viel



Also wenn die Singelcore 480er die Dualcore 5970 schlagen sollte sind 600 Dollar nicht schlimm.

Wenn sie das aber nicht kann u bei der Demonstration auf der CES bereits ne 480er werkelte sind 600 zu viel des Guten,das müsste selbst Nvidia wissen.


Und gerade weil Nvidia die Mitbewerberperformance kennt u auch deren Preise,sollte solch eine 600 Dollar Karte auch dementsprechende Performance bieten müssen.
 
Zuletzt bearbeitet:
600€ wird ja keine normale GTX480 kosten, 600€ kosten maximal die GTX480XXX sprich die getakteten Versionen!
Die normale wird Maximal zum RL. 550€ kosten mehr nicht.
 
Also wenn die Singelcore 480er die Dualcore 5970 schlagen sollte sind 600 Dollar nicht schlimm.

Wenn sie das aber nicht kann u bei der Demonstration auf der CES bereits ne 480er werkelte sind 600 zu viel des Guten,das müsste selbst Nvidia wissen.


Und gerade weil Nvidia die Mitbewerberperformance kennt u auch deren Preise,sollte solch eine 600 Dollar Karte auch dementsprechende Performance bieten müssen.

Dann wird sie gekauft, bin schon gespannt drauf.
 
Zur BF:BC2 Beta:
Spielt einer der hier über die Werte dikutierenden überhaupt die Beta?
Ich vermute mal nein, denn wenn wüsstet Ihr dass keine GraKa dort momentan mit voller Auslastung läuft und somit sind Benches und Kartenvergleiche IMHO vollkommen absurd sind.

Und Vergleiche zw. GTX285 + HD5870 passen hier auch nicht hin, Fermi wird um einiges mehr leisten als eine GTX285.
Eine HD5850 wird selbst für die GTX470 sicher kein Problem werden, da trau ich mich sogar um viel Geld wetten.
 
Wer sagt das bzw wo ließt du das raus?

Ausserdem sprach man bei Donanimhaber.com von Dollar nicht vom Euro.

Ja aber wie wir wissen, wird vor den $ einfach das € dran gehangen, so war es bis jetzt fast immer mit den Grakas.
Aber wie gesagt 600€ sind extreme Spekulationen die nicht gelten werden.
Bei normaler Verfügbarkeit wovon wir ausgehen müssen, da wir sonst kein Realistischen Preis errechnen können , wird die Karte max. 550 € kosten.
Was drüber ist ist einfach nur Händler/Verfügbarkeits Abzocke!
 
Zur BF:BC2 Beta:
Spielt einer der hier über die Werte dikutierenden überhaupt die Beta?
Ich vermute mal nein, denn wenn wüsstet Ihr dass keine GraKa dort momentan mit voller Auslastung läuft und somit sind Benches und Kartenvergleiche IMHO vollkommen absurd sind.

Und Vergleiche zw. GTX285 + HD5870 passen hier auch nicht hin, Fermi wird um einiges mehr leisten als eine GTX285.
Eine HD5850 wird selbst für die GTX470 sicher kein Problem werden, da trau ich mich sogar um viel Geld wetten.

Ich spiel die Beta und weiss nicht wie die auf so Hohe frames kommen. meine GPU ist immer bei ca. 35% Auslatung und komm nie über 25FPS , nicht mal bei 640x480 und alles low.

Also da mal auf die Final warten und dann bench sehen.

Kommt denn jetzt zur Cebit was oder nur vll oder garnicht?
 
Also wenn die Singelcore 480er die Dualcore 5970 schlagen sollte sind 600 Dollar nicht schlimm.

Wenn sie das aber nicht kann u bei der Demonstration auf der CES bereits ne 480er werkelte sind 600 zu viel des Guten,das müsste selbst Nvidia wissen.


Und gerade weil Nvidia die Mitbewerberperformance kennt u auch deren Preise,sollte solch eine 600 Dollar Karte auch dementsprechende Performance bieten müssen.

Bei einer Dual.-GPU Lösung von Single bzw. Dualcore zu sprechen finde ich trifft es nicht genau. Einein Manycore haben wir ja schon mit den jetzigen Grafikkartengenerationen. Wenn man sich zum Bleistift mal Worstation Mainboards anschaut, haben die auch öfter 2 CPU Sockel. Und trotzdem spricht man dort nicht von einem Dualcore System. :)
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh