Also bei den richtigen HW-Junkies ist es sowas von egal ob eine Karte oder eine CPU nun paar hundert Euros teurer ist oder nicht
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
quatsch eine mögliche monopol stellung kann kein kartellamt verhindern , die können sich beide aufkaufen da kann niemand was sagen , strafen sind vllt möglich dennoch wird nie einer der firma sowas zahlen , ihr wisst selber wie das abläuft
1.man bekommt nen busgeld
2.der angeklagte geht in revision
3.es vergehn ne menge jahre
4.die beweislage ist plötzlich wieder unklar
5.der angeklagte lenkt alles von sich
und schon ist man trotz einer \"strafe\" ohne nix rausgekommen , sollte doch ne straffe kommen , droht der konzern eben mal den staat 10.000leute zu feuern und nimt subventionen in anspruch...
die Firmen wissen schon wie es geht da braucht ihr euch keine sorgen machen , ist das selber als wens nur 2firmen gibt und eine plötzlich bankrot macht , und dann ist plötzlich die 2e firma auch monopol ,bekommt man deswegen strafen ? nein !
Mehr? CUDA kannst du nVidia nicht anrechnen, dafür gibt es bei ATI Stream. Wobei das eh alles nur eine untergeordnete Rolle spielt. Entscheidend werden eher OpenCL und DirectX Compute Shader sein. Physik gibt es bei ATI genauso. Und wenn die Implementierungen für OpenCL erstmal fertig sind, ist es egal, ob Havok oder PhysX, das läuft dann bei beiden Herstellern. Was unterm Strich bleibt, ist, dass ATI höhere Peak Leistungen zu bieten hat, sowohl SP als auch DP. Gerade für GPGPU ist das wichtig. Ob man das dann auch in die Praxis umsetzen kann, wird man sehen. Dazu hat ATI nach wie vor die bessere HD Wiedergabe. Und DX10.1/SM4.1 natürlich nicht zu vergessen.klar ist die Preisleistung der ati hd 4890 sehr gut keine frage,aber die gtx 275 kostet nicht viel mehr und bietet noch mehr.cuda,physics,3d Vision.
Wenn ich mir die GDDR3 Modelle anschaue, scheint PP2 einwandfrei zu funktionieren. Die Probleme liegen wohl eher beim Speichercontroller in Verbindung mit GDDR5.
klar ist die Preisleistung der ati hd 4890 sehr gut keine frage,aber die gtx 275 kostet nicht viel mehr und bietet noch mehr.cuda,physics,3d Vision.nvidia macht wirklich was um das gamen voranzubringen,klar sind die Sachen teuer aber sie zeigen jetzt schon wohin die reise geht
@fdsonne:
Es macht schon einen Unterscheid ob ich eine CPU mit 3,x GHz oder mit 1,5 GHz habe. Die eine hat bei weitem nicht so viel effizienz und muss dies mit höherem Takt ausgleichen, die andere kann ich sogar noch höher takten und somit noch mehr herauskitzlen
Ab einem bestimmten Punkt kommt die CPU mit 3,x GHz einfach nicht mehr mit.
Echt seltsam, dass es immer wieder Leute gibt, die trotz eindeutiger und gegenteiliger Fakten fernab von P/L meinen, nVidia hätte mehr zu bieten. Manchmal ist Herstelleraffinität schon etwas tolles.
Ne nicht ganz, ich meinte ja, wenn die Effizienz verdoppelt wird, sprich die Pro Takt Leistung verdoppelt wird, hätte man gleiche Leistung bei ner 1,5GHz CPU wie mit nem 3GHz Modell der alten Architektur.
Aber ist ja auch total hupe, denn es ging ja ursprünglich um die Aussage, das die 1GHz beim RV790 "wahnwitzig" seien sollten, was natürlich total egal ist, wie hoch schlussendlich der Takt angesetzt ist, solange die Leistung und der Verbrauch passt
Wie wäre es mit google? Und ich möchte jetzt nicht schon wieder das Physik Thema aufwärmen, aber hardwarebeschleunigtes PhysX gibt es momentan auch nur sehr spärlich. Kann also kein Argument sein. Da profitiert man mittlerweile ja eher oder zumindest genauso von DX10.1. Hier muss man erstmal die Entwicklungen abwarten. Bisher ist gerade mal der Anfang gemacht. Und eine HD 4870 X2 hat mit Sicherheit genauso viel oder wenig Mikroruckler wie eine GTX 295.Es heist ati hat stream wo kann ich das laden und nutzen?es heist ati kann physiks in welchen game kann ich das nutzen?es heist immer ati hat es auch alles aber nirgends kann man das anwenden.und das die hd 4870 x2. Mr hat ist bekannt bei der gtx 295 kannst selbst mit 30 fps noch ohne mr spielen.also man sieht nvidia macht einfach mehr.
CUDA selbst hat keine Zukunft. Alles andere würde mich nicht nur überraschen, sondern wäre auch schlecht für den Markt. nVidia kann es maximal als Backend nutzen, um portable Schnittstellen zu implementieren, wie zB OpenCL oder DirectX Compute Shader. PhysX hat nur dann eine Zukunft, wenn nVidia mehr als nur eine CUDA Implementierung anbietet. Letzten Gerüchten zufolge haben sie das zumindest vor. Insofern ist eine Koexistenz neben Havok verstellbar. Trotzdem wird Havok natürlich noch von ein paar deutlich gewichtigeren Unternehmen supported. Einfach wird es jedenfalls nicht. Und 3D Vision? Sowas hatte schon in den 90ern keinen Erfolg. Und das wird wohl auch so bleiben. Dafür ist die Technik zu extraordinär und nicht kompatibel für den Massenmarkt. Das bleibt maximal Enthusiasten vorbehalten.Du willst also sagen das das ganze zusätzliche nvidia Zeugs wie cuda, physiks, 3d Vision keine Zukunft hat?
Seit ich eine gtx 285 habe gibt es keine Probleme und alle games laufen perfekt,ich kann mit badaboom meine Filme supper schnell umwandeln ins iPhone und iPod.kann mirrose Egge mit physiks spielen was das game deutlich anhebt, und ich kann tomb rayder und das neue prince in echten 3 d genießen,was man einfach mal erlebt haben muss.das alles bietet mir nvidia und das ist einfach nur genial.nur durch geniale inovationen wird der Markt neu belebt!
stream gibt es aber noch nicht,ich kann es also nicht nutzen.
Ati ist so toll und nvidia ist so schlecht lol!was ist mit der 2900 xt Debakel ?warum müste ich fast 14 Tage warten bis gta4 auf ati startete?warum muss man 1 Monat auf neue Treiber warten ?dead space ist nicht von Anfang an gelaufen auf ati.was ist mit dem wegplopenden ccc bei der hd 3870?dem massiven einbrechen von Aa bei de 2900xt und der hd 3870 Serie ?den ständigen mr bei der hd 3870x2 und der 4870 x2?dem exe unbenenen scheiss bei crosfiere?usw usw usw.
Also meiner Meinung nach macht es schon einen Unterschied ob ich nun eine GPU oder beispielsweise CPU habe, die bei niedrigerem Takt mindestens genauso effizient ist wie eine andere CPU/GPU mit höherem Takt; es wäre schön und gut wenn der Takt (und damit indirekt die benötigte Spannung) steigen würden, die Stromaufnahme gar nicht oder nur sehr wenig! Das ist aber nicht so, wenn ich eine CPU mit 1,5GHz habe brauche ich weniger VCore als bei einer CPU mit 3,2 GHz...
Du willst also sagen das das ganze zusätzliche nvidia Zeugs wie cuda, physiks, 3d Vision keine Zukunft hat?
Ati ist so toll und nvidia ist so schlecht lol!was ist mit der 2900 xt Debakel ?warum müste ich fast 14 Tage warten bis gta4 auf ati startete?warum muss man 1 Monat auf neue Treiber warten ?dead space ist nicht von Anfang an gelaufen auf ati.was ist mit dem wegplopenden ccc bei der hd 3870?dem massiven einbrechen von Aa bei de 2900xt und der hd 3870 Serie ?den ständigen mr bei der hd 3870x2 und der 4870 x2?dem exe unbenenen scheiss bei crosfiere?usw usw usw.
Nur solltest du vielleicht mal akzeptieren, dass deine Meinung nicht unbedingt repräsentativ ist oder sich gar auf das Wesentliche konzentriert. Ist ja schön und gut, wenn du für dich persönlich mehr Schmankerl bei nVidia siehst. Dann freu dich doch. Warum du so abdriftest und deswegen auf ATI rumhackst, erschliesst sich mir jedenfalls nicht. Für den Markt sind ganz andere Faktoren bedeutsam.Ich versuche nichts schlechzureden.ich habe nur meine Meinung gesagt, das ich bei nvidia einfach mehr geboten bekomme als bei ati.
Wie wäre es, wenn du einfach mal die Verweise nutzt, die man dir gibt? Wie Jake Dunn schon schrieb, Stream gibt es. Und Stream nennt es sich erst seit dem letzten Jahr. Das SDK zur GPU Entwicklung gibt es bei ATI aber schon viel länger.stream gibt es aber noch nicht
Wo ist eigentlich dein Problem?
Du weist schon das AMD/ATI mit der 4800 mehr Umsatz macht als Nvidia? Das die 4870X2 unausgereift sein sollte halte ich auch für ein Gerücht. Im bekannten Kreis kenn ich genug Leute die eine haben und die haben keine Probleme. Die GTX 295 mag zwar etwas schneller sein, aber schau dir mal den Preis Unterschied an. Und mir als High End User ist es egal ob ATI oder Nvidia, ich will ein Produkt das mich für den Preis begeistert.
Und ich muss wenn ich jetzt mal ganz ehrlich bin sagen, das 285 GTX SLI tut das nicht.
Dann frage ich mich, was du gelesen hast.Man solte mal den Test von cb lesen über die gtx 295 keine mr selbst bei 30 fps nichts
In der Tat, Nvidia scheint mit den letzten Treibern aktiv gegen die Mikroruckler vorgegangen zu sein. Es gibt sie zwar immer noch, aber in deutlich geringerem Maße.
Was du uU beobachtest hast, lässt sich noch lange nicht pauschalisieren. So ist es wohl von diversen Faktoren abhängig, wie Treiber, Framerate oder dem Spiel selbst.Dem Problem auf die Schliche zu kommen ist dabei kein leichtes Unterfangen, denn es tritt nicht in jedem Spiel auf. Darüber hinaus muss die Bildwiederholrate bei etwa 30 FPS oder darunter liegen, damit das Problem überhaupt zu einem als unstetig wahrgenommenen Spielablauf führen kann.
(...)auch die neue Sache mit palit spricht eher für nvidia.
...auch die neue Sache mit palit spricht eher für nvidia.
beim Start von Windows ist das Teil nicht runtergegangen im Takt da musste ich erst eine 3d Anwendung starten damit die Karte runtertaktet.bei meiner gtx 285 geht das inerhalb von 2 sec und die Karte bleibt immer leise.
Man solte mal den Test von cb lesen über die gtx 295 keine mr selbst bei 30 fps nichts ganz im Gehenteil zur hd 4870x2 da hatte ich selbst bei 40 fps deutliche mr gehabt.selbst mit meiner gtx 285 läuft crysis deutlich runder in 1920-1200 auf very hi , bei der x2 brauchte ich mich nur umzudrehen schon hat es gestockt.beim Start von Windows ist das Teil nicht runtergegangen im Takt da musste ich erst eine 3d Anwendung starten damit die Karte runtertaktet.bei meiner gtx 285 geht das inerhalb von 2 sec und die Karte bleibt immer leise.was meint ihr eigentlich mit spuhlenfiepen sowas habe ich garnicht.denke mal so schlecht wird es nvidia schon nicht gehen in Zukunft gerade auch die neue Sache mit palit spricht eher für nvidia.