Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
ich hoffe der G300 wird brachial schnell und von mir aus auch 600 euro teuer, was seltenes is mir lieber als wenns jeder im gehäuse hat
Und ann noch so nen Kühler drauf dann ist sie einzigartig.
http://www.youtube.com/watch?v=YfXF161Ov50
pervers das teil
@GPU erstezt CPU: meiner Meinung nach wird die GPU zwar nicht die CPU ersetzen aber dafür Hilfestellungen leisten (wie z.B. KI, Wegfindung in Spielen usw.) Bis dahin wird noch ein bisschen Zeit vergehen - d.h. die Spieleentwickler müssen schauen, dass sie die Software entsprechend der geg. Hardware anpassen und das vorhandene effizient nutzen. Die Grundvoraussetzungen sind schon vorhanden.
sicher tun sie das. Das würde Nvidia nicht anders machen....Verweise findest du zB bei amdzone, die dem RV770 sehr gute Effizienz bei wissenschaftlichen Berechnungen bescheinigen...
gut das Du es ansprichst. Die wurde um 27 % erhöht. Wäre hier das Limit, dann dürfte die Karte nirgends um diesen Prozentsatz schneller sein als ihre Vorgängerkarte....Zumal auch nicht alles verdoppelt wurde, zB Speicherbandbreite....
warum sollte sie mehr haben? Die Shaderanzahl hat sich zwar fast verdoppelt, dafür viel aber der Shadertakt geringer aus. Ich sagte ja schon, damals kams rechnerisch sehr genau hin. Warum mich vorrangig die Shaderleistung bei Spielen interessiert? Weil ich endlich Crysis mit meinen Wunscheinstellungen mit einer SingleGPU-Graka vernünftig zocken möchte und dieses Spiel ist nun mal Shaderlastig. Bei allen anderen Spielen wäre ich mit einer einzelnen GTX 280 oder eine HD4870 ausreichend bedient....Und dort liegt die GTX 280 auch nur etwa 40-60% vor der 9800 GTX.....
Spiele- wie Workstation-Produkte auf Fermi-Basis sollen zeitnah erscheinen, könnten aber nach neuesten Nvidia-Angaben also im Funktionsumfang leicht voneinander abweichen.
Laut Dally seien viele Funktionen des Chips darauf ausgelegt, die GPU in Anwendungen wie Bild- oder Videobearbeitung quasi als eine zweite CPU zu unterstützen. In Spielen jedoch blieben viele dieser Funktionen ungenutzt, was die GPU durch Herunterskalieren ausgleichen soll.
mr. dude schrieb:Doch, das interessiert ihn sehr wohl. Das sollten die Leute endlich mal begreifen. Grösserer Die -> höhere Produktionskosten -> höhere Preise für Endkunden. Was glaubst du denn, warum AMD die Preise der 4000er Generation so aggressiv gestalten konnte? Genau, sie konnten die Chips deutlich preiswerter produzieren als nVidia. Die Launch Preise der GT200 Karten sind dir hoffentlich noch in Erinnerung.
Aber nur, wenn der Vorgänger ebenfalls limitiert hat. Von Limit hat gar niemand gesprochen. Was soll also diese kontextfreie Aussage?Die wurde um 27 % erhöht. Wäre hier das Limit, dann dürfte die Karte nirgends um diesen Prozentsatz schneller sein als ihre Vorgängerkarte.
Da unterschlägst du aber einiges. Die Bandbreite hat sich dafür etwa verdoppelt. Zudem wurden die Shader angepasst. nVidia verwendet ja MADD + MUL. Beim G92 kam das zweite MUL für allgemeine Berechnungen allerdings kaum zum tragen. Der GT200 kann das dagegen deutlich besser. Das gleicht die geringere Taktrate in der Theorie mehr als aus.warum sollte sie mehr haben? Die Shaderanzahl hat sich zwar fast verdoppelt, dafür viel aber der Shadertakt geringer aus.
Ist doch schön so. Damit ist auch die Wahrscheinlichkeit höher, dass man die theoretische Leistung auch sauber in tatsächliche Leistung umgesetzt bekommt. Ich wiederhole mich gerne: So lange Nvidia es hinbekommt, diese "Monster"-GPU mit guten Taktraten in ausreichender Stückzahl zu produzieren, ist es mir egal, wie groß sie ist. Bringt sie die Leistung und Eigenschaften, die ich möchte, dann kaufe ich sie mir. So einfach ist das für mich.Durch das skalare Design ist sie lediglich einfacher zu programmieren.
Dampfkanes schrieb:@Grinsemann
die ersten Benches, die ich mir ansehen werde, sind welche von Hardwareluxx und Co nach dem Fall des NDA. Alles andere ist eh wieder nur Kaffeesatzleserei.
Dampfkanes schrieb:Ist doch schön so. Damit ist auch die Wahrscheinlichkeit höher, dass man die theoretische Leistung auch sauber in tatsächliche Leistung umgesetzt bekommt. Ich wiederhole mich gerne: So lange Nvidia es hinbekommt, diese "Monster"-GPU mit guten Taktraten in ausreichender Stückzahl zu produzieren, ist es mir egal, wie groß sie ist. Bringt sie die Leistung und Eigenschaften, die ich möchte, dann kaufe ich sie mir. So einfach ist das für mich.
Ich finde diese Diskussion interessant, im Sinne des Threads sollten wir sie hier vielleicht einstellen, da es dann doch zu sehr OT ist.
ciao Tom
nVidia lag mit der GTX 280 anfangs bei über 500 Euro. Ich glaube nicht, dass das sehr viele Kunden bei einer HD 4870 für 250-300 Euro verschmerzt hätten.Allerdings wollte ich darauf nicht hinaus, sondern nur darauf das NV zwar über den Preisen der RV7xx lag, allerdings auch nur soviel das die Kunden den Aufpreis mit dem oft vorhandenen Geschwindigkeitsvorteil verschmerzen konnten.
Nein. Ich wollte damit nur sagen, dass sich nicht alles verdoppelt hat. Die Bandbreite war lediglich ein Beispiel. Die Caches haben sich zB afaik sogar vervierfacht.zum Ram-Takt: Dein Posting weiter oben hörte sich so an, als wäre die nicht so stark gestiegene Bandbreite eine Erklärung für die schlechte Skalierung. Darauf bezog sich mein Posting.
Aber nicht per se. Wer Anwendungen sauber designed, kann superskalare Architekturen genauso effizient ausreizen. Wobei es natürlich auch auf die jeweilige Aufgabe ankommt. Nicht jeder Algorithmus lässt sich beliebig parallelisieren.Ist doch schön so. Damit ist auch die Wahrscheinlichkeit höher, dass man die theoretische Leistung auch sauber in tatsächliche Leistung umgesetzt bekommt.
Nun ja, da scheinen wir wohl auf keinen Nenner zu kommen. Ich werde jedenfalls immer den Hersteller unterstützten, der die smartere Lösung entwickelt. Selbst wenn der Konkurrent das eine oder andere Prozentchen schneller sein sollte. Und nVidias byzantinisches Design ist leider alles andere als smart. Zumindest im Vergleich zu ATI. Allerdings scheint sich nVidia mit dem GT300 wohl mehr mit Larrabee duellieren zu wollen. Und der wird vermutlich nochmal ein Stückchen schlimmer. Wobei am Ende natürlich der Preis ausschlaggebend ist.Ich wiederhole mich gerne: So lange Nvidia es hinbekommt, diese "Monster"-GPU mit guten Taktraten in ausreichender Stückzahl zu produzieren, ist es mir egal, wie groß sie ist. Bringt sie die Leistung und Eigenschaften, die ich möchte, dann kaufe ich sie mir. So einfach ist das für mich.
mr.dude schrieb:nVidia lag mit der GTX 280 anfangs bei über 500 Euro. Ich glaube nicht, dass das sehr viele Kunden bei einer HD 4870 für 250-300 Euro verschmerzt hätten.
Wobei hier ein weiteres Problem entsteht, was letztendlich auf den Kunden abfällt. nVidia musste mit den Preisen so weit runter gehen, dass sie teilweise Verluste machen. Auf Dauer geht das jedenfalls nicht gut. Und wenn ein grosser Hersteller verschwindet, kannst du dir ja denken, was das für den Markt bedeutet. Gerade dann, wenn nur noch ein grosser Hersteller übrig bleibt. Die Entwicklungszyklen verlängern sich und die Preise bleiben stabil auf höherem Niveau.
Entweder kommen dieses Jahr wirklich noch die neuen Karten oder NV ist bald weg vom Fenster.
http://www.semiaccurate.com/2009/10/06/nvidia-kills-gtx285-gtx275-gtx260-abandons-mid-and-high-end-market/
Charlie ist anti NV eingestellt, nicht nur das, hat jemand schonmal eine bad News über ATI von Charlie gelesen?
ich glaub den käse nicht, nv verdient gut mit ion, mainstream, notebookchips inkl macbooks, handychips usw.....
oh, nvidia ist doch gerade von apple mit einem tritt in den ar*** rausgeschmissen worden. die worte waren wohl:"wenn ihr in vier jahren als unternehmen noch besteht, dann könnt ihr euch ja noch mal melden. bis dahin..."
grüße
actionB52
guibts schon mehrer news drüber, google kennt die quelle:
http://forum.sysprofile.de/pcgh-neuigkeiten/28863-nimmt-apple-nvidia-gpus-aus-dem-programm.html