nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] [Part 1.1]

Status
Für weitere Antworten geschlossen.
ich hoffe der G300 wird brachial schnell und von mir aus auch 600 euro teuer, was seltenes is mir lieber als wenns jeder im gehäuse hat
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich hoffe der G300 wird brachial schnell und von mir aus auch 600 euro teuer, was seltenes is mir lieber als wenns jeder im gehäuse hat

und wenn juckt das ob noch 100.000 die gleiche karten haben? wir haben nunmal nicht 10 hersteller wo alle mit einer highend karte oben mitspielen. somit gibt es nunmal kaum alternativen ausser ati oder nv. aber am besten treiben wird der exklusivität halber den preis hoch, da haben wir dann ja alle was von :fresse:

also den standpunkt kann ich null nachvollziehen.
 
Ab einer bestimmten Grenze geht es nicht mehr um ökonomisch oder nicht (jedenfalls auf der Kundenseite). Wenn die Leistung stimmt, werden auch 500+ gezahlt. Nur muss der Hersteller vorher auf seine Kosten kommen damit die Rechnung auch aufgeht und kein Verlustgeschäft wie bei der GXT295 entsteht.

@GPU erstezt CPU: meiner Meinung nach wird die GPU zwar nicht die CPU ersetzen aber dafür Hilfestellungen leisten (wie z.B. KI, Wegfindung in Spielen usw.) Bis dahin wird noch ein bisschen Zeit vergehen - d.h. die Spieleentwickler müssen schauen, dass sie die Software entsprechend der geg. Hardware anpassen und das vorhandene effizient nutzen. Die Grundvoraussetzungen sind schon vorhanden.
 
Da fällt mir nur die Asus Mars Edition ein. Exklusivität wird von einigen wenigen immer noch hoch geschätzt.

Bezüglich dessen würde ich dann eine normale Karte nehmen, Wakü verchromen lassen (lackiert in dem Muster der Boxershorts meinetwegen, damit das Teil einzigartig ist:fresse:) und gut ist.
 
aha, 3 Karten ab ende November. Na hoffendlich :hail: GTX390, 380 und 360 und später wahrscheinlich die kleineren Varianten 350 und co mit DDR3, oder wird die 360 schon mit DDR3 ?
Stand eigendlich irgendwo geschrieben mit wieviel Speicher die vorerst rauskommen sollen?
Die 390er schieben die bestimmt direkt mit rein um dieses Jahr noch die Performancekrone zurück zu bekommen und der 5890 vorzugreifen. Ein paar Monate weiter sicherlich mit neuer Revi, da aufgrund des enormen Zeitdrucks bei NV sicherlich nicht 100% alles glatt laufen wird^^.

---------- Beitrag hinzugefügt um 22:14 ---------- Vorheriger Beitrag war um 22:14 ----------


pervers laut-stimmt

---------- Beitrag hinzugefügt um 22:23 ---------- Vorheriger Beitrag war um 22:14 ----------

@GPU erstezt CPU: meiner Meinung nach wird die GPU zwar nicht die CPU ersetzen aber dafür Hilfestellungen leisten (wie z.B. KI, Wegfindung in Spielen usw.) Bis dahin wird noch ein bisschen Zeit vergehen - d.h. die Spieleentwickler müssen schauen, dass sie die Software entsprechend der geg. Hardware anpassen und das vorhandene effizient nutzen. Die Grundvoraussetzungen sind schon vorhanden.

das war ja mein Gedanke, aber muss es denn zwingend vom Spieleentwickler unterstützt werden? Warum nicht einfach via Treiber ab ner gewissen Auslastung der CPU Dateien zur Unterstützung dementsprechend auf die GPU auslagern. Nennen wir es eine Art Readyboost for Games mit Rechenleistung :fresse: . Wenn dabei mal eben 10% mehr Rechenleistung bei rumkommen würde, wäre das ja schon phänomenal.
 
Zuletzt bearbeitet:
...Verweise findest du zB bei amdzone, die dem RV770 sehr gute Effizienz bei wissenschaftlichen Berechnungen bescheinigen...
sicher tun sie das. Das würde Nvidia nicht anders machen.;)
Mit den allgemeinen Standards (DX11...) wird das ganze an Fahrt gewinnen und es wird auch unabhängige Vergleichstests geben.
Wie meine persönliche Erfahrung aussieht, habe ich ja bereits geschildert.
Ich habe nie gesagt, es wäre repräsentativ. Verständlicherweise interessieren mich aber besonders Andwendungsfälle, die bei mir auch vorkommen. Und ja, GPUs machen bei Folding@Home ihren Job deutlich besser als eine CPU.


...Zumal auch nicht alles verdoppelt wurde, zB Speicherbandbreite....
gut das Du es ansprichst. Die wurde um 27 % erhöht. Wäre hier das Limit, dann dürfte die Karte nirgends um diesen Prozentsatz schneller sein als ihre Vorgängerkarte.

...Und dort liegt die GTX 280 auch nur etwa 40-60% vor der 9800 GTX.....
warum sollte sie mehr haben? Die Shaderanzahl hat sich zwar fast verdoppelt, dafür viel aber der Shadertakt geringer aus. Ich sagte ja schon, damals kams rechnerisch sehr genau hin. Warum mich vorrangig die Shaderleistung bei Spielen interessiert? Weil ich endlich Crysis mit meinen Wunscheinstellungen mit einer SingleGPU-Graka vernünftig zocken möchte und dieses Spiel ist nun mal Shaderlastig. Bei allen anderen Spielen wäre ich mit einer einzelnen GTX 280 oder eine HD4870 ausreichend bedient.

ciao Tom
 
Zuletzt bearbeitet:
Spiele- wie Workstation-Produkte auf Fermi-Basis sollen zeitnah erscheinen, könnten aber nach neuesten Nvidia-Angaben also im Funktionsumfang leicht voneinander abweichen.
Laut Dally seien viele Funktionen des Chips darauf ausgelegt, die GPU in Anwendungen wie Bild- oder Videobearbeitung quasi als eine zweite CPU zu unterstützen. In Spielen jedoch blieben viele dieser Funktionen ungenutzt, was die GPU durch Herunterskalieren ausgleichen soll.

krass, wird die GPU nun durch Cuda ausgebremst zum zocken, oder wie darf ich das nun verstehen?
 
Zuletzt bearbeitet:
Nein. Nur nicht alles auf der GPU ist relevant für Spiele und wird deswegen in den Grafikkarten-Ablegern entfernt.
 
mr. dude schrieb:
Doch, das interessiert ihn sehr wohl. Das sollten die Leute endlich mal begreifen. Grösserer Die -> höhere Produktionskosten -> höhere Preise für Endkunden. Was glaubst du denn, warum AMD die Preise der 4000er Generation so aggressiv gestalten konnte? Genau, sie konnten die Chips deutlich preiswerter produzieren als nVidia. Die Launch Preise der GT200 Karten sind dir hoffentlich noch in Erinnerung.

Richtig, der Preis interessiert die Kunden. Allerdings hat ja nicht nur die Größe des Dies einfluss auf die Produktionskosten. Jeder Cent der irgendwo anfällt, ist ein Cent der die Produktion teurer werden lässt und somit auch das Endprodukt.

Allerdings wollte ich darauf nicht hinaus, sondern nur darauf das NV zwar über den Preisen der RV7xx lag, allerdings auch nur soviel das die Kunden den Aufpreis mit dem oft vorhandenen Geschwindigkeitsvorteil verschmerzen konnten. Probleme gab es mit den 260er Karten, allerdings scheint NV ja diesmal dafür eine Lösung gefunden zu haben.
 
Die wurde um 27 % erhöht. Wäre hier das Limit, dann dürfte die Karte nirgends um diesen Prozentsatz schneller sein als ihre Vorgängerkarte.
Aber nur, wenn der Vorgänger ebenfalls limitiert hat. ;) Von Limit hat gar niemand gesprochen. Was soll also diese kontextfreie Aussage?

warum sollte sie mehr haben? Die Shaderanzahl hat sich zwar fast verdoppelt, dafür viel aber der Shadertakt geringer aus.
Da unterschlägst du aber einiges. Die Bandbreite hat sich dafür etwa verdoppelt. Zudem wurden die Shader angepasst. nVidia verwendet ja MADD + MUL. Beim G92 kam das zweite MUL für allgemeine Berechnungen allerdings kaum zum tragen. Der GT200 kann das dagegen deutlich besser. Das gleicht die geringere Taktrate in der Theorie mehr als aus.
Ob du es nun glaubst oder nicht, nVidias Architektur kann auch nicht effizienter rechnen. Durch das skalare Design ist sie lediglich einfacher zu programmieren. Dafür aber eben deutlich ineffizienter, wenn es um Performance pro mm² geht (Kosten). Übrigens, Shader Performance lässt sich auch nicht sonderlich gut anhand von Spielen bewerten. Das sollte mittlerweile bekannt sein. Und wie sich der RV870 in GPGPU Anwendungen gegenüber dem Vorgänger schlägt, bleibt abzuwarten. Ich bin mir aber relativ sicher, hier wirst du mehr als 40-60% sehen.
 
ich will Benches sehen ^^ Ich hoffe das dauert nicht mehr allzulang.
 
@Grinsemann
die ersten Benches, die ich mir ansehen werde, sind welche von Hardwareluxx und Co nach dem Fall des NDA. Alles andere ist eh wieder nur Kaffeesatzleserei.

@mr.dude
zum Ram-Takt: Dein Posting weiter oben hörte sich so an, als wäre die nicht so stark gestiegene Bandbreite eine Erklärung für die schlechte Skalierung. Darauf bezog sich mein Posting.

Durch das skalare Design ist sie lediglich einfacher zu programmieren.
Ist doch schön so. Damit ist auch die Wahrscheinlichkeit höher, dass man die theoretische Leistung auch sauber in tatsächliche Leistung umgesetzt bekommt. Ich wiederhole mich gerne: So lange Nvidia es hinbekommt, diese "Monster"-GPU mit guten Taktraten in ausreichender Stückzahl zu produzieren, ist es mir egal, wie groß sie ist. Bringt sie die Leistung und Eigenschaften, die ich möchte, dann kaufe ich sie mir. So einfach ist das für mich.

Ich finde diese Diskussion interessant, im Sinne des Threads sollten wir sie hier vielleicht einstellen, da es dann doch zu sehr OT ist.

ciao Tom
 
Dampfkanes schrieb:
@Grinsemann
die ersten Benches, die ich mir ansehen werde, sind welche von Hardwareluxx und Co nach dem Fall des NDA. Alles andere ist eh wieder nur Kaffeesatzleserei.

Jup, allerdings immer wieder schön anzuschauen...die balken;)

Dampfkanes schrieb:
Ist doch schön so. Damit ist auch die Wahrscheinlichkeit höher, dass man die theoretische Leistung auch sauber in tatsächliche Leistung umgesetzt bekommt. Ich wiederhole mich gerne: So lange Nvidia es hinbekommt, diese "Monster"-GPU mit guten Taktraten in ausreichender Stückzahl zu produzieren, ist es mir egal, wie groß sie ist. Bringt sie die Leistung und Eigenschaften, die ich möchte, dann kaufe ich sie mir. So einfach ist das für mich.

Ich finde diese Diskussion interessant, im Sinne des Threads sollten wir sie hier vielleicht einstellen, da es dann doch zu sehr OT ist.

ciao Tom

Verlagerts mal in den Technikthread, da gehörts hin.
 
Allerdings wollte ich darauf nicht hinaus, sondern nur darauf das NV zwar über den Preisen der RV7xx lag, allerdings auch nur soviel das die Kunden den Aufpreis mit dem oft vorhandenen Geschwindigkeitsvorteil verschmerzen konnten.
nVidia lag mit der GTX 280 anfangs bei über 500 Euro. Ich glaube nicht, dass das sehr viele Kunden bei einer HD 4870 für 250-300 Euro verschmerzt hätten. ;)
Wobei hier ein weiteres Problem entsteht, was letztendlich auf den Kunden abfällt. nVidia musste mit den Preisen so weit runter gehen, dass sie teilweise Verluste machen. Auf Dauer geht das jedenfalls nicht gut. Und wenn ein grosser Hersteller verschwindet, kannst du dir ja denken, was das für den Markt bedeutet. Gerade dann, wenn nur noch ein grosser Hersteller übrig bleibt. Die Entwicklungszyklen verlängern sich und die Preise bleiben stabil auf höherem Niveau.

zum Ram-Takt: Dein Posting weiter oben hörte sich so an, als wäre die nicht so stark gestiegene Bandbreite eine Erklärung für die schlechte Skalierung. Darauf bezog sich mein Posting.
Nein. Ich wollte damit nur sagen, dass sich nicht alles verdoppelt hat. Die Bandbreite war lediglich ein Beispiel. Die Caches haben sich zB afaik sogar vervierfacht.
Lange Rede, kurzer Sinn. Es ist relativ blauäugig, zu glauben, nur weil man diese oder jene Einheit um 100% aufgebohrt hat, müsste am Ende doppelte Performance rauskommen. Gerade was die Grafikleistung betrifft, spielen viele Komponenten eine Rolle und sind teils voneinander abhängig.

Ist doch schön so. Damit ist auch die Wahrscheinlichkeit höher, dass man die theoretische Leistung auch sauber in tatsächliche Leistung umgesetzt bekommt.
Aber nicht per se. Wer Anwendungen sauber designed, kann superskalare Architekturen genauso effizient ausreizen. Wobei es natürlich auch auf die jeweilige Aufgabe ankommt. Nicht jeder Algorithmus lässt sich beliebig parallelisieren.

Ich wiederhole mich gerne: So lange Nvidia es hinbekommt, diese "Monster"-GPU mit guten Taktraten in ausreichender Stückzahl zu produzieren, ist es mir egal, wie groß sie ist. Bringt sie die Leistung und Eigenschaften, die ich möchte, dann kaufe ich sie mir. So einfach ist das für mich.
Nun ja, da scheinen wir wohl auf keinen Nenner zu kommen. Ich werde jedenfalls immer den Hersteller unterstützten, der die smartere Lösung entwickelt. Selbst wenn der Konkurrent das eine oder andere Prozentchen schneller sein sollte. Und nVidias byzantinisches Design ist leider alles andere als smart. Zumindest im Vergleich zu ATI. Allerdings scheint sich nVidia mit dem GT300 wohl mehr mit Larrabee duellieren zu wollen. Und der wird vermutlich nochmal ein Stückchen schlimmer. Wobei am Ende natürlich der Preis ausschlaggebend ist.
 
Zuletzt bearbeitet:
mr.dude schrieb:
nVidia lag mit der GTX 280 anfangs bei über 500 Euro. Ich glaube nicht, dass das sehr viele Kunden bei einer HD 4870 für 250-300 Euro verschmerzt hätten.
Wobei hier ein weiteres Problem entsteht, was letztendlich auf den Kunden abfällt. nVidia musste mit den Preisen so weit runter gehen, dass sie teilweise Verluste machen. Auf Dauer geht das jedenfalls nicht gut. Und wenn ein grosser Hersteller verschwindet, kannst du dir ja denken, was das für den Markt bedeutet. Gerade dann, wenn nur noch ein grosser Hersteller übrig bleibt. Die Entwicklungszyklen verlängern sich und die Preise bleiben stabil auf höherem Niveau.

Richtig, wie gesagt hatte NV dadurch Probleme, gerade bei der 260er Reihe die ja dann durch andere, billige Bauteile auf dem PCB auffiel, entweder um den Verlust zu minimieren oder den Gewinn zu steigern. Gleich vom Tot eines Herstellers zu reden halte ich aber für reichlich übertrieben. Dort sollte es NV auch besser gehen als dem Gesammtkunstrukt ATI/AMD, aber das ist ein anderes Thema. Übrigens hat NV die Preise recht schnell angepasst, da ATI ja schon wenig später mit der RV770 Reihe den Markt betrat und der Preiskampf anfing. Diesmal schaut es allerdings wie schon erwähnt anders aus.

Wie hoch die Gewinne mit den einzelnen Karten lagen lässt sich übrigens nur schwer abschätzen. NV wird bei der Herstellung für eine 285er kaum mehr bezahlt haben als für eine 260er (55nm). Auch ATI wird mit den Karten nicht unbedingt ein Glanzgeschäft gemacht haben, im Prinzip war es aus ökonomischer Sicht auch ein Fehler unbedingt die Preise von NV massig unterbieten zu wollen, was man ja scheinbar nun auch feststellt bei ATI.
 
Und das bedeutet ... ?
 
Charlie ist anti NV eingestellt, nicht nur das, hat jemand schonmal eine bad News über ATI von Charlie gelesen?
 
Charlie ist anti NV eingestellt, nicht nur das, hat jemand schonmal eine bad News über ATI von Charlie gelesen?

Wird sich ab 1. Dezember ändern, wer wem da Geld zusteckt. Dazu ist es mir egal was da steht, ich finds einfach nur lustig was jetzt alles so ans tageslicht kommt, wenn es denn überhaupt wahr ist. ;)
 
ich glaub den käse nicht, nv verdient gut mit ion, mainstream, notebookchips inkl macbooks, handychips usw.....
 
Zuletzt bearbeitet:
ich glaub den käse nicht, nv verdient gut mit ion, mainstream, notebookchips inkl macbooks, handychips usw.....

oh, nvidia ist doch gerade von apple mit einem tritt in den ar*** rausgeschmissen worden. die worte waren wohl:"wenn ihr in vier jahren als unternehmen noch besteht, dann könnt ihr euch ja noch mal melden. bis dahin..."

grüße
actionB52
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh