nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja wär ja nicht das erste mal so. Naja durch ihr jahrelanges gutes Marketing (was mich bei manchen Leuten mehr an Gehirnwäsche erinnert) und aber auch durch wirklich gute Produkte, haben sie sich einfach ein standing erarbeitet was nicht so schnell zu erschüttern ist. NV kann sich einfach ein paar mehr Dinger erlauben als Amd/Ati.
 
Zuletzt bearbeitet:
200 Euro? Diese "Ich will einen Porsche für den Preis eines Polo"-Mentalität geht mir auf den Sack.
Niedrige Preise sind schön und gut aber sie bedeuten auch Geiz seitens des Herstellers bei Bauteilqualität, Kühllösungen und weniger Möglichkeit, durch Investitionen die Technik voranzutreiben. Niemand hier will wieder 700 Euro Karten haben, aber 200 für Highend sehe ich als nicht dauerhaft machbare Träumerei.
Das geht momentan imho nur deshalb gut, weil die Mehrheit der Leute die brachiale Leistung von Highend nicht benötigt. Früher war das anders als die meisten Spiele noch jede Highend-Karte richtig ins Schwitzen brachten.
 
200 Euro? Diese "Ich will einen Porsche für den Preis eines Polo"-Mentalität geht mir auf den Sack.
Niedrige Preise sind schön und gut aber sie bedeuten auch Geiz seitens des Herstellers bei Bauteilqualität, Kühllösungen und weniger Möglichkeit, durch Investitionen die Technik voranzutreiben. Niemand hier will wieder 700 Euro Karten haben, aber 200 für Highend sehe ich als nicht dauerhaft machbare Träumerei.
Das geht momentan imho nur deshalb gut, weil die Mehrheit der Leute die brachiale Leistung von Highend nicht benötigt. Früher war das anders als die meisten Spiele noch jede Highend-Karte richtig ins Schwitzen brachten.

Das die Leute für 200€ Highend erwarten ist damit ja garnicht gesagt. Es ist eher eine bewusste Entscheidung, dass sie einfach nicht mehr Leistung brauchen (manche können gut auf 8xAA verzichten oder überhaupt auf AA) oder einfach nicht mehr Geld für eine Graka ausgeben wollen. Ich persönlich erwarte für so einen Preis sicher kein Highend und bin deshalb auch bereit mehr zu investieren.

Aber weil das nunmal offentsichtlich so ist, muss ein Hersteller darauf reagieren und das ist halt meine Frage wie NV das auf Grundlage dieses Chipdesigns machen will.

Übrigens kann man eine HD5870 so ziemlich in jedem neuen Game mit entsprechenden Einstellungen (Auflösung,24xEdge-detect,SSAA) in die Knie zwingen und das wird bei den Fermi Karten nicht anders sein. Spreche da aus eigener Ehrfahrung.
 
Zuletzt bearbeitet:
Eben, die meisten möchten nicht mehr als 250 euro für ne graka ausgeben(ich auch nicht) was heißt das man ein größeres augenmerk auf den markt legen muss.

Das ist das WIRKLICH große manko des gf100. er ist sehr groß und die entwicklung war tuer. im vergleich zum rv 870. was bedeutet das ati sehr viel mehr luft nach unten hat.

ich bin sicher die können die 5870 für 250 eruro anbieten, wenn es bei rsmc rund läuft. die 5850 vllt. für 170 oder 180 euro, das wäre ein sehr gutes P/L verhältnis. zumal neue treiber aus den karten auch noch mehr rausholen werden.

der 9.12 von ati soll ja 10% mehr leistung rausholen laut amd, schauen wir mal.

einfach wird es der GF100 gerade auf das P/L verhältnis aber nicht haben.
 
Eben, die meisten möchten nicht mehr als 250 euro für ne graka ausgeben(ich auch nicht) was heißt das man ein größeres augenmerk auf den markt legen muss.

Das ist das WIRKLICH große manko des gf100. er ist sehr groß und die entwicklung war tuer. im vergleich zum rv 870. was bedeutet das ati sehr viel mehr luft nach unten hat.

ich bin sicher die können die 5870 für 250 eruro anbieten, wenn es bei rsmc rund läuft. die 5850 vllt. für 170 oder 180 euro, das wäre ein sehr gutes P/L verhältnis. zumal neue treiber aus den karten auch noch mehr rausholen werden.

der 9.12 von ati soll ja 10% mehr leistung rausholen laut amd, schauen wir mal.

einfach wird es der GF100 gerade auf das P/L verhältnis aber nicht haben.

Ich denke sogar, dass P/L heute wichtiger ist als Leistung alleine. NV kann mit dieser Architektur sicherlich eine superschnelle Single-GPU Garka bauen die auf einem Niveau mit der HD5970 liegen könnte, wenn da bloß nicht dieser dumme Preisfaktor wäre (die HD5870 hätte aber auch wesentlich schneller sein können wenn man gewollt hätte).

Ist die Bezeichnung GF100 eigentlich die offiziell von NV bestätigte Codebezeichnug des Chips?
 
Laut NV Aussage sei die Fermi GPU-Architektur ja recht "modular", womit auch kleinere Mainstream und Low-End Lösungen auf deren Basis kein Problem darstellen sollte.

Ich denke mal, dass auf jeden Fall echte kleinere Ableger kommen werden - und auch deutlich schneller als die kleinen GT200 Ableger (hat ja - sicher teilweise auch aufgrund des neuen Fertigungsprozesses - über 15 Monate gedauert). :fresse:

Irgendwo gab es mal ne News, dass kleinere Karten mindestens 1 Quartal nach den High-End Karten kommen sollen; sollte also spätestens Mitte 2010 soweit sein.

Aus Gründen der Wettbewerbssituation im Kampf gegen die kleineren HD5k Karten wird mit Sicherheit unter Hochdruck daran gearbeitet. Man muss ja bedenken, dass Mainstream und vor allem Low-End Modelle (vor allem für OEMs) am Consumer Markt den meisten Umsatz machen.


Ich glaube irgendwie nicht, dass man den G92b oder einen GT200b o.ä. nimmt und einen Shrink und mit Architekturerweiterungen wie Direct 3D 11 auf den Markt wirft.
Der zeitliche Aufwand hier für wäre sicher so groß, dass man auch gleich kleinere Varianten auf Fermi Basis bringen könnte.
 
Zuletzt bearbeitet:
Ist die Bezeichnung GF100 eigentlich die offiziell von NV bestätigte Codebezeichnug des Chips?

Ja, ist sie.

Ich glaube irgendwie nicht, dass man den G92b oder einen GT200b o.ä. nimmt und einen Shrink und mit Architekturerweiterungen wie Direct 3D 11 auf den Markt wirft.
Der zeitliche Aufwand hier für wäre sicher so groß, dass man auch gleich kleinere Varianten auf Fermi Basis bringen könnte.

Die 40 nm Versionen auf Basis des G200 wurden entweder eingestampft oder sind derart leistungsschwach, dass sie uninteressant sind. Nein, aus dieser Richtung kommt nix. Denke aber das NVIDIA mit hochdruck auch an den kleineren Karten arbeitet.
 
Ich finde es schön, dass zumindest die größeren Grafikkarten wohl mit 1.5 GB Speicher kommen werden...

Damit sollte auf jeden Fall von der Seite nichts mehr limitieren...(Egal mit was für einem Setting).

Nun bleibt für mich nur noch abzuwarten wie die Leistung ausfällt.

Ati wird Anfang 2010 wohl die 5950 auf den Markt bringen. Wohl als direkte Konkurrenz zu den neuen NV-Karten.

Somit müsste/sollte die NV-Karte auch grob diese Leistung haben.

(2x 5850 - Minus ein paar Prozent).
 
Ich finde es schön, dass zumindest die größeren Grafikkarten wohl mit 1.5 GB Speicher kommen werden...

Damit sollte auf jeden Fall von der Seite nichts mehr limitieren...(Egal mit was für einem Setting).

Nun bleibt für mich nur noch abzuwarten wie die Leistung ausfällt.

Ati wird Anfang 2010 wohl die 5950 auf den Markt bringen. Wohl als direkte Konkurrenz zu den neuen NV-Karten.

Somit müsste/sollte die NV-Karte auch grob diese Leistung haben.

(2x 5850 - Minus ein paar Prozent).

Jo, die GF100-Ableger werden mit 1,5GB auf den Markt kommen. Und AMD wird, so denke ich, noch nen höher getakteten RV870 nachschieben, ne weitere X2-Katastrophe à la HD5970 braucht doch kein Mensch.
 
Jo, die GF100-Ableger werden mit 1,5GB auf den Markt kommen. Und AMD wird, so denke ich, noch nen höher getakteten RV870 nachschieben, ne weitere X2-Katastrophe à la HD5970 braucht doch kein Mensch.

denke eher 3gb und die günstigeren GTX 360 dann 1.5 da ati bis dahin die 5890 mit 2 gig draussen hat und die GTX 360 mit der 5870 konkurrieren muss, was mit 768mb ram schwer wird..
 
Somit müsste/sollte die NV-Karte auch grob diese Leistung haben.

(2x 5850 - Minus ein paar Prozent).

Meinste nicht das du dich bissel überschätzt ?

2x 5850 machen 2x GTX280 kalt ohne zu zucken (OC sowieso) !

Aber werden wir sehen, so wie überall spekuliert wird von den Daten her (wenn die alle stimmen) wird sie 20-30 % schneller als die 5870 was schon eher realistisch ist ;)

---------- Beitrag hinzugefügt um 13:27 ---------- Vorheriger Beitrag war um 13:24 ----------

ne weitere X2-Katastrophe à la HD5970 braucht doch kein Mensch.

von was für einer Katastophe redest du ?

Das Nvidia nix geschissen bekommt im mom oder das die noch eine GTX285 Dual GPU raus bringen weil die nix haben


Die X2 ist ne gute Karte, jetzt darüber ein Urteil zu schreiben ist Bullshit für die Karte gibt es gradmal einen Beta Treiber :rolleyes:
 
Ich würde ja vor Freude lachen, wenn NVidia ne günstigere Graka mit mehr Leistung usw. rausbringt, ATI würde das Lachen sowas von schnell vergehen.

Allerdings halte ich das für sehr unwahrscheinlich!!!

250€, jaa das wäre in etwa sowas was ich max. investieren würde, unter umständen vielleicht noch etwas mehr, aber das ist schwer zu sagen!

Mein Top waren ca. 275€ für die damalige 8800GTS 320MB, und die Karte ist auhc heute noch nicht zu unterschätzen...

Selbst 512MB VRAM sind heute zu wenig. Von 320MB brauchen wir garnicht anfangen ;)

@Topic

Ich hoffe mal das die großen Karten auf GT300-Basis 3GB VRAM bekommen. Wäre Sinnvoll für die Zukunft :)
 
Spätestens mit etwas Zeit auf jeden Fall wie jetzt die 2GB Modelle, aber gleich zum Start sind wohl 1.5 GB leider wahrscheinlicher.
Wäre aber auch klar für 3GB ab Werk quasi zum Start, oder wenigstens beides gleich und nicht immer erst viel später durch die Kartenfirmen.....wenn man eh längst eine hat. ;)

von was für einer Katastophe redest du ?
Die X2 ist ne gute Karte, jetzt darüber ein Urteil zu schreiben ist Bullshit für die Karte gibt es gradmal einen Beta Treiber :rolleyes:

Mehr als ein Crossfirekrüppel wird die egal mit welchem Treiber trotzdem nie sein, finde "Katastrophe" darum auch sehr passend ausgedrückt. :)
 
Ich habe hier wieder aufgeräumt!

Ist es wirklich zu viel verlangt beim Thema G300 zu bleiben und nicht irgendwelche Diskussionen rund um die PS3 anzufangen?

Reißt euch doch mal zusammen Jungs!
 
Ich habe hier wieder aufgeräumt!

Ist es wirklich zu viel verlangt beim Thema G300 zu bleiben und nicht irgendwelche Diskussionen rund um die PS3 anzufangen?

Reißt euch doch mal zusammen Jungs!


kannst du die beiträge bitte wiederherstellen und in den PS3 thread verschieben?

---------- Beitrag hinzugefügt um 18:39 ---------- Vorheriger Beitrag war um 18:37 ----------

Was wollt ihr alle mit 3GB VRAM ?? 1,5 reichen doch dicke aus !!

ja will ich. 1,5GB reichen nicht.
 
Was wollt ihr alle mit 3GB VRAM ?? 1,5 reichen doch dicke aus !!

Beim Release mag das noch gerade so sein, aber wie lange?
In 1920x1200 mit AA sind 1GB schon heute viel mehr nötiges Minimum als gut ausgerüstet, kommen noch Texturmods dazu kann man 1GB schon locker sprengen.
Ebenfalls mit den Hybridmodi im Nhancer, die fressen VRAM wie blöd, nur 1.5 auf den Highendkarten würde ich schon recht knapp finden.
 
Zuletzt bearbeitet:
3GB wird es im Referenzlayout nicht geben denke ich.

Ich schätze, dass 1.5 GB für die großen Modelle Standard werden und 896MB für abgespeckte Modelle der Fall sein werden.

Bin auch der Meinung, dass das gut reicht (1.5 GB).

Ati ist bei ihren Highend Modellen bei 1GB geblieben, warum sollte also Nvidia mehr als 1.5GB verbauen ? Ist ja auch eine Frage der Wirtschaftlichkeit.

--

Das irgendwelche Hersteller non-Referenzmodelle bringen die "mehr-Speicher" verbauen ist denke ich klar, aber das dauert dann wieder einige Zeit bis solche Karten auf den Markt kommen.
 
Naja ich suche jetzt noch eine Karte mit 2GB und Schwarzem PCB also währe schon schön wenn die Gt300 ein wenig mehr drauf hat.
 
Ati ist bei ihren Highend Modellen bei 1GB geblieben, warum sollte also Nvidia mehr als 1.5GB verbauen ? Ist ja auch eine Frage der Wirtschaftlichkeit.

Du kannst den VRAM verbrauch der ATIs nicht mit den Nvidias vergleichen ;)

Nvidias Speichermanagment ist anders, das ist bewiesen das Nvidia Karten mehr VRAM brauchen als die ATI Karten ;)

Das Nvidia 1.5Gb VRAM verbauch wird schon seine Gründe haben weil 1GB sehr oft voll wird bei der GTX285 und das ohne irgendwelche kranken Settings oder MODs.
 
Zuletzt bearbeitet:
@Holdrio
Mehr als ein Crossfirekrüppel wird die egal mit welchem Treiber trotzdem nie sein, finde "Katastrophe" darum auch sehr passend ausgedrückt.

Welche Bezeichnung wäre dann für die NV Karten die zur zeit am Markt sind egal single oder SLI passend. Die sehn ja gegen die 5970 kein Land soviel ich in den Benches gesehn hab.
 
Übrigens kann man eine HD5870 so ziemlich in jedem neuen Game mit entsprechenden Einstellungen (Auflösung,24xEdge-detect,SSAA) in die Knie zwingen und das wird bei den Fermi Karten nicht anders sein. Spreche da aus eigener Ehrfahrung.

Wovon redest du da? Naja, die Diskussion über PS3 und andere Konsolen sollen ja unterbleiben. Nur mal so, ich habe gerade COD 6 mit 1650x1050 und 4xkantengkättung gespielt. Kein Ruckeln o.ä.. Graka siehe Sig. Das einzige Spiel in der letzten Zeit, indem ich mal einen Ruckel hatte war Crysis-Warhead. Dieser Ruckler trat auch nur kurz an einer Stelle auf. Einstellungen waren alle auf Max.
 
Zuletzt bearbeitet:
so, wieder mal was konstruktives zu Fermi

Fermi possibly delayed til March or April

We heard word a short while ago from our contacts in the Far East that Fermi may very well be delayed even longer than the initial launch estimate in January. We reported last week that the goal for nVidia was to launch the product on some level at CES with reviewer kits to go out shortly afterwards. Our sources tell us today that the Fermi Build Kits were meant to go to AIBs last week but nVidia has missed this time frame. They also told us that "Gemini" is meant to be the code name for the new dual GPU Fermi card although nVidia are not confirming this.

Going on this and other inside information passed to us at the weekend it appears that the initial launch date in January may very well be pushed back until March or possibly even early April. Giving solid dates for the launch is going to be hard as nVidia seem to be running into more issues every week.


und More Fermi Rumors - Not Good

NVIDIA had a big get-together in Hong Kong last week where a lot of the NVIDIA upper brass was on hand. It is being rumored that the first "Fermi build kits" were supposed to be prepped to go out to AIBs but NVIDIA missed the mark on having its Fermi tech ready to pass off to builders. We also heard the "Gemini" name being batted around as well and this seems to be connected to a dual GPU Fermi card. We still feel as though NVIDIA is aiming for getting Fermi shipping by the last week of February, but still think it will miss this mark. HardOCP's best guess right now is late March with any quantity to speak and we are still giving NVIDIA about even odds of marking March. April 2010 is looking more reasonable to us at this time.

Hoffentlich kommt das ding überhaupt noch...
 
wenn schon denn schon. wir sind doch hier im LUXX-Forum.
"zu viel" oder "unnötig" gibts nicht.
 
hier gibts nur eins. und das wird leider immer mehr

nervige fanyboy baby´s die die freds so zumüllen das es keiner mehr liest
 
wenn schon denn schon. wir sind doch hier im LUXX-Forum.
"zu viel" oder "unnötig" gibts nicht.

:d schön argumentiert.

@ Release...baaaa...April/Mai !??! :eek: :(

Ab Juno zocken die Meisten doch eh kaum noch...was fürn kaputter Termin^^:kotz:Langsam komme ich auf den Gedanken mir dir Kohle beiseite zu packen, noch ordentlich sparen und im Herbst/Winter ne komplett neue Köttelkiste zusammenzubauen. Grafisch stößt die 4870x2 zwar hier und da an ihre Grenzen je nach Einstellung, bis dahin sollte sies noch tun.
 
:d schön argumentiert.

@ Release...baaaa...April/Mai !??! :eek: :(

Ab Juno zocken die Meisten doch eh kaum noch...was fürn kaputter Termin^^:kotz:Langsam komme ich auf den Gedanken mir dir Kohle beiseite zu packen, noch ordentlich sparen und im Herbst/Winter ne komplett neue Köttelkiste zusammenzubauen. Grafisch stößt die 4870x2 zwar hier und da an ihre Grenzen je nach Einstellung, bis dahin sollte sies noch tun.

Dann ist der Zug abgefahren, außer die Leistung ist Atemberaubend. Ach, und deine 4870 X2 hält noch lange ;)
 
ach du schande, wenn das stimmt hat es NV ganz schön verkackt, da kommen ja schon fast die 32nm GPUs von ATI :eek:


Edit: es ist wirklich so, April/März ist launch dann gibts 1 Monat später erst Karten das ist ja mehr als brutal
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh