nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 4

Status
Für weitere Antworten geschlossen.
naja wenn raytracing zum standard wird dürften ja MR auch der vergangenheit angehören - naja erstmal abwarten ob nvidia die 480 noch dieses jahr rausbringt. Und dann schau ma weiter.

Wie kommst du bitte darauf?
Scheinbar weist du nichtmal was MR sind, denn sonst würdest du so eine Aussage nicht bringen...

Im übrigen solltet ihr mal wieder zurück zum Thema kommen :btt:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
das ist das einzige was man schon weiss ;)
wurde gesagt, als das proof-of-concept von fermi hochgehalten wurde. wird nicht länger als die großen dinger der gt200-serie.

*juhuuu* Danke...diese Nachricht stimmt mich wirklich sehr sehr gut gerade!!!

Hatte gestern schon angefangen gedanklich "Notfallpläne" zu schmieden, hehe.

:banana:
 
Also ich wär jetzt bereit für die GTX 470-480!

JEDOCH werde ich mich in Egon umbenennen, sollten die Teile nicht bis März zu kaufen sein!

Das halte ich fast für unmöglich, gerade weil im März BF BC2 startet, ein top DX 11 Spiel! Damit kann man super werben!

Die sollen mal gas geben und das verfluchte Teil im März unter die Leute kloppen :mad:
 
So, ich wär dann mal bereit für handfeste Infos! Veröffentlichungsdatum und Preise wären das Wichtigste! Benchmarks kann man vergessen....geschöntes Zeug bringts net

Gibts immernoch keine Benchmarkergebnisse? Die sollen mal anfangen jetzt...net erst im März :mad:

Erstmal soll das verdammte Ding jetzt rauskommen :mad: Bis Anfang Februar will ich richtige Testergebnisse sehen und Anfang März will ich das Mistding kaufen :mad:

Soderle, jetzt irgendwann im Februar müssten diverse Leute ne 360-380GTX bekommen und testen dürfen?! Hoffentlich, wehe nicht :mad:

Soderle ich wär jetzt mal bereit für Testergebnisse! Wielange denn noch? Naja war klar, wird sicher frühestens Ende Februar....:mad:

Immer diese Geheimnistuerei :mad: Oder die kriegen die Karten nicht zum Laufen, deshalb gibts keinerlei Exemplare vor Ende Februar oder so....

Also ich wär jetzt bereit für die GTX 470-480!

JEDOCH werde ich mich in Egon umbenennen, sollten die Teile nicht bis März zu kaufen sein!

Das halte ich fast für unmöglich, gerade weil im März BF BC2 startet, ein top DX 11 Spiel! Damit kann man super werben!

Die sollen mal gas geben und das verfluchte Teil im März unter die Leute kloppen :mad:

Und täglich grüßt das Murmeltier :lol::fresse::shot:
 
Vlt. fast immer das selbe, aber VERDAMMT er hat doch Recht.

nVidia macht jetz was, ich will die GTX480 im März in meinem neuen PC sehen ;D
 
Ich glaub nich das nv vor Mai, vernünftige Stückzahlen raushauen kann, wenn überhaupt und für vernünftige Preise is nv ja sowieso bekannt.^^

Denk mal das Ding wird bei schlechter Verfügbarkeit um 600-650 liegen.

Mich kotzt es nur an, dass die mit ihren Holzbox Präsentationen und Fakemarks die Leute so verrückt machen.

Soll endlich mal was handfestes kommen da !
 
Um die Leistung mache ich mir weniger Sorgen....der Stromverbrauch interessiert mich viel mehr. Ist ja schön das die Leistung der Karten bzw der Chips immer weiter steigt aber zu welchem Preis? Wo sind die optimierten Kühllösungen und der angemessene Stromverbauch?
?

Niemand kann die grenzen der Physik sprengen auch nicht durch einen Die Shrink:shot:
Das wird in Zukunft sowieso noch schwieriger werden durch weitere Strukturverkleinerung noch viel mehr Energieeffizienz rauszuholen.Weil man mit der Fertigung schon bald an der Grenze des physikalisch machbaren ist.

Schau nur jetzt einer an wieviel Probleme die 40nm Produktion jetzt schon bereitet um adäquate Qualität der Waver zu bekommen u man kann erahnen welche Probleme da bei noch kleineren Strukturbreiten kommen mögen

Ab ca 15 nm(korigeirt mich) ist zum heutigen Entwicklungsstand sowieso theoretisch Sense mit der Verkleinerung von Computerchips

Wenn die Karte also entsprechend Leistung haben soll und die meisten brüllen eben nach Leistung im Highend Segment,dann wird sie nicht das Eco Green Monster werden im frischen Herstellungsprozess bei 40nm.

Wenn für dich keine Leistung zählt frage ich mich sowieso was du mit einer Highend 480 bzw 460er GTX willst;)

Wen man nur!! den Sromverbrauch im Fokus hätte,dann geht die Weiterentwicklung von performanten Grafikchips extrem langsam von statten.
 
Zuletzt bearbeitet:
Wen man nur!! den Sromverbrauch im Fokus hätte,dann geht die Weiterentwicklung von performanten Grafikchips extrem langsam von statten.

Naja, eine HD5570 macht wahrscheinlich leistungsmäßig einer 2 Jahre alten HD3850 Konkurrenz und verbraucht dabei nichteinmal die Hälfte. :>
 
und verbraucht dabei nichteinmal die Hälfte. :>

Im Full Load Modus?;)

Sicherlich bei den Idle Verbräuchen hat sich schon was getan durch Stromsparmechanismen,aber das ist nun auch bald ausgereizt

Man kann schon sagen das der Verbrauch(Full Load) über die Jahre stätig gewachsen ist,mit jeder neuen Generation,allerdings nicht proportional zur Leistung denn das wäre fatal
 
Zuletzt bearbeitet:
au man, ich kann mich noch im november erinnern, als gehofft wurde, fermi zu weihnachten im rechner stecken zu haben. nu hamwa februar, und wir wären schon über ein release im märz froh.
das gummiband ist schon mehrmals gerissen und wieder geflickt worden. ich glaub nen weiteren riss verträgt die spannungskurve net mehr..
sonst können die ihre 3mrd. transistoren behalten..jeden einzelnen..
 
Sicherlich bei den Idle Verbräuchen hat sich schon was getan durch Stromsparmechanismen,aber das ist nun auch bald ausgereizt

Man kann schon sagen das der Verbrauch(Full Load) über die Jahre stätig gewachsen ist,mit jeder neuen Generation,allerdings nicht proportional zur Leistung denn das wäre fatal

Also wenn ich das richtig sehe, verbraucht z.B. die HD 5870 im Idle weniger und unter Load liegt sie ungefähr mit der HD 4890 gleichauf und ist dabei ein ganzes Stück stärker.
Also ich sehe da einen anderen Trend, zumindest wenn man die aktuelle Grakageneration zugrunde legt.
Das man damit noch keine Bäume ausreißen kann ist schon klar.
 
Also wenn ich das richtig sehe, verbraucht z.B. die HD 5870 im Idle weniger und unter Load liegt sie ungefähr mit der HD 4890 gleichauf und ist dabei ein ganzes Stück stärker.
Also ich sehe da einen anderen Trend, zumindest wenn man die aktuelle Grakageneration zugrunde legt.
Das man damit noch keine Bäume ausreißen kann ist schon klar.

Der idle Verbrauch der HD4XXXs ist aber auch wirklich (ohne manuellen Usereingriff) eine mittlere Katastrophe und es dürfte nicht schwer gewesen sein, diesen mit den HD5XXXs deutlich zu unterbieten.
Der Volllastverbrauch ist aber zugegben ordentlich, liegt aber wohl v.a. an der verkleinerten Strukturbreite.
 
Da AMDs Fanpages ein super Fragenpacken rausgegeben haben (http://forums.nvidia.com/index.php?showtopic=159270&pid=999255&st=0&#entry999255), hab ich mal die Antworten die Ailuros im 3DC dazu geschrieben hat hier her kopiert da er meiner Meinung nach mit dem ganzen den Nagel auf den Kopf trifft.



Ailuros im 3DC schrieb:
Zitat:
AMD: Why are there only 64 texture units in GF100? This is a major technological set back compared to GT200. Are they running out of silicon real estate for graphics features with all the HPC compute circuitry around? Have they abandoned the gamer?

-Die Faehigkeiten jeder Einheit sind wichtiger als die Anzahl dieser. Es kann aber durchaus sein dass hier NV eine falsche Design-Entscheidung getroffen hat und der chip an zu wenig Fuellrate leidet; jeglicher IHV bezahlt ziemlich teuer jegliche falsche Design-Entscheidung genauso wie ATI durch die Jahre fuer ihre eigenen Fehler blechen musste.

Zitat:
AMD: When will they know what clock speeds GF100 can run at? Are they running into other unanticipated problems with clock speeds due to on-chip variations with the huge die size and high power consumption?

-IMHO haette NV ueberhaupt keine Daten veroeffentlichen sollen vor dem offiziellem Launch. Nichtdestominder veroeffentlicht auch AMD nicht alle Einzelheiten von noch nicht angekuendigten Produkten. Wenn sie tatsaechlich Probleme haben werden sie es fuer nicht mehr lange verstecken koennen. Wieso ueberhaupt die Unruhe?

Zitat:
AMD: Is it true that yields are currently just 2% due to poor engineering and lack of ‘dual redundant vias’ connecting the chip’s metal layers, and that most GF100 chips won’t even be able to hit 650MHz.

-Es waren minimal 4% yields fuer beide IHVs in Q3 2009 und fuer AMD war nur eine sehr kleine Anzahl an wafers betroffen. Wie sehen heute AMD's yields genau aus ohne das angebliche dual redundant vias Problem?

Zitat:
AMD: Why is a 60 second snapshot of the Unigne benchmark used for performance comparison? Why not the entire benchmark or other real game performance comparisons? What are they trying to hide?

-Weil es ein Tesselations-limitierter Ausschnitt eines synthetischen benchmarks ist. Der Ausschnitt dient dazu die Staerken der Tesselations-Implementierung zu zeigen und zeigt den moderadesten Vorteil dieser im Vergleich zu hauseigenen Tesselations-techdemos. Es ist die Aufgabe von PR/marketing jeglichen moeglichen Fall zu finden wo man die Konkurrenz so schlecht wie moeglich hinstellen kann. Eben auch die 29 Fragen die von AMD's PR Abteilung orchestriert wurden.

Zitat:
AMD: Given their past troubles with packaging, how do they deal with thermal cycling reliability issues with the huge die size and high power consumption of the GF100?

-Sie brennen gerne Loecher in motherboards.....LOL. Wie soll man auf so eine Frage ernsthaft antworten?

Zitat:
AMD: Why are they artificially limiting the double precision performance of GeForce products to 1/4 of full capacity and make gamers pay for it in silicon and in power consumed? Why aren’t gamers allowed to use all the performance they’re paying for?

-Damit die Verbraucher offensichtlich zu Tesla Loesungen greifen. AMD GPU Kaeufer bekommen auch nicht die Unterstuetzung fuer Profi-Zeug fuer die sie eigentlich bezahlt haben, ergo gibt es hier auch Grund zum meckern fuer die Gegenseite.

Zitat:
AMD: NV’s distributed PolyMorph Engine structure would imply that some of those functions are performed by the shaders. Will their tessellation performance scales with shader load and degrades when the shaders are busy with other tasks?

-Wenn die GF100 gerade einen Pullover strickt kann sie sich natuerlich nicht mit Tesselation beschaeftigen. Der Idiot der sich die Frage ausgedacht hat kann sich gerne erstmal informieren wie und in welchen Stadium der Berechnungen eine DX11 GPU Tesselation genau ausfuehrt.

Zitat:
AMD: When will they be able to ship real DX11 products? AMD has complete stacks of desktop and mobile DX11 offerings.

-Hoffentlich irgendwann im Maerz; in der Zwischenzeit kann sich AMD zuruecklehnen und ihren Kaba geniessen bzw. ihren guten DX11 Vorsprung weiterhin erhoehen.

Zitat:
AMD: Why do 48% of INQ readers think GF100 will be too hot, power hungry and expensive?

-Auf jeden Fall nicht heisser, stromhungriger und teurer als AMD's zeitiges $600 Produkt.

Zitat:
AMD: Why does NV keep at proprietary standards when open standards exist? Typically companies do this when they have poor products to hide.

-Weil AMD zu bloed ist jeglichen eigenen standard (proprietary oder open source) anstaendig zu unterstuetzen.

Zitat:
AMD: AMD now has top to bottom DX11. Why doesn't NV have any products to compete? What happened? The Windows 7 ship date was known well in advance.

-Weil AMD eine bessere Strategie insgesamt hat. NV wird in der Zukunft entweder einiges aendern muessen oder sie werden auch in der Zukunft mit aehnlichen Problemen kaempfen muessen. NV's execution stinkt seit G92 genauso wie ATI's execution von R520 bis R600 gestunken hat.

Zitat:
AMD: Why do NV drivers have to be 100MB in size? Users complain that it takes forever to download.

-AMD User werden gebeten im Jahr 2010 nicht mehr 56k Geschwindigkeiten zu benutzen. In dem Fall liegt das Problem zwischen dem keyboard und dem Stuhl.

Zitat:
AMD: Why doesn't NV release drivers on a regular and predictable way?

-Weil unendliche hotfixes nerven.

Zitat:
AMD: I've started to see PhysX in titles, but why isn't the API running on my
NV GPU? Seems to be running on the CPU. How many PhysX titles actually run on the GPU after 5 years of development by Ageia and Nvidia?

-Eigentlich laeuft es ueber einen floppy disk....

Zitat:
AMD: In September 2009, NV claimed the new GF100 architecture would ship in November or December. What happened?

-Beschissene 40G yields. Mit einem um einiges komplizierteren core als Cypress ist es selbstverstaendlich dass die Produktion mit solchen yields viel zu viel gekostet haette. Billig war es fuer AMD ja auch nicht gerade aber dank kleinerer Chipkomplexitaet eben um einiges besser als mit einem GF100. Cypress hatte im Oktober knapp 30% durchschnittliche yields.

Zitat:
AMD: Why are you trying to move the PC industry to a proprietary based model and limit functionality to your own products?

-Weil AMD zu geizig und faul ist ihre Produkte voll und richtig zu unterstuetzen und quasi erwarten dass ihr Konkurrent ihnen alles auf einem silbernen Teller umsonst serviert.

Zitat:
AMD: When will we see OpenCL based consumer applications running on your hardware?

-Auf jeden Fall bevor OCL Applikationen auf AMD's hw laufen werden.

Zitat:
AMD: Is the GF100 just NV30 all over again?

-NV30 war ein ziemlich grosser FLOP. Der Vergleich hinkt an einigen Stellen.

Zitat:
AMD: What is NVidia’s commitment to launch quantities of GF100?

-Sorgt Euch lieber ueber Eure eigene Quantitaeten denn JETZT ist die Zeit fuer AMD fett zu verdienen.

Zitat:
AMD: What are the power supply requirements for GF100? What about GF100 SLI or 3-Way SLI?

-GTX480 = 240W max. / 280W TDP, mindestens ein gutes 550W PSU. Fuer SLi und 3-way SLi genauso gross wie fuer eine 5970 und 5970@CF.

Zitat:
AMD: What is the power leakage on the GF100?

-Nicht hoeher als bei 5970.

Zitat:
AMD: Will GF100 be available in notebooks? Thin & light too?

-An einem Dienstag

Zitat:
AMD: How many GF100 cards are required to power 6 screens using only 1
PC? What are the power supply requirements for such a PC?

-Drei. Minimal 1000W.

Zitat:
AMD: Will GF100 be the single fastest graphics card in the market at launch?

-Single chip high end ja.

Zitat:
AMD: How does it compare to ATI Radeon 5870 in terms of performance per $ and per W?

-Nicht unbedingt schlechter als perf/$ und perf/W als die 5970.

Zitat:
AMD: Does Nvidia keep PhysX proprietary because NV is afraid that ATI Radeon would deliver a better PhysX experience? http://www.fudzilla.com/content/view/17525/1/

-Weil sie keinen Bock haben ihre eigene PissX Investition mit AMD zu teilen.

Zitat:
AMD: How many TWIMTBP game titles [shipping or in development] are currently supporting DX11? How many Fermi boards have you sampled to game developers?

-Null fuer beide Fragen aber das auch nur weil ich keine Zahlen diesbezueglich habe.

Zitat:
AMD: When do you expect DX11 support to be available across your entire GeForce product line?

-Schaetzungsweise bis zu Q4 10'?

Zitat:
AMD: Why did a poll recently conducted by website www.gamestar.de conclude that 54.0% of respondents preferred DirectX 11 over PhysX (14.2%)?

-Was soll mich bei dem Resultat genau wundern?

Auch wenn ich mich einem solchen Flamewar nur ungern anschließe, finde ich diese Hetzkampnagene die immer wieder von einem Hersteller ausgehen doch langsam ziemlich lächerlich.
 
Zuletzt bearbeitet:
So wie die letzten Gerüchte im Beyond3D und 3DCenter aussehen, kann man auf fallende Preise vergeblich hoffen. Nur die langsamere Variante wird in größeren Stückzahlen zu haben sein und auch da wird nvidia wohl den Preis eher an ATI ausrichten, als ATI ihn an nvidia ausrichten müsste. Und ich denke, ATI wird sich auf keinen Preiskampf einlassen und die Preise auch weiterhin oben halten. Sie wollen ja auch endlich mal Geld verdienen.
 
Wirklich eine miese Situation im Moment, Lust habe ich keine bis Mai, Juni zu warten, bis dahin passiert wieder so viel, und naja jetzt warte ich schon seit November....
Wird wirklich Zeit das die in die Gänge kommen..
 
Egal wie, bis April muss das Ding verfügbar sein! Naja die 5870 ist ja seit Oktober nicht richtig verfügbar, so wirds auch bei Nvidia sein!

Aber hauptsache man kommt IRGENDWIE an son Schrottteil!
 
Naja ist wieder wie in eine Glaskugel zu sehen, also am besten einfach abwarten *g* so wie die letzten Monate ^^
 
Naja erstmal abwarten, was davon wahr ist. Sollte es allerdings stimmen, so ist es für NV und uns absolut kein Beinbruch. Dieses Gerücht stammt ursprünglich von XMAN26 und er hat im gleichen Zusammenhang behauptet, dass auch aus diesem Grund alle NV-Benches mit einer Karte mit 448 Shadern gemacht wurden. Wenn er recht behält gibt es wohl kaum GTX480 Karten, dafür zersägt dann eine GTX470 aber auch eine HD5870 um 30% also sehe ich da kein Problem.
 
Ein 512SP Chip pro Wafer?! Mal im Ernst: Wie soll denn das überhaupt möglich sein?



mfg
 
Ich kann es mir eigentlich auch nicht vorstellen. Klar, das ist nur eine Zahl für den Durchschnitt, aber wenn es so wäre, wären die Yields für alle GF100 immernoch unterirdisch schlecht und man bekommt kaum welche für die GTX 470.
 
Als ob diese Gerüchte über diverse Spezifikationen jetzt wichtig wären.....

Egal was das Teil hat, die Leistung muss stimmen! Gerade dieses Aufgepumpe irgendwelcher Bereiche führt noch lange nicht zu ner viel höheren Leistung!

Ja sicher, irgendwas wird unfassbar stark erhöht, also erhöht sich die Rohleistung was Tesselation (z.B.) angeht. Aber was, wenn ein Spiel so etwas gar nicht nutzt? Leistung verschenkt oder was!

Die sollen jetzt mal die gesamten Daten rausrücken, dann irgendwann ende Februar halt erste Exemplare an diverse Redaktionstiere schicken damit die basteln können und dann irgendwann im März-April das Teil raushauen!

Naja gut, sicher, Gerüchte auseinandernehmen macht vielen Leuten immer Spaß, aber man liegt eigentlich sogut wie immer daneben, sowohl was den Preis angeht, die Leistung und somit das Preis-/Leistungsverhältnis!
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh