nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 3

Status
Für weitere Antworten geschlossen.
14.1.10 = fall der NDA ? nö... 18.1. fall der NDA ??? vielleicht...und vielleicht sehen wir dann auch die ersten hauseigenen Benches :d
....vielleicht auch später :fresse: tolle Hinhaltetechnik...frage mich wie lange sie das noch machen wollen das Spielchen:haha:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
14.1.10 = fall der NDA ? nö... 18.1. fall der NDA ??? vielleicht...und vielleicht sehen wir dann auch die ersten hauseigenen Benches :d
....vielleicht auch später :fresse: tolle Hinhaltetechnik...frage mich wie lange sie das noch machen wollen das Spielchen:haha:
Keiner dieser Termine die hier herumgeistern kommt von NVidia, sondern es sind Gerüchte.
Die NDA gilt und in der NDA steht sicher genauso drinnen dass der Termin für die Beendigung der NDA geheim ist
Ist das gleiche wie bei NDAs die man bei "echten" Betas akzeptiert, da darfst du auch nicht mal mitteilen dass du an einer Beta teilnimmst
 
Warum dann nicht den Crysis Bench veröffentlichen mit +60%? wäre doch weit sinniger um Eindruck zu schinden.

Immer diese häppchen..

Wahrscheinlich weil diese Videos nicht für die Öffentlichkeit gedacht waren bzw. so getan wird als wären sie nicht für die Öffentlichkeit gedacht. Auf vimeo.com dem originalen Ursprung dieser Videos sind sie mittlerweile auch wieder down.

Angeblich soll es sich bei der gebenchten Karte auch nur um eine GTX360 handeln, die nur über 448 Cuda Cores verfügen soll und nicht um die GTX380 mit deren 512. Woanders wird aber auch schon wieder folgendes spekuliert: 448 for GTX380, 384 for GTX360. Das einzige was ich von all dem glaube ist, dass die Videos auf vimeo.com tatsächlich eine GF100 Karte in Aktion zeigten.
 
Nach den Gerüchten um die 448 Shader, hat Nv doch bereits klar gestellt, dass die GTX380 in jedem Fall 512 hat.
 
Ich denke auch das sie schnell wird, ich wollte mir schon im November/Dezember die Ati Karten holen, aber nach dem der ganze Großhandel die Preise der Karten nach oben gedreht hat, will ich für ein "älteres" Produkt nicht mehr zahlen als zu release, nur weil die es nicht gebacken bekommen genug zu produzieren.
Wenn der Fermi da ist wird Ati wieder in die tiefen Preisregionen gehen so wie immer, ne 5850er wird man um 150 bekommen und ne 5870er um 250 so schätze ich die Preise in ein paar Wochen/Monaten ein.
Wieviel der Fermi kostet ist mir völlig wurst, ich kaufs sowieso.

seo-glaskugel.jpg


is it you?

mir ist grad was seltsames bei den benchs aufgefallen :

lolnv.jpg

lolnv2.jpg


hö?
 
Zuletzt bearbeitet:
Übrigens Fermi soll ja Mit C++ klarkommen stimmts?
Hat L1 und L2 Cache dann wird man ja eig, ein os drauf packen können(natürlich ein darauf optimiertes)
Jezt meine frage Kann er auch mit C# umgehen damit ich sphere drauf laufen lassen kann?
Das ist einfach nur Marketing, was einige überinterpretieren. Das steht in den AMD Unterlagen übrigens in ähnlicher Form. C bzw C++ sind hardwardeunabhängige ISO Standards. Andere GPUs kommen mit C bzw C++ genauso klar. Wichtig ist nur, eine entsprechende Entwicklungsumgebung samt Runtime bereitzustellen.
Ein Betriebssystem ist nochmal eine ganz andere Hausnummer. Dafür müsste die GPU RAM und Speichermedien verwalten können, Hardware Interrupts unterstützen (Tastatur, etc) und noch einiges mehr. Das ist momentan keine Option. Eine GPU wird so schnell keine CPU ersetzen können. Und für ein OS ist eine GPU auch nicht wirklich erstrebenswert. Dafür brauchst du einen hohen Grad an ILP. Das ist nicht gerade die Stärke einer GPU.

ich werde mich mal da reinlesen will jezt C# Lernen.
kann ich damit auch n OS writen oder eher nicht?=
Theoretisch ja. Ist aber eher weniger empfehlenswert, da C# auf .NET basiert. Betriebssysteme werden idR mittels C oder C++ entwickelt. Zudem brauchst du Assembler Kenntnisse. Mindestens der Bootloader erfordert hardwarenahe Programmierung.
 
Genau das meinte ich.

rein theoreticsch könnte man ja 2 fermis einen als "CPU" einen als wahre rechenmaschiene.

ich werde mich mal da reinlesen will jezt C# Lernen.
kann ich damit auch n OS writen oder eher nicht?=

Wer ein OS schreiben will, sollte überragende Kenntnisse sowohl in C (ohne #) als auch in Assembler besitzen (und entsprechend wissen, welche Architektur er benutzen wird). Eine Menge theoretisches Wissen über Betriebssysteme ist da sicher auch vorausgesetzt (Synchro, Kommunikation, Betriebsmittelverwaltung, Scheduling, Dienstleistungsbeziehungen...). Hardwarenahe Programmierung betreibt man da längst nicht nur beim Bootloader (Stichwort: Speicherverwaltung - das macht die MMU nicht alleine...) Das auf einem Grafikchip laufen zu lassen, macht aus mehreren Gründen keinen Sinn. Auf Wunsch gehe ich da gern ins Detail, aber dann im anderen Thread. ;)

Tante Edith: Zu den Beispielen dort oben mit den LOC fällt mir noch etwas ein, was ich letzte Woche erst in Software Engineering besprochen habe - im Durchschnitt (!) schreibt ein Programmierer am Tag 10 (!!) Zeilen Code. Durchschnitt meint hier das Mittel über die gesamte Arbeitszeit eines entsprechend umfangreichen Projekts. Viel Spaß dabei, alleine ein "richtiges" OS zu coden. ;)
 
Zuletzt bearbeitet:
Da hat wohl jemand vergessen die Systemzeit einzustellen.

Nein das passt schon, im englischsprachigen Raum wird beim Datum der Monat vor dem Tag angegeben.

der Bench ist vom 10. Januar 2010.
 
Was mich interessiert ist, wie die ganzen Amis eigentlich darauf kommen, dass in den Far Cry 2 und raytracing Videos eine GTX360 am Werk sein soll. Ich meine einen comment gelesen zu haben, wo einer behauptet, dass würde in einem der Videos gesagt, habe aber nichts dergleichen gehört.

Entweder ich habe das überhört, oder man könnte amerikanisch mal wieder mit naiv übersetzen.
 
Nochmal zum FarCry 2 Bench,links soll eine 380GTX sein,rechts eine 5870 sein?
Links die schafft ca. 130/85/65...rechts die ca. 80/60/40...die 5870 von Mayer2 schafft ca.135/80/60.
Da kann das doch rechts keine 5870 sein,Game Einstellungen sind sicherlich gleich!Ob das System un gleich ist,ist ja erstmal zweitrangig,sicherlich wirds,wenn es wirklich von nvidia kommt,kein bzw. nicht viel schlechter sein als das von Mayer2.Hab ich jetzt was falsch verstanden,dann bitte ich u Berichtigung xD!
Das würde doch die letzten Vermutungen/Thesen bestätitgen,das der Fermi bei aktuellen Games kaum schneller bzw. gleich schnell ist!
Wir werden sicherlich erst mehr wissen,wenn alles offiziell ist,erninnert euch mal die 9800GTX,am Ende war die wirklich nur wie ein 8800GTS,obwhl am Anfang alle dachten,ein Monster wie 285GTX kommt raus.Damals hat sich auch schon gezeigt,was gemunkelt wird,wird meistens auch so ähnlich!

Gruß Cole
 
Die zweite Karte ist anhand der Ergebnisse mit hoher Wahrscheinlichkeit eine GTX285.
 
Mein letzter Kenntnisstand ist, dass die Yield irgendwo bei 20% liegen SOLL und der Chip SOLL in der Produktion ca 200$ kosten.
Hoffentlich hat sie sich seit dem verbessert und der Wert nicht mehr aktuell.

Aber eben Gerüchte, Gerüchte, Gerüchte

EDIT:
Keine AHnung, ob es aus der FUD ist?

Womit sie schon unter den chipkosten liegen würden die, die GTX280 zu release hatte - aber nvidia hat mit der Gt200 serie auch nit wirklich gewinn gemacht. So wenig das sie wie wir wissen die produktion ja letztes jahr schon eingestellt haben. Gut mit angelich ner million chips auf lager, die keiner so recht mehr will machts auch keinen sinn.
Wobei eigentlich müssten die ganzen kleinen nvidia atm ganz gute OC eigenschaften haben und viellleicht könnte man sie per FW hack auch auf ne größere GPU bringen.
 
Ich könnte mir vorstellen, dass wir die noch mal auf den ein oder anderen "neuen" Produkt wiedersehen werden, wenn es mit der Adaption der Fermi-Architektur auf das Performancesegment und darunter nicht so schnell klappt (wovon ich ausgehe).
 
auf Beyond3D hat noch jemand seine 5870 durch den Far Cry 2 Bench in den Settings aud dem Video gejagt.

http://forum.beyond3d.com/showpost.php?p=1380703&postcount=268

Some FC2 numbers from a slightly overclocked Core i7-920 setup with a stock Radeon HD 5870 board, tested with the same benchmark settings as seen from the video leak:

Average Framerate - 73.92 vs. 84.18, Fermi wins by 12.2%
Maximum Framerate - 111.01 vs. 125.84, Fermi wins by 12.8%
Minimum Framerate - 54.55 vs. 65.21, Fermi wins by 16.4%

Würde ja selbst nen run machen, hab aber nur nen 22" Monitor mit 1680x1050 :(

Zusammen mit der angeblichen TDP von 280W welche heute von Ailuros im 3DCenter genannt wurde finde ich dieses Ergebnis nicht wirklich beeindruckend. Zwar kennt man den Rest des verwendeten Systems im Video nicht, jedoch gehe ich davon aus das dort eine dicke CPU am Werk war um die GF100 nicht von vorn herein in ein evtl. CPU-Limit laufen zu lassen.

Das Original Video wurde vor ein paar Stunden entfernt, jedoch gibt es mittlerweile jede menge Kopien auf Youtube.

Nvidia ist offenbar mächtig sauer aufgrund des leaks und der Videos davon auf Youtube :heuldoch::fresse:

http://forum.beyond3d.com/showpost.php?p=1380747&postcount=274

I just received this :
GF100 videos
Hey man, could you take down the GF100 videos you posted today that you ripped from my Vimeo video? I usually wouldn't give a shit but NVIDIA is really pissed at us for posting them early.

Thanks man!

Ryan
 
naja ich denke mal nvidia wird um die karte herum wohl schon ein deluxe system mit intel i7 extreme aufgebaut haben.

naja denke mit so einem system sollten dann auch mit der 5870 mehr rauszuholen sein also denke mal die karten liegen wohl ziemlich gleich auf - was wiederum dafür spricht das nvidia noch keine daten rausgebit weil se evtl wohl noch versuchen werden die karte aufzubohren um wieder vor ATI zu sein.

Aber am ende ohne wirklich harte fakten ist halt alles nur spekulation.

Würde zwar schon gerne umsteigen auf ne nvidia karte wegen 3D Vision (was mein lecker Samsung LCD beherscht) aber wenn nicht entsprechend mehr leistung rüber kommt oder der preis passt (was bei nvidia in der regel kaum zu erwarten ist) werd ich die sache wohl ncoh ne zeit lang mit meiner 4870 aussitzen müssen.
 
Die ganze 3D Geschichte steckt für mich noch zu sehr in den Kinderschuhen und ist derzeit auch einfach noch zu teuer, aber ich rechne damit das sich das letztendlich durchsetzen wird. Bevor 3D aber wirklich interessant und massenwirksam wird, sind wir bestimmt schon 1-2 Graka-Gens weiter, dann ist auch die nötige Leistung dafür da.
 
Die ganze 3D Geschichte steckt für mich noch zu sehr in den Kinderschuhen .

Du irrst dich ein "Bisschen" kann das sein bzw hast den Werdegang von 3DVision,Revelator oder was auch immer nicht richtig verfolgt.

Dann wäre das aber eine seeehr lange Kinderrzeit bei Nvidia:cool:

Denn das System gab es schonmal vor vielen Jahren(ca 1999),also ist es schon seehr lange aus den Kinderschuhen:)
 

Anhänge

  • Foto0196.jpg
    Foto0196.jpg
    127,4 KB · Aufrufe: 115
Zuletzt bearbeitet:
Du irrst dich ein "Bisschen" kann das sein bzw hast den Werdegang von 3DVision,Revelator oder was auch immer nicht richtig verfolgt.

Dann wäre das aber eine seeehr lange Kinderrzeit bei Nvidia:cool:

Denn das System gab es schonmal vor vielen Jahren(ca 1999),also ist es schon seehr lange aus den Kinderschuhen:)

da hat jemand den gleichen monitor wie ich ;)
 
Warum sucht man künstliche Vergleiche?! Das Video liefert doch einen Vergleichswert. Und bezüglich der wohl verwendeten GTX285 ist der Performance-Sprung sehr gut.

GTX285 vs GTX 380
38 min 65
50 avg 84
72 max 125

Unterschied zwischen GTX 285 und 5870 sind
http://www.pcgameshardware.de/aid,6...e-im-Benchmark-Test/Grafikkarte/Test/?page=10
53 fps vs 67 fps avg

Somit
5870 27% schneller als GTX 285
GTX 380 68% schneller als GTX 285
 
Was mich interessiert ist, wie die ganzen Amis eigentlich darauf kommen, dass in den Far Cry 2 und raytracing Videos eine GTX360 am Werk sein soll...

das könnte hiermit zusammenhängen:
http://forum.beyond3d.com/showpost.php?p=1380692&postcount=267
High-end models will deploy the full array of 16 Cluster A total of 512 CUDA Core computing unit...A second level model will take away the two Cluster group memory array and a body controller, which fell to 448 CUDA Core...
Sources indicated that single-core version, with 448 CUDA Core of the GF 100 graphics card, 3D performance will easily exceed that same level opponents Ati Radeon HD 5870, in the mainstream games, such as: Crysis Warhead, Far Cry 2, HAWX, and Fallout 3, GF 100's performance of HD 5870, respectively 1.6 times, 1.2 times, 1.55 times and 1.2 times.

Aber sicher ist damit auch nichts

erninnert euch mal die 9800GTX,am Ende war die wirklich nur wie ein 8800GTS...
Du wirst doch nicht behaupten wollen, eine GTX 380 wäre nur wie eine GTX 285, obwohl sie in dem einzigen bisher gezeigten Benchmark schon mal 70 % schneller ist?

ciao Tom

P.S. vielleichte eine kleine Anekdote zu damals (Winter 2007). Ein Kumpel schrieb mir damals über ICQ von einem G100, der wohl 3 mal so schnell wie ein G80 wäre. Ich hab ihm gesagt, sollte es einen Chip geben, der tatsächlich so schnell ist, dann wird ihn nVidia ganz bestimmt nicht zu dieser Zeit veröffentlichen. Tatsächlich kam es dann auch so. Aber bei einigen schwirrte dieses Gerücht wohl noch herum und so waren sie dann sehr enttäuscht (ebenso mein Kumpel, der wirklich mit so einer Steigerung rechnete). Aber wenn man sich mal die theoretischen Daten zur Shaderleistung anschaut, dann könnte mit dem damaligen G100 bereits Fermi (aka GF100 im Spielebereich) gemeint gewesen sein.;)
 
Zuletzt bearbeitet:
Warum sucht man künstliche Vergleiche?! Das Video liefert doch einen Vergleichswert. Und bezüglich der wohl verwendeten GTX285 ist der Performance-Sprung sehr gut.

GTX285 vs GTX 380
38 min 65
50 avg 84
72 max 125

Unterschied zwischen GTX 285 und 5870 sind
http://www.pcgameshardware.de/aid,6...e-im-Benchmark-Test/Grafikkarte/Test/?page=10
53 fps vs 67 fps avg

Somit
5870 27% schneller als GTX 285
GTX 380 68% schneller als GTX 285

Theoretisch.
Denn keiner weiss ob die Benches wirklich mit einer Fermi Karte gemacht wurden.Vielleicht haben sie ja ne übertaktete 5870 genommen :d

Oder einen Dualfermi.

Zumal man halt auch mehr als genug tricksen kann ohne wirklich zu fälschen, um eine Karte deutlich besser aussehen zu lassen.

Ich persönlich denke, das wenn die Fermi so schnell wäre wie es viele NVIDIA Fans sich wünschen, hätte NVDIA schon lange selber paar benchmarks gepostet um die Leute vom 58xx Kauf abzuhalten. Da da nichts bisher gekommen ist,dürfte NVIDIA verzweifelt versuchen den Fermi einfach noch schneller zu bekommen (Takt erhöhen usw) als die 5870 ist.

Wobei logischerweise von NVIDIA auch nur die optimalen Benchmarks und Einstellungen verwendet werden würden.

Unabhängige Tests werden da erst Klarheit bringen. Jedoch diese Stille und Zurückhaltung von NVIDIA lässt mich schlimmes befürchten für die Leistung des Fermis.
 
Theoretisch.
Denn keiner weiss ob die Benches wirklich mit einer Fermi Karte gemacht wurden.Vielleicht haben sie ja ne übertaktete 5870 genommen :d

Oder einen Dualfermi.

Zumal man halt auch mehr als genug tricksen kann ohne wirklich zu fälschen, um eine Karte deutlich besser aussehen zu lassen.

Ich persönlich denke, das wenn die Fermi so schnell wäre wie es viele NVIDIA Fans sich wünschen, hätte NVDIA schon lange selber paar benchmarks gepostet um die Leute vom 58xx Kauf abzuhalten. Da da nichts bisher gekommen ist,dürfte NVIDIA verzweifelt versuchen den Fermi einfach noch schneller zu bekommen (Takt erhöhen usw) als die 5870 ist.

Wobei logischerweise von NVIDIA auch nur die optimalen Benchmarks und Einstellungen verwendet werden würden.

Unabhängige Tests werden da erst Klarheit bringen. Jedoch diese Stille und Zurückhaltung von NVIDIA lässt mich schlimmes befürchten für die Leistung des Fermis.
Es macht keinen Sinn, Benchmarks zu veröffentlichen, wenn man keine finalen Taktraten hat. Massenproduktion ist erst vor kurzem angelaufen, wenn überhaupt. Meldungen zu A3 Tapeout gibts nämlich noch gar nicht.
Auf der CES ist nicht das finale Produkt gezeigt worden.

Aber es scheint, dass am Montag viele neue Infos kommen werden. So langsam schwindet nvidia wirklich die Zeit, weil Anfang Februar die Wahrheit auf den Tisch kommt in Form neuer Quartalszahlen.
 
das könnte hiermit zusammenhängen:
http://forum.beyond3d.com/showpost.php?p=1380692&postcount=267


Aber sicher ist damit auch nichts


.;)

Aber erstaunlich das man damals gerade Far Cry2 ins Felde führt und sich die Aussage 1.2 times exakt mit dem jetzt gesehenen Benchmarkwert deckt.

Und Crysis Warhead könnte auch stimmen mit 1.6 times,da wir ja beim Raytracing gesehen haben das die Shaderleistung sehr sehr gut war(mehr als doppelt so schnell wie die Vergleichskarte) u Crysis ungemein von dieser Shaderleistung proffitieren wird
Nvidia ist ja very unhappy darüber das diese Benches veröffentlicht worden:heuldoch:
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh