Neurosphere
Enthusiast
- Mitglied seit
- 06.11.2008
- Beiträge
- 4.324
Blödsinn, die PCIe 3.0 Specs sind noch nicht mal erarbeitet, kann es deshalb auch nicht geben.
Naja doch, im Groben und Ganzen sind sie Fertig.
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Blödsinn, die PCIe 3.0 Specs sind noch nicht mal erarbeitet, kann es deshalb auch nicht geben.
Mit Sicherheit nicht. User AlexQUAD23 scheint sehr nVidia affin zu sein, um es mal vorsichtig auszudrücken. Und dann noch so einen offtopic Käse im RV970 Thread posten. 89% Yields sind jedenfalls völlig illusorisch. Die wird vermutlich nicht mal Intel nach fast 2 Jahren 45 nm Fertigung erreichen. Und dann noch PCIe 3.0. Alles klar.Hab da mal aus dem HD6K Speku Thread was aufgeschnappt - obs aber 100% der Wahrheit entspricht, kA !
Es gibt weiter berechtigte Zweifel, dass der Nvidia-Chip rein leistungsmäßig mit AMDs Dual-Lösung wird mithalten können. Sicher scheint jedoch, dass der Abstand kleiner ausfallen wird als noch zwischen HD 4870 X2 und GTX 285 und dass der GT300 im direkten Vergleich deutlich weniger Energie benötigen wird.
Geforce 4 war aber auch keine neue Architektur und die 6800 hat auch nichts mehr mit der Geforce FX gemein.
Hab doch gesagt das die GF4 die 2. version der GF3 technik war, nur mit mehr Pixel und Vertex Shader und so.
hö? erst sagen die der GT300 wird nicht mithalten und bei Satzende wird schonwieder gegenteiliges behauptet !? oder habe ich hier was missverstanden?
Für mich heisst das der GT300 erreicht annähernd die Leistung der x2 bei deutlich weniger Verbrauch.
Die x2 mit nem geschätzten Verbrauch von 386W und dann GT300 knapp über 300. Wenn noch das Kühlsystem stimmt könnte man auf eine ebenfalls leisere Karte hoffen :P
Was ich mich frage, wer braucht die Leistung, welche Cpu wird benötigt, damit der Teufel nicht unterfordert ist ^^
Im Prinzip reicht ja eine 5870er dicke
Das wär echt prima, aber dann müsst NV zusätzlich zu der Rohpower auch die Taktraten ganz schon hoch reißen.
Also da wir ja gesehen haben, dass beim RV870 selbst ein i7 @ 4 GHz bis FullHD + 8xAA limitiert, braucht der G300 sicher noch mehr CPU Power, um seine volle Kraft auszuspielen.
Ein i9 @ 5 GHz wär sicher nicht schlecht !
Wobei natürlich optimal Sandy Bridge (Core i11 oder wieder neues Namensschema) mit vielleicht nativem Octacore und neuer Architektur sein wird.
Aha, dann wird man auch den SSE Nachfolger AVX vorstellen, der ähnlich einschlagen soll, wie SSE damals beim Pentium - aber das nur am Rande.
Mit der Rohleistung kann man dann aber auch schon wieder die Bildqualität hoch reißen und ist dann bald wieder am GPU-Limit. Frameraten im dreistelligen Bereich bringen niemanden etwas.
Edgecrusher86 schrieb:Ach nee...hab derzeit keine Lust nen (großen) Speku Thread zu eröffnen und später im Studium wohl auch net soviel Zeit diesen ordentlich zu führen.
Gut - soviel dazu, zurück zum guten "alten" G300 !
Es könnte ja auch sein, dass der G300 nur 225 Watt braucht - aber die genauen Werte kennen nur die Grünen selbst.
habe wohl irgendwo in ner Verlinkung hier gelesen, dass der GT300 die 300W Grenze im Load wahrscheinlich nicht einhalten könne. Das wäre denkbar wenn sie die Taktraten hochsetzen müssen was wiederum nichts gutes in Sachen Lautstärke verheißen würde.
...noch am Rande ne Frage....wasn das fürn Gefasel von full HD zockerei? Full HD kenne ich nur vom TV. Seit wann kann man ein Game in SD oder HD zocken
Grinsemann schrieb:€dit: gibts überhaupt noch Röhrenmonitore???
We expect that Nvidia CEO Jensen Huang will demonstrate the card at the GTC keynote that should start at 1.00 PM Pacific time or roughly 10 PM Central European time.
...
We will know more after todays keynote but we can confirm that the card is real and that Nvidia will talk about it today. This is the reaction that we all expected, something that might shadow the sales of Radeon HD 5870 series.
Das wär echt prima - also bei uns wär das dann die genauen Inofs ab 22:00 Uhr.
# 3.0 billion transistors
# 40nm TSMC
# 384-bit memory interface
# 512 shader cores [renamed into CUDA Cores]
# 32 CUDA cores per Shader Cluster
# 1MB L1 cache memory [divided into 16KB Cache - Shared Memory]
# 768KB L2 unified cache memory
# Up to 6GB GDDR5 memory
# Half Speed IEEE 754 Double Precision
Bright Side of News behauptet jetzt schon:
http://www.brightsideofnews.com/news/2009/9/30/nvidia-gt300s-fermi-architecture-unveiled-512-cores2c-up-to-6gb-gddr5.aspx
heute abend gibts aber wohl genaueres