nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 4

Status
Für weitere Antworten geschlossen.
ne frage:
wenn nv ne 395 GTX rausbringt, dann sind ja 2 * 8 pins stecker schon pflicht oder? und ob die überhaupt kommt, wage ich zu bezweifeln, vorallem bei dem hohen Verbrauch

Vermutlich schon.
Vielleicht auch nicht, wenn sie z. B. nur zwei mittelstarke GPUs auf die Karte setzten und nicht zwei High-End-Chips.
Aber soweit sind die noch lange nicht.
Lass jetzt erst mal die Single-Chip Karten erscheinen...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ist schon Kindergarten genug hier.

Das hier mit einem Kindergarten zu vergleichen ist eine Beleidigung für jeden Kindergarten. Dort herrscht verglichen Zucht und Ordnung. :bigok:



2 * 8 pins stecker schon pflicht
Wäre damit aber 375W stark und außerhalb der ATX Spezifikation.
NVidia würde solch eine Karte nicht an OEM`s absetzen können, da diese auf die Industriestandards extrem erpicht sind.
Allerdings stellt sich die Frage ob sie a,) überhaupt bei OEM`s Absatz sehen für so eine Karte und b.) soll NVidia laut Gerüchten stark Druck ausüben um den ATX Standard bzw. die PCIe Norm zu erweitern.

Warum wohl? :fresse:
 
Nach der letzten Meldung zu den Dualkarten des GF100 werden die kurz nach der GTX380 und der GTX360 erscheinen, also deutlich früher als die Karten der Mittelklasse.
 
Cool, statt 2 nicht lieferbare Karten gibt es dann gleich 3 Karten die letztlich nicht zu normalen Preisen zu kaufen sind.... Bravo :bigok:
 
ne frage:
wenn nv ne 395 GTX rausbringt, dann sind ja 2 * 8 pins stecker schon pflicht oder? und ob die überhaupt kommt, wage ich zu bezweifeln, vorallem bei dem hohen Verbrauch

ich bin eher skeptisch ob jemals solch eine karte mit dem jetzigen chip rauskommt.

ich denke eher das es nur noch eine ultra variante geben wird wie damals beim g80.

erst mit dem refreshchip wäre sowas sicherlich besser zu bewerkstelligen.

und bzgl. der ausbeute vermute ich das die 380gtx mit 448 shadereinheiten herkommt und die volle bestückung also 512shader mit der ultra einzug halten.

wenn die leistung mit den 448 shadern stimmt wäre es wirtschaftlich sicherlich ganz gut.
 
Zuletzt bearbeitet:
ich bin eher skeptisch ob jemals solch eine karte mit dem jetzigen chip rauskommt.

Etwas skeptisch bin ich zwar auch wie das dann aussehen soll, aber wir dürfen nicht vergessen, dass die angeblich so hohe Verlustleistung bis jetzt nur auf Gerüchten und gewissen Hoffnungen von Ati-Fans beruht. Mal sehen wieviel es am Ende wirklich ist. Außerdem stammt die letzte Bestätigung, dass Dualkarten erscheinen, aus diesem Monat, also werden die bei NV schon wissen worauf sie sich einlassen.

bzgl. der ausbeute vermute ich das die 380gtx mit 448 shadereinheiten herkommt und die volle bestückung also 512shader mit der ultra einzug halten.

Die 448 Shadereinheiten betreffen nur die Teslakarten. Für die GTX380 wurde das gleich von NV dementiert, also hört bitte auf dieses falsche Gerücht weiter zu verbreiten.
 
Zuletzt bearbeitet:
Die 448 Shadereinheiten betriffen nur die Teslakarten. Für die GTX380 wurde das gleich von NV dementiert, also hört bitte auf dieses falsche Gerücht weiter zu verbreiten.

gerüchte sind dazu da um sie zu verbreiten. klingt ja so das du schon fakten hast.

und von gerüchten geht die welt auch nicht unter. ^^

ich frage mich ja ob beim verwendeten farcry 2 bench eine karte mit 512shadern verbaut war. gibt es diesbezüglich handfeste beweise?
 
Kennst du dich damit aus ?

Ist das so einfach möglich ?

Ich kann mir das nicht so recht vorstellen...

Man hat quasi noch nichts von den Karten gesehen und NV testet dann eine Karte außerhalb der Spezifikationen ?

Ich weiß net...
 
Schlag mal im Lexikon nach, was Konjunktiv ist. Ich habe bisher von noch niemandem gehört, dass ein Respin definitiv notwendig ist. :rolleyes:

Warum hebst du dann den Respin so hervor als führe kein Weg mehr dran vorbei bzw wie viele proffesionelle Seiten reden überhaupt von einem Respin?


Was du dir hier zusammen phantasierst gerade als jemand mit technischem Verständniss ist einfach nur zum:kotz:

Du machst haargenau das selbe wie "Mister Semiaccurate Charlie",der zwar auch Ahnung hat,aber aus irgendwelchen persönlichen Gründen,Nvidia gegenüber,weiss der Geier warum,immer wieder ins Märchenland abdrifftet.

Solche Hasstiraden sind zwar ab u zu mal amüsant zu lesen,aber leztendlich nimmt Charlie ebenso wie dich keiner mehr richtig ernst.

Weil eben viel zu viel "Bildjournalismuss" dabei ist

Solche Leute sind in meinen Augen schlimmer als irgendwelche Nobs die einfach nur etwas Aufgeschnapptes nachplappern.

---------- Beitrag hinzugefügt um 19:35 ---------- Vorheriger Beitrag war um 19:34 ----------

ich frage mich ja ob beim verwendeten farcry 2 bench eine karte mit 512shadern verbaut war. gibt es diesbezüglich handfeste beweise?

Handfeste Beweisse nicht aber für ne öffentliche Presse Demonstration wird man denke ich schon die stärkste Karte aufgeboten haben
 
Zuletzt bearbeitet:
Handfeste Beweisse nicht aber für ne öffentliche Presse Demonstration wird man denke ich schon die stärkste Karte aufgeboten haben

könnte aber auch ein guter schachzug von nvidia sein. denn niemand weiß überhaupt wie stark die architektur wirklich ist. nimm mal an es wäre nur eine karte mit 448 shadern gewesen.

aber sind jetzt eh nur vermutungen. :xmas:
 
On the other hand, there are rumours that the benchmarked card which everyone saw was either a cut-down version with 448 Stream Processors, or the underclocked 512SP version, while the retail version should end up with 512SP. In any case these results aren't the final scores and should only show a general picture of Fermi performance as with driver and clock tweaking, Nvidia could pull few more frames per second from this beast.
Quelle: Fudzilla

Wenn da noch Chips mit dem A2-Stepping verbaut waren, wäre beides für mich denkbar.

@scully1234
die stärkste Karte können sie aber nur zeigen, wenn sie eine lauffähige haben. Und selbst wenn sie läuft, können ja die Taktraten noch niedriger gewesen sein.

ciao Tom

P.S. Fud hat in dem Artikel leider auch die unglückliche Formulierung der "simulierten" HD 5870 übernommen und sie nicht kommentiert
 
Zuletzt bearbeitet:
nimm mal an es wäre nur eine karte mit 448 shadern gewesen.

aber sind jetzt eh nur vermutungen. :xmas:

Ja sicher wäre das fein,aber man sollte sich nicht zu sehr auf 80% nicht eintreffende Dinge stützen dann wird man nicht enttäuscht.

Und wenns dann doch so ist ist die Überraschung um so grösser:fresse:

Also anhand der 3fachen Shaderperformance in der Cuda Raytracing Anwendung müsste es eigentlich der grosse Bruder sein,sonst hätte Nvidia wahre Wunder vollbracht mit der Architektur wenn es nur 448 gewesen wären
 
Zuletzt bearbeitet:
gerüchte sind dazu da um sie zu verbreiten. klingt ja so das du schon fakten hast.

und von gerüchten geht die welt auch nicht unter. ^^

Ist schon richtig. Nur da NV bereits gesagt hat, sie wird auf jeden Fall 512 haben, ist es kein Gerücht mehr sondern ne Lüge. :)
 
Zuletzt bearbeitet:
Bin echt mal gespannt wie die Karte wird, meine GTX 260 stößt langsam an ihre Grenzen, aber die könnte ich ja dann zusätzlich als PhysX Karte drinlassen, hat durchaus seinen Reiz, die Halbwertszeit der HW wird verlängert ;)
 
sind denn die 512er Cuda die selben 512er wie im "Gamechip"...?
 
sind denn die 512er Cuda die selben 512er wie im "Gamechip"...?

Wahrscheinlich schon. Zumindest wäre eine generelle Entfernung der DP Fähigkeiten aus dem Design für die Gamerkarten zu aufwändig. Höchstens nen lasercut, aber wahrscheinlich wären damit auch andere Funktionen beeinträchtigt.
 
Eben, von Massenproduktion ist aber die rede, deshalb auch mein zweifel das da noch ein Respin kommen soll.
Konkret von Massenproduktion habe ich noch nichts gehört. Aber selbst wenn dem so sein sollte, wäre ich vorsichtig, inwiefern das wirklich zutrifft. Es wäre nicht die erste beschwichtigende Meldung zu Fermi.

Bei 23 x 23,8 wäre ich trotzdem nur bei 97 Dies per Wafer?! Warum kommt Charlie auf 103?!
Wie kommst du auf 97? 25% Verschnitt? Ein Wafer hat ~70686 mm² Fläche. Rechnen wir übliche 20% Verschnitt weg, bleiben noch ~56549 mm² übrig. Geteilt durch 547,4 (23x23,8) mm² sind wir bei ~103 Chips. Was Charlie als Grundlage für seine Berechnungen genommen hat, kann ich allerdings nicht beurteilen.

Warum hebst du dann den Respin so hervor als führe kein Weg mehr dran vorbei
Wo hebe ich ihn denn hervor? Und wo sage ich, dass kein Weg daran vorbei führt? :stupid: Du solltest endlich mal anfangen, das zu lesen, was dasteht und nicht das, was du lesen willst. Auf deine persönlichen Anfeindungen will ich gar nicht mehr eingehen. Kann ja jeder selbst sehen, was für ein Ignorant du bist, der Meinungen anderer User, die nicht in dein Weltbild passen, nicht akzeptieren kann, ohne jeglichen Sachverstand. Damit stellst du dich schon selbst genug ins Abseits.
 
Zuletzt bearbeitet:
@Neurosphere
NV traue ich alles zu...nach den letzten Erfahrungen...Refresh..Refresh
Spinnen wirs doch mal weiter...scheiß Ausbeute... Lasercut>360.~300-400€...Juli August, man mags kaum glauben was ne Überraschung ne Ultra..knall 600€..wundern würds mich nicht....

@mr.dude
vergiß es , er wird dir immer wieder dasselbe vorkauen, bis du ausklingst oder ihn ignoriest, beim ersten wird er nach den Mods brüllen..beim 2. wird er denken er hat Recht und sich freuen und Ruhe geben, such dirs aus. Und denk drann alles pöse Ossis hier die stecken alle unter einer Decke :bigok: :fresse:
 
Zuletzt bearbeitet:
@scully und mr.dude...
könnt ihr nichtmal euren Kleinkrieg hier unterlassen?

Einige oder von mir aus auch viele Sachen sind zwar richtig und gehören genannt, aber dieses Ständige gegenseitige Angezanke muss wirklich nicht sein...
Klärt das doch bitte via PM... THX und :btt:

Und denk drann alles pöse Ossis hier die stecken alle unter einer Decke :bigok: :fresse:

Das hab ich jetzt gekonnt mal überlesen :fresse:
 
Zuletzt bearbeitet:
ich hab ja nicht geschrieben "die haben alle keinen Humor" :fresse:

Aber was ist mit meiner pösen NV These? Wäre das tragbar...naja Geld stinkt nicht und gelogen hätte er ja irgendwie auch nicht....schied jetzt hab ich vergessen wie ihn Zocker genannt hat :d

Katze Huang :lol:
 
Zuletzt bearbeitet:
ich hab ja nicht geschrieben "die haben alle keinen Humor" :fresse:

Aber was ist mit meiner pösen NV These? Wäre das tragbar...naja Geld stinkt nicht und gelogen hätte er ja irgendwie auch nicht....schied jetzt hab vergessen wie ihn Zocker genannt hat :d

Katze Huang :lol:

Könnte durchaus ein...
Also deine These... Aber ich denke mal das hängt in großem Maße davon ab, wie stark sich der Fermi in der ersten Relasestufe von der Konkurenz absetzen kann und wie weit AMD noch mit nem OC Modell aka HD5890 (wenn sie denn kommen wird) kontern kann...

Dann macht es auch für NV Sinn noch ne Ultra nachzuschieben...
Wobei man natürlich erwähnen muss, das Ultra als Namenszusatz seit der G80 Ultra schon ganz paar Monate nicht mehr gebräuchlich ist...
Ich denke eher man würde das Teil dann 380GTX+ schimpfen ;)
 
Ich denke eher man würde das Teil dann 380GTX+ schimpfen ;)

glaube ich eher weniger. das + war damals wegen dem dieshrink und der höheren taktrate beim g92.

dieses + hebt sich auch nicht wirklich hervor. da wäre die ultra namensgebung viel einprägsamer und hat ja auch einen guten ruf :)
 
Konkret von Massenproduktion habe ich noch nichts gehört. Aber selbst wenn dem so sein sollte, wäre ich vorsichtig, inwiefern das wirklich zutrifft. Es wäre nicht die erste beschwichtigende Meldung zu Fermi.

Ich finde es gibt genug zu lesen.

Wie kommst du auf 97? 25% Verschnitt? Ein Wafer hat ~70686 mm² Fläche. Rechnen wir übliche 20% Verschnitt weg, bleiben noch ~56549 mm² übrig. Geteilt durch 547,4 (23x23,8) mm² sind wir bei ~103 Chips. Was Charlie als Grundlage für seine Berechnungen genommen hat, kann ich allerdings nicht beurteilen.


Hier hast du nen Rechner mit dem das viel einfacher und genauer geht. Wenn du deine Maße angibts kommst du auf 97. Man könnte höchstens die Edge Exclusion Width runtersetzen, allerdings wird das wohl kaum geschehen. Bleibt also eigentlich nur die Möglichkeit
das der Chip evtl doch weniger Fläche hat.
 
glaube ich eher weniger. das + war damals wegen dem dieshrink und der höheren taktrate beim g92.

dieses + hebt sich auch nicht wirklich hervor. da wäre die ultra namensgebung viel einprägsamer und hat ja auch einen guten ruf :)

Das + an der 9800GTX+ kommt doch von höheren Taktraten bei der + Version, weil NV diese hochgetreten hat um besser gegen eine HD4850 dazustehen ;) Denn es gibt doch auch 55nm GTXen...
Aber sei es drum, das sind alles alte Kamellen, bleiben wir lieber beim Fermi und schweifen nicht ab auf Karten die nach dem Fermi potentiell kommen könnten ;)
 
Das + an der 9800GTX+ kommt doch von höheren Taktraten bei der + Version, weil NV diese hochgetreten hat um besser gegen eine HD4850 dazustehen ;) Denn es gibt doch auch 55nm GTXen...
Aber sei es drum, das sind alles alte Kamellen, bleiben wir lieber beim Fermi und schweifen nicht ab auf Karten die nach dem Fermi potentiell kommen könnten ;)

So siehts aus. Noch hat NV auch nicht bestätigt das die neuen Karten Geforce oder GTX/GTS, Ultra etcpp im Namen tragen werden.
 
@mr.dude
vergiß es , er wird dir immer wieder dasselbe vorkauen, bis du ausklingst oder ihn ignoriest, :

Genau das ist der Fall du hasts erkannt,weil nämlich solche Äusserungen von ihm kommen:cool:

@mr dude
Konkret von Massenproduktion habe ich noch nichts gehört. Aber selbst wenn dem so sein sollte, wäre ich vorsichtig,

@mr dude
Ausserdem sprach ich nicht von Revision, sondern von einem Respin. Dh, zurück ans Reissbrett, sollte es soweit kommen.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh