Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
ist zudem nicht gänzlich undenkbar, wenn man sich mal den Vorgänger-Chip GT200 der GeForce GTX 200 Serie ansieht: Dort gab es 240 Shader-Einheiten, 64 Textureneinheiten und ein 512 Bit DDR Speicherinterface – wenn man diesen Chip von den Hardware-Einheiten her verdoppelt, ist man faktisch beim GF110-Chip zu den vorgenannten Daten.
Das spricht aber nur den 1. der von mir genannten Punke an, was ist mit dem Rest?
Außerdem: Meinst du nicht auch, dass Typen bei Nvidia sich irgendwas dabei gedacht haben, als sie bei dem Fermi die TUs (im Vergleich zu GT200) so stark beschnitten haben?
Es quakt wie eine Ente, es läuft wie eine Ente und es sieht wie eine Ente aus...
Wenn du damit den GF100 meinst, dieser sollte eher die Eierlegende Wollmilchsau werden: High End Spiele-GPU und eine Hochleistungs-GPGPU in einem. Hohe Spielleistung war also doch schon ein Primärziel.hmmm der Fermi war doch eigentlich total für den server gadacht!
Zu Zeiten der 2900XT gab es doch noch gar keine 8800 GTX, sondern nur die 8800 GTS 320, und das war bekanntlich 'ne Krücke, der die 2900XT davonlief.und wie bekannt ist war eine 2900 xt karte trotz verspätung deutlich langsamer als eine 8800 gtx
Zu Zeiten der 2900XT gab es doch noch gar keine 8800 GTX, sondern nur die 8800 GTS 320, und das war bekanntlich 'ne Krücke, der die 2900XT davonlief.
Die 8800 GTX (und deren Sondermodell 8800 Ultra) kam später, und müsste sich daher mit der HD 3870 und der HD 3870 Atomic oder deren Nachfolger messen. Letztere habe ich immer noch im Einsatz, und die Karte schlägt selbst zwei 8800 Ultra im SLI ohne Krach zu machen.
Und nein, ich verkaufe sie nicht - auch nicht wenn Du ganz lieb Bitte sagst!
Realitätsverlust?
Hört sich für mich nach einer Ente an:
1. 128 TUs wäre ein totaler Overkill.
2. Passt das Shader/TU-Verhältniss nicht zu den anderen GF1x0 Chips. 32/4 bei GF100 und 48/8 bei GF104-108. Nvidia müsste also eigens nur für diesen einen Chip neue SMs designen. Klingt unwahrscheinlich, da zu aufwändig, erst recht für ein Nischenprodukt (und das sind die High End GPUs nun mal).
3. Kommt die Größe nicht hin. Selbst wenn man nur den GF104 auf 512 Shader aufbläst, kommt man bereits auf ~490mm². Und da fehlen noch die zusätzlichen TUs und ROPs, welche ja noch weitere Transistoren und damit auch Fläche mit sich bringen.
@Powerplay
GF110 mit 768SE neuer Chip mit 768 Shader-Einheiten und 128 TMUs an einem 512 Bit DDR Speicherinterface, ohne den GF100-Ballast nach GF104-Vorbild, Die-Fläche mit 550-650mm² größer als GF100 und damit auch höhere Verlustleistung, Zielmarkt dieses Grafikchips wären dann eher die DualChip-Lösungen von AMD
Potential gegenüber GeForce GTX 480: ca. +50%
Diese Variante wäre die geilste mal sehen wer am Ende doch noch das Renen macht bei den Highend Chips.
Vieleicht ist NV ja pünktlicher als AMD.
Ich kann mir nur schlecht vorstellen das wir neue 28Nm Karten vor Weinachten 2011 sehen.Das kostet zwar alles Geld, aber da der CHip mindestens nen halbes Jahr auf dem Markt bleibt dürfte es sich wohl lohnen.
Beim GF100 hatte man aber keine Wahl, er war nun mal der erste Chip der neuen Generation. Ob er sich nun lohnt oder nicht, er ist da und wird deshlab auch verkauft.Zu 2) Dann würde sich der GF100 auch nicht lohnen. Sollte der GF110 ungefähr so kommen wie im moment in der Gerüchteküche prognostiziert gibt es keinen GF100 mehr...
Ich habe als Referenz bereits schon den "Sparchip" GF104 genommen. Was soll Nvidia da noch wegsparen?Zu 3) Das kann man so pauschal nicht sagen. NV kann dafür an anderer Stelle sparen oder die Die-Size durch ein besseres Layout kleiner bekommen.
Wirklich lohnen?Das kostet zwar alles Geld, aber da der CHip mindestens nen halbes Jahr auf dem Markt bleibt dürfte es sich wohl lohnen.
Hier ist wohl ein kleines Missverständniss vorhanden:ich denke du bedenkst eins nicht, NVs ganze strategie des marketings basiert auf dem WIR haben den besten und schnellsten chip, da der GF100 nicht komplett überzuegen konnte und man die 6970 knotern MUSS, ist es doch sehr warscheinlich denke ich
Hier ist wohl ein kleines Missverständniss vorhanden:
Meine Zweifel gelten nicht der Ankündigung, Nvidia würde an einem GF100 Nachfolger arbeiten, sondern den angegebenen Eckdaten.
Ist durchaus möglich, dass Nvidia an einem GF110 (oder was auch immer) werkelt, aber diese "Informationen" von 3DCenter halte ich nun mal für aus den Fingern gesogen.
Wie schon gesagt: Die angebliche Chipgröße passt vorne und hinten nicht. Und die komplette Abkehr von den bereits existierenden SM-Designs ist unlogisch, da gerade für einen schnellen "midlife kicker" zu (zeit-) aufwändig und kostspielig. Ein GF110 auf der Basis der GF104-108 SMs (schnell und "billig") würde Sinn machen, aber so einer nicht.
Beim GF100 hatte man aber keine Wahl, er war nun mal der erste Chip der neuen Generation. Ob er sich nun lohnt oder nicht, er ist da und wird deshlab auch verkauft.
Ich habe als Referenz bereits schon den "Sparchip" GF104 genommen. Was soll Nvidia da noch wegsparen?
Und wenn besseres Layout möglich gewesen wäre, dann hätte man es doch bestimmt schon bei den "Massen-Chips" GF104-108 eingesetzt? Da diese in rauhen Mengen hergestellt werden, und die Gewinnmargen pro Chip in dieser Klasse relativ klein sind, zählt da jeder Quadratmillimeter.
Wirklich lohnen?
Für ein Chip welches vielleicht NUR ein halbes Jahr auf dem Markt bleibt? Zumal wir hier von einem (riesen-) großen High End Chip reden, oder mit anderen Worten: hohe Entwicklungskosten plus hohe Herstellungsrisiken und das Ganze gepaart mit geringen Absatzmengen. An diesen Chips wird generell kein großes Geld verdient, selbst unter besten Umständen und davon kann man hier ja wohl kaum sprechen.
Ein Verdoppelung ist in 40nm nicht machbar, aber eine Vergrößerung bis zu 50% wäre vielleicht drinn.ein doppelter GF106 wäre auch denkbar, zurzeit kursieren mal wieder so einige gerüchte..
Natürlich, aber wenn ich einen besseren Chip bei gleicher Größe hinbekomme gilt doch für diesen das gleiche oder?
Meine Zweifel gelten nicht der Ankündigung, Nvidia würde an einem GF100 Nachfolger arbeiten, sondern den angegebenen Eckdaten.
Und was habe ich gesagt? Gerade WEIL der angebliche GF110 mit den beiden bereits existierenden Fermi SM-Designs nur so "wenig zu tun hat", macht es diese Angaben so unwahrscheinlich.GF110 hat aber mit GF104 wohl weniger zu tun als mit GF100
Q.E.D.Jup, er muss sich lohnen. Würde er das nicht einhalten, würde es ihn nicht geben.
Auf die schnelle fallen mir da zwei Möglichkeiten ein:Aber warum zum Geier 580?
Auf die schnelle fallen mir da zwei Möglichkeiten ein:
a) Hat sich irgendein Schreiberling so ausgedacht.
b) Inoffizielle Projektbezeichnung der Karte.
Z.B. weil sie 576 Shader hat, mit 12 SMs nach der GF104-108 Art. Oder 18 GF100 SMs, aber das wäre weniger wahrscheinlich.
Ein Verdoppelung ist in 40nm nicht machbar, aber eine Vergrößerung bis zu 50% wäre vielleicht drinn.
Und was habe ich gesagt? Gerade WEIL der angebliche GF110 mit den beiden bereits existierenden Fermi SM-Designs nur so "wenig zu tun hat", macht es diese Angaben so unwahrscheinlich.
Q.E.D.