nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] [Part 1.1]

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Naja gut, überredet, der 768 kibyte cache kostet net so viele transistoren:fresse:

, aber die shader z.b. haben doch auch fähigkeiten beim fermi, die gamerkarten nix brigen, wenn man die weglässt spart man auch wieder transistoren. wenn man die architektur genau wissen würde, würden wir bestimmt noch mehr sachen finden die beim zocken nix brigen und somit wegfallen, auch wenn der l2 cahe es net alleine bringt, die summe des einsparpotenzials sollte schon net unterschätz werden.
 
So viele Transistoren werden das allerdings wohl nicht sein. Aber wie du ja jetzt selbst feststellst ist jegliche Spekulation über eine Summe ohne jegliches Hintergrundwissen sinnlos.

Von daher halten wir einfach mal fest das der "Neue" Transistoren durch Einsparungen im Sinne von GPGPU bei Gamerkarten verliert, aber wohl nicht in einem wirklich tragbaren Umfang um ihn schon im Vorfeld von der Transistorzahl mit dem RV870 gleichzustellen.
 
Naja, das weißt du ja nun auch nicht, wie umpganfreich der GPGPU bereich wirklich eingeflossen ist.

Einiegen wir uns darauf das der g300 irgendwo bei ~2,5 milliarden transistoren liegen muss, du sagst drüber, ich drunter, bald wissen wir mehr.
 
Ich sage nicht drunter oder drüber, nur das es nix bringt dauernd mit dummen Zahlen zu hantieren die aus grober Phantasie entstehen.
 
Was willst du dann in diesem thread? ;)

Genau darum geht es hier doch mit halbwahrheiten und halbwissen durch die gegend zu schmeißen und sich mit den meinungen anderer auszutauschen. natürlich werden wir es bald alle schwarz auf weiß sehen. Im grunde ist dieser thread unnütz, aber macht es ncht auch spaß ein bissel detektiv zu spielen? die puzzlestücke zu einem bild zusammen zu fügen und die enten auszusortieren und am ende dem rest sein bild zu ptäsentieren? um am ende sagen zu können, ich hab es doch gewusst?

einen anderen sinn erfüllt dieser thread doch net, wenn du das net willst solltest du vllt. woanders posten. :fresse:

Natürlich arbeiten wir mit phantasiezahlen und bezugnahme auf vorherige chips, denn was anderes habewn wir hier nunmal net, irgendwo mit müssen wir unsere meinung ja auch drauf stützen.

Naja ich fand unsere diskussion jedenfalls schoinmal gehaltvoller als das, was manch anderer zu dem thema zu sagen hat: "boahr 3 milliarden transistoren und 512 shadereinheiten mit MIMD-fähiglkeit, was ein monster, ati wird untergehen..."

ich wollte halt ein bissel hinter die fassade blicken.
 
Zuletzt bearbeitet:
Ich poste hier wenn ich interessante Informationen finde über die es sich zu schreiben lohnt.

Allerdings wirds in letzter Zeit immer häufiger das man mit anderen diskutieren muss die nur ungern höhren das der "Neue" von NV vor ihrer heißgeliebten Neuanschaffung von ATI liegen könnte oder Leute die ihre Spekulationen Kund tun müssen ohne sich vorher etwas mit diesem Thread hier beschäftigt zu haben.
 
Ich poste hier wenn ich interessante Informationen finde über die es sich zu schreiben lohnt.

ja eben, die machst genau das wie viele andere auch, die enten vom gehaltvollen informationen zu trennen, oder zumindest versuchst es (nicht negativ gemeint)

und dir darauf dann DEINE meinung vom gt 300 vor release zu bilden und dann gucke in wie weit man recht hatte. im endeffekt könnte man auch warten bis ein test hier auf der seite is und dann einfach den vericht lesen, da steht alles interessante genau drin. das wäre schneller und effektiver. trotzdem tut man es nicht :d

Allerdings wirds in letzter Zeit immer häufiger das man mit anderen diskutieren muss die nur ungern höhren das der "Neue" von NV vor ihrer heißgeliebten Neuanschaffung von ATI liegen könnte oder Leute die ihre Spekulationen Kund tun müssen ohne sich vorher etwas mit diesem Thread hier beschäftigt zu haben.

Ja teilweise echt EXTREME F****** . in beiden lagern.
 
Zuletzt bearbeitet:
Naja, sowas von wegen 3-mal so schnell wie rv870, da muss ich mir schon ddie augen reiben, onst find ich es eigentlich net so schlimm, is vllt. ein bissel falsch rüber gekommen.

Nein, es sind auf noch 768 kibyte cache auf dem fermi-chip. der kostet schon ordentlich transistoren, aber der g300 wird den ja nicht haben und andere dinge auch nicht, somit denke ich shon, das man beim g300 deutlich unter 3 miliarden transistoren bleiben wird.


Ja, aber mehr als 20% über 5870 kann es fasst net werden, ich denke der g300 ist ein ähnlicher fortschritt wie der rv 870, gpgpu jetzt außen vor. im gamingbereich dx11 integration und halt normale verdoppelung (512 zu 240 shadern ist etwas mehr als verdoppelung, ich weiß) und verbessrung von rops shadern usw. ich denke es wird so aussehen wie bei der jetzigen generation, zumindest leistungstechnisch.

würde mir reichen, nur solt er ma kommen...
 
auch mit finalen Treiber wird sich daran nichts ändern.
Du gehörst also zum Entwicklungsteam der Treiber? Interessant. Erzähl uns mehr ...

wer zum Henker nutzt bitteschön eyefinity?
Wer es nutzt, war nicht das Thema. Die Technologie ist vorhanden, fertig. Da kann man genauso gut fragen "wer zum Henker nutzt bitteschön 3D Vision?". Und ja, gerade in produktiven Arbeitsumgebungen gibt es einige Szenarien für Multimonitoring.

Die 5870 ist doch eigendlich eine Midrangekarte
Nein, sie ist eine Performance Karte. Mid-Range ist eher 56xx bzw 57xx. Und ich kann fdsonne nur zustimmen, gerade bei den günstigeren Modellen macht Multimonitoring ebenfalls Sinn.


Aber jetzt hört langsam mal bitte damit auf. Ich habe schon mehrfach gesagt, dass das für solche Diskussion der falsche Thread ist. Hier geht es um den GT300 und nicht um die Funktionalität des RV870.
 
Immerhin ist der Wechsel von DX10 auf DX11 "etwas anderes" als von DX9 auf DX10, da macht es echt keinen Sinn weiterhin die DX10 Karten zu produzieren.

Wenn der GT300 allerdings ein Flop ist, dann, naja, denken wir nicht dran. Hoffe nur es gibt etwas "anständiges" im Vergleich zu Eyefinity. =)
 
Ist aber schon dreist von NV was zu dementieren das dann doch stimmt und Charly als von
ATI bezahlten Lügner hinzustellen wenn man selber nicht die Wahrheit sagt finde ich.
 
ohohoh irgendwie glaube ich das eventuell düstere zeiten auf uns zu kommen!

AMD/ATI gehts finanziell wirklich sehr schlecht, egal wie toll/nicht toll die aktuellen karten sind und Nvidia scheint
langsam zu merken das, bei der aktuellen stagnation im spiele bereich, dass geld eher im Cad etc. bereich zu holen ist!

was meint ihr wann mit neuen Nvidia karten zu rechnen ist? wollte eigentlich bis anfang 2010 gucken ob dieses mal
Nv oder Ati das rennen macht und dann zuschlagen...
 
Stehen nen paar neue Sachen drin.

Whitepapers dienen dazu unbefangen die technischen Möglichkeiten eienes Produktes zu erläutern.
 
was meint ihr wann mit neuen Nvidia karten zu rechnen ist? wollte eigentlich bis anfang 2010 gucken ob dieses mal
Nv oder Ati das rennen macht und dann zuschlagen...

Ich mache mir da jetzt mal keinen Stress........ich warte ab bis Nvidia Ihre Karte bringt und dann werde ich zuschlagen. Habe es immer so gehalten und bleibe dabei. Verstehe die ganze Aufregung nicht. Dieses Kronengerangle geht doch seit ewigs so......... wie oft hat ATI schon weis ich nicht was alles versporchen und dann kam nix oder ging ewigs. Von daher bleibe ich Loyal und meine 2x 260er reichen mir noch vollends.
 
endlich funzt das Forum wieder :d

Das immer geil wenn leute sagen , die schnellste single GPU karte sei eine mid range karte, was ist dann der 280? lowend zum teuren preis :d

das war an die 4870 angelehnt, welche nunmal eine Midrangekarte darstellt. Auch als sie gerade released wurde^^Jagut, dann ist die 5870 eben eine "Performancekarte". Wenn jetzt alle Welt hier nur noch an die armen Firmen denkt wie toll die Karten doch dafür sind ist der Spielemarkt bald tot und man kann sich demnächst wieder ne Konsole holen und gut ist^^
Das sich nVidia aus dem High-End segment zurückzieht kann man auch in gewisse Sparten aufteilen. Zum einen kann damit wie schon angekündigt nur der GT200b gemeint sein, aber ebenso die neuere Generation. Zum anderen orientiert sich ja nVidia neu und könnte für den Gamingbereich die GTX380 ebenso wie die 5870 auch nur eine Performancekarte werden und schiebt die MGPU-Lösung als High-End Karte gleich mit um gegen die x2 anzustänkern.
Klaro ist das spekulativ, aber wenn die so auf ihrem Cuda rumreiten könnte das tatsächlich so eintreten. Dementsprechend finde ich es dann aber auch nicht verkehrt Gamingkarten von einem Cudagroßteil zu befreien und sich dementsprechend lieber für Gamer wichtigere Teile zu investieren.
Was sie da nun genau vor haben wurde ja noch nicht gesagt...es bleibt also spannend

Du gehörst also zum Entwicklungsteam der Treiber? Interessant. Erzähl uns mehr ...

nein, und das habe ich auch nicht behauptet

Wer es nutzt, war nicht das Thema. Die Technologie ist vorhanden, fertig. Da kann man genauso gut fragen "wer zum Henker nutzt bitteschön 3D Vision?". Und ja, gerade in produktiven Arbeitsumgebungen gibt es einige Szenarien für Multimonitoring.

Das war lediglich auf uns Spieler geeicht...ich denke das Thema ist jetzt erledigt.
 
Zuletzt bearbeitet:
Ich denke auch das es gut wäre wenn NV eine reine Gamer Karte auf Basis des Fermi
bringen würde. Sollte dann wenn einige features die der Gamer nicht braucht deaktiviert werdem auch stromsparender und kühler bleiben.
Denn die grösse des marktes der sowas bräuchte ist sicher nicht zu unterschätzen.
 
Zuletzt bearbeitet:
AMD/ATI gehts finanziell wirklich sehr schlecht
Das war vielleicht mal so. Who knows. Mittlerweile sind sie dank der Ausgliederung der Fabs und Investoren wie ATIC aber wieder solide positioniert. Womöglich kommen auch noch einige Milliarden durch die Zivilklage gegen Intel hinzu. Das ist allerdings ebenfalls ein Thema für einen anderen Thread.

nein, und das habe ich auch nicht behauptet
Nun ja, deine scheinbar unumstössliche, auf Fakten basierende Aussage hörte sich aber so an. :rolleyes:

Das war lediglich auf uns Spieler geeicht...
Dann ist dir hoffentlich spätestens jetzt klar, dass GPUs nicht nur für Spiele entwickelt werden. Wobei sicherlich der eine oder andere Enthusiast auch dafür Eyefinity nutzen wird.
 
Nun ja, deine scheinbar unumstössliche, auf Fakten basierende Aussage hörte sich aber so an. :rolleyes:

Dann ist dir hoffentlich spätestens jetzt klar, dass GPUs nicht nur für Spiele entwickelt werden. Wobei sicherlich der eine oder andere Enthusiast auch dafür Eyefinity nutzen wird.

zu1) Man kann froh sein, dass schon das erreicht wurde, was ATI bis dato geschafft hat. Warum sollte ein Bereich dann abgedeckt werden worin in einem non finalen Treiber nichtmal ein Ansatz davon zu sehen ist. In letzter Zeit hat ATI gut daran gearbeitet, ja und auch Verbesserungen geschaffen. Diese Thematik wird sicherlich weiterbehandelt werden. Jedoch für den nächsten anstehenden finalen Treiber unschaffbar.
Ich denke die Tonlage in meinen Sätzen scheinen hier ein wenig missverstanden zu werden^^

zu2)
achsoo, das hättest du ja gleich sagen können *G*
ich denke natürlich nur daran, dass sich hier ausschließlich Firmeninhaber und -interessierte treffen.:-)rolleyes::stupid:)
Selbstverständlich rede ich von einem Heimgebrauch. Was interessiert mich wer was in Firmen macht ?! Selbst Enthusiasten tun sich schwer damit sich mal eben drei TFTs einer Sorte zu gönnen
(als doof hingestellt zu werden stört mich dann aber doch ;))

....jetzt lass uns den Quatsch mal bitte beenden.
 
zu2)
achsoo, das hättest du ja gleich sagen können *G*
ich denke natürlich nur daran, dass sich hier ausschließlich Firmeninhaber und -interessierte treffen.:-)rolleyes::stupid:)
Selbstverständlich rede ich von einem Heimgebrauch. Was interessiert mich wer was in Firmen macht ?! Selbst Enthusiasten tun sich schwer damit sich mal eben drei TFTs einer Sorte zu gönnen
(als doof hingestellt zu werden stört mich dann aber doch ;))

....jetzt lass uns den Quatsch mal bitte beenden.

Das Problem ist doch, das der HighEnd Gamingmarkt im Vergleich zum Workstationmark auf selber GPU Basis weit kleiner ist...
Sprich, das was wir hier im Gamingmarkt haben ist gut und schön, aber das was den GPU Entwickler wollen, ist doch auch nur das Geld der Kunden... Und da verkaufen sich nunmal Quadro Karten weit besser (und wirtschaftlicher) als irgendwelche auf niedrig Preis getrimmten HighEnd Desktop GPUs...

Wenn man so will, könnte man den HighEnd Gamingmarkt quasi als "Nebenprodukt" des Profimarktes sehen...

NV scheint laut derzeitigen Infos genau den Weg noch weiter auszubauen und noch viel primärer als bisher den Profimarkt beliefern zu wollen...

Es bleibt abzuwarten, was da am Ende für uns Gamingkunden rauskommt.



Ich könnte mir aber auch vorstellen, NV geht den selben Schritt zurück wie AMD damals, sprich man baut Performancekarten und deckt den HighEnd Gamingmarkt mit Dual GPU Lösungen ab...
 
Ich könnte mir aber auch vorstellen, NV geht den selben Schritt zurück wie AMD damals, sprich man baut Performancekarten und deckt den HighEnd Gamingmarkt mit Dual GPU Lösungen ab...

ja, wie oben von mir schon erwähnt.
Das würde den Markt seitens nVidia aber auch nicht unbedingt fördern, da ATI nun mittlerweile schon nen recht großen Vorsprung hat und im Begriff ist mit der 5890 zu winken. Sollte dem wirklich so sein wirds langweilig (Leistung) und es gibt lediglich Preis- anstatt Leistungskronen die verteilt werden können. Interessant zu wissen wäre, ob durch den Cudabeschnitt die Karte dementsprechend günstiger in der Produktion wird als die dann evtl ebenbürtigen 5870er Karten.
 
ja, wie oben von mir schon erwähnt.
Das würde den Markt seitens nVidia aber auch nicht unbedingt fördern, da ATI nun mittlerweile schon nen recht großen Vorsprung hat und im Begriff ist mit der 5890 zu winken. Sollte dem wirklich so sein wirds langweilig (Leistung) und es gibt lediglich Preis- anstatt Leistungskronen die verteilt werden können. Interessant zu wissen wäre, ob durch den Cudabeschnitt die Karte dementsprechend günstiger in der Produktion wird als die dann evtl ebenbürtigen 5870er Karten.

Neja wen man mal weiter schaut, geht NV den gleichen Schritt zurück wie AMD, dann werden wohl die beiden Top Single GPU Karten wieder auf einem Niveau ca. liegen, sprich quasi das neue HighEnd in der Klasse Single GPU.
Die Dual GPU Karten werden dementsprechend wohl auch ca. gleichauf liegen und wir wären wieder bei dem Standpunkt, wie es vor der R600 AMD Karten war...

Sprich beide Kontrahenten mit etwa ebenbürtigen Produkten, was den Preis hoch treibt, weil eben beide wieder gleich auf wären...

NVs Problem aktuell ist doch, das sie die AMD Konkurenzprodukte aus GPUs bauen, die teildeaktiviert sind und eigentlich viel mehr Kosten müssen...
Das Problem würde entfallen...



Es bleibt aber weiterhin dabei, das die 1D ALUs etwas ineffizienter bei Fläche Pro Leistung dastehen werden, als die 5D ALUs von AMD...
Aber dennoch, das wäre ein Schritt in die richtige Richtung seitens NV.
 
Wenn NV aber jetzt die CUDA-Shader beschneidet (also einfach weniger bei dem G300 verbaut), wie wirkt sich das dann auf Tessation und PhysX aus ( ersteres soll NV ja nur softwareseitig beherschen, AMD ja schon seit dem R600? in Hardware).

Mein das frisst ja dann schon die Leistung der CUDA-Cores auf , wenn man beides haben will DX11 effecte und noch irgendein müll der durch die gegen fliegt , dank PhysX :fresse:
 
Nö, PhysX läuft doch auf aktuellen Karten auch super über die Shader...

Das was man weglassen könnte, wären die DP Units, die im Gamingbereich sogut wie kein Mensch brauch.
 
würd gerne mal nen beweiss sehen das der g300 irgendwas dx11 mässiges nicht in hardware kann
 
PhysX braucht aber heute auch schon leistung , siehe Badman:AA tests.

Einige seite haben es berichtet, feste aussagen gibt es dazu seitens NV noch nicht.


Aber NV geht jetzt eher den weg des intel larrabee, alles frei programmiertbar und meiste neue sachen über software laufen lassen.


hier von FiringSquad zu Badman:AA

GeForce GTX 275
Kein PhysX:119
Low PhysX:55
High PhysX:46

Also ich find das frisst ordentlich an leistung ^^
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh