nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
Gerade habe ich einfach mal nach tdp gegoogled und das gefunden Link, wenn der Artikel stimmt dann kann man ja schon sehen, dass der reale Verbrauch irgendwo in der Nähe von den TDP Angaben liegt, ausser bei der X2 die sprengt die Tabelle. ^^
Auch wenn das ganze natürlich nichts handfestes ist, aber man kann ja schon abschätzen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
dass der reale Verbrauch irgendwo in der Nähe von den TDP Angaben liegt, ausser bei der X2 die sprengt die Tabelle. ^^
.
Also für mich sieht es bei all den Highendkarten so aus,als ob sie im Worst Case über der TDP Grenze liegen,so wie ich das schon angedeutet habe;)



Auch bei der 280GTX hab ich schon Werte jenseits der 240Watt Marke gesehen,mit den üblich verdächtigen Programmen(unübertaktet versteht sich)

Einzig u allein die überarbeitete 9800 GTX+ u das Midrange Modell der 4er Reihe von ATI fallen hier nicht negativ auf.
 
Zuletzt bearbeitet:
Jup also kann man bei der 380er auch davon ausgehen, dass der Verbrauch etwas drüber liegen wird. Wie das nun technisch aussieht, davon habe ich kein Plan. ( also anschlüsse und pcie etc. ) Wie der X2 wird es hoffentlich nicht sein. *hrhr*
 
Jup also kann man bei der 380er auch davon ausgehen, dass der Verbrauch etwas drüber liegen wird. *

Allerdings nur im extremsten Fall den Otto normal User niemals erreichen sollte.

Da Highendkarten aber auch von Enthusiasten verwendet werden u diese auch des öfteren die dumme Angewohnheit haben zu übertakten:haha: ,oder die Hardware mit realitäsfernen Pelzdonuts quälen.Muss einfach eine gewisse Reserve in der Stromversorgung vorhanden sein;)

Und wenn Nvidia die TDP des Fermi mit 225 Watt beziffert wird kein Boardpartner so waghalsig sein u nur 6x6Pin Stromanschlüsse im Boardlayout verbauen bzw wird es Nvidia wohl schon nicht zulassen;)
 
Zuletzt bearbeitet:
Vielleicht haben sie aus der TDP von 225Watt geschlussfolgert,das er mit 2x6 pin auskommen müsste.

Ist auch richtig wenn man annimmt das diese Grenze nicht überschritten wird.

Allerdings sollte jedem klar sein das ein Netzteil mit 2x6pin,einschliesslich des PCIE Steckplatzes,an der absoluten Grenze für eine TDP von 225Watt arbeiten würde.

Und wie ich oben schon anmerkte die Vergangenheit hat gezeigt das von keinem Hersteller im Worst Case(z.B Furmark) in der Vergangenheit diese Grenze gehalten wurde.

Deshalb muss ein Hersteller eine gewisse Sicherheit nach oben hin einbauen u das ist nur mit 6pinx8pin möglich bei 225 TDP


Das entspricht nicht ganz der Wahrheit. Die Spezifikation beinhaltet was ein Netzteil an diesen Anschlüssen an Leistung bringen MUSS... nicht was es kann...

Das was ein Netzteil darüber an Watt (Power) an die Grafikkarte liefern kann ist abhängig von der Stromstärke (Amperè)
Wenn man also ein starkes Netzteil hat, welches ausreichend Leistung auf den 12V Rails bringen kann, bei mehreren Rails ist die Combined Power aller Rails wichtig. Dann sind die TDP angaben nicht als grenzwertig zu betrachten... P= U*I

http://www.sengpielaudio.com/Rechner-ohmschesgesetz.htm

Hersteller die ein Gerät aber mit solchen Anschlüssen ausstatten. Müssen gewährleisten das diese auch mit der notwendigen Versorgung laufen.
Was aber bei 40nm kein Hexenwerk sein sollte für Nvidia.

Wenn das Netzteil aber zu schwach ist oder die Spannungsversorgung auf dem GPU PCB minderwertig ist kann das OC Potenzial jedoch darunter leiden.


Ich würde mir sogar wünschen wenn nvidia es schafft das kommende flagschiff mit "nur" 2x6pin zu versorgen, und dafür wieder Volterras vorgibt :)
 
Zuletzt bearbeitet:
Die Verlustleistung bzw. den Wirkungsgrad einer jetzigen, bekannten Grafikkarte könnte man durchaus berechnen wenn man entsprechende Faktoren genauer kennen würde. Sicherlich sind die Ingenieure der Grafikhersteller in der Lage das zu berechnen, aber das geht dann richtig tief in die Elektrotechnik hinein.

Der Hersteller wie in diesem Fall nVidia wird schon eine TDP herausgeben die über dem eigentlichen Wert liegt. Zum einen sichert man sich damit ab. Auf der anderen Seite kann es auch durchaus sein, dass eine GPU eine leicht andere TDP hat als die GPU, die gleich danach vom Band ging. So etwas ist bei Prozessoren auch gang und gebe (siehe Tjunction, die ist bei jeder CPU anders).
 
und dafür wieder Volterras vorgibt :)

Ja die wären auch auf meiner Wunschliste;)

---------- Beitrag hinzugefügt um 12:01 ---------- Vorheriger Beitrag war um 12:00 ----------

Wenn das Netzteil aber zu schwach ist oder die Spannungsversorgung auf dem GPU PCB minderwertig ist kann das OC Potenzial jedoch darunter leiden.
:)

Genau das ist die Kernaussage,der ich auch vollends zustimme;)

Nur kann sich ein Grafikkartenhersteller nicht darauf verlassen das jeder ein potentes Netzeil im Rechner schlummern hat,also muss er das mit seinen Mitteln sicherstellen u da bleibt nur die Spannungsversorgung an der Karte selbst
 
Zuletzt bearbeitet:
Jo aber man muss auch bedenken das eine überdimensionierung der elektrischen Listungsaufnahme wieder schlechte Kritik einbringen würde. Wo AMD gerade erst neue Maßstäbe gesetzt hat.

Ausserdem hoffe ich doch sehr das Nvidia aus der Spulenfiepen affaire etwas gelernt hat.

Aber nochmals... TDP (Thermal Design Power) steht nicht im zusammenhang mit der nötigen Stromversorgung... sie kann sowohl kleiner als auch größer sein als die eingehende Leistung...

Hier bitte nachlesen!!!

Da es keine Normung für die Angaben der TDP gibt die eine BurnIN des Gerätes vorschreiben, hat jeder Hersteller seine eigenen Methoden diese zu klassifizieren.

Und genau deswegen überschreiten manchmal Karten den wert in besagtem Furmark...

Ich finde die Presse sollte bessere aufklärung betreiben als immer wieder nur gefährliches Halbwissen zu verbreiten und die Leute verrückt zu machen.

Zumal jeder wissen sollte das es bei allen Richtlinien dieser Welt immer Tolleranzen gibt...

Ein Fahrstuhl der für 9 Personen freigegeben wurde stürzt auch nicht bei Person 11 ab ;)

---------- Beitrag hinzugefügt um 13:02 ---------- Vorheriger Beitrag war um 12:48 ----------

Die Verlustleistung bzw. den Wirkungsgrad einer jetzigen, bekannten Grafikkarte könnte man durchaus berechnen wenn man entsprechende Faktoren genauer kennen würde. Sicherlich sind die Ingenieure der Grafikhersteller in der Lage das zu berechnen, aber das geht dann richtig tief in die Elektrotechnik hinein.


Diesen Wert kann man nur grob einschätzen bzw. nicht genau berechnen. Jede DIE ist quasi ein unikat was das angeht. Der Hersteller stuft TDP und Taktwerte erst nach der fertigung bei diversen Test ein, und gibt jede GPU zu unterschiedlichen späteren Klassen frei.

Minderwertigere CPU's und GPU's werden entsprechend der qualität dann einer TDP eingestuft, sowie durch deaktivieren Teildefekter zonen im Chip für eine entsprechende CPU/GPU-Klasse freigegeben. z.B. wird eine "gute" DIE zum GTX 285 etc. und eine schlechtere zum GTX 260
oder eine gute CPU DIE zum Quad eine schlechtere zum Trible oder Dual... so werden verluste und verschnitt aus der Serienstreuung minimiert und Verhindert das ein Käufer einer hochwertigeren ware im Preis den Verlust mit tragen muss den ein Hersteller eingefahren hat durch wegwerfen!


Jeder Hersteller hat da seine eigene Methode entwickelt. Die Becks Brauerei hat wegen der Qualitätsstreuung ihres Bieres dafür noch eine weitere Hausmarke... Haake Beck so muss man die plörre nicht gleich weg kippen wenn der Braumeister schon besoffen war :d

---------- Beitrag hinzugefügt um 13:11 ---------- Vorheriger Beitrag war um 12:48 ----------

Der Hersteller wie in diesem Fall nVidia wird schon eine TDP herausgeben die über dem eigentlichen Wert liegt. Zum einen sichert man sich damit ab. Auf der anderen Seite kann es auch durchaus sein, dass eine GPU eine leicht andere TDP hat als die GPU, die gleich danach vom Band ging.


Korrekt!


So etwas ist bei Prozessoren auch gang und gebe (siehe Tjunction, die ist bei jeder CPU anders).

Stimmt nicht ganz... eine CPU Klasse wie Yorkfield oder Wolfdale haben alle samt die gleiche TJMax freigabe bzw. temepratur obergrenze... Was du sicherlich meinst ist die VID der Prozessoren... je nach Qualität der DIE wird eine Spezielle VID einprogrammiert also die mindest vCore des Prozessors
 
Zuletzt bearbeitet:
Diesen Wert kann man nur grob einschätzen bzw. nicht genau berechnen. Jede DIE ist quasi ein unikat was das angeht. Der Hersteller stuft TDP und Taktwerte erst nach der fertigung bei diversen Test ein, und gibt jede GPU zu unterschiedlichen späteren Klassen frei.

Stimmt nicht ganz... eine CPU Klasse wie Yorkfield oder Wolfdale haben alle samt die gleiche TJMax freigabe bzw. temepratur obergrenze... Was du sicherlich meinst ist die VID der Prozessoren... je nach Qualität der DIE wird eine Spezielle VID einprogrammiert also die mindest vCore des Prozessors

Wenn ich mich recht erinnere, war es doch so, dass Programme zum auslesen der CPU Temp die Tjunction erraten haben bzw. diese erst gar nicht bekannt ist. Jede CPU hat eben einen anderen Tjunction Wert, daher können die ganzen Programme diese Werte auch nur schätzen und anhand dieser Werte die Temps ermitteln.

In Bezug auf Verlustleistung: wenn man alle Faktoren messen könnte (elektrische Werte), was ja an sich im Labor kein so großes Problem darstellt, wäre es möglich die Verlustleistung annähernd zu berechnen. Es würde ja schon reichen das ganze für 1 Transistor zu bestimmen und anschließend grob hochzurechnen (für den entsprechenden Bereich in der GPU).
 
Wenn ich mich recht erinnere, war es doch so, dass Programme zum auslesen der CPU Temp die Tjunction erraten haben bzw. diese erst gar nicht bekannt ist. Jede CPU hat eben einen anderen Tjunction Wert, daher können die ganzen Programme diese Werte auch nur schätzen und anhand dieser Werte die Temps ermitteln.

In Bezug auf Verlustleistung: wenn man alle Faktoren messen könnte (elektrische Werte), was ja an sich im Labor kein so großes Problem darstellt, wäre es möglich die Verlustleistung annähernd zu berechnen. Es würde ja schon reichen das ganze für 1 Transistor zu bestimmen und anschließend grob hochzurechnen (für den entsprechenden Bereich in der GPU).

ein gemessener wert muss nicht erst errechnet werden :d

wie gesagt es kommt auf die qualität an glaub mir ;)

was den TJunction BUG angeht diverser monitore so ist das auf eine ursprünglich falsche dokumentation seitens intel zurück zu führen.

bei allen wolfdale bzw yorkfield prozessoeren war man von 100 ausgegangen, richtig war aber 105 ;) oder umgekehrt ^^
dadurch kam es zu größeren messungenauigkeiten

der temperaturwert von prozessoren wird zudem mehr geschätzt als gemessen. es gibt keine hinweise darauf welcher widerstandswert vom PTC-Temperaturgeber der cpu bei welcher temperatur ausgegeben wird... lediglich der obergrenzwert bei dem sich die cpu drosselt und irgendwann abschaltet. die programme errechnen die IST temp an der entfernung in % zu diesem oberwert...

diese prozessor thermometer eignen sich somit nicht wirklich zum fiebermessen ;)


have a look at this intel document:
Intel® Core™2 Duo Processor and Intel® Core™2 Extreme Processor on 45-nm Process for Platforms Based on Mobile Intel® 965 Express Chipset Family

http://www.intel.com/design/mobile/datashts/318914.htm

see page 71, the last entry in table 15:

Tj JunctionTemperature Max=105C

but again, this is for mobile processors only. intel did not specifiy this for desktop and server processors in any document. doub't you can use this value on desktop and server processors too, though many people including writers of temperature monitoring software tend to do. have a look at RealTemp, thread here in the forums, for a slightly different approach ...


siehe hier

http://www.hardwareluxx.de/community/showthread.php?t=491602


and now :btt:^^
 
Zuletzt bearbeitet:
Damit es nicht all zu OT wird:

abgesehen von der Größe des G300 sind sicherlich noch einige Reserven bedingt durch das kleiner Herstellungsverfahren gegeben. Ich bezweifel stark, dass nVidia es schafft dieses "Plus" wieder duch die Taktraten/Spannung und Die-Größe auf Null zu reduzieren.
 
ne takt und spannung wohl nicht, aber die steigende anzahlt der transistoren nimmt nahezu immer perversere formen an... hab irgendwo gelesen gehabt die tage das nvidia eingeräumt hätte bei der leistungsaufnahme nicht prioritär einen geringeren wert anzustreben. aber fermi soll vom design her anpassbarer sein. ich verstehe das in der tat so das wohl tesla/quadro etc. nicht mehr = GeForce sein werden...

http://www.hardware-infos.com/news.php?news=3233


PS: Wenn ich das so lese hoffe ich das nv nicht vergisst das auch spieler ggf. ein wenig von cuda profitieren möchten ^^
 
Zuletzt bearbeitet:
logo, aber mal ganz von der sache abgesehen. ich glaube nvidia wird schon ne ordentliche dampframme ins rennen schicken... auch wenn viele der meinung sind das sich nvidia nach dem hervorragenden ergebnis des RV870 schwer tun könnte was besseres auf den markt zu bringen...

ich denke wir alle wissen wozu nvidia im stande ist. und wenn amd/ati nicht ebenfalls so exzellente grafikkarten bauen würde, müsste nv sich auch nicht so ins zeug legen...

zudem sagt man ja immer "gut ding braucht weile"

und ich freu mich schon darauf wenn die ganzen überläufenden verräter sich später die haare ausreißen weil sie nicht warten konnten :teufel:
 
PS: Wenn ich das so lese hoffe ich das nv nicht vergisst das auch spieler ggf. ein wenig von cuda profitieren möchten ^^

Nicht nur alleine von Cuda,Raytracing sollte auch so langsam mal in Rampenlicht rutschen,wenn das Ding schon mit Cuda sogut umgehen kann sollte Nvidia auch daran denken;)
 
Zuletzt bearbeitet:
logo, aber mal ganz von der sache abgesehen. ich glaube nvidia wird schon ne ordentliche dampframme ins rennen schicken... auch wenn viele der meinung sind das sich nvidia nach dem hervorragenden ergebnis des RV870 schwer tun könnte was besseres auf den markt zu bringen...

ich denke wir alle wissen wozu nvidia im stande ist. und wenn amd/ati nicht ebenfalls so exzellente grafikkarten bauen würde, müsste nv sich auch nicht so ins zeug legen...

zudem sagt man ja immer "gut ding braucht weile"

und ich freu mich schon darauf wenn die ganzen überläufenden verräter sich später die haare ausreißen weil sie nicht warten konnten :teufel:

Ich bin auch echt gespannt wie sich die Karten schlagen werden, nur, wie scully1234 schon schreibt, kann man eben nur abwarten und schauen was nVidia aus dem Gamer-Bereich macht. Meiner Meinung nach wird das Thema Raytracing und co. noch etwas brauchen um sich durchzustezten. Dazu fehlt einfach noch die Unterstützung der Softwareentwickler, und diese wiederum sagen sich: wozu soll ich den auf RT setzten wenn das bisherige Verfahren auch ausreicht. Außerdem stellt RT für die eine komplettes Neuland dar.
 
Ich denke 4 TFLOP/s @ Single Precission und knappe 600 GFLOP/s @ Double precission werden der radeon das fürchten auch abseits vom GPGPU sektor lehren:banana:
 
wozu soll ich den auf RT setzten wenn das bisherige Verfahren auch ausreicht.

Weil der Onkel scully sich nicht mit veralteter Vectorgrafik zufriedengeben möchte:fresse:

Ne aber mal im ernst wenn dem Ding eine so hohe GPGPU Leistung bescheinigt wird wie angegeben,dann könnte man durchaus schonmal experimentelle demos wie auf der SigGraph zu sehen war im umlauf bringen.Was damals noch mit einem Quadroplex system lief könnte heute durchaus schon mit ein oder zwei Fermis zu machen
 
Zuletzt bearbeitet:
Ich denke 4 TFLOP/s @ Single Precission und knappe 600 GFLOP/s @ Double precission werden der radeon das fürchten auch abseits vom GPGPU sektor lehren:banana:

Wie kommst du auf 4 TFlops?


Da 2 Shadereinheiten für eine DP-Berechnung zusammenarbeiten sollte die SP-Leistung um den Faktor 2 zur DP-Leistung steigen. Aber vielleicht bist du ja besser informiert?
 
http://www.golem.de/0911/71229.html

Nvidia hat die bei doppelter Genauigkeit so stark gesteigerte Leistung unter anderem durch mehr Caches in der GPU erreicht, wovon bei Spielen nur Shaderprogramme, nicht aber der Großteil der Geometrie-Pipeline profitieren kann. Bei Vorstellung der Fermi-Architektur schätzte Golem.de eine Leistung von 4 Teraflops bei einfacher Genauigkeit, was bisher noch gut mit den Angaben von Nvidia korreliert. Zum Vergleich: AMD gibt für seine 5870 bei einfacher Genauigkeit 2,71 Teraflops an und 544 Gigaflops bei doppelter Genauigkeit. weiter...
 

Anhänge

  • z000011-Image10.png
    z000011-Image10.png
    39,3 KB · Aufrufe: 67
Zuletzt bearbeitet:
Und was lesen wir unten? Das es für Spiele nicht umgesetzt werden kann bzw kaum hilfreich sein wird die aktuelle Rechenleistung.

Auf dem Papier hat die 4870 nen Terraflop Rechenleistung und damit deutlich mehr Papier Power als Nvidia und was kam bei rum? Sie kam nicht an die Gaming Leistung einer 280GTX heran.

So kannst mit Fermi im Augenblick auch Rechnen. Ich sage nochmal - Gamingkarten sind die Abfallprodukte vom Fermi. Der Fermi wird nicht fürs Gaming entwickelt.
 
mom nicht ganz richtig... es ist eher für shader lastige dinge von vorteil als für geometrie

nichts desto trotz hat nv bei der letzten gen schon schlechtere floatingpointops erreicht als ati und war effektiv doch leicht besser oder nicht?

wenn die quote bleibt dann sag ich mahlzeit ^^
 
Wie viele Shaderlastige Games haben wir den außer Crysis? :d
 
Nein ist schon gut so , weißt doch die sind dann eh nur scheiße Programmiert wie Crysis :d
 
und das maß aller dinge in sachen grafik... wer braucht sowas dann schon? :hmm:

und das die aus deutschland kommt die engine weißt du auch... aber ist evtl besser wir kaufen unsere sachen nur noch im ausland... gehts der deutschen wirtschaft bestimmt bald besser :P

wat sagt dir eigentlich das crysis kacke programmiert war? klär mich mal auf^^
 
Nein ist schon gut so , weißt doch die sind dann eh nur scheiße Programmiert wie Crysis :d

hehe das ist dann ja nur nen problem der umsetzung ;) bei warhead sahs ja schon besser aus.

grafisch mmn immer noch referenz (alleine amazonian river :love:). über die storry lässt sich ja streiten - ich fand diese jedoch auch okay

@€dit: alle falter hier im thread :haha: tjaja auch ich warte auch auf die neue karte :d
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh