AMD Radeon R9 Fury X im Test

Davon würde ich mich nicht abschrecken lassen. Das ist die Standardantwort auch meiner Entwickler. Keine Ahnung warum - Entwickler wollen sich immer 100% absichern wobei es nirgends 100% gibt.
Naja, wenn es nicht zutrifft.. sind ja die Entwickler schuld >_>

Aber ja, das klingt absolut nach eine Pauschalantwort aus dem Textbuch. Muss jetzt noch nicht sehr viel heissen.


Wo steht das die GK 100% Verluste hat? Das wäre echt schlimm.
Okey, jetzt hast du dich endgültig disqualifiziert.
Weitere Diskusion macht keinen Sinn.


In was sollen die sagen wir 275W denn sonst gewandelt werden wenn nicht in Wärme? Potentielle Energie? Rotatorische? Esoterische?
Wahrscheinlich in Pixel-Energie auf dem Bildschirm ;)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Dragon Tear: Meinte nicht das die Entwickler schuld sind - da hast Du mich da falsch verstanden - ohne Entwickler würde es nichts geben. Irgendwo ist die Realität immer zwischen Marketing/ Entwicklung. Wenn es nur nach der Entwicklung gehen würde dürfte man kein Produkt am Markt verkaufen da es bei einer Wahrscheinlichkeit von 1 zu 1 Mio. nicht auszuschliessen ist das ein Kunde das Produkt trotz Handbuch und Warnhinweisen so falsch bedienen/ einsetzen kann das Gefahr besteht. Glaub mir - ich habe da genug Diskussionen.
 
Zuletzt bearbeitet:
Natürlich, aber es bleibt die Frage wohin gehen denn die 275Watt denn (oder etwas über 300 unter dem jetzt möglichen OC)?
"Verluste" muss bedeuten dass die Energie irgendwo hin verloren geht, und das geschicht in solchen Fällen nur als Wärme. Oder meinst du die WLP wandelt die Wärmeenergie der GPU plötzlich in Elektrizität um? :d

Wer weiss, vieleicht hat AMD ja ein Peltier-Element eingebaut! :bigok:

Naja Powerplay bezieht sich ja wirklich rein auf den Radiator...und diese 500W sind, wenn überhaupt, wirklich auch nur das Maximum...das aller höchste Maximum...die Karte verbraucht an die 300W und ich habe jetzt schon vermehrt in unterschiedlichen Tests gelesen, dass die Karte sogar @Stock auf 65°C gekommen ist...wenn man jetzt noch locker 200W draufhaut, dann arbeitet die Kühlung aber wirklich am Limit!
Bei einer Grafikkarte wird die Wärme übrigens NIE zu 100% an den Kühlkorper abgegeben...Powerplay hat da ebenfalls recht...schon alleine die Wärmeleitpaste hat einen anderen Wärmekoeffizienten, sowie alle anderen Bauteile...dass die ~300W als Wärme frei werden ist natürlich völlig richtig...aber das wird nicht alles vom Kühlkörper abgeleitet...es geht schon Wärme über das PCB, die Leitungen, die Backplate etc. flötten, auf die der Kühlkörper keinen Einfluss hat.
 
Wo steht das die GK 100% Verluste hat? Das wäre echt schlimm.
Du bist jetzt nicht der einzige, aber

wo zur Hölle wart ihr auf der Schule?
Energieerhaltungssatz ist ja wohl grundlegendstes Physik Grundwissen.

Die Karte "verbraucht" 300W elektrische Energie, soll aber nur 100W wieder in Form von Wärme abgeben? Und der Rest? Verschwindet in eine andere Dimension oder was?

Das muss man doch überall machen. Ausser vielleicht dort wo es neben Stuhlkreisen nur Singen und Klatschen gibt.
 
Zuletzt bearbeitet:
Du bist jetzt nicht der einzige, aber

wo zur Hölle wart ihr auf der Schule?
Energieerhaltungssatz ist ja wohl grundlegendstes Physik Grundwissen.

Die Karte "verbraucht" 300W elektrische Energie, soll aber nur 100W wieder in Form von Wärme abgeben? Und der Rest? Verschwindet in eine andere Dimension oder was?

Das muss man doch überall machen. Ausser dort wo es neben Stuhlkreisen nur Singen und Klatschen gibt.

Also Energieerhaltung und so haben wir bei mir in der Schule nun wirklich nicht gemacht :d das hatte ich erst im Studium :(
 
Wo der Treiber bleibt? Das weiß nur AMD. Ich hätte ihn auch gerne! :/
 
@Dragon Tear: Meinte nicht das die Entwickler schuld sind - da hast Du mich da falsch verstanden - ohne Entwickler würde es nichts geben. Irgendwo ist die Realität immer zwischen Marketing/ Entwicklung. Wenn es nur nach der Entwicklung gehen würde dürfte man kein Produkt am Markt verkaufen da es bei einer Wahrscheinlichkeit von 1 zu 1 Mio. nicht auszuschliessen ist das ein Kunde das Produkt trotz Handbuch und Warnhinweisen so falsch bedienen/ einsetzen kann das Gefahr besteht. Glaub mir - ich habe da genug Diskussionen.
Doch ich hab dich schon richtig verstanden, denke ich. Meinte nur dass dies der Grund ist, wieso Entwickler am liebsten garnichts garantieren würden. Sonst bekommen sie den schwarzen Peter bei weniger vserständnisvollen Vorgesetzten...

EDIT:
dass die ~300W als Wärme frei werden ist natürlich völlig richtig...aber das wird nicht alles vom Kühlkörper abgeleitet...es geht schon Wärme über das PCB, die Leitungen, die Backplate etc. flötten, auf die der Kühlkörper keinen Einfluss hat.
Da kommen wir der Sache schon näher :)
Vergleiche aber mal die Oberfläche eines PCBs oder des Gehäuses, mit der des Radiators oder den Lamellen eines Luftkühlers. Ich schätze durch das PCB wird daher eher nur ein einstelliger Prozentsatz der gesamten Energie abgegeben...

Die "Verluste" durch die WLP resultieren darum ja auch in den Temperaturunterschied zwischen GPU und Kühlkörper. Was auch logisch ist - hätten GPU und Kühler/Wasser die selbe Temperatur, würde ja garkeine Energie/Wärme übertragen. Das kann nur geschehen wenn eine Diskrepanz da ist.
 
Zuletzt bearbeitet:
@Boogeyman015: Auch wenn mein Studium/ Schule schon lange zurückliegt und ich nicht als Techniker arbeite - das Energie nur in Form von Wärme ohne Nutzleistung/ Arbeit verbraucht wird wäre meiner Meinung nach schlimm. Falls ich mich mit diesem Posting disqualifiziert habe bitte verzeiht mir. Wie gesagt - ich bin nicht als Techniker beschäftigt und meine Ausbildung liegt lange zurück. Muss von Technik nur soviel verstehen das ich beurteilen kann ob die Entwicklung einen "Schwachsinn" macht oder nicht.
 
Zuletzt bearbeitet:
Natürlich, aber es bleibt die Frage wohin gehen denn die 275Watt denn (oder etwas über 300 unter dem jetzt möglichen OC)?
"Verluste" muss bedeuten dass die Energie irgendwo hin verloren geht, und das geschicht in solchen Fällen nur als Wärme. Oder meinst du die WLP wandelt die Wärmeenergie der GPU plötzlich in Elektrizität um? :d

Wer weiss, vieleicht hat AMD ja ein Peltier-Element eingebaut! :bigok:

Peltier hatten wir damals im Technik 3D Forum getestet aber das hatte dann auch mehr Wärme auf der rückseite erzeugt als der chip der gekühlt werden sollte.
Wenn 100% der wärme an das Wasser gehen würden dann sollte das wasser ja 1:1 die gleiche temperatur wie der Chip haben aber das erreicht man einfach nicht.
Ich habe ja zwei Titan@1404mhz danach kommt die CPU @ 4,5Ghz und wenn ich alleine den verbrauch der zwei TitanX ansehe habe ich laut PT ca. 300Watt pro karte und die CPU geschätzt 50Watt beim zocken. Das sind dann 650Watt aber laut Aquaero was ja anhand der Durchflussmenge und der Wassertemperaturunterschiede die Energie misst kommt da 400-450Watt raus und ich verwende sogar schon Liquid Metal was ne sehr gute wärmeübertagung hat.
 
Doch ich hab dich schon richtig verstanden, denke ich. Meinte nur dass dies der Grund ist, wieso Entwickler am liebsten garnichts garantieren würden. Sonst bekommen sie den schwarzen Peter bei weniger vserständnisvollen Vorgesetzten...
Korrekt!! Muss auch alles auf meine "Kappe" nehme sonst könnte ich gar nichts verkaufen und meine Entwickler würden nur zum Spass entwickeln.
 
Welche Bestätigung erwartest Du? Glaubst Du das ein 08/15 User eine 700€ Gk kaufen würde? Um aktuelle Spiele zu spielen reicht jede 250€ GK.

Statistiken, z.B. von Steam.

Es gibt jede Menge Leute, die genug Geld besitzen, aber in Ihrer Freizeit nicht rumschrauben wollen und trotzdem mit das Beste wollen. Wenn man es sich Leisten kann, kauft man einen Hochleistungs PC für die Zeit, in der man mal etwas spielen möchte und verbringt seine Freizeit dann nicht damit, nochmal ein paar FPS raus zu holen. Das der Freak von Nebenan 3 FPS mehr hat, ja und? Dafür hat man seine Freizeit ausgiebig genutzt.

Man kann vielleicht eine einseitige Sichtweise bekommen, wenn man sich viel mit Computer Freaks umgibt?
 
Geld/ Einkommen hat nichts mit teuren GKs zu tun. Das ist wie jedes andere Hobby für welches jeder mehr oder weniger Geld in Prozent von seinem Einkommen augeben möchte. Kenne die Steam Statistiken nicht - bin aber ziemlich sicher das die Mehrheit GKs in der Preisklasse von ~ 200€ sind und GKs in der 700€ Preisklasse eher die Ausnahme sind. Um ehrlich zu sein - ich halte es auch für Schwachsinn 700€ für eine GK auszugeben obwohl ich mich bei neuen GK Generationen auch nicht beherrschen kann.
 
Zuletzt bearbeitet:
Die Verkaufskarten sind bei geschlossenem Gehäuse überhaupt nicht wahrnehmbar.
Ich hoffe der Test erhält zeitig ein update.
 
Die Verkaufskarten sind bei geschlossenem Gehäuse überhaupt nicht wahrnehmbar.
Ich hoffe der Test erhält zeitig ein update.
Wieviele hast denn getestet? Unter welchen Bedingungen? Eine mal so kurz angeschaltet?

Danke, tschüss :wink:
 
Die Verkaufskarten sind bei geschlossenem Gehäuse überhaupt nicht wahrnehmbar.
Ich hoffe der Test erhält zeitig ein update.

Der Artikel stellt die uns vorliegenden Gegebenheiten dar und daran wird sich so lange nichts ändern, wie wir keine andere Karte vorliegen haben.
 
ungefähr so:

Overclocking ist Zufall
manche packen 100MHz, manche nicht

mehr haben wir nie versprochen


Okay, ich kann dann doch English bruchhaft verstehen :banana:, dachte nur das dies nicht reicht und ich falsch übersetzt habe. :) AMD ist dann doch weiter weg von der TI :wall: als es zu erwarten war rein von den Daten her.
Schade eigentlich, wollte mir was neues gönnen :fire:
 
@Boogeyman015: Auch wenn mein Studium/ Schule schon lange zurückliegt und ich nicht als Techniker arbeite - das Energie nur in Form von Wärme ohne Nutzleistung/ Arbeit verbraucht wird wäre meiner Meinung nach schlimm. Falls ich mich mit diesem Posting disqualifiziert habe bitte verzeiht mir.
Ist aber wirklich so. Ich meine, Bedenke doch den "Input" und den "Output". Dank des allgemein (bis auf den mikroskopischen Raum mit Quantenefekten) absolut immer gültigen "Energieerhaltungssatzes" muss die Energie in einem System immer konstant sein. D.h. wird einem Objekt in dem System, Energie zugeführt wird, muss diese exakt mit der Energie übereinstimmen, die daraus auch wieder entnommen wird.

In die Grafiikkarte werden nun 275W eingeleitet. Aber was ist der Output? Wärme und schätzungsweise 1-2 Watt durch die Displayanschlüsse.
Die Daten, also das was wir tatsächlich von der GPU oder auch einer CPU wollen, sind in der Praxis keine Energie (in der Theorie gibt es auch sowas wie eine Energie der Information, aber das ist eine ganz komplexe Geschichte des Mikrokosmos wie die Quantenefekte).
Die 275W gehen daher aussschließlich als Verlustleistung in Form von Wärme verloren.

Ich denke mal die Maschinen mit denen du arbeitest entstammen der Mechanik. Da gibt es natürlich einen erwünschten Output in Form von Energie wie Bewegungsenergie o.ä.
Wobei es mich - sorry dass ich es so sagen muss - aber schon erschrenkt dass jemand ohne Ahnung vom Energieerhaltungssatz, überhaupt technische Geräte beurteilen darf/muss...
 
Zuletzt bearbeitet:
schon sehr komisch, im HWL Test sind die Frametimes mies

beim Guru3D Test sind sie sehr gut... was stimmt jetzt.
 
Wieviele hast denn getestet? Unter welchen Bedingungen? Eine mal so kurz angeschaltet?

Danke, tschüss :wink:

Eine. Wieviele hast du getestet?

- - - Updated - - -

Der Artikel stellt die uns vorliegenden Gegebenheiten dar und daran wird sich so lange nichts ändern, wie wir keine andere Karte vorliegen haben.
Ach nee....
Die Frage ist: Testet ihr eine Verkaufskarte oder nicht?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh