AMD Radeon HD 9000: Erste Samples sollen bei Partnern liegen

Meiner Meinung nach gehört eine Karte so getestet wie sie ausgeliefert wird und das ist nun mal mit dem ganzen Reglern auf Standardeinstellungen. Klar wir Luxxer werden die Regler auf Anschlag stellen, aber es gibt auch viele die keine Ahnung davon haben bzw. nicht wissen, dass das geht.

Und wie testet man eine Karte, die in einem Karton ohne System geliefert wird?
Diese Argumentation ist ziemlich bizarr und zeigt eigentlich, dass man sich der Problematik nicht bewusst ist.

Du dürftest nichtmal einen Treiber installieren, da hier schon der Auslieferungszustand des Systems verändert wird...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Eigentlich sollte Nvidia die Powertarget- und Temperaturtargetregler direkt im Treiberpanel anbieten. Warum man das nicht tut, ist mir absolut schleierhaft, denn im Gegensatz zu dem ganzen inoffiziellen Kram, an den man mit Inspector und Co drankommt, bewirbt man den Boost und diese Funktionalität ja. Dann hätten die Leute wohl auch weniger Probleme damit zu akzeptieren, dass man hier was verstellen darf und kann.
 
Und wie testet man eine Karte, die in einem Karton ohne System geliefert wird?
Diese Argumentation ist ziemlich bizarr und zeigt eigentlich, dass man sich der Problematik nicht bewusst ist.

Du dürftest nichtmal einen Treiber installieren, da hier schon der Auslieferungszustand des Systems verändert wird...

Haha, Witzbold. Ich habe nirgends davon geschrieben, dass die Karte nicht in ein System für den Test eingebaut werden darf, nur dass die Karte eben mit allem auf Default getestet werden sollte. Aber der Boost 2.0 macht die Testerei und die Vergleiche nicht gerade einfach, da auch das Gehäuse und die Gehäuselüfter einen Einfluss auf die Temperatur und entsprechend den Boost haben. Wegen dem Treiber, den bekommen die Redaktionen ja auch zugeschickt. Bei den Retailversionen wird ja auch eine Treiber-CD mitgeschickt.
 
Solange Taktraten nicht durchgängig anliegen, verbietet es sich aus Fairness schon von alleine nicht mit diesen Taktraten zu testen.
Warum Nvidia diese Regler nicht im Treiber anbietet dürfte allein schon Argument genug sein, nicht damit zu testen.

Genauso strikt sollte man einen Boost bei AMD behandeln.
Boost ist sinnfrei und bringt nichts.:fresse2:
 
Haha, Witzbold. Ich habe nirgends davon geschrieben, dass die Karte nicht in ein System für den Test eingebaut werden darf, nur dass die Karte eben mit allem auf Default getestet werden sollte. Aber der Boost 2.0 macht die Testerei und die Vergleiche nicht gerade einfach, da auch das Gehäuse und die Gehäuselüfter einen Einfluss auf die Temperatur und entsprechend den Boost haben. Wegen dem Treiber, den bekommen die Redaktionen ja auch zugeschickt. Bei den Retailversionen wird ja auch eine Treiber-CD mitgeschickt.

Default? Ist das Installieren eines Treibers von CD immer noch "Default"?
Nein, in diesem Fall nicht. Selbst das Verbauen der Karte ändert schon den Default-Zustand.

Wer hier also strikt "Default" testen will, darf nur Komplettsysteme verwenden.
 
Default ist Auslieferungszustand, Schieberegler verschieben ist ändern des Auslieferungszustandes - egal ob der Hersteller es erlaubt/unterstützt oder nicht. Das man um so einen Käse immer so einen Wind macht.
 
Aha. Das Installieren einer Grafikkarte in ein Gehäuse und des Treiber ist okay, aber eine beworbene Standardfunktion zu ändern, ist dann wiederum falsch? :fresse2:

Bitte immer erst das Problem verstehen und dann sich äußern. Sonst könnte man meinen, da hat jemand keine Ahnung.

Achja: OC Guru meiner Gigabyte Titan ist auf der selben CD wie der mitgelieferte Treiber. :shake:
 
Ich finde es ja lustig, wie verblendet du so durch die Gegend trollst, aber ja es ist falsch. Es ist irrelevant ob es beworben wird und erlaubt ist, man verändert den Auslieferungszustand. Wäre eine Boost 2.0 Karte ohne Manpulierung der Targets in der Lage höher zu boosten, würde sie es ja auch schon tun. Kannst deinen Boost gerne weiter schön reden, aber Kompetenter und differenzierter wirkst du dadurch nicht.
 
Aber warum sollte man die Targets nicht manipulieren dürfen? Er hat schon Recht, denn es gehört zur Karte dazu. Ganz ignorieren kann man es auch nicht, finde ich. Man sollte halt beides testen.
 
Aha. Das Installieren einer Grafikkarte in ein Gehäuse und des Treiber ist okay, aber eine beworbene Standardfunktion zu ändern, ist dann wiederum falsch? :fresse2:

Bitte immer erst das Problem verstehen und dann sich äußern. Sonst könnte man meinen, da hat jemand keine Ahnung.

Achja: OC Guru meiner Gigabyte Titan ist auf der selben CD wie der mitgelieferte Treiber. :shake:

Bei meiner Asus HD 7950 war auch GPU Tweak dabei. Müssen die dann auch alle die Tests übertaktet durchlaufen? Gehört schließlich dazu.

Aber warum sollte man die Targets nicht manipulieren dürfen? Er hat schon Recht, denn es gehört zur Karte dazu. Ganz ignorieren kann man es auch nicht, finde ich. Man sollte halt beides testen.

Einmal mit den Reglern auf Anschlag zu testen habe ich nichts dagegen, nur sollte es als Sondertest ablaufen.
 
Jo, das wäre fair.
Aber nochmal: Boost 2.0 ist nicht Übertakten, ich hab ja vorhin schon erklärt, warum. Wenn AMDs Karten ihren eigenen Boost haben, ok. Aber manuelles OC ist wieder was anderes.
 
Aber warum sollte man die Targets nicht manipulieren dürfen? Er hat schon Recht, denn es gehört zur Karte dazu. Ganz ignorieren kann man es auch nicht, finde ich. Man sollte halt beides testen.

Natürlich kann man sie Testen, OC-Test hat auch fast jede Review. Nur die Argumentation ist gehört zum Produkt dazu also darf ich es Testen/Benutzen ist Banane. Bei AMD kann man auch das Powerlimit heraufsetzen, damit der Boost stabiler läuft - wäre für mich auch ein Sonder-/Extra-Zustand. Man muss Produkte immer auf dem gleichen Level vergleichen, was bringt es den boost hoch zu ziehen und zu sagen "So jetzt ist sie noch viel schneller!" kann man bei der Konkurrenz-Firma auch, ob das von der Garantie abgedeckt wird ändert nichts an dem technischen Zusammenhang. ;)

Außerdem hat Sotin die faszinierende Eigenschaft den Boost zu mysthifizieren. Ich hab nur eine GTX 670, aber das ist Auto-OC-Für-Dummies, noch schlimmer als der offene Multi-Kram bei den CPUs.
 
Ich glaub ja AMD braucht einfach zu lange schon zu dringend Geld um so weiter zu krebsen. Gerade im besten (oder aus Kundenperspektive überteuertsten) Segment kann AMD aber aktuell höchstens mit Preisdumping gegen Nvidia anstinken. Warscheinlich ist deswegen leider auch ein völlig überteuerter Start nach dem Muster von Nvidia mit den "Titan" PC-Heizungen geplant. Vor einem Jahr hätte keiner geglaubt das man interessante Stückzahlen von 1000 € Grafikkarten absetzen kann aber aktuell scheints ja angesagt möglichst sogar zwei davon in die Spielekiste zu setzen.
 
Natürlich kann man sie Testen, OC-Test hat auch fast jede Review. Nur die Argumentation ist gehört zum Produkt dazu also darf ich es Testen/Benutzen ist Banane. Bei AMD kann man auch das Powerlimit heraufsetzen, damit der Boost stabiler läuft - wäre für mich auch ein Sonder-/Extra-Zustand. Man muss Produkte immer auf dem gleichen Level vergleichen, was bringt es den boost hoch zu ziehen und zu sagen "So jetzt ist sie noch viel schneller!" kann man bei der Konkurrenz-Firma auch, ob das von der Garantie abgedeckt wird ändert nichts an dem technischen Zusammenhang. ;)

Außerdem hat Sotin die faszinierende Eigenschaft den Boost zu mysthifizieren. Ich hab nur eine GTX 670, aber das ist Auto-OC-Für-Dummies, noch schlimmer als der offene Multi-Kram bei den CPUs.

Es ist aber kein (traditionelles) OC, das sollte man endlich mal verstehen. Bei AMD kann man gerne das Powerlimit hochsetzen, ändert an der Performance halt nichts. So gesehen Pech gehabt.
Ich sag ja nicht, dass man das zum Standard erheben soll mit dem Boost, aber so zu tun als existiere er nicht, ist genauso Käse. Man muss sich eben daran gewöhnen, dass es von nun an eine Betriebsspanne gibt und nicht nur einen Arbeitspunkt, und dass der Anwender Zugriff darauf hat.
 
Wenn man das Powerlimit und Temperatur limit über den Treiber selbst anheben könnte würde es für mich da zu gehören.
Dann nur dann ist es vom Grafikkarten Hersteller auch so gewollt.
Alles andere ist tweaken ocen.
 
Zuletzt bearbeitet:
Eine versteckte GPU zwischen den Layern ? :rofl:

Ja, das ist schon recht bemerkenswert, wie traumhaft so manche Fan-Community ihre Verzweiflung kund tun möchte, indem sie solche haarsträubenden Gerüchte verbreiten.
Technisch gesehen völliger Nonsens ! Wie soll das bitte schön gekühlt oder technisch angeschlossen werden ?
Zudem hat schon Microsoft bekanntgegeben, den günstigsten Weg gefunden zu haben, den Leistungsunterschied zur PS4 zu verringern, indem sie ihre XBox One übertakten, was den Glauben an einer zusätzlichen dedizierten GPU ad Acta legt.
 
Technisch gesehen völliger Nonsens ! Wie soll das bitte schön gekühlt oder technisch angeschlossen werden ?


??
Was meinst du, wie eine aktuelle Umsetzung von einem einzigen Layer mit dem Trägermaterial beispielsweise bei einer GPU/CPU angeschlossen ist?
Sinnvollerweise gibt es dort Kontaktflächen, die bei der Hochzeit von DIE und Trägermaterial eben so verbunden werden, damit dort elektrische Signale "durchfließen" können.

Das gleiche prinzip würde auch bei jeglicher Art von "Türmchen" funktionieren. Nur dass dort eben die Kontaktflächen nicht nur nach unten zum Trägermaterial vorhanden sind, sondern auch nach oben zum jeweils nächsten Layer.

Das Thema Kühlung ist auch nicht soo ultrakritisch, wie du dir das denkst. Ich meine, wir haben im GPU Bereich schon 250-300W Abwärme, die man halbwegs brauchbar abführen kann. Das würde auch bei gestackten DIEs gehen. Es besteht zwar potentiell der Nachteil, dass sich Hotspots bilden, aber dem kann man potentiell entgegenwirken, wenn man das Layout entsprechend "gut" wählt.
Unterm Strich ist und bleibt die Kühlung schlicht und ergreifend eine Frage der Hitzeentwicklung des Produkts. Es wäre beispielsweise auch möglich die DIE Fläche ein Stück weit zu erhöhen um einfach mehr Fläche zur Wärmeabgabe zu bieten. Das wäre unterm Strich immernoch kleiner als die Schaltungen native auf einem Layer unterzubringen. Sowas hat AMD beispielsweise seinerzeit mit der HD4890 gebracht, welche im Grunde nur ne HD4870 war, aber mehr Takt und eine leicht modifizierte Hardware bot.


PS: ich halte zwar aktuell auch nix von den Gerüchten darüber, aber der Grund liegt weniger darin, dass es technisch nicht möglich sein soll ;) Sondern das es eher unwarscheinlich ist, hier eine 22nm GPU zu sehen. -> mit ner anderen GPU oben drauf, sprich bekannte 28nm Fertigung würde das aus meiner Sicht eher glaubwürdig klingen.

Bleibt halt nur noch die Frage, warum einer APU mit LowPower CPU Cores noch dedizierte GPU Einheiten mitzugeben, wenn diese doch schon einen leistungstechnisch beachtlichen GPU Part von Haus aus mitbringt. Das ist somit Faktor zwei, was das Gerücht für mich unwarscheinlich klingen lässt.
 
Das komische ist ja das 0, 0 durchsickert .Top oder Flop ich hoffe für AMD ersteres.

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
meinst du jetzt das Gerücht mit den Konsolen? Oder die kommenden Desktop Modelle?
 
Destop.Oder weisst du etwas handfestes.

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Natürlich nicht ;)

Die Frage ist doch eher, kommt demnächst wirklich was, oder dauert es noch? Oftmals sickert ja vor der Vorstellung doch schon einiges durch. Bei den neuen AMDs scheint aber wenig bis nix handfestes bekannt... Könnte also ein Grund sein, das das noch etwas dauert und nicht gleich irgendwas kommt.
Oder man hat bei AMD irgendwas an den Leaks "geändert"...
 
Oder Hawaii kommt wirklich aus Dresden oder New York (Global Foundries)da lassen sich die Leaks besser in Grenzen halten als bei TMSC. ;-)

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Ist das schon bekannt, das bei dem Spiele Programm NEVER SETTLE FOREVER folgende Karten auch stehen?

"Buy a destop PC with an HD 8900, HD 8800 und HD 8700 Series Graphics Card"
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh