Weitere Informationshäppchen zur ATI Radeon HD 6000

Stegan

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
16.12.2005
Beiträge
16.262
Ort
Augsburg
<p><img style="margin: 10px; float: left;" alt="amd" src="images/stories/logos/amd.jpg" width="100" height="100" />Ein frühzeitiger Launch der ATI-Radeon-HD-6000-Familie wird immer wahrscheinlicher, doch bislang war noch nicht viel über den RV8x0-Ableger bekannt. So soll "Southern Island" weiterhin im 40-nm-Verfahren gefertigt werden, auf dem aktuellen "Cypress"-Kern aufbauen und mit höherer DirectX-11-Leistung glänzen können. Wie die Kollegen von ATI-Forum.de nun aus unternehmensnahen Kreisen erfahren haben wollen, sollen "Bart" und "Cayment" tatsächlich bereits im Oktober das Licht der Welt erblicken. Während Letzterer auf ein 10-Layer-PCB samt 1024 MB GDDR5-Videospeicher mit einer Geschwindigkeit von 6 Gbps aufwarten kann, handelt es sich bei "Bart" um einen...<p><a href="/index.php?option=com_content&view=article&id=16298&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Warum nicht Homer? Wäre doch irgendwie sinngemäßer :fresse:

Und meine Kristallkugel verrät mir das sich bald irgend ein NV-Fanboy über die TDP des größeren Ablegers lustig machen wird.

Aber ist ne schätzung \"zwischen 5770 und 5870\" nciht extrem vage? Zumindest gemessen daran das es hier noch die 5830 und 5850 gibt?
 
Und meine Kristallkugel verrät mir das sich bald irgend ein NV-Fanboy über die TDP des größeren Ablegers lustig machen wird.

:bigok:

Die schnellere Variante besitzt hingegen eine maximale Leistungsaufnahme von knapp unter 300 Watt und wird über einen 8- und einen 6-Pin-PCIe-Stromstecker versorgt


Dann dürfen 99% der hier anwesenden "ATI Fans" den großen ableger nicht kaufen.
Denn der verbraucht den "grün-wählern" viel zu viel :d
 
[...] handelt es sich bei "Bart" um einen kleineren Ableger, der sich leistungstechnisch zwischen einer ATI Radeon HD 5770 und einer ATI Radeon HD 5870 platzieren soll. [...]

Also bei nVidia hat diese Karte schon einen Namen: GTX 460
Logisch, dass hier gekontert werden muss.
 
jo, Homer und Marge für High End, Bart und Lisa für Midrange und Maggie für Low End :fresse:

Das wär doch mal ne tolle Namensgebung :d
 
na das klingt doch interessant. da hoff ich doch mal, das die preis auch endlich mal wieder günstig werden. mehr als 150 sollte die kleine dann nicht kosten!
hoff nur das nvidia auch was dagegen halten kann, damit die preise auch wirklich fallen... wobei, dass bleibt bestimmt nur ein traum..
 
hoff nur das nvidia auch was dagegen halten kann, damit die preise auch wirklich fallen... wobei, dass bleibt bestimmt nur ein traum..

wenn du dir verbrauchsangaben der 6870 anschaust, bis zu 300 watt, braucht nvidia auf grund der größeren fanboygemeinde nicht wirklich stärkeres haben. war schon immer so :). der SI chip wird ja wohl genauso ein stromfresser wie die fermis gerade und da wird auch die tatsache, dass er schneller ist nicht helfen, aber wenigstens wirds günstiger^^
 
Hmm wenn das neue "kleinere" Modell leistungsmäßig zw. einer 5770 und einer 5870 (also wohl etwa bei einer 5830-5850 liegt) - aber dennoch 2x 6Pin Anschlüsse braucht und einen Verbrauch von etwas über 150 Watt hat, dann ist das aber kein Fortschritt oder ?

Eher ein Rückschritt ?

Versuchen die jetzt auf biegen und brechen die Tesselationsleistung unter DX11 zu steigern ?

Meiner Ansicht nach eigentlich noch völlig unnötig.

^^
 
Zuletzt bearbeitet:
wenn du dir verbrauchsangaben der 6870 anschaust, bis zu 300 watt, braucht nvidia auf grund der größeren fanboygemeinde nicht wirklich stärkeres haben. war schon immer so :). der SI chip wird ja wohl genauso ein stromfresser wie die fermis gerade und da wird auch die tatsache, dass er schneller ist nicht helfen, aber wenigstens wirds günstiger^^

Ähm doch... Über den Stromverbrauch beim Fermi würde sich niemand beschweren, bzw. nur die wenigsten, wenn der Fermi auch signifikannt schneller wäre... Da er das leider nicht ist, ist halt das Stromverbrauchsargument ein massiver Negativpunkt beim Fermi.

Insofern wird AMD hier bei der Karte sicher nicht nur um ein paar Prozentpunkte vor dem Fermi liegen sondern es liegt nahe, das bei derartigen Verbrauchsangaben doch schon einiges an Mehrleistung dazu kommt. Wenn man also nach absoluten Zahlen vergleicht stehen gute 300W für beide Pedanken, aber AMD mit dem wohl deutlich schnelleren Produkt.

Wobei ich ehrlich gesagt die Geschichte zur Dual GPU Umsetzung bei diesem Chip nicht glauben kann... ;)


Was ich aber noch bisschen komisch finde, man spekuliert über ne TDP von 300W, das würde exakt der Angabe bei PCIe 6+8Pin+Slot Stromzufuhr entsprechen. Nicht das hier wieder jemand beim Übersetzung oder was auch immer nicht ganz aufgepasst hat.
Denn von heutigen 188W (RV870) zu 300W bei den neuen müsste sich die Leistung auch dementsprechend stark erhöhen, sonst geht sich das ganze nicht aus... AMDs GPUs werden ja nicht durch einen Refresh mit einem Schlag deutlich ineffizienter...
 
Naja mal sehen wie das Ganze tatsächlich ausgeht. Die letzten Leistungssteigerung von 3 auf 4 auf 5 waren beeindruckend.
 
Klingt nicht gerade plausibel. Die HD 5850 hat eine TDP von nur 170 W und liegt zwischen HD 5770 und HD 5870 (deutlich näher an der HD 5870). Das wäre also Stagnation im besten Falle.

Ausserdem sollte man den Originalartikel richtig zitieren. Da heisst es zu "Cayment"
die TDP beläuft sich auf weniger als 300W
Das kann also auch nur 1 W sein. Ist schliesslich weniger als 300 W.

Das hier kolportierte
knapp unter 300 Watt
ist grundsätzlich erstmal ein anderer Sachverhalt. Ob das im Originalartikel so gemeint war, wissen wir nicht.

Es macht auch wenig Sinn, eine Single-GPU Karte mit knapp 300 W zu spezifizieren, wenn noch eine Dual-GPU Karte folgen soll.
 
2x DVI + 2x Mini-DP? Also wirds wieder so eine beschnittene Luftblechaktion wie bei der hd5k Serie.. das ist eigentlich das einzige, was mich bei meiner HD5850 stört... wer um alles in der Welt braucht 4 Display Ausgänge? Für sowas gibts doch die speziellen Eyefinity Versionen... Ich würd 1x DVI, 1x HDMI und 1x DP aufs slotblech knallen, dadrüber noch nen schönes breites Lüftergitter und alle sind zufrieden.. Das wär die weitaus bessere Lösung für mindestens 98% der Kundschaft...
 
Vielleicht auch nur "veröffentlicht" um ALLE zu verwirren.
Denke 200-225 Watt könnte die HD6870 schon verbraten, dazu 40% schneller als HD5870... und recht guter Preis obendrauf!

Somit hätte man wieder ein Topprodukt, und die DX11 Leistung wird wohl höher als nur bei 50%+ liegen.
 
Und wenn sie 299W benötigt unter Last ist das immernoch okay. Was mir und vielen anderen beim gf100 einfach im Auge geschmerzt hat war der hohe idle Verbrauch. Das konnte man mit dem 104er relativ gut zurückfahren, weswegen ich mir gleich eine gtx460 gegönnt hab und erstmal 2 Jahre zufrieden bin und Ruhe habe. Aber AMD war nahe dran nur fehlt eben noch was zwischen 5770 und 5830/50.
Aber wenn der idle Verbrauch stimmt, und davon gehe ich bei AMD aus, würde mich eine hohe Leistungsaufnahme bei Last null stören. Solange es leise kühlbar ist. Immerhin saugt die Gtx460 ja auch gut unter Last. Aber wie immer..neue Karten braucht das Land!!
 
es geht nicht um den maximalen stromverbrauch sondern um die effizenz, wenn die hd 6870 300w braucht und dafür doppelt so schnell wie eine gtx 480(natürlich übertrieben) wäre sehe ich kein problem dabei, bei der gtx 480 ist der stromverbrauch eben einfach viel zu hoch im vergleich zur hd 5870 bei der mehrleistung
 
es geht nicht um den maximalen stromverbrauch sondern um die effizenz, wenn die hd 6870 300w braucht und dafür doppelt so schnell wie eine gtx 480(natürlich übertrieben) wäre sehe ich kein problem dabei, bei der gtx 480 ist der stromverbrauch eben einfach viel zu hoch im vergleich zur hd 5870 bei der mehrleistung

So schauts aus, wobei man aber auch sagen muss, ab einem bestimmten Punkt ist die Schmerzgrenze aber trotzdem erreicht... Denn irgendwie muss das Teil auch Kühlbar sein.
Ich denke nicht, das man so schnell auf 3 Slot Karten wechseln wird, einfach weil so Projekte ala Quad CF usw. dann dem Untergang geweiht währen, aus mangel an Boards mit ausreichend vielen Slots und dem dann nötigen Abstand dazwischen.

Wenn ich mir ansehe (besser gesagt anhöhre) wie eine HD4870 X2 gekühlt wird unter Volllast und in welchen Temperaturen das endet, wird mir schlecht. Damit hat AMD für mich eindeutig diesen besagten Punkt überschritten ;)


Man kann also sagen:
Ja zur Effizienz und ja zum hohen Verbrauch, wenn dieser einen bestimmen Punkt (nähmlich den, wird das Teil noch ausreichend gut gekühlt bei annehmbarer Lautstärkte) nicht überschreitet...
 
Damit bleibt für mich erstmal die 5850 weiter die Optimale Karte .
Kostet weniger als 300 Euro .
Nimmt weniger als 200 Watt unter Last .
Läßt sich locker auf 5870 Niveau takten .

Bis mit dem 28nm Prozess genügend Platz für anständige Tesselation Leistung kommt ohne die Leistung und Abwärme in für mich unvernünftige Sphären zu treiben .
Mehr als ein ausgewogener Kompromiss ist halt mit 40nm nicht aus 40 nm rauszuholen aber man hat mit der 5850 zumindest schonmal eine potente DX10.1 Karte die auch DX11 kann .

mfg Mega
 
Abwarten was wirklich kommt... Ich denke nicht, das die Single GPU Karte der neuen Reihe wirklich an die 300W verballert. Das wäre eine Effizienzminderung gegenüber dem Vorgänger, sowas würde wohl niemand auf den Markt werfen ;)

Und nein, selbst Fermi hat die Effizienz in Sachen Leistung/Verbrauch zum Vorgänger gesteigert ;)
 
gabs schonmal ein gelbes PCB? :d
Na klar :p
board.jpg

asus_gf4mx440.jpg
 
Das nicht Geld, sondern geht ins goldene und ja sowas war früher oft anzutreffen. Damals waren die Standardfarben idR dieser ins golden gehende Ton oder eben Grün. Alles andere war weit aufwendiger in der Produktion und teilweise auch Fehleranfälliger...
 
Ich bin auf alle Fälle mal auf die Performance der Karte (HD6870) gespannt. Bin da grundsätzlich auch der Meinung, dass die Karte ruhig die 300 Watt verbrauchen kann - solange natürlich die Performance stimmt. Ich nutze Momentan eine HD5970 und bin damit wirklich sehr zufrieden! Man muss mal vergleichen - Ich habe eine Dual-GPU Karte mit ein bischen mehr Leistung und Verbrauche dabei sogar noch weniger Strom als das neuste Wunder der Technik aus dem Hause Nvidia?! Dazu möchte ich noch hinzufügen - Kein Fanboy gelaber! Ich habe eig. immer Nvidia-Karten bevorzugt, aber mit der neuesten Serie haben sie mich vergrault. Die Karten von Ati sind MOMENTAN meiner Meinung nach einfach fortschrittlicher, da effizienter.
 
Seit wann werden Speichergeschwindigkeiten in Gbps angegeben mal davon abgesehen das das echt langsam wäre.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh