ATI Radeon HD4000 (R700) - [Speku-, News- & Sammelthread] (Part1)

Status
Für weitere Antworten geschlossen.
Alles rund um die ATI Radeon HD4000 Grafikkartenserie

Vorraussichtliche technische Daten:
HD 4870 (RV770XT), 55 nm, 850 MHz Chiptakt, 1050 MHz Shaderdomain, 1935 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 1008 GFlops, 27.200 MT/s, 256 Bit Speicherinterface, 1024 MiB GDDR5, 123,8 GB/s Speicherbandbreite, 150 W TDP, $349 MSPR, Release Mai 2008

HD 4850 (RV770PRO), 55 nm, 650 MHz Chiptakt, 850 MHz Shaderdomain, 1728 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 816 GFlops, 20.800 MT/s, 256 Bit Speicherinterface, 512 MiB GDDR5, 110,5 GB/s Speicherbandbreite, 110 W TDP, $269 MSPR, Release Mai 2008

HD 4850 GDDR3 (RV770PRO), 55 nm, 650 MHz Chiptakt, 850 MHz Shaderdomain, 1143 MHz Speichertakt, 480 Streamprozessoren, 32 TMUs, 16 ROPs, 816 GFlops, 20.800 MT/s, 256 Bit Speicherinterface, 256/512 MiB GDDR3, 73,2 GB/s Speicherbandbreite, 110 W TDP

Quelle: Hartware.de

NEWS:
More RV770 and RV770X2 details

Die shrink with minor changes
ATI said a few things about its new upcoming RV770 chips, and as we've said before you can expect [...]
weiterlesen

RV770 will do GDDR 5 and GDDR3

Two flavours
We’ve learned that single chip RV770 card comes in two flavours. The first one [...]
weiterlesen

RV770XT supports 512-bit memory

Despite the claims
A German Website posted an interesting article with a lot of RV770XT and PRO specs, but [...]
weiterlesen

R700 to launch close to Computex

Or around, at leastRV770 chips are looking good and the highest end R700 based product might launch around Computex (starts at June 3 2008). We believe [...]
weiterlesen


RV770 is already in production
Test one
We learned
that the RV770 GPU already went to production and there is a big chance to see R700 generation much earlier than anyone [...]
weiterlesen

Wer noch interessante Links hat, bitte per PN an mich weiterleiten!


 
Zuletzt bearbeitet:
ja eben, drüber zu reden was sie können wird brauchen wir garnicht.
Es wurde immer geheult ds die ATIs ne Sahderdomain brauchen dann ware das besser, die Generation wird es haben und bin gespannt was A/A draus macht, zumal es die erst Graka ist wo AMD mit dran rum gebastelt hat.
Hinzugefügter Post:
Also ich denke mal die passen die Preise schon der Leistun an :
Wer kauft den schon extrem überteuerte Grakas : Niemand
Also denke ich mal die Leistung wird schon reinhauen bei den Preisen

Über den Preis mach ich mir keine gedanken, auch über die Stromaufnahme nicht da hat ATI sowieso die Krone auf.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
man man man, hier ist ja teilweise schon wieder feuer im thread...seis drum.

hat schon jmd ne ahnung bzlg der bohrlöcher/speicher platzierung um meinen geliebten ek von der 3870 weiter zu nutzen?
zu früh?
 
woher stammt eigentlich die aussage mit den 50%schneller als jetzt?das ist doch auch nur eine Spekulation oder ist das von ati gesagt worden?

genauso wie die spekulation mit dem preis,kann auch totaler murks sein vielleicht wird die xt ja auch 500-600 euro kosten wer weis das schon und die pro 350-400 euro.

Die 50 % schneller war halt mal eine Fudziila Newsmeldung

http://www.fudzilla.com/index.php?option=com_content&task=view&id=6784&Itemid=34

Und wenn man davon ausgeht, daß die Shaderanzahl um 50% erhöht werden soll vielleicht auch nicht so wahnsinnig abwegig

Zu den Preisen gabs halt auch eine news, wonach der 770 pro so ca 150$ kosten soll. Sicher, ist alles nicht offiziell, aber zZ halt die einzige Diskussionsgrundlage, bis halt mal harte Fakten von ATI selber kommen .... ( deswegen ist das hier ja auch ein Spekulationsthread ;) )

Am Preis würde ich mich jetzt auch nicht festbeißen, aber ich denke allein auf Grund der dann entstehenden Konkurrenzsituation mit ( zZ hat eine 8800 GTX, Ultra ja noch keine Konkurrenz ), sollte schon ein gewisser Preisdruck entstehen.
 
ich denk so 180 € für die Pro wäre ein guter Preis.

Mir ist auch egal ob die an den Gt200 kommt oder nicht, der Preis, Stromverbrauch und Lautstärke sind mir wichtig :)
 
wen die so günstig werden wie die jetzigen kommen mir zwei 4850 rein:bigok: mir persönlich reichen auch 30%mehrleiszung meiner 2900XT gegenüber da ich alles auf 1680x1050 alles auf hoch spielen kann bei Crysis muss ich mich halt entweder alles auf hoch 2aa oder einen mix aus hoch und ultra ohne aa rumschlagen was total reicht
 
Ich sähe immernoch lieber Crysis 1680x1050 Very High mit 2x2 SSAA als einen sparsamen Chip. Erklär mir doch mal einer von euch, was - gesetzt den Fall, sie haben einen sehr sparsamen RV770 in der Hinterhand - ATi daran hindern sollte, die Taktraten einfach so weit aufzublasen, dass sie zwar wieder >200W erreichen, aber dafür seit Jahren im Highendbereich wieder wettbewerbsfähig sind? Wenn die RV770-Architektur so sparsam ist, wie ihr alle glaubt, dann ist es kein Problem, das Ding über den gesamten Markt zu skalieren. Hmm - seltsam - ich hab aber bisher noch nichts von einem Highendprodukt gehört, ihr vielleicht?

-> Ich sage, wartet es ab. AMD bleibt AMD, mit einem leider viel geringeren Next-Generation-GPU-Entwicklungsbudget, als es nVidia hat.
 
Zuletzt bearbeitet:
. Erklär mir doch mal einer von euch, was - gesetzt den Fall, sie haben einen sehr sparsamen RV770 in der Hinterhand - ATi daran hindern sollte, die Taktraten einfach so weit aufzublasen, dass sie zwar wieder >200W erreichen, aber dafür seit Jahren im Highendbereich wieder wettbewerbsfähig sind? Wenn die RV770-Architektur so sparsam ist, wie ihr alle glaubt, dann ist es kein Problem, das Ding über den gesamten Markt zu skalieren.

"Sparsam" sollen sie ja nicht unbedingt Architekturbedingt sein, sondern dardurch, daß sie im Windowsbetrieb, also beim idlen, so weit wie möglich runterschalten. Unter Last sollen es hingegen schon so 150 W sein ( siehe auch auf Seite 1 die TDPs )
 
150W haben bei ATIs bestehender Kühlertechnologie noch fast 100W Spielraum nach oben! Da die Leistungsaufnahme linear mit dem Takt skaliert, bedeutet das (wenn man zugesteht, dass ein viel höherer Takt sicher auch mit erhöhter Spannung erkauft werden muss) immerhin bis zu 50% mögliche Mehrleistung.
 
150W haben bei ATIs bestehender Kühlertechnologie noch fast 100W Spielraum nach oben! Da die Leistungsaufnahme linear mit dem Takt skaliert, bedeutet das (wenn man zugesteht, dass ein viel höherer Takt sicher auch mit erhöhter Spannung erkauft werden muss) immerhin bis zu 50% mögliche Mehrleistung.

100 watt spielraum bei bestehender kühlertechnlogie aber zu welchem preis?ich will nicht wissen wenn die 250w hätten wie kacke laut die kühler sein müssen um die wärme in den griff zu kriegen.kann ja jeder in etwa selbst checken schalten mal die lüfter der 3870 oder 2900 mal auf 100% dann habt die lautstärke die man dann wahrscheinlich durchgehend bei last haben muss.:d
 
Zuletzt bearbeitet:
is ja geil, die bringen einfach ne neue karte raus obwohl der letzte wurf (X2) noch massigst probleme macht ...
 
is ja geil, die bringen einfach ne neue karte raus obwohl der letzte wurf (X2) noch massigst probleme macht ...

wo macht der denn probleme? und vorallem seit wann achtet da ein grafikartenhersteller drauf ob der alte probleme hat oder nicht.tut nichts zur sache wenn was neues kommt.
 
Hmm - seltsam - ich hab aber bisher noch nichts von einem Highendprodukt gehört, ihr vielleicht?

warum du noch nichts gehört hast ?
vieleicht weils kein Highend gibt ;)

Mit Highend lässt sich kein geld verdienen so einfach, das Geld verdient man mit P/L sieht RV670 Top Leistung zum guten Preis.
Hinzugefügter Post:
in jedem 2. game?

vieleicht bei Quad CF, mit einer einzlenen X2 rennt alles Top, hier und da mal paar kleine fehler aber naja wo ich aber mit SLi mehr zu kämpfen hab als mit ner X2 ;)
 
Zuletzt bearbeitet:
Hmm - seltsam - ich hab aber bisher noch nichts von einem Highendprodukt gehört, ihr vielleicht?

-> Ich sage, wartet es ab. AMD bleibt AMD, mit einem leider viel geringeren Next-Generation-GPU-Entwicklungsbudget, als es nVidia hat.

Ich möchte keine 600€ ausgeben für 30% mehr Leistung ggü einer 300€ Graka
 
150W haben bei ATIs bestehender Kühlertechnologie noch fast 100W Spielraum nach oben! Da die Leistungsaufnahme linear mit dem Takt skaliert, bedeutet das (wenn man zugesteht, dass ein viel höherer Takt sicher auch mit erhöhter Spannung erkauft werden muss) immerhin bis zu 50% mögliche Mehrleistung.

Moment mal, da widersprichst du dir etwas. Bei einem linearen Zusammenhang, wären 225 W genau 50% mehr. Demnach wären das auch nur dann 50 % mehr Leistung, wenn die Spannung nicht erhöht werden muß. Wenn sie aber, wie du ja selbst schon festgestellt hast, erhöht werden muß, dann hat man vermutlich deutlich weniger als 50% Mehrleistung ( vielleicht nur 20% ? ) , bei rund 50 % höheren Verbrauchswerten.

Ich zweifle irgendwie daran, daß es marketingtechnisch klug wäre, eine solche Karte herauszubringen, die dann derartige Verbrauchswerte und vermutlich einen laut röhrenden Lüfter hätte. Für die 2900 XT mußte ATI letztendlich auch deswegen recht viel Kritik einstecken, das wollen die bestimmt nicht noch mal wiederholen.

Da kann man es doch lieber den GraKa Herstellern überlassen, auf eigene Verantwortung und eigenes Risiko, eine übertaktete Variante ( mit eventuell anderem Kühler ) herauszubringen, und selbst mit ( hoffentlich ) leiser Kühlung und moderaten Verbrauchswerten zu werben.
 
Zuletzt bearbeitet:
nach den spekulationen zu urteilen heist das dann in etwa

pro ca.200 euro
xt ca.300 euro(2mal gebucht) :haha:
xt² ca.400-500 euro(wird erst vorgestellt wenn die gt200 auf den markt kommt nimm ich mal an)

wahrscheinlich wird doch auch die xt gleichzeitig vorgestellt nur das man noch 1-2 monate warten muss bis die im händlerregal sind.
 
Zuletzt bearbeitet:
@MRM70: Deswegen schrieb ich ja "bis zu". ;)

@zocker28: Natürlich lässt sich mit Highend-Produkten Geld verdienen! Aber eben nicht über den direkten Weg, den Verkauf der Produkte, da ist der Mainstreammarkt um ein Vielfaches ertragreicher. Indirekt jedoch - durch die Reputation, die man durch den Besitz der Leistungskrone gewinnt - gibts jede menge positive Rückkopplungen.

Allgemein ist es natürlich nicht sinnvoll, 300EUR mehr für vielleicht 30% Mehrleistung auszugeben, aber so definiert sich Highend nunmal, das ist nicht nur bei Grafikkarten so. Ich schätze eine günstige Midrange mit viel Leistung zum kleinen Preis doch genauso wie jeder andere, aber es ist Unsinn, zu glauben, dass eine extrem kompetitive Architektur in der Midrange existiert und man als Hersteller dann dazu kein Highendprodukt bastelt.
 
Hi,

schade, bis jetzt nicht´s 100%iges, solange ist es doch auch nicht mehr :stupid:

Keine Angaben usw. hoffe das wird noch was im Sommer nicht um die Weihnachtszeit :hmm:

Gruß Raberduck
 
richtige infos gibt es ja meist erst ein paar tage vor release.
oftmals sind es hardware mags die das NDA missachten.

und wenn der artikel auch nach kurzer zeit verschwindet, unterstreicht es das nur ;)
 
Hi,

gerade jetzt würde ich nVidia ärgern, bei Intel war es doch nicht anders.
Einige USER aus dem XS hatten die CPU auch eher...AMD sollte das auch machen :)

Gruß Raberduck
 
Vielleicht wollen sie aber auch ihr "Paperlaunch" Image loswerden. Dann würde es durchaus Sinn machen, die NDA erst dann fallen zu lassen, wenn sie auch eine signifikante Menge dieser Chips dem Markt anbieten können.
 
@Raberduck
AMD hat eine lausig schlechte vermarktung von produkten. dagegen war der coup den intel damals gemacht hat gold wert.

@MRM70
die großhändler haben ja schon kentnisse über den launchtermin.
die NDA bezieht sich ja nur auf mags und seiten.

aber keine sorge die NDA wird schon gebrochen von einigen mags, was die letzten launches ja auch gezeigt hatten.
 
okey ihr seit üble freaks xD

will neue infos haben... muss mir langsam wieder ne neue graka holen!!!
 
Unterstützt die HD4870X2 dann CrossFireX8? Ich will mir 4 von diesen Monstern zulegen :xmas:

4x X2 ? ja ne is klar :rolleyes:

4 GPUs sind das MAX was gehen tut, nene CFX steckt noch in Kinderschuhen, normales CF reicht mir dicke.

Aber bittte diesmal only 1GB Karten bringen für die GDDR5 version nicht wieder die 512er was eh viel zu wenig ist.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh