AMD HD6000 Northern Islands Spekulation Thread! (2)

Status
Für weitere Antworten geschlossen.
War doch auch schon früher so X19xx, HD29xx. Erst mit der HD3xxx Serie hat man auf die 9 verzichtet weil die NV Karten zu dem Zeitpunkt einfach schneller waren. Jetzt wird das einfach wieder eingeführt. Was ist da so schwer zu verstehen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Pirate85
Otto-Normalverbraucher die sich wenig mit der Materie beschäftigen werden so verschaukelt indem sie glauben das z.b. die 6870 schneller als die 5870 ist... was aber nen Trugschluss ist
Einen Otto normal verbraucher wird das auch nicht interessieren.
Z.B Autohersteller bringt einen neuen Wagen vorher den 1 ,2,3, und jetzt 4 das heist noch lange nicht das er schneller ,leichter ,geräumiger ist oder weniger Sprit verbraucht.
Ein otto normal verbraucher wird noch nicht mal wissen was Fraps ist.
Und der Unterschied von der Leistung wenn sie so zu trift bei der HD6870 zzu HD5870 wird so minimal sein das es ein Otto gar nicht raft.
Vor allem wird er nicht beschissen wenn eine HD5870 noch 300 euro Kostet und er für dseine HD6870 nur 230 gelöhnt hat und dabei wohl möglich noch strom Spart zzzzzzz...
Da muss der Otto aber auch mal langsam anfangen zu hinterfragen warum die ander Billiger ist tut er es nicht so hat er es verdient sich so zu irren.:-[:shot:
 
Zuletzt bearbeitet:
Hat doch nix mit verstehen zu tun?
Komm mal wieder runter Devil - hab nicht erst seit gestern ATI Karten... die erste "eigene" war ne gute alte Radeon 7200 ;)

Ich finde es halt einfach net ok und basta - wenns dir net passt motz nen Spiegel an aber net mich, is das angekomm?

@Thunderburne: vllt werden die Karten einfach Aerodynamischer :lol: - kleiner Scherz, du hast Recht.
 
Zuletzt bearbeitet:
Soll sie ja auch nicht... dafür gibt's dann die 69xx

Naja von den Namen will ich gar nicht erst anfangen... :rolleyes:

Aber ich sehe es auch so, dass einzig und allein das Preis/Leistungsverhältnis entscheidend ist. Nur kann es passieren dass die 68x0er einfach dazu dienen, die Preise der 58x0er quasi noch länger auf einem Niveau zu halten und einen Preisverfall zu verhindern. Das fände ich wirklich blöd.
 
Nur kann es passieren dass die 68x0er einfach dazu dienen, die Preise der 58x0er quasi noch länger auf einem Niveau zu halten und einen Preisverfall zu verhindern. Das fände ich wirklich blöd.

Und wie soll das funktionieren wenn auch die 69xx kommen?
Bzw sollen die 68xx in etwa so schnell sein wie die 58xx und dabei billiger sein.
Spätestens wenn die Karten erschienen sind wissen wir es genau.
 
Also die 6900 kann man preislich oben drauf setzen. Bedeutet ja nicht dass die deswegen die 6800er billiger machen müssen.

WENN die 6870 so schnell ist wie eine 5870 und gleichzeitig preiswerter ist freu ich mich natürlich auch. Hoffen wir dass AMD keine Tour nach dem Motto "steht ja 6000 drauf, also ist sie besser als 5000, und deswegen teurer" reitet.
 
AMD wird sich garantiert nicht selber Konkurrenz machen - die wollen schließlich auch ihre HD6K Karten der Low und Midrangereihe verkaufen.
 
Der Hacken ist, sie sind es nicht. ;)
Und der Beweis dafür ist welcher? ;)

Wenn sie aus einer Pressemitteilung direkt von AMD stammen würden, dann wären sie offiziell. Aber so: Quelle unbekannt, Wahrheitsgehalt ebenso. Getürkte Folien gab es in der Vergangenheit schon zu Genüge.
Ehrlich gesagt habe ich keine Zweifel daran, dass die Folien echt sind. Zum einen sind sie schon etwas älter. Wer fälscht schon älteres Material? Und zum zweiten habe ich noch nicht gesehen, dass jemand in diesem Umfang Folien fälscht. Ein Restrisiko bleibt natürlich. Das ist aber trotzdem überschaubarer als der Wahrheitsgehalt aller bisheriger Gerüchte.


Insofern gehe ich fest davon aus dass die neue 68x0 Generation nicht weit vor den 58x0 Karten liegt. Sehr enttäuschend. Ich lasse mich gerne eines besseren belehren, aber ich glaub da nicht mal 1 Sekunde dran, dass die 68x0er ein riesen Schnitzel vom Teller zieh'n
Wie hier schon gesagt wurde, der Nachfolger von Cypress (58xx) wird Cayman (69xx). Ich hoffe, das hat auch der letzte jetzt endlich verstanden. Barts (68xx) ist eher der Nachfolger von Juniper (57xx). Wobei Juniper unterhalb von Barts wohl weiterlaufen wird. Cypress ist mit der neuen Generation hingegen EOL.
 
Mir bereitet eher die Tatsache Sorge, dass die 6970 mit 6+8-Pin kommen wird. Ich hatte eigentlich gehofft, dass AMD weiterhin verbrauchsgünstige Single-GPU-Karten im Highend-Segment verkauft. Der relativ geringe Verbrauch der 58X0 war ein positives Signal, jetzt kehrt man wieder zurück zu den Stromfressern.
 
@Chezzard
100.000 Stück, das ist doch gar nichts, die sind schnell vergriffen.

in Stückzahlen von mehreren 100.000:)
 
Die Anzahl der Stecker hat nichts mit dem Verbrauch zu tun, es kann genauso gut dazu dienen das selbst billige Netzteile keine Probleme machen und die Leitungen entlastet werden, genauso das die Spannungen sauber sind.

Und das eine HD6K in 40nm soviel stromsparender wird... man wird es sehen. Auch 28nm ist kein Garant für niedrigen Verbrauch.
 
Die Anzahl der Stecker hat nichts mit dem Verbrauch zu tun, es kann genauso gut dazu dienen das selbst billige Netzteile keine Probleme machen und die Leitungen entlastet werden, genauso das die Spannungen sauber sind.

Und das eine HD6K in 40nm soviel stromsparender wird... man wird es sehen. Auch 28nm ist kein Garant für niedrigen Verbrauch.

So ein Quark, die Firmen handeln immer streng nach PCIe-Spezifikation. Wenn eine Grafikkarte über 225W im höchsten Lastszenario verbraucht, dann bekommt sie einen 8-Pin zum 6-Pin verpasst. Die offizellen Empfehlungen der Hersteller zum Netzteil (550W, 650W etc.) dienen dazu, die Grafikkarten selbst mit schrottigen Netzteilen betreiben zu können. So ein 8-Pin ist nicht einfach zu realisieren bei älteren Netzteilen, außerdem hat das immer eine gewisse Signalwirkung, also würde ich das doch soweit wie möglich vermeiden wollen als Hersteller.
 
Mir bereitet eher die Tatsache Sorge, dass die 6970 mit 6+8-Pin kommen wird. Ich hatte eigentlich gehofft, dass AMD weiterhin verbrauchsgünstige Single-GPU-Karten im Highend-Segment verkauft. Der relativ geringe Verbrauch der 58X0 war ein positives Signal, jetzt kehrt man wieder zurück zu den Stromfressern.

Wie soll das auch anders gehen, wenn kein neuer Fertigungsprozess zur Verfügung steht?

Deutlich mehr Leistung bei unveränderten Stromverbrauch ohne neues, kleineres Fertigungsverfahren wird schlecht zu realisieren sein.

Zumindest hat AMD aber hier Luft nach oben (im Gegensatz zu Nvidia).
 
Die PCIe Spezifikationen legen nur fest wieviel Watt maximal benötigt wird. Ein Hersteller kann auch zig PCIe Anschlüsse auf die Platine löten um z.B. für extreme OC Spannungen alles sauber zu gewährleisten.
 
@Obsidian

Das ist ja klar, aber trotzdem ist es ein Schritt in die falsche Richtung und Kritik angebracht. Wäre es egal, müsste auch niemand den Stromverbrauch der GF100-Karten kritisieren.

@Turbo

Weder AMD noch Nvidia werden die PCIe-Spezifikation von maximal 300W (per Anschluss) verletzen, das machen die Boardpartner selbst, die bei manchen Karten freie Hand beim Design der PCBs haben.
 
Über die Leistungsaufnahme kann man jetzt nichts definitives sagen und anhand der PCIe-Anschlüße eh nur spekulieren. Einfach mal abwarten bis die ersten seriösen Test erscheinen.
Aber ich persönlich wäre auch enttäuscht, wenn die Leitungsaufnahme der neuen Karten steigen würde.
 
[...]
Weder AMD noch Nvidia werden die PCIe-Spezifikation von maximal 300W (per Anschluss) verletzen, das machen die Boardpartner selbst, die bei manchen Karten freie Hand beim Design der PCBs haben.

Hab ich das irgendwo behauptet das AMD / nvidia die Specs verletzten? Nein. Aber die Anzahl solcher Anschlüsse sind kein eindeutiger Indiz für den Verbrauch.
Wenn die Karte z.B. maximal 76 W verbraucht und muss halt ein 6Pin PCI Anschluss drauf, weil 1 W zuviel für den PCIe Slot.
Daher kann man nicht sagen das die Karte viel verbrauchen wird, hier kann nämlich genau das gleiche sein.
 
Sag ich doch, wenn die Karte über 225W verbrät, muss ein 8-Pin zum 6-Pin her. Und dazu eben die Signalwirkung der zusätzlichen Stromanschlüsse. Und mit der Verletzung der Spezifikation der Anschlüsse meine ich nur die maximale Anzahl an 8-Pin + 6-Pin. Erinnern wir uns an die HD4870X2 und GTX295, die die spezifizierte Leistungsaufnahme der einzelnen Anschlüsse deutlich überstiegen (dazu natürlich noch die aktuellen Fermi-Karten), von daher bin ich eher vorsichtig, wenn ein Hersteller zu einem 8-Pin greift.
 
Mir bereitet eher die Tatsache Sorge, dass die 6970 mit 6+8-Pin kommen wird. Ich hatte eigentlich gehofft, dass AMD weiterhin verbrauchsgünstige Single-GPU-Karten im Highend-Segment verkauft.
Wieso weiterhin? Es gab keine Evergreen High-End Single-GPU Karte. Lediglich die HD 5970 war High-End. Und die ist bekanntlich Dual-GPU. HD 58xx war Performance.

Der relativ geringe Verbrauch der 58X0 war ein positives Signal, jetzt kehrt man wieder zurück zu den Stromfressern.
Nun ja, das ist relativ. Die Leistungsaufnahme muss immer in Relation zur Performance betrachtet werden. Über die 300+ W der GTX 480 würden auch viel weniger Leute meckern, wenn die Karte 50-60% schneller als die HD 5870 wäre und nicht nur 10-15%. Und 6+8-Pin bedeutet ja nicht automatisch, dass man auch 300 W braucht. Das können zB auch nur 230 W sein, wo 6+6-Pin nicht mehr ganz gereicht haben.
 
Habe doch nichts anderes behauptet....wenn der Verbrauch die 225W um ein wenig übersteigt, braucht es einen 8-Pin. Das schreibe ich jetzt schon zum 3. Mal. Eine HD5870 ist für mich eine Highend-Single-GPU, das können die Marketingfritzen bezeichnen, wie auch immer sie mögen. Im Wesentlichen geht es um die Steigerung des Verbrauchs in Relation zur verbrauchsgünstigen HD5000er Reihe.

Ich dachte eigentlich, die AMD-Fraktion wäre konsensfähiger nach dem Fermi-Desaster, aber an die eigene Nase fasst man sich anscheinend nicht gern.
 
Im Wesentlichen geht es um die Steigerung des Verbrauchs in Relation zur verbrauchsgünstigen HD5000er Reihe.
Und wie ich bereits sagte, sich darüber zu echauffieren ist völlig wertlos, wenn man die Leistungsaufnahme nicht in Relation zur Performance betrachtet.
 
Ich dachte eigentlich, die AMD-Fraktion wäre konsensfähiger nach dem Fermi-Desaster, aber an die eigene Nase fasst man sich anscheinend nicht gern.


Entweder bringt man eine neue Serie auf den Markt um mehr Leistung zu haben und damit sich weiter von der Konkurrenz abzusetzen, mit einhergehenden erhöhten Stromverbrauch. Oder man lässt es bleiben da kein neuer Fertigungsprozess zur Verfügung steht.

Ich denke doch die erstgenannte Option ist sicherlich die Bessere. AMD wird außerdem darauf geachtet haben ein gutes Performance/Watt Ergebnis zu erzielen und nicht wie Nvidia versuchen mit der Brechstange anzusetzen.

Hat man doch gesehen das dass nach Hinten los ging.
 
@Obsidian_one
Finde das erste auch am besten .
Aber wenn man mit 320 Watt bei einem Single Chip die leistung um 50-60% Steigern würde,würde ich sofort zu schlagen.
Den dann hätte man auch was geschaffen bei einem gleich bleibenden Fertigungs Prozzes von 40nm.
Nach hinten losgegangen ist es für mich eigentlich nur weil Konkurent von AMD nicht mit mehr als 15% Leistung aufwarten konnte.
Soll heissen wenn die Leistung zur Konkurenz überzeugen kann gehe ich über Leichen.
Wofür haben wir den 6 und 8 Pin NTS:bigok:
 
Zuletzt bearbeitet:
Und wie ich bereits sagte, sich darüber zu echauffieren ist völlig wertlos, wenn man die Leistungsaufnahme nicht in Relation zur Performance betrachtet.
Richtig.
Eine ATI 9800 Pro hatte nur 1/3 der Verlustleistung der HD 5870, hat dafür aber auch nur einen kleinen Bruchteil der Leistung geboten. Welche von den beiden liefert also mehr Leistung/Watt und ist somit effizienter?
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh