ATI R600 [Spekulations Thread] (Part 1)

Status
Für weitere Antworten geschlossen.
:haha: guter Witz...aber sag mir...was kann ich dafür, wenn deine rechtschreibfehler das flüssige lesen stören ? ^^
Ich habs nicht nötig mich aufzupushen aber ich wollte dich nochmal drauf aufmerksam machen. Beim nächsten mal schreib ich halt ne PN an dich.

Zudem habe ich den Satzbau bei dem Begriff "Selbstmord" richtig benutzt, weshalb sollte es mich da interessieren, ob du mich zitierst oder nicht ? ;)

Okay, ich geb zu das ich mit deinem Rechtschreibproblem ins Offtopic gegangen bin, also beschwer ich mich nicht aber back to topic plz.

Und wieso zum Teufel fängst du wieder mit der Refresh-Geschichte an ?
Du redest wieder total aus dem Zusammenhang. Das Refresh Thema ist alt und offtopic also ruhe.
Viele Gerüchte haben damals besagt, dass der G71 32 Shader haben soll und auch in diesem Forum wurde damals heftig diskutiert !
Wenn du nicht überrascht warst, is es mir egal. Mit 90nm wären 32 Shader locker drin gewesen.
Oder wie willst du dir den G80 in 90 oder 80nm vorstellen ? Zauberei ?:xmas:

Ich verstehs einfach nicht, das viele nicht einsehen, dass sie unsinn schreiben und dann auf provokation aus sind. Wir sind hier nicht im Kinderforum. Dem G71 wurden damals genau 32 Shader zugesagt (Gerüchte), wie heute dem G80 48. Kurz davor wurde bekannt, dass dieser aber auch nur mit 24 Shadern kommt. ;)

Edit
Zudem solltest du lieber mal auf meine Frage antworten, wieso du annimmst, dass der R600 mind. 200W brauch !?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wegen dem 600 mille Transen meint er das und ich "Denke es auch" Hoffe es aber nicht ;)

Hab ich schonmal erwähnt das der R600 besser sein wird als der G80:asthanos:
 
Zuletzt bearbeitet:
trice hats dir gesagt ich poste nicht alles 10 mal wie du

wer damals behauptete oder dachte der G71 wird 32 pipes haben ist falsch in diesem gebiet und hat gar keine ahnung von Grafik karten.
du warst doch der der letztens gar keine ahnung von refreshes hatte und fängst wieder dammit an.
du sagtest die 7800GTX wär nur eine 680Ultra mit mehr pipes und mehr takt.
aber falsch denn die 7800GTX hat verbesserte pipes und ein ganz anderes design und andere veränderungen,
alle refresh karten bis dato hatten nie eine so starke veränderung also kommen nur trottel ohne ahnung in diesem gebiet zu der idee dass der G71 mit 32 pipes kommen sollte....
da sieht man wie viel ahnung du hast

ich sags nochmal
5800 refresh 5900 beide 8 pipes
9700 refresh 9800 beide 8 pipes
6800 hatte kein refresh
x800 refresh x850 beide 16 pipes
7800 refresh 7900 beide 24 pipes
x1800xt refresh x1900xt beide 16 pipes (die pipes sind effektiver als die der x800er serie)
alzu große änderungen werden halt nur bei den neuen generationen gemacht.
so jetzt darfste wieder nen sinnlosen beitrag machen;)
 
1.Dein post ist es nichtmal wert, zitiert zu werden, Mr.Offtopic.
2.Du fängst an Niveaulos zu werden.(Siehe Beleidigung"Trottel ohne Ahnung")
3.Meinst du, der der G70 war soviel anders. Er hatte effizientere Pipes...das weiß jeder und mehr hast du auch net genannt. Also Schall und Rauch.
Und du redest wieder extreeeem am Thema vorbei. Die Refresh-Geschichte hatten wir schon. Mehr sag ich dazu nicht, ich habs nicht nötig.

Edit zum Post unter dem hier:
Ich habe nicht gesagt, dass hier einer ein Trottel sei oder so. Ich sage es wird etwas falsches behauptet und das stimmt auch. Wenn er sagt, es wurde niemals von 32Shader beim G71 gesprochen, schreibt er einfach Unsinn! Es wurde damals auf fast jeder Site davon gesprochen. Ich rede nicht unsachlich aber habe numal keine Lust, für jede Aussage einen Link von vor 10 Monaten herauszusuchen!
Ich akzeptiere auch die Meinung der anderen aber falsche Tatsachen stehen zu lassen ist schlimmer! Und wenn jmd. anderes meine Behauptung als falsch darstellt...was soll ich machen ? Mich freuen ?
 
Zuletzt bearbeitet:
@Nightspider
Eben, das meine ich: Du bist ganz schön vorlaut für einen Schüler. ;) Versuch mal etwas sachlicher zu argumentieren. Du machst Dir sonst keine Freunde. Du bist auch nicht schlauer als wir. Deshalb würde ich noch einmal empfehlen solche Aussagen
Ich verstehs einfach nicht, das viele nicht einsehen, dass sie unsinn schreiben
und sonstige Belehrungen einfach zu lassen. Zu einer Diskussion gehört nun einmal auch, die Meinungen der anderen zu aktzeptieren. ;)

Zum Stromverbrauch der Karten:

Mein Vorschlag: Alle genannten Wattzahlen addieren und durch die Anzahl dividieren und wir haben den heiligen Watt-Gral gefunden. :fresse: :d
 
Zuletzt bearbeitet:
*spam an*

Muss ich erst wieder ein Wichtigen Beitrag meinerseits raus kramen?:rolleyes:

@Nightspider

Hier mal ein Zitat aus einem Früheren von meiner seite Recht Lobenswerten Beitrag.

Was manche Leute hier Fürn Quatsch Reden ist einfach nur zum :wall:

Wenn man keine ahnung hat dann einfach mal Fresse halten und aufhören den Thread voller Falschen Spekulationen Voll zu Müllen.
der G80 ist blos ein Refresh des NV3
Nur mit per Pixel lines und einem Anderen Layout und einer anderen Struktur und einem Herstellungszustand in weniger NM und in anderer Ausführung mit Tifergelegten Spannungswandler und Doppelter SMD Leitungen und Breiteren Cores :stupid:
Damit mal sehen was manche fürn Quatsch Reden.:fresse:
 
genau Bassmecke & trice bestätigen es,

@ Nightspider du fragst mich jedesmal dass selbe und bist wirklich vorlaut.
hättest du seite 33 gelesen würdest du mich wohl nicht jeden tag 3 mal fragen. aber hier ich hab dir den post extra raus gesucht ;)

http://www.forumdeluxx.de/forum/showpost.php?p=4355193&postcount=964

:wink:

edit: da fällt mir ein, letztens beim thema vista & tcpa haste auch sonen aufstand gemacht, dann habe ich dir den link zum tcpa thread gegeben und schon war ruhe :) will doch gar keinen streit mir dir, kann dir für alles was ich sage quellen geben und dann kannst du nach lesen der quellen deine meinung haben, ich habe nix gegen deine meinungen, ich behaupte nie dass ich immer recht habe :) irren ist menschlich, wir lernen nie aus,
mfg Night
 
Zuletzt bearbeitet:
genau Bassmecke & trice bestätigen es,

@ Nightspider du fragst mich jedesmal dass selbe und bist wirklich vorlaut.
hättest du seite 33 gelesen würdest du mich wohl nicht jeden tag 3 mal fragen. aber hier ich hab dir den post extra raus gesucht ;)

http://www.forumdeluxx.de/forum/showpost.php?p=4355193&postcount=964

:wink:

Glaubst du dein Smiley soll zeigen, wie nett du bist, wenn du mich einen Post vorher als Trottel beschimpfst ?

Ich habe den Post gelesen und ich habe die PCGH auch selbst neben mir liegen. Und wieder hast du meine Frage nicht richtig gelesen. Ich habe gefragt, warum der R600 über 200W brauchen sollte. Da bekomm ich von dir eine alte News, in der steht, wieviel Transistoren der G80 und der R600 haben.
 
trice hats dir gesagt ich poste nicht alles 10 mal wie du

wer damals behauptete oder dachte der G71 wird 32 pipes haben ist falsch in diesem gebiet und hat gar keine ahnung von Grafik karten.
du warst doch der der letztens gar keine ahnung von refreshes hatte und fängst wieder dammit an.
du sagtest die 7800GTX wär nur eine 680Ultra mit mehr pipes und mehr takt.
aber falsch denn die 7800GTX hat verbesserte pipes und ein ganz anderes design und andere veränderungen,
alle refresh karten bis dato hatten nie eine so starke veränderung also kommen nur trottel ohne ahnung in diesem gebiet zu der idee dass der G71 mit 32 pipes kommen sollte....
da sieht man wie viel ahnung du hast

ich sags nochmal
5800 refresh 5900 beide 8 pipes
9700 refresh 9800 beide 8 pipes
6800 hatte kein refresh
x800 refresh x850 beide 16 pipes
7800 refresh 7900 beide 24 pipes
x1800xt refresh x1900xt beide 16 pipes (die pipes sind effektiver als die der x800er serie)
alzu große änderungen werden halt nur bei den neuen generationen gemacht.
so jetzt darfste wieder nen sinnlosen beitrag machen;)


Also red nicht immer die Karten so schön.

Also zum Nv30 alá 5800.
Der hatte nur 4 Pipes mit je einer PSU und 2 TMUs.
Der NV 40 hat 16 Pipes, also mit je eienr TMU und 2 PSUs.
Eine kann nur eine MUL-Anweisung berechnen, die liegt vor der TMU, die zweite eine MADD.
Der G70 hat 24 Pipes und hat 1 TMU und 2 PSUs.
Die vor der TMU ist nun auch eine MADD-ALU und die nach der TMU ist geblieben.
Mna hat nur die Tempregister etwas zu den PSUs verbessert.
Der X1800XT hat die gleichen Pipes wie der R420 und der R480.
Die Effizienz wird durch eine bessere Lastenverteilung und durch 512 Threads befähigt.
Das mach in etwa 10% Effizienssteigerung, in höheren Auflösungen sogar 15%.

Viele Gerüchte haben damals besagt, dass der G71 32 Shader haben soll und auch in diesem Forum wurde damals heftig diskutiert !
Wenn du nicht überrascht warst, is es mir egal. Mit 90nm wären 32 Shader locker drin gewesen.

Erstmal heißt es nicht Shader, sondern PPs.
Zweitens war das Design auf 24 PPs ausgelegt.
Drittens wäre der Chip etwa 400Mill Transis angelangt, wäre heiß, also kein hoher Takt möglich.
Für mich war von anfang an klar, das 32 PPs niemals realisiert werdne würde.
Höchstens mit einem niedrigen Takt, aber das wäre nicht wirtschaftlich gewesen.

Dem G71 wurden damals genau 32 Shader zugesagt (Gerüchte), wie heute dem G80 48. Kurz davor wurde bekannt, dass dieser aber auch nur mit 24 Shadern kommt.

Also nehmen wir an, das du tatsächlich über Shader sprichst. D.h. du ignorierst die erste ALU VOR DER TMU.
Der G80 wird aber nur 32 Shader in deiner Rechnung haben.
Also meine Schätzung, der G80 hat 32 PPs, mit je 2 ALUs(eine vor und eine nach der TMU).
Also 64 PSU.
Jetzt fehlen aber noch die 16 VS- und GSUs.
Also hat der G80 höchstens 80 Shader!
Der R600 hat auch nur 64 USCs, aber von denen jede wirklich alles berechnen kann.
Außerdem hat der R600 16 TMUs.
Und ich schätze einen Takt von etwa 800MHz.

200 Watt sind unrealistisch aber möglich. Ich gehe von 160 Watt aus.

mfg Nakai
 
Glaubst du dein Smiley soll zeigen, wie nett du bist, wenn du mich einen Post vorher als Trottel beschimpfst ?

Ich habe den Post gelesen und ich habe die PCGH auch selbst neben mir liegen. Und wieder hast du meine Frage nicht richtig gelesen. Ich habe gefragt, warum der R600 über 200W brauchen sollte. Da bekomm ich von dir eine alte News, in der steht, wieviel Transistoren der G80 und der R600 haben.

1. du spielst dich manchmal echt auf wie nen volltrottel aber ich will dich nicht beleidigen
beim thema grafik karten biste aber echt falsch denke ich manchmal.
bei der sache mit tcpa wars letztens auch so und bei der sache mit den refreshes...

2. ich habe nie gesagt ÜBER 200W

3. du hast doch die pcgh und den link
da steht nicht nur 600mio transistoren sondern auch der grund warum die karten so viel brauchen werden ;)
(aber da steht es nicht bei hast recht, die quelle mit den w steht weiter hinten im graka spezial glaube ich)

4. ja die smyles sollen ein zeichen für frieden sein, aber du bist wohl nicht nach frieden aus....
.
EDIT (autom. Beitragszusammenführung) :

.
Also red nicht immer die Karten so schön.
Also zum Nv30 alá 5800.
Der hatte nur 4 Pipes mit je einer PSU und 2 TMUs.

falsch er hatte 2 x 4 pipes
war ein US chip
frag Thade oder andere old scool kenner die werden es dir bestätigen !
falls ich dennoch unrecht haben sollte schonmal sry aber bin mir eigentlich sicher
aber zum rest gebe ich dir recht :bigok:




Last edit:
also inquirer gerüchten glaube ich generell nie
die sache mit 180W und 200W stand soweit ich mich errinere auf der pcgh HP
aber nicht in der zeitschrift hab grad nach geguckt.
 
Zuletzt bearbeitet:
falsch er hatte 2 x 4 pipes
war ein US chip
frag Thade oder andere old scool kenner die werden es dir bestätigen !
falls ich dennoch unrecht haben sollte schonmal sry aber bin mir eigentlich sicher
aber zum rest gebe ich dir recht :bigok:

Sorry, das ist sowas von falsch.

nVidia gibt zwar ein Maxium von 8 Pixeln pro Takt an, dies trifft aber nur für Z- und
Stenciloprationen zu. Ansonsten verhalten sich nV30 und nV35 wie ein Design mit vier
Pipelines à zwei TMUs

Nur für die obigen Berechnungen.
Ansonsten ein normaler 4 Pipechip.
Der NV30 war niemals ein US-Chip.
Falls eine Farbenberechnung anstand, waren es nur 4 Pixels per Clock.

Only color+Z rendering is done at 4 pixels per clock, all other modes (z, stencil, texture, shading) run at 8 pixels per clock.

Deswegen war der Nv30 ein so miserbaler Shaderchip...

mfg Nakai
 
Naja, ich habe meinen Standpunkt begründet.
Du hast mich mindestens zum 2. mal als Trottel bezeichnet und behauptest, du wölltest frieden und ich nicht?

bei der sache mit tcpa wars letztens auch so und bei der sache mit den refreshes...

Was hat das mit TCPA zu tun ? DU BIST OFFTOPIC !!!

Zum Thema Refresh: Du sagst, niemals wurden 32 Shader (genauer: Pixelshader) angenommen ? Dann lies dir mal das durch:
http://www.pcgameshardware.de/?article_id=439360

Dort wird klipp und klar von dem Gerücht, der 32 Pixelshader gesprochen !!!

Erstmal heißt es nicht Shader, sondern PPs.
Zweitens war das Design auf 24 PPs ausgelegt.
Drittens wäre der Chip etwa 400Mill Transis angelangt, wäre heiß, also kein hoher Takt möglich.
Für mich war von anfang an klar, das 32 PPs niemals realisiert werdne würde.
Höchstens mit einem niedrigen Takt, aber das wäre nicht wirtschaftlich gewesen.

Es war für 24PPs ausgelegt. Es ist nicht unmöglich soetwas zu ändern. Von daher hätte NV auch gut und gerne 32PPs machen können. Wieso sonst, sollten dann Gerüchte, wie dieses 32PPs diskutiert worden sein ?
Zudem gibt es auch möglichkeiten die Abwärme halbwegs unter Kontrolle zu bekommen. Also wäre auch mehr Takt im Gegensatz zum G70 + 32PPs mögloch gewesen. (Nicht soviel Takt wie G71 aber halt mehr als G70).
Dann wäre NV zumindest schneller als ATI gewesen. NV hätte auch paar Euro mehr verlangen können...also war es nicht unwahrscheinlich, dass der G71 mit 32PPs kommt !

Und nun, Night<eye>, erklär mir mal, was daran so schlimm war? Ich habe die ganze Zeit dies behauptet und du wolltest mir nicht glauben !

eye schrieb:
ich habe nie gesagt ÜBER 200W

eye schrieb:
20 min davor: der R600 wird 100% mindestens 200W schlucken das ist von der architektur und den Transistoren schon mehr als deutlich absehbar !

Und du beleidigst mich. Viel mehr muss ich dazu nicht sagen. Niveaulos!

@Nakai, ich meinte es so hier:
http://www.pcgameshardware.de/?article_id=439360
habe mich vllt nicht deutlich genug ausgedrückt. (Sorry dafür)
 
ich habe auch nie mehr als 200W geschrieben ;) mindestens 200W
habe ich höchstens erwähnt ? nein also

und zur sache mit deinem G71 habe ich schon was geschrieben, haste mal wieder überlesen. ich wiederhole mich wie immer nochmal

ich glaube Inquiror gerüchte nie
wer denen glaubt ist verloren !
 
Es war für 24PPs ausgelegt. Es ist nicht unmöglich soetwas zu ändern. Von daher hätte NV auch gut und gerne 32PPs machen können. Wieso sonst, sollten dann Gerüchte, wie dieses 32PPs diskutiert worden sein ?
Zudem gibt es auch möglichkeiten die Abwärme halbwegs unter Kontrolle zu bekommen. Also wäre auch mehr Takt im Gegensatz zum G70 + 32PPs mögloch gewesen. (Nicht soviel Takt wie G71 aber halt mehr als G70).
Dann wäre NV zumindest schneller als ATI gewesen. NV hätte auch paar Euro mehr verlangen können...also war es nicht unwahrscheinlich, dass der G71 mit 32PPs kommt !


@Nakai, ich meinte es so hier:
http://www.pcgameshardware.de/?article_id=439360
habe mich vllt nicht deutlich genug ausgedrückt. (Sorry dafür)

Schneller schon, aber NV blieb wirtschaftlich, was ich gut finde.

Bei PCG werden nur die PSUs nach der TMU angesprochen. Das wird meistens auch so gemacht, da die ersten zur Texturkoordinatenberechnung hinzugezogen werden.
Aber es ist faktisch falsch.
Nur die zweiten ALUs berechnen richtige Pixelshader.

mfg Nakai
 
Zuletzt bearbeitet:
so leute ich hab mir mal den beitrag bei TPup gelesen und da steht das eine karte wohl round about 125w braucht was auch absolut im rahmen liegt!!!!
Da der pciE slot ja eh nur 70watt zu verfügung stellt und der pciE stecker auch nur 70watt kann das auch sein. Sollte die karte wirklich über 140watt brauchen müsste mann ein externes netzteil wie bei der asus mit den 2 7800gt chips ein extrenes netzteil mitliefern was die sache nur teurer macht außerdem denke ich das es wie bei den prozessoren die leistung runtergehen wird da die produktionsprozesse ja auch kleiner werden.Hätte ja kein sinn wenn euer prozzie nur noch 80 watt brauch und nun die graka im gigawattbereich arbeitet:lol:
oder was meint ihr????:fresse:
 
so leute ich hab mir mal den beitrag bei TPup gelesen und da steht das eine karte wohl round about 125w braucht was auch absolut im rahmen liegt!!!!
Da der pciE slot ja eh nur 70watt zu verfügung stellt und der pciE stecker auch nur 70watt kann das auch sein. Sollte die karte wirklich über 140watt brauchen müsste mann ein externes netzteil wie bei der asus mit den 2 7800gt chips ein extrenes netzteil mitliefern was die sache nur teurer macht außerdem denke ich das es wie bei den prozessoren die leistung runtergehen wird da die produktionsprozesse ja auch kleiner werden.Hätte ja kein sinn wenn euer prozzie nur noch 80 watt brauch und nun die graka im gigawattbereich arbeitet:lol:
oder was meint ihr????:fresse:

pci e slot gibt 75w
externer strom stecker gibt 75w
die karten können mit einem 2ten externen strom anschluss versehen werden um dann 225w aufnehmen zu können,
externes NT wird es so oder so geben
bei grafik karten ist mehr leistungsdrang als beim cpu markt also kein vergleich !
in zukunft werden die chips stromsparender amd hat angekündigt dass der R600 der letzte wirklich heisse und strom hungrige chip sein soll !
 
so leute ich hab mir mal den beitrag bei TPup gelesen und da steht das eine karte wohl round about 125w braucht was auch absolut im rahmen liegt!!!!
Da der pciE slot ja eh nur 70watt zu verfügung stellt und der pciE stecker auch nur 70watt kann das auch sein. Sollte die karte wirklich über 140watt brauchen müsste mann ein externes netzteil wie bei der asus mit den 2 7800gt chips ein extrenes netzteil mitliefern was die sache nur teurer macht außerdem denke ich das es wie bei den prozessoren die leistung runtergehen wird da die produktionsprozesse ja auch kleiner werden.Hätte ja kein sinn wenn euer prozzie nur noch 80 watt brauch und nun die graka im gigawattbereich arbeitet:lol:
oder was meint ihr????:fresse:

Also ein Pci-Stecker liefert mehr als 70 Watt. Er liefert soviel wie die Hardware braucht, oder das Netzteil auf der jeweiligen Lane hergibt.
Das Problem bei den Grafikkarten ist die gute Skalierbarkeit. Sie sind sehr gut auf Parallelisierung ausgelegt.
Bei Prozessoren ist das schwieriger. Höhere Leistung wird jetzt durch mehr Cores realisiert. Außerdem sind CPUs kleiner und nicht so komplex, was eine bessere und kleinere Fertigung zulässt.

mfg Nakai
 
Schneller schon, aber NV blieb wirtschaftlich, was ich gut finde.

Ja, NV blieb wirtschaftlich. Das hat aber weniger damit zu tun, dass die Wahrscheinlichkeit trotzdem bestand. Und ich habe von Anfang an nix anderes behauptet.


@ eye
Also ich habe in der Schule gelernt, das mind. die unterste Grenze ist. Wenn du mind. sagst, wird's sehr wahrscheinlich mehr sein. Also mehr als 200W. Soviel zur Logik.

Du kannst dich so oft wiederholen, wie du willst. Das hat nichts mit deiner Aussage zu tun, dass du mich als Falschschreiber abgestempelt hast.
Inquirer hin oder her. Andere Seiten haben dasselbe behauptet.
Zudem sützt du dich wie die anderen zum Teil in dem G80 Thread auch auf Inquirer News und freust dich, wenn der G80 schon als schnellster Chip bezeichnet wird, den es bis dato gibt.
Ich habe dein Text auch nicht überlesen. Der war nur wieder an meinem Kommentar total vorbeigegangen, dass dieser wenig damit zu tun hatte und ich nicht kommentierte.
 
Bei techPowerup steht das zwei ATI karten diese genanten 250 Watt verbrauchen solln nicht eine . Damit wäre es auch realistischer weil die aktuelle x1950xtx auch 125 braucht.
 
Sorry aber überleg doch mal Leistung also watt berechnet sich aus strom und spannung also z.B. gpu max 2v und das würde bedeuten das 112A auf der karte unterwegs wären oder sehe ich das falsch
den p=u*a:wall:
 
Ja, NV blieb wirtschaftlich. Das hat aber weniger damit zu tun, dass die Wahrscheinlichkeit trotzdem bestand. Und ich habe von Anfang an nix anderes behauptet.

Das ist egal. Es wird das beste und effektivste Methode genommen, wenn es zur Herstellung eines Chips gibt.
Die Wahrscheinlichkeit bestand tatsächlich, es war sogar ein 32 PP-Modell in Planung. Aber der hohe Aufwand und Stromverbrauch war einfach zu unwirtschaftlich. Außerdem war eine so gravierende Änderung nicht im Rahmen. Ein kleinerer Shrink und weniger Transistoren, dafür ein höherer Takt war angemessen. Der G70/71 skaliert ja gut mit dem Takt.

mfg Nakai

€:
Sorry aber überleg doch mal Leistung also watt berechnet sich aus strom und spannung also z.B. gpu max 2v und das würde bedeuten das 112A auf der karte unterwegs wären oder sehe ich das falsch
den p=u*a

Ja und? Dann schickt man einfach mehr Ampere auf die dementsprechende Leitung.
 
Zuletzt bearbeitet:
@ eye
Also ich habe in der Schule gelernt, das mind. die unterste Grenze ist. Wenn du mind. sagst, wird's sehr wahrscheinlich mehr sein. Also mehr als 200W. Soviel zur Logik.

Du kannst dich so oft wiederholen, wie du willst. Das hat nichts mit deiner Aussage zu tun, dass du mich als Falschschreiber abgestempelt hast.
Inquirer hin oder her. Andere Seiten haben dasselbe behauptet.
Zudem sützt du dich wie die anderen zum Teil in dem G80 Thread auch auf Inquirer News und freust dich, wenn der G80 schon als schnellster Chip bezeichnet wird, den es bis dato gibt.
Ich habe dein Text auch nicht überlesen. Der war nur wieder an meinem Kommentar total vorbeigegangen, dass dieser wenig damit zu tun hatte und ich nicht kommentierte.

mindestens 200w und höchstens 200w ich schätze genau auf 200w, ich weiss mein deutsch ist schlecht :bigok:
zum G71 die anderen seiten haben wie immer vom inq abgeschrieben daher dieser ganze hype damals. ist heute nicht anders.
wo habe ich behauptet zu glauben dass der G80 schneller wird ?
der R600 wird schneller als der G80 bin ich 100% Sicher
aber der G80 wird mit sicherheit sparsamer bin ich auch zu 100% sicher
 
MAn hört doch jetzt mal auf zu streiten es wird jetzt echt zu Offtopic hier
"gähn":btt:
 
Zuletzt bearbeitet:
Night<eye> ,deine Entschuldigung aus der PM nehm ich gerne an.

Ich sage nicht, dass du behauptet hast, der G80 sei schneller.
Ich meinte nur, dass du dich genauso wie ich und anderr über Inquirer Nachrichten freust, wenn nichts neues ans Tageslicht kommt.

Ich geh auch davon aus, dass der R600 bisschen schneller ist und der G80 kühler bleibt.

Und um zurück zum Topic zu kommen...es könnte auch sein, das die Effizienz der Shader und Pipelines genauso gesteigert wird, wie vom NV40 zum G70.

Also könnte es mit Glück auch so sein, dass der G80 schneller wird als der R600. Aber da müssen wir uns überraschen lassen. Ich rechner erstmal mit einem schnelleren R600.
Also lasst und auf neue Gerüchte und Informationen warten.
 
Zuletzt bearbeitet:
thats right @ Night
wir brauchen mal ein paar sichere quellen, spekulationen bringen nie was...
 
spekulationen birngen meisten nix da man nie genau weiß was nun stimmt.
Und es wir sich nur unnötig der kopf über sachen zerbroach was überhaupt nicht stimmt.
Warten wirs ab. Ich persönlich werde diese graka generation sowieso auslassen , zu uninteressant für mich. Vor allem weil die games meistens noch nicht einmal den auf dx10 spezialisiert sind. Sonder erst wenn der mainstreak nachrückt und das dauert noch nen weilchen.

Und mal ehrlich wer hat schon freiwillig lust auf vista und der ganzen sicherheitskacke (tacp).

Naja mal sehen wie sich alles entwickeln wird.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh