R600 doch auf der Cebit????

Status
Für weitere Antworten geschlossen.
GF2 als die Rage6 (radeon) die GTS in hohen auflösungen "etwas" alt aussehen hat lassen...

wenn du quellen suchst bitte....
bin ich deine Mammi.... nein
bin ich dein Lehrer..... nein
also viel spaß beim suchen :p

könnte es ja mal benchen hier, aber das würdest du ja nicht als Quelle durchgehen lassen also...

Irgendwie macht ATI diesmal ein nette Geheimnis aus dem neuen, früher haben sie den Mund eher zu voll genommen... und das tolle das dient jetzt auch wieder beiden Argumentationslinien...:lol:
Echt primitiv wenn man seine Aussagen nicht untermauern kann und dann noch wie ein Kleinkind anfängt zu provozieren und "diskutieren"!
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
:haha: ähm ja passt schon... aber wieviele benche von 2000 kennst du? wo findest du da im netz fundierte?
oh man bist du Süß! :love:

wie gesagt sag mir was ich benchen soll und wenn du mir glauben schenken willst hast du ja dann deine Quelle.. wenn nich informier dich anderswo aber du behauptest dass durch Treiber keine Großen Leistungssteigerungen möglich sind -> wo sind denn dafür die Quellen :shot: =>> moment sind wir dann beide Primitiv???

€ OHNE jetzt den ganzen Thread follzuspammen (sorry@all)
um von deiner seite aus zu beweisen (dass ein Treiber nie große Sprünge gebracht hat) müsstest du quellen für alle finden, nicht nur ein Beispiel ;)
 
Zuletzt bearbeitet:
oh man bist du Süß! :love:
Such dir nen Haustier!

wie gesagt sag mir was ich benchen soll und wenn du mir glauben schenken willst hast du ja dann deine Quelle.. wenn nich informier dich anderswo aber du behauptest dass durch Treiber keine Großen Leistungssteigerungen möglich sind -> wo sind denn dafür die Quellen :shot: =>> moment sind wir dann beide Primitiv???
Ich schrieb nie das große Leistungssteigerungen nicht möglich sind, sondern das man nicht erwarten brauch das dann auf einmal tausende Punke noch dazu kommen und es solche großen Sprünge bis jetzt durch reine Treiber Weiterentwicklung gab! Einfach das nächste mal besser Lesen - dann gäbs diese Diskussion hier wohl garnicht ;)

Schau hin:

http://www.computerbase.de/artikel/...are_vergleich/19/#abschnitt_performancerating

Forceware Treiber Vergleich auf einer 6800Ultra! Wo sind da die großen Sprünge bei der Treiber Weiterentwicklung?!

Und nein - leider bist und bleibst wohl der einzige Primitivling im Forum!
 
Zuletzt bearbeitet:
oh man, könnt ihr euch nicht per pn streiten??? wäre doch echt schade wenn der mitlerweile 4. r600 thread schon wieder geschlossen wird!

btt: ich verstehs nich ganz ich hab gedacht es wäre bestätigt worden das der r600 in 65nm kommt?!
 
Verdammt - brauche ich wieder ein neues NT (weil 6pol + 8 pol.)?
 
Nein, 2x6pin geht auch. Soll dann nur unter Umständen die Overdrive-Funktion im Treiber nicht geben.

€: Da war einer schneller. :P
 
Soll dann nur unter Umständen die Overdrive-Funktion im Treiber nicht geben.

Warum? Ich denke, dass das wie bei allen anderen Karten so ist, dass man zwar viele Pole hat, die aber letztendlich zu 2 dicken Polen (Lötunkten) zusammenzufügt werden - eben +12V und Masse!
Notfalls kann man sich auch selber helfen, wenn man weiss wie ;)

es wird adapter geben

Dann wird es wohl in Zukunft bald nur noch 8 pol geben - wie jetzt schon der CPU-Anschluss (vorher 4 pol. - jetzt 8 pol.)
 
Zuletzt bearbeitet:
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_forceware_vergleich/18/
1600x1200 4xAA/16xAF
71.81 - 71.24 -> 27% Differenz
nur eine Seite davor....

können wirs dabei belassen das Treiber ne ganze menge ausmachen können.... Danke

war mein letztes OT versprochen :angel:


€: wegen dem NT -> sollte der 8Pin nicht auch via 6Pin belegbar sein...
Diese extremen Unterschiede bei den zwei drei Anwendungen sind wohl eher auf Optimierungen auf die jeweilige Anwendung zu deuten bzw Spieleunterstützung - jedoch macht der Treiber nicht in allen Anwendungen diesen Leistungssprung!

Aber sei es drum - belassen wir es dabei: Der Treiber lässt ein Stück Optimierungspotenzial offen...macht aber aus nem getunten Opel keinen Bugatti! :xmas:
 
Nein, 2x6pin geht auch. Soll dann nur unter Umständen die Overdrive-Funktion im Treiber nicht geben.

€: Da war einer schneller. :P

Das ist aber bisher auch nur ein Gerücht. Kann mir das nicht wirklich vorstellen.

@Spammer: Löscht eure eigenen Posts, JETZT. Schon wieder fast eine Seite. :-[
 
Noch zum Thema R600 in 65nm:

Neues gibt es zum Fall R600 in 80nm oder 65nm. Zuerst wäre hierzu anzumerken, daß ein potentieller Sprung von ATI von 80nm auf 65nm beim R600-Chip einiges an Vorbereitungszeit erfordern würde, da der 65nm Fertigungsprozeß grundverschieden von den doch ziemlich ähnlichen Prozessen 80nm und 90nm ist. Unterhalb von einigen Monaten straffer Planung, Produktionsvorbereitung und Start der Massenfertigung läuft da gar nichts - wenn ATI also im Mai den R600-Chip auf 65nm ausliefern wollte, müsste man wohl schon zum Ende des letzten Jahres diesen Die-Shrink angegangen haben. Dies beißt sich natürlich etwas damit, daß ATI den R600 ursprünglich sicher zum Ende des März' herausbringen wollte und die entsprechenden Launch-Aktivitäten allesamt schon geplant waren (und nun kurzfristig abgesagt wurden) ...

... Innerhalb dieser Zeit von der Absage des ursprünglichen Launches (Ende Februar) bis zum Zeitpunkt des neuen Launches (Mai) stellt ATI jedoch auf keinen Fall auf die 65nm Fertigung um. Daß die RV610- und RV630-Chips zu diesem Zeitpunkt bereits in 65nm antreten werden können, hängt nur damit zusammen, daß diese schon des längeren auf diese Fertigungstechnologie hin geplant wurden. Hinzu kommt, daß die angeblichen Bestätigungen einer 65nm Fertigung beim R600 durch ATI/AMD laut unserer Nachfrage "Schwachsinn" sind, wie hier nachzuschlagen - wobei wohlgemerkt nicht die 65nm Fertigung beim R600 negiert wurde, sondern nur eine angebliche ATI/AMD-Bestätigung dessen gegenüber K-Hardware und The Inquirer ...

... Damit ist das Thema R600 @ 65nm aber auf keinen Fall schon vom Tisch - denn einen R600 in 65nm gibt es tatsächlich. Wie CDR-Info im Nebensatze berichten, arbeitet ATI/AMD nach eigenen Angaben in der Tat schon an einem R600 in 65nm für den Mobile-Markt - und diesen könnte man natürlich auch auf dem Desktop-Markt einsetzen, sofern jener "R600M" keine Hardware-Abspeckungen gegenüber der Desktop-Variante des R600 hat. Damit sind im Fall R600 in 80nm oder 65nm nach wie vor alle drei Varianten möglich: In der ersten Variante liefert ATI den R600 streng in 80nm aus - mit allen Vor- und Nachteilen (Verfügbarkeit vs. Stromverbrauch). Hier wäre es zwar derzeit etwas unklar, wieso der Chip dann nochmals verschoben wurde, aber diese Frage sollte sich dann zum Launch klären lassen ...

... In der zweiten Variante bringt ATI den R600 gleich nur noch in 65nm heraus. Dafür hätte man sich allerdings (wie vorstehend beschrieben) schon vor Monaten diesem Thema verstärkt widmen müssen, um im Mai dann auch wirklich lieferbar zu sein. Und in der dritten Variante würde es einen Mix aus 80nm und 65nm geben: ATI bringt den R600 erst einmal in 80nm heraus und beliefert vorzugsweise zuerst die OEMs mit den 80nm-Modellen (weil sich in diesem Markt weniger Diskussionen an dem Stromverbrauch der Karten entzünden werden). Gleichzeitig versucht man so schnell wie möglich auf die 65nm-Version umzusteigen, um mit dieser dann den Retail-Markt beliefern zu können. Auch bei dieser Variante müsste ATI allerdings auch schon vor Monaten ernsthaft an der 65nm Fertigung des R600-Chips gearbeitet haben. Welche der drei Varianten wirklich kommt, ist derzeit noch ziemlich offen - bei unaufgeregt konservativer Betrachtung hat die erste Variante (80nm Launch) allerdings die deutlich größten Chancen.
Quelle

So wie die es schreiben ist wohl nen 65nm GPU zum Lunch wohl eher unwahrscheinlich. Ich denke das es eher sein könnte wie 3dcenter beschreibt, das der 80nm erstmal nur für OEMs kommen könnte und etwas später der 65nm für Retail?! Würde dann wohl Zeitspanne für die Umsetzung in 65nm ca hinkommen.

@ HOSCHII
Hier hat doch garkein User names Spammer geschrieben ^^
 
Zuletzt bearbeitet:
Man kann es gerne übertreiben von wegen Überchip und Wundertreiber! Wenn man liest, daß das Ziel ist einen Chiptakt von 1Ghz zu erreichen ist das wohl sehr gut! Als kleiner Vergleich: Deine Core 2 Duplos bringen ja auch nicht 500% mehr Leistung nur durchs Übertakten.;-)
 
ATI DX10 Midrange?!

N´Abend Leutz...

wenn wir schon beim Thema R600 sind....

gibts schon konkrete Hinweise bzw Infos was denn die ATI DX10 Midrange Karten Speicher bzw Taktraten haben werden und welchen Preisbereich die anstreben????? :p
 
überchip und wundertreiber keines wegs, aber solche "Benches" jetzt schon als eindeutigen Performancehinweis zu sehen wär doch wohl etwas zu früh, viele dieser frühen samples sind alles andere als ausgereift... zusätzlich sollte man nicht vergessen, dass unter 3dmark03/06 nv immer besser performt, bei 05 ists umgekehrt...
und zum ramtakt hat sich auch noch keiner geäußert.....


mich wundert allerdings schon die neue Strategie ATIs mit den Infos vor dem eigentlichen release, die waren da immer sehr freizügig (und sehr optimistisch ;)), aber diesmal...
 
Zuletzt bearbeitet:
ich persönlich finde die hohe taktrate nicht besonders effizient, und auch der energieverbrauch ist nicht ohne. Ich hoffe und bete das es kein 1800 desaster wird. Wobei das ja nicht unbedingt ein desaster war.

Aber speed ist (nicht) alles.
Die wenigsten bauen ihre karten so um das sie leise sind, ich z.b. habe keine wakü aber möchte keinen jet im gehäuse haben.
Effizienz ist hier gefragt.
 
ich persönlich finde die hohe taktrate nicht besonders effizient, und auch der energieverbrauch ist nicht ohne. Ich hoffe und bete das es kein 1800 desaster wird. Wobei das ja nicht unbedingt ein desaster war.

Die X1800 war verkaufsmäßig gesehen gegenüber der Gf 7800 schon ein Desaster für ATi. (nicht falsch verstehen, hatte selbst eine X1800 XT-PE, die ging gut ab aber die Treiber :hmm: )

MfG :cool:
 
R600 News (OEM Foto & Strom-Anforderungen):
http://forums.vr-zone.com/showthread.php?t=137689

Naja er braucht mehr Power, aber da es wohl der Radeon X2800XTX ist wundert es micht nicht. Wenn der 8800 Ultra kommt wird er wohl genau so viel Watt brauchen.
Der Kühler sieht aber gigantisch aus, hoffe der ist nicht so riesig wie er auf dem Foto wirkt.
 
Zuletzt bearbeitet:
naja nicht wirklich neu ;) aber die anschlüsse sagen nicht über den tatsächlichen Stromverbrauch bzw die Verlustleistung aus.
 
ich bin schon ein wenig entäuscht seit heute denn wenn sich der R600 "nur" um 200 punkte abhebt von der 8800gtx im 3dmark 06 ist das nach einem halbem jahr verspätung alles andere als gut auch wenn der treiber noch nicht passt richtig groß wird der unterschied deswegen auch nicht... sehr ernüchternd wie ich finde...


http://hardwareluxx.de/story.php?id=5392
 
wenn alles ein Desaster und enttäuschend ist,dann kauf euch was anderes.

danke
 
also warum sich hier alle so gegen den r600 ausstreiten verstehe ich überhaupt nicht.

ok ich bin kein aufrüst benchmarknurmi vielleicht einer der 100 000 mittelklassegamern der sich einmal eine gute grake leisten möchte.
alle heben nvida so hervor warum??? weil die 8800 so tolle nebelbugs haben ?, weil sie sauschnelle aber von grafikblitzern und grauen gegenständen überzogene games hinbringen ?, weil man für momentan 350.- treiberprobleme der grössten ausbaustuffe mitbekommt?
weil man nur treiber installiert und einstellt und nie zum zocken kommt weil man wenns irgendwann klappt die karte längst überholt ist und ja wieder ne neue braucht um seinen treibertrieb auszuleben?

ja genau treiber sind wie die luft ohne der die lunge noch so stark sein kann das sieht man ja bei nvida am besten das die luft da zu dünn ist.

ich warte seit sage und schreibe übe 2 monate und beobachte ob e schon vernünftige treiber für die hig end demütigung gibt weil man sich ja 1x was nettes leisten möchte.

ja was nettes das funktioniert.
eine frechheit sondergleichen beider hersteller den verbraucher mit anfangs 600.- zu fi.... und keine treiber parat hat die was taugen.

wahrscheinlich weil diese monsterkarten nur für benches und nicht zum zocken gebaut wurden:hmm:
 
also warum sich hier alle so gegen den r600 ausstreiten verstehe ich überhaupt nicht.

ok ich bin kein aufrüst benchmarknurmi vielleicht einer der 100 000 mittelklassegamern der sich einmal eine gute grake leisten möchte.
alle heben nvida so hervor warum??? weil die 8800 so tolle nebelbugs haben ?, weil sie sauschnelle aber von grafikblitzern und grauen gegenständen überzogene games hinbringen ?, weil man für momentan 350.- treiberprobleme der grössten ausbaustuffe mitbekommt?
weil man nur treiber installiert und einstellt und nie zum zocken kommt weil man wenns irgendwann klappt die karte längst überholt ist und ja wieder ne neue braucht um seinen treibertrieb auszuleben?

ja genau treiber sind wie die luft ohne der die lunge noch so stark sein kann das sieht man ja bei nvida am besten das die luft da zu dünn ist.

ich warte seit sage und schreibe übe 2 monate und beobachte ob e schon vernünftige treiber für die hig end demütigung gibt weil man sich ja 1x was nettes leisten möchte.

ja was nettes das funktioniert.
eine frechheit sondergleichen beider hersteller den verbraucher mit anfangs 600.- zu fi.... und keine treiber parat hat die was taugen.

wahrscheinlich weil diese monsterkarten nur für benches und nicht zum zocken gebaut wurden:hmm:


:shake: also ich hab mit meiner gts in eigentlich keinem spiel von mir irgendwelche probleme, weder graphische noch leistungstechnische (fifa07,pes6,top spin2, bf2, rfactor, race, gtr2)...nur cod2 läuft nicht richtig, aber ich habs auch nicht wirklich probiert, was daran zu ändern...muss das game auch nicht unbedingt spielen ;)
 
Mensch Jungs...

diese Woche sieht es genau so aus wie letzte Woche...
Diesen VR-Zone Heinos glaubt ich kein Wort. Na ja hoffentlich wissen wir im April mehr...

Gruß

Simon
 
naja diese "heinos" lagen schon oft richtig, aber eigentlich hast du recht ;)
 
Erwartungen...ich träume auch davon das jede neue Karte am besten 100% schneller ist aber *wake up Neo*

Zufrieden seid ihr doch nie ,ist sie 20% schneller,sagt der Nächste ich habe 50% erwartet. Ist sie ne Rakete ,sagt der Nächste das sie zu viel Strom verbraucht.
Man findet immer was zum schlechtreden nä

Und gebt doch mal zu,ihr sitzt den ganzen Tag in Foren,da muß man ja nen Knall bekommen.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh