PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : "DIE" Grafikkarte für CoD!



robtek1957
10-03-11, 15:57
mit dieser Grafikkarte dürften alle Einschränkungen im Spiel an anderen Teilen des Systems liegen!

ATI HD6990 (http://www.youtube.com/user/motherboardsorg#p/u/0/fjTB519cL9E)

robtek1957
10-03-11, 15:57
mit dieser Grafikkarte dürften alle Einschränkungen im Spiel an anderen Teilen des Systems liegen!

ATI HD6990 (http://www.youtube.com/user/motherboardsorg#p/u/0/fjTB519cL9E)

JG53Frankyboy
11-03-11, 01:27
schick, was sagt der HEimwerkerkönig : "more power" http://forums.ubi.com/infopop/emoticons/icon_biggrin.gif
hier wohl nicht nur beim output sondern auch beim imput, naja, AKW Biblis wäre ja nicht weit...

aber als nicht so der PC freak hab ich bisehr von solchen dual Karten immer die Finger gelassen. Bin gespannt was meine ATI 5870 leisten wird http://forums.ubi.com/infopop/emoticons/icon_biggrin.gif
sie wird ja unterstützt von 8GB RAM und nemm core i7 (4x3ghz)

mle.Anubis
11-03-11, 11:29
mal bgesehen von sowas gesponnenem wie ner hd6990 wäre die Frage der richtigen Grafikkarte langsam wirklich interesant.

Ich muss Grafikkartentechnisch sicher aufrüsten und würde das zum Launch (oder am besten noch davor) von CoD gerne tun nur was braucht CoD wirklich? Reicht eine hd6870? Doch eine hd6950? Ati oder nvidia? Ich bin wirklich gespannt auf die ersten Benchmarks.

JG4_Helofly
11-03-11, 12:53
Also ich habe vor kurzem eine HD 6870 in meinen Rechner gebaut. Da funktionniert alles auf Maximum bei Spielen wie Bad company 2 oder cod black ops (nicht zu verwechseln mit IL2 COD http://forums.ubi.com/infopop/emoticons/icon_wink.gif ). Und das alles noch mit einer Auflösung von 1920x1200. Als CPU habe ich übrigens einen Phenom II X4 955 mit 4 x 3.2 Ghz und 4 GB RAM. Ich kann mir nicht vorstellen, dass IL2 noch höhere Anforderungen stellen wird im Bereich Grafik. Vermutlich wird der CPU mehr beansprucht werden. Die RAM sollen auch eine wichtige Rolle spielen.
Mein Tipp: Nicht Unsummen in die "beste" Graka investieren, sondern lieber den CPU und ggf. die RAM aufrüsten. Hier dürfte ein schneller quad core reichen. Wer mit AMD fährt, sollte mal einen Blick auf die X6 Varianten werfen. Sind Preislich ansprechend und zukunftssicher.

mle.Anubis
11-03-11, 15:25
Speicher und CPU brauch ich mir keine Sorgen machen. Es geht wirklich nur um die Grafikkarte da die deutlich älter ist als der Rest.

Und naja das beste ist die 9850 ja eh nicht ^^
Alleine bei Ati gibt es noch 2 modelle drüber und das man die 6950 zu ne 6970 freischalten kann macht sie noch attraktiver *g*

nadazero
12-03-11, 09:23
Interessant ist, dass die hd6990 im Normalbetrieb bei ca. 370 Watt begrenzt wird. Wenn man mehr Rechen-Leistung braucht, kann man aber einen Schalter umlegen und dann unter Verlust der Garantie bis zu 450 Watt verbrauchen.

Wer wirklich "High-End" will, kann auch zwei von diesen Karten in den Rechner stecken. Der Rechner verbrät dann zwar bis zu 1000 Watt, man kann aber auf einem 30"-Bildschirm mit 2560x1600 Auflösung Crysis mit über 60 fps spielen.

Test 2 x hd6990 (http://www.tomshardware.de/radeon-hd-6990-antilles-crossfire,testberichte-240739-14.html)

edit:
URL-repariert

LupusWolf
27-03-11, 01:08
Es macht eh kaum Sinn die dickste Karte zu kaufen.
Spiele wie COD, auch wenn sie optisch sehr aufwendig sind, werden so programmiert
dass sie auf Mittelklasse PCs vollkommen flüssig laufen.

Hat man nicht gerade einen gigantisch grossen Bildschirm und eine riesen Auflösung,
wird also auch eine ältere Karte mit COD fertig.
Denn die meisten PCs sind, vor allem bei Sim Fans, ca 2-4 Jahre alt und in der Regel
nicht die teuersten HighEnd Kisten.
(bei Menschen die UBoot Sims spielen eher 4 Jahre, als 2)

Meine persönlicher Rat wäre, einfach mal kurz bis nach dem release zu warten.
Dann können die ersten berichten wie bei Ihnen läuft.
Ich bin mir aber sicher das sogar jede HD5850 @ 1GB locker mit COD fertig wird,
vorausgesetzt der Rest bremst das System nicht aus.

Eine HD5870 ist da eine Überlegung wert, denn die ist sehr Leistungsstark,
braucht eher weniger Strom und im Desktop Modus sogar nur ca 20 Watt.
(subjektiv muss ich sagen, ich wohne nicht sooo weit weg von Biblis)


mfg, J

Nebenniere
27-03-11, 07:12
Inzwischen dürften 22" oder sogar 24" Monitor sehr verbreitet sein, dementsprechend sind die Auflösungen.

Und CoD scheint sehr wohl heutige Computer auf die Probe zu stellen, wenn man sich die Videos so anschaut. http://forums.ubi.com/images/smilies/10.gif

StG2_Helbig
28-03-11, 00:39
Man sollte immer mit bedenken das die Grafikkarte vor allem bei so potenten High End Karten wie der ATI 5870 oder der 6870 auch immer eine High End CPU nötig ist, um die volle Leistung der Grafikkarte frei setzten zu können.

Eine Geforce GTX 470-480 entfaltet ihr volles Leistungspotential bei einer CPU Geschwindigkeit von 3,2-3,4 GHz ergo sollte der 4 Kerner diese Leistung auch bringen. Ich gehe davon aus das die High End ATI Karten da ähnlich skallieren. Und Quad Core CPUs gerhören 2011 ja mittlerweile zum guten Ton http://forums.ubi.com/infopop/emoticons/icon_smile.gif. Bin gespannt wie Cliffs of Dover mit der CPU und oder Grafikkarte an Leistung gewinnt.

JG53Dex
28-03-11, 02:40
<BLOCKQUOTE class="ip-ubbcode-quote"><div class="ip-ubbcode-quote-title">quote:</div><div class="ip-ubbcode-quote-content">Zitat von StG2_Helbig:
Man sollte immer mit bedenken das die Grafikkarte vor allem bei so potenten High End Karten wie der ATI 5870 oder der 6870 auch immer eine High End CPU nötig ist, um die volle Leistung der Grafikkarte frei setzten zu können.
</div></BLOCKQUOTE>

So ists...

ich bin sehr gespannt wie meine olle Kiste das am Donnerstag über die Bühne bringt.
Denn dann wird genau der Flaschenhals CPU wohl für Ernüchterung sorgen.
Ich hab immer noch meinen "alten" e8200 DualCore in Kombination mit einer POV OCed GTX470. Die CPU läuft auf 3,2GHz und hat bisher noch alles gut verkraftet. Bis jetzt war für mich immer Referenz, dass ich Age of Conan auf 1920x1080 auf max.Settings spielen konnte, aber ich denke diese Ära wird ab Donnerstag zu Ende sein...

Vielleicht würde das ja helfen?! http://forums.ubi.com/infopop/emoticons/icon_smile.gif
http://www.youtube.com/watch?v...re=player_detailpage (http://www.youtube.com/watch?v=96dWOEa4Djs&feature=player_detailpage)

Gruß,

Dex

Vizeranger82
28-03-11, 03:52
Hallo Liebe Piloten,

Ich habe mir extra für DCS A-10C neue Hardware gekauft. nun spiele ich das Spiel auf Max Auflösung mit Max setting überall flüssig...

CPU: AMD Pehnom II 955 mit 4.1 GhZ
Grafik: Radeon HD 6950 (Habe schon probiert sie zur 6970 zumachen, nur leider wird die Karte zu heiss und ich habe regelmässig Pc abstürze)
4 Gb DDR2 Ram
27 Zoll Hp 2710M Bildschirm mit einer Auflösung von:1920 x 1080


Ich freue mich meine Grafikkarte am Do, bis ans Maximum zu fordern http://forums.ubi.com/infopop/emoticons/icon_biggrin.gif


Grüsse aus der Schweiz

Health_Angel
29-03-11, 07:02
Die HD 6950 ist aus meiner Sicht perfekt (die 2GB Variante). Der Preis ist moderat und die Leistung gut. Oleg hat schonmal angedeutet, daß viel Graka-RAM von Vorteil sein wird.

Mit etwas Glück läßt sie sich auch freischalten auf das Niveau der HD 6970. Die meisten begehen hier aber leider den Fehler, daß sie das echte 6970er Bios verwenden. Das funktioniert zwar bei einigen, macht bei den meisten aber Probleme. Sinnvollerweise sollte man nur die Shader im original 6950er Bios freischalten und dieses dann auf die Karte aufspielen. Danach kann man schaun, wie weit man sie stabil übertakten kann.

Ich selbst habe die HD6950 seit einigen Wochen und konnte die Shader problemlos freischalten. Übertaktung lief in Benchmarks bis 900/1400 fehlerfrei, allerdings waren das nur Tests, um mal zu schaun, was möglich ist. Ich betreibe die Karte mit Standard-Takt (800/1250) und freigeschalteten Shadern und die Leistung ist ausgezeichnet.

Die HD 6990 dürfte für IL-2 CoD momentan nur bedingt tauglich sein, da multi GPU-Systeme (Crossfire ebenso wie SLI) noch nicht unterstützt werden. Bei einem echten Crossfire System kann man ja wenigstens eine Karte abschalten, wenn das Game das nicht unterstützt, was bei einer Karte mit mehreren GPUs nicht funktioniert.