Starfield – den stora tråden

Permalänk
Medlem
Skrivet av Sveklockarn:

Och där fick 3 av 4 PC-spelare ett spel som knappt kommer vara spelbart vid lanseringen?

https://www.youtube.com/watch?v=9ABnU6Zo0uA

https://videocardz.com/newz/amd-to-be-bethesdas-exclusive-pc-...

Hoppas detaljerna klarnar kring detta före release, annars blir det garanterad avbokning här.

Får se om det är som The Division 2 är. Första The Division är ett Nvidia partnerspel och fungerar finfint på Nvidia kort. Men The Division 2 snappade AMD upp, så det är tvärtemot ett AMD partnerspel. Nvidia fullständigt ignorerade alla problem med The Division 2 och DX12 på just Nvidia-kort, eftersom det var ett AMD-sponsrat spel.

Permalänk
Medlem

Suck..ännu ett spel där AMD skall göra det de kan för att DLSS/DLAA inte skall fungera.

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Medlem
Skrivet av Fulci:

Får se om det är som The Division 2 är. Första The Division är ett Nvidia partnerspel och fungerar finfint på Nvidia kort. Men The Division 2 snappade AMD upp, så det är tvärtemot ett AMD partnerspel. Nvidia fullständigt ignorerade alla problem med The Division 2 och DX12 på just Nvidia-kort, eftersom det var ett AMD-sponsrat spel.

Nu har jag inte hängt med i The Division 2-härvan du beskriver, men AMD verkar inte ha något bra track record:
https://wccftech.com/whats-up-with-the-missing-nvidia-dlss-su...

Nu är jag personligen ingen större anhängare av DLSS, utan det jag specifikt oroar mig över är att det kommer petas in saker i PC-versionen så att spelet går betydligt sämre på Nvidia-hårdvara.

Permalänk
Medlem
Skrivet av Sveklockarn:

Nu har jag inte hängt med i The Division 2-härvan du beskriver, men AMD verkar inte ha något bra track record:
https://wccftech.com/whats-up-with-the-missing-nvidia-dlss-su...

Nu är jag personligen ingen större anhängare av DLSS, utan det jag specifikt oroar mig över är att det kommer petas in saker i PC-versionen så att spelet går betydligt sämre på Nvidia-hårdvara.

The Division 2 gick DX12 knappast att använda på Nvidia kort under lång tid. För väldigt många som provade fryste spelet då och då. Var tvungen köra på DX11 som inte var dåligt i sig, men hade lite sämre prestanda. Ingen gjorde något för att fixa problemet heller hos Ubisoft och Massive, och Nvidia sa att problemet inte låg hos dem. Det var en trist upplevelse för mig med Nvidia kort.

Permalänk
Medlem
Skrivet av Fulci:

The Division 2 gick DX12 knappast att använda på Nvidia kort under lång tid. För väldigt många som provade fryste spelet då och då. Var tvungen köra på DX11 som inte var dåligt i sig, men hade lite sämre prestanda. Ingen gjorde något för att fixa problemet heller hos Ubisoft och Massive, och Nvidia sa att problemet inte låg hos dem. Det var en trist upplevelse för mig med Nvidia kort.

Jag hade väl inga högre tankar om Ubisoft från början men jag hoppas att vi inte ser den sortens problem med BGS/MS. Det verkar vara en riktig skitstorm på gång i sociala medier, får hoppas att det blir stort nog för att trycka på rätt knappar.

Permalänk
Medlem

Rekommenderade specs:
OS: Windows 10/11 with updates
Processor: AMD Ryzen 5 3600X, Intel i5-10600K
Memory: 16 GB RAM
Graphics: AMD Radeon RX 6800 XT, NVIDIA GeForce RTX 2080
DirectX: Version 12
Network: Broadband Internet connection
Storage: 125 GB available space
Additional Notes: SSD Required

Jag tycker att det ser lite märkligt ut. Tror ni att det är värt att uppgradera från 9600k nä jag redan har 3080 12gb.

Permalänk
Medlem
Skrivet av Jonas13:

Rekommenderade specs:
OS: Windows 10/11 with updates
Processor: AMD Ryzen 5 3600X, Intel i5-10600K
Memory: 16 GB RAM
Graphics: AMD Radeon RX 6800 XT, NVIDIA GeForce RTX 2080
DirectX: Version 12
Network: Broadband Internet connection
Storage: 125 GB available space
Additional Notes: SSD Required

Jag tycker att det ser lite märkligt ut. Tror ni att det är värt att uppgradera från 9600k nä jag redan har 3080 12gb.

Visst att du kanske skulle märka nån skillnad om du uppgraderade till en ny CPU, men annars är det väl ingen större skillnad mellan 9600k och 10600k, speciellt inte på högre upplösningar.

Permalänk
Medlem
Skrivet av Jonas13:

Tror ni att det är värt att uppgradera från 9600k nä jag redan har 3080 12gb.

i5-10600K är rekommenderade specs, inte minimum!

Vi som har nyare GPUer och äldre CPUer får nog dock räkna med att spelet kommer vara ganska CPU-tungt, och man är ju redan CPU-begränsad i titlar som är flera år gamla, t.ex. Red Dead Redemption 2.

Det bästa är ändå att inte uppgradera förrän spelet är ute, kommer sannolikt att vara spelbart med din CPU.

Permalänk

AMD kör bundle med vissa processorer där man får Starfield på köpet. Gäller från och med den 11 juli. Det passar mig eftersom jag tänkte i dagarna köpa en 7600X.

Se här: https://www.google.com/search?q=amd+starfield+bundle&oq=&aqs=...

Finns det mer information om hur det fungerar och vilka svenska återförsäljare som deltar?

Permalänk
Medlem
Skrivet av Saliciouscrumbs:

AMD kör bundle med vissa processorer där man får Starfield på köpet. Gäller från och med den 11 juli. Det passar mig eftersom jag tänkte i dagarna köpa en 7600X.

Se här: https://www.google.com/search?q=amd+starfield+bundle&oq=&aqs=...

Finns det mer information om hur det fungerar och vilka svenska återförsäljare som deltar?

Själva spelet får man åtminstone genom att redeema en kod som finns med produkterna, senast den 28/10.

En 7600X blir bara Standard Edition tråkigt nog, så man får inte börja spela 1/9 utan får vänta till 6/9.

Standard Edition kostar 850 SEK, och Premium 1150 SEK, så det återstår väl för dig (och andra intresserade) att se hur mycket rabatt det blir av att köpa en CPU samtidigt. Du kan ju kolla vad en 7600X kostar nu.

Permalänk
Medlem

Måste man hålla på och tramsa med ytterligare någon hopplös launcher om man hoppar på bundletåget? Är inne på att köpa en 7900 XTX för att få Starfield med, men det är lite avhängigt hur man får tillgång till spelet. Att få en Steam-kod är väl kanske att hoppas i onödan, men om man måste nyttja någon launcher som omöjliggör att pilla i .ini-filer och sånt (vilket nästan är ett måste i fallet med Bethesda-titlar - för att inte tala om möjligheten att modda), då får det vara.

Visa signatur

RTX 4080 Super | Ryzen 5800X3D | B550 | 32GB 3600 MHz | 1000W | W.11

Permalänk
Medlem
Skrivet av FarbrorBarbr0:

Måste man hålla på och tramsa med ytterligare någon hopplös launcher om man hoppar på bundletåget? Är inne på att köpa en 7900 XTX för att få Starfield med, men det är lite avhängigt hur man får tillgång till spelet. Att få en Steam-kod är väl kanske att hoppas i onödan, men om man måste nyttja någon launcher som omöjliggör att pilla i .ini-filer och sånt (vilket nästan är ett måste i fallet med Bethesda-titlar - för att inte tala om möjligheten att modda), då får det vara.

Bethesda använder Steam numera istället för Bethesda.net-launchern.

Infon ligger gömd här: https://www.amdrewards.com/terms

Citat:

b. To Access Starfield Premium or Standard Edition:

i. Upon successful verification as set forth above, Participant will be directed to log in to or sign
up for a Steam account via a window on amdrewards.com. Participant must link their Steam
account to their AMDRewards.com account.

Blir säkert rage här på forumet om att man måste ha Windows för att redeema koden. 😅

Permalänk
Medlem
Skrivet av Sveklockarn:

Bethesda använder Steam numera istället för Bethesda.net-launchern.

Infon ligger gömd här: https://www.amdrewards.com/terms

Det var ju oväntat bra nyheter. Tack för det.

Visa signatur

RTX 4080 Super | Ryzen 5800X3D | B550 | 32GB 3600 MHz | 1000W | W.11

Permalänk

Jag funderar på (och hoppas) att amd kanske släpper rx 7800 xt i samband med starfield, men det kanske är för mycket att hoppas på?

Permalänk
Medlem

Nya uppgifter om required specs från amd. Kan någon vara vänlig att översätta dessa till ungefärliga motsvarigheter för Nvidia/Intel?

Permalänk
Avstängd
Skrivet av Fulci:

Får se om det är som The Division 2 är. Första The Division är ett Nvidia partnerspel och fungerar finfint på Nvidia kort. Men The Division 2 snappade AMD upp, så det är tvärtemot ett AMD partnerspel. Nvidia fullständigt ignorerade alla problem med The Division 2 och DX12 på just Nvidia-kort, eftersom det var ett AMD-sponsrat spel.

Har 4090, men AMD kan ju ändå göra så prestandan drastiskt minskar på NVIDIA. Väntar och se hur det går på NVIDIA.

Visa signatur

The more I get to know people, the more I love my dog.

Permalänk
Medlem
Skrivet av KurtEgon:

Nya uppgifter om required specs från amd. Kan någon vara vänlig att översätta dessa till ungefärliga motsvarigheter för Nvidia/Intel?

Eftersom spelet inte är ute än så vet vi inte hur spelet kommer skala med olika komponenter. Om man tar genomsnittsprestandan av grafikkort så skulle 4K-kraven rekommendera RTX 4070 Ti, men jag skulle inte bli förvånad om 4K Ultra kräver >16GB VRAM så AMD får en fördel jämfört mot Nvidias <=16GB kort.

1440p (Ultra?): RTX 4070 / 3080 / 3070 Ti (inte säkert att 8-10GB VRAM skulle räcka till)
1080p (High?): RTX 4060 / 3060 / Ti

På processorsidan så borde Intel 12/13000-serien vara motsvarigheten (med 6+ kärnor).

Visa signatur

Ryzen 9 5900X @ +100MHz & CO -23.5 | RTX 3070 @ 2GHz 16Gbps 956mV | 32GB @ 3600MT/s CL14

Permalänk
Medlem
Skrivet av KurtEgon:

Nya uppgifter om required specs från amd. Kan någon vara vänlig att översätta dessa till ungefärliga motsvarigheter för Nvidia/Intel?

Just nu får man räkna med att all information från Bethesda eller systemkrav för Starfield är påverkade för att driva försäljningen av vissa högt specificerade AMD-GPUer.

Det här är vad jag skulle kalla en klassisk icke-lögn vid första anblicken, d.v.s. de ljuger inte men använder orden på ett sätt som får det att framstå som att t.ex. ett RTX 3080 kommer vara obsolet för att spela i 1440p (oj vilken otur!). Det står heller ingenstans att man måste ha någon av produkterna för en bra upplevelse på respektive nivå utan pratar i svepande termer och använder laddade ord som "perfect entry specs", "ideal", "hardcore", "no compromise".

Hela exklusivitetsavtalet bygger på att det ska krängas AMD-hårdvara.

Detta är ren AMD-reklam, varken mer eller mindre.

Vänta tills det finns benchmarks. Man får Starfield på köpet även efter den tidiga releasen 1/9.

Permalänk
Medlem

Frågan är om man ska uppgradera från 5600 till 5800X3D innan spelet släpps…

Permalänk
Medlem
Skrivet av Bobiri:

Frågan är om man ska uppgradera från 5600 till 5800X3D innan spelet släpps…

Minimum är väl 2600X så jag tror du klarar dig.

Permalänk
Medlem
Skrivet av Bobiri:

Frågan är om man ska uppgradera från 5600 till 5800X3D innan spelet släpps…

Rekommenderade specs är ju sexkärniga processorer, så jag tror allt att du kan vänta på lite benchmarks och sånt. 5800X3D är ju en kanonprocessor, men vet inte om man behöver uppgadera förebyggande enbart för Starfield innan vi vet hur det presterar.

Visa signatur

RTX 4080 Super | Ryzen 5800X3D | B550 | 32GB 3600 MHz | 1000W | W.11

Permalänk
Medlem
Skrivet av FarbrorBarbr0:

men vet inte om man behöver uppgadera förebyggande enbart för Starfield innan vi vet hur det presterar.

Det var en av mina första impulser, att börja uppgradera innan... lyckades stävja den eftersom jag insåg att det är samma problem som med att jag köpte ett RTX 3080 inför Cyberpunk 2077 -- att spelet inte var spelbart initialt och att större insatser i hårdvara inte hade hjälpt mot ett buggigt spel.

Jag spar hellre mina pengar till höstens förmodade Intel-lansering, och då behöver jag inte ödsla krut i onödan på något som inte kommer göra tillräcklig skillnad för spelprestandan heller.

Permalänk
Medlem
Skrivet av Sveklockarn:

Nu är jag personligen ingen större anhängare av DLSS, utan det jag specifikt oroar mig över är att det kommer petas in saker i PC-versionen så att spelet går betydligt sämre på Nvidia-hårdvara.

Förutom att just stöd för DLSS saknas är väl inte AMD kända för att medvetet sabotera för Nvidia, det har väl historiskt sett varit precis tvärt om, gång på gång?

Visa signatur

AMD R9 5900X | Asus Strix X470-F | 32GB G-Skill @ 3,6GHz | RTX 3090Ti

Permalänk
Medlem
Skrivet av Rixxz:

Förutom att just stöd för DLSS saknas är väl inte AMD kända för att medvetet sabotera för Nvidia, det har väl historiskt sett varit precis tvärt om, gång på gång?

Nämn gärna ett exempel.

Fått tillfälle att läsa på en hel del om detta senaste veckorna, visat sig att ingenting hittills hållit för någon djupare granskning, men jag har ju å andra sidan inte gått igenom alla titlar.

Tesseleringen i Crysis 2 är ett exempel, där folk drog helt felaktiga slutsatser baserat på att det gick att aktivera wireframe-läge (utan texturer) och då se en tesselerad havsyta under hela kartan. Problemet där är att den bara är aktiv när havsytan syns, d.v.s. enbart när wireframe är igång.

Permalänk
Medlem
Skrivet av Sveklockarn:

Nämn gärna ett exempel.

Exempelvis när Nvidia gjorde hårdvaruaccelererad PhysX otillgängligt om en ATI-GPU upptäcktes. Förr i tiden var det kanske inte direkt vanligt men inte heller ovanligt att folk köpte billigast möjliga Nvidia-grafikkort för att dra nytta av PhysX efter att Ageia köpts upp, samtidigt som ett betydligt mer kraftfullt ATI grafikkort användes.

De gjorde dessutom medvetet så att icke-hårdvaruaccelererad PhysX (dvs. körs på CPU) var så långsam som möjligt.

https://hothardware.com/news/new-nvidia-drivers-disable-physx...
https://www.geeks3d.com/20090928/hardware-physx-acceleration-...

Skrivet av Sveklockarn:

Tesseleringen i Crysis 2 är ett exempel, där folk drog helt felaktiga slutsatser baserat på att det gick att aktivera wireframe-läge (utan texturer) och då se en tesselerad havsyta under hela kartan. Problemet där är att den bara är aktiv när havsytan syns, d.v.s. enbart när wireframe är igång.

Där var jag isåfall dålig, det trodde jag på.
Vilken kass implementering isåfall, wireframe används ju annars bla. för att kolla just culling.
Har du någon källa?

Visa signatur

AMD R9 5900X | Asus Strix X470-F | 32GB G-Skill @ 3,6GHz | RTX 3090Ti

Permalänk
Medlem
Skrivet av Rixxz:

Exempelvis när Nvidia gjorde hårdvaruaccelererad PhysX otillgängligt om en ATI-GPU upptäcktes. Förr i tiden var det kanske inte direkt vanligt men inte heller ovanligt att folk köpte billigast möjliga Nvidia-grafikkort för att dra nytta av PhysX efter att Ageia köpts upp, samtidigt som ett betydligt mer kraftfullt ATI grafikkort användes.

Ja det där med att deaktivera PhysX trots Nvidia-GPU går inte att försvara, jag tänkte mer specifikt på speltitlar där det medvetet lagts in saker för att tanka prestandan på Radeon.

Skrivet av Rixxz:

De gjorde dessutom medvetet så att icke-hårdvaruaccelererad PhysX (dvs. körs på CPU) var så långsam som möjligt.

Det här tror jag dock inte på alls, eftersom PhysX bygger på samma principer som sedan flyttat till CUDA, att man löser en instruktion som skalar över många kärnor. Det blir samma resultat som att försöka köra GPU-laster på en CPU, finns så att säga inga förutsättningar för att det ska fungera ens i närheten av lika bra.

Skrivet av Rixxz:

Där var jag isåfall dålig, det trodde jag på.
Vilken kass implementering isåfall, wireframe används ju annars bla. för att kolla just culling.
Har du någon källa?

Nej jag har inte en (1) källa, men det finns fortfarande ganska gott om undersökningar gjorda i efterhand som visar att det fanns flera bidragande orsaker, dels att AMD till en början hade drivrutinsproblem med implementationen av tesselering samt att folk då "bevisade" problemet genom att dra igång wireframe. Av alla Reddit-trådar och länkade videoklipp, artiklar och annat jag läst de senaste veckorna (som en följd av Starfield-diskussionen) så har jag inte något bra samlad resurs att ge. Som i många andra fall så försvann dock fakta väldigt snabbt till förmån för känslor, samt att Crytek själva inte verkade kommentera det alls (sett till vad jag lyckas googla fram idag).

Det är ju säkert så också med mer moderna exempel där t.ex. omotiverad VRAM-användning misstänkts vara ett försök att sabotera för Nvidia-användare i en AMD-sponsrad titel, trots att det egentligen inte finns några bevis som kan härledas längre än dålig QC och/eller inkompetens hos utvecklaren. Jag har ändrat åsikter om det också, efter allt jag har läst.

Det var ingen "OJ didn't do it" inlagd i detta heller, det finns bara ett mönster att den enklaste förklaringen alltid tycks vara att det är sabotage från "andra sidan" som är förklaringen till alla problem. Ett exempel är AMDs CPUer från mitten av 2000-talet och fram till Zen, nu är det lite mer accepterat att de var dåliga p.g.a. AMDs ekonomiska problem. Minns att jag skrev exakt det i en tråd strax efter att jag registerade detta konto här på Sweclockers, varpå jag omedelbart blev kölhalad av en arg pöbelhop.

Permalänk
Medlem
Skrivet av Sveklockarn:

Det här tror jag dock inte på alls, eftersom PhysX bygger på samma principer som sedan flyttat till CUDA, att man löser en instruktion som skalar över många kärnor. Det blir samma resultat som att försöka köra GPU-laster på en CPU, finns så att säga inga förutsättningar för att det ska fungera ens i närheten av lika bra.

Självklart, det sa jag aldrig emot, de gjorde så att PhysX via CPU fungerade mycket sämre än det borde gjort, sämre än vad det hade gjort tidigare.

Visa signatur

AMD R9 5900X | Asus Strix X470-F | 32GB G-Skill @ 3,6GHz | RTX 3090Ti

Permalänk
Medlem
Skrivet av Rixxz:

Självklart, det sa jag aldrig emot, de gjorde så att PhysX via CPU fungerade mycket sämre än det borde gjort, sämre än vad det hade gjort tidigare.

Jag tror mer på förklaringen att prestandan bara inte räckte till, även om jag inte kan komma ihåg det du berättar. Kan inte heller komma ihåg att PhysX gjorde mer än väldigt minimal visuell skillnad utanför typ den Starwars-titel (som jag glömt namnet på) som användes som någon slags techdemo.

Det bestående intrycket är att det lovandes väldigt mycket om dynamiskt förstörbara miljöer som aldrig blev något genom PhysX åtminstone, antagligen beroende på att all samtida hårdvara var för dålig. Det första spelet som implementerade någonting i närheten av den visionen var Battlefield Bad Company 2 (2010), och det använde ju ingen GPU-accelerering för Destruction 2.0 åtminstone.

Permalänk

Funkar detta och lira på

Ryzen 7 5700x
Rx 6700 xt 12g

Permalänk
Medlem
Skrivet av Oduglig gosse:

Funkar detta och lira på

Ryzen 7 5700x
Rx 6700 xt 12g

AMD släppte en spec med sina rekommendationer.
https://www.amd.com/en/gaming/featured-games/starfield.html

Visserligen är den en del av deras samarbete och en promotion för att sälja AMD produkter. Men man kan väl anta att det är en fingervisning. De rekommenderar RX 6800 för 1440p. Om du tweakar ner grafiken en del borde det fungera. När det gäller CPU rekommenderar de 7700. Men skillnaderna på CPU är mindre än för GPU så det bör inte vara något problem med en 5700 där.

Spelet kommer stödja alla AMD tekniker för uppskalning, vilket gör att man har mer möjligheter att tweaka för att få en inställning som passar.