TheVR Fórum

Konzolok clusterbe kötése

Sziasztok a PS5 REVEAL STREAM-ben szó volt arról a srácok felől hogy a hadsereg a PS3 ból annak idején felvásárolt egy csomót hogy kihasználja a hardveres adottságait úgy hogy azt clusterbe kötötte és linux ot használt rajta.

Pontosan milyen erőforrásokat tudtak ezzel a módszerrel a PS3 ból összekapcsolni (CPU, GPU, Háttértár??& az egész “géppark” erőforrása= CPU, GPU, Háttértárak összsebességével???)? Beszélhetünk arról hogy a clusterbe kötéssel hatványozottan nől a rendelkezésre álló összes erőforrás sebessége, feldolgozási kapacítás vagy csak bizonyos típusú paraméterek szerint azok amelyek megszabják a teljesítménynövekedést?

Egyébként ezzel a módszerrel gondolom linux alatt bármilyen számítási feladat elvégzésére be tudták programozni vagy ennek gátat szabott az architechtura?

Igen és ezt nem akarom megvalósítani csupán érdekel a téma.

Valószínűleg. a CPU-t használták, mert az elég speciális architektúra volt, minden másból volt jobb a piacon, főleg HDD-ből.

Nyilván nem nő hatványozottan, főleg nem a végtelenségig. Mint a legtöbb dolognál az életben, itt is egyre kisebb a teljesítménynövekedés egy idő után, ráadásul egyre nehezebb biztosítani a megfelelő összeköttetést, és a legtöbb szoftver sem skálázódik a végtelenségig. Ezek mind megszabják a teljesítménynövekedést.

A speciális architektúra miatt lehettek olyan feladatok, amire alkalmasabb volt mint más, akkor elérhető technológia, nyilván ezért is csinálták. Azonban nem valószínű hogy mindenre jobb lett volna.

Igen. Egy kicsit most a PS5 Reveal ből merítve, nagyon dobálóztak a TFLOP okkal. Mikor érdemes erről beszélni?

Szó volt továbbra arról hogy ezek célhardverek, lehet ezt úgy érteni hogy a hardverekeket a konzol rendszere (kérlek egészíts ki mert nem hiszem hogy itt annyira sokrétű lenne az OS mint egy számítógépen) folyamatosan szabályozza. Sokkal gyakrabban és automatikusan ellentétben mint ha ha PC-n játszol. PL ha minőségben állítasz vajon a konzol azt csak szoftveresen vagy hardveresen is konfigurálja?

Sok szó esett itt a processzornak azon magjairól amik kifejezetten a tömörítésben vesznek részt. Kérdem én ha már betöltött a pálya azok a magok át tudnak állni a másik 3 mag mellé vagy nincs rá szükség mert inkább GPU igényesek a rajt futó alkalmazások, tehát amíg megint nem kell kiolvasni a tömörített fájlokból addig azok a magok alszanak?

Volt a stream alatt egy olyan kijelentés hogy ezzel az 5 GB/s os sebességű ssd vel a 16 GB ramot ~ 3 mp alatt tele lehet tölteni. Namost, nyílván ez játékfüggő hogy mi mennyi ram mennyiséggel működik de kitolódhat a folyamatos memóriafelhasználás mértéke? , tehát tűnhet úgy hogy a nem tudom ha lenne mondjuk egy hardver monitor a cuccban hogy a RAM állandóan 70-80% ig televan a játék alatt?

Mivel a PS5 gyakorlatilag egy PC (és a 4, valamint az Xbox is az), már szerintem nincs értelme ezzel foglalkozni. Ugyan ez az architektúra elérhető sokkal sokkal több maggal szerver oldalon.

Mint mondtam, a 3 azért volt érdekes, mert egy egyedi, speciális, 128 bites architektúrát használt, amit akkor tudtommal semmi más (és ma sem ha jól sejtem).

OS oldalról más a leányzó fekvése. Xboxon ugyebár egy butított Windows 10 fut gyakorlatilag, a PS-é egyedibb. Itt a lényeg inkább az, hogy a szoftverfejlesztő sokkal közvetlenebbül tudja elérni a hardvert, valamint pontosan tudja mi a hardver, nem kell széleskörű támogatást fejleszteni, sokkal jobban lehet optimalizálni.

A legtöbb estben minőségen pl eleve nem is tudsz állítani konzolon. A fejlesztő kitalálja szerinte hogy jó, aztán ez van.

A magok azt csinálják, amit kapnak terhelés oldalról. Bármelyik tud bármit, megint csak a fejlesztőtől függ, hogy optimalizál.

Az SSD-ről az adat meg nem csak a ramba megy. Valamint a ramban lévő adattal folyamatosan dolgozik a gép. Ergo hiába lehetne teletölteni 3 sec alatt, ha mondjuk a proci pont olyan gyorsan dolgozza fel, mint ahogy bekerül az adat, sosem fog betelni. Ez ma is így van PC-nél is. Tehát ez egy értelmetlen koncepció.

A játék alatti ram használat megint a játéktól, a fejlesztőktől függ. Aminek nem kell 16 giga, az nem fog annyit használni, aminek kell, az meg telenyomja. Ezen filozofálni megint csak nem sok értelme van.

Egyébként ha érdekel a téma, javaslom a google használatát, rengeteg cikk van róla.

1 kedvelés

Egy valamit még nem értettem ugye van a gyári SSD illetve lehetőség nyílik majd ennek bővítésére a tárhely kapacítása miatt. De pontosan miért is lasabb ez az SSD mint a gyári hiszen 5 helyett 7 GB/s os ot is elérheti az átvitel?

Passz, lehet a gyári integrált, vagy dedikáltan nagyobb sávszélt kap a proci felől mint egy második. Felépítés kérdése.

De ez megint csak a tökmindegy kategória. Élő ember ezt használat közben az életben nem mondja meg, mivel a többség egy SATA3-NVMe különbséget sem észlel, holott az utóbbi általában minimum 3-4x gyorsabb, még az olcsóbb modellek esetében is.

Plusz ezek teljesen elméleti, benchmark értékek. A valóságban ezeknek a közelében sem lesznek valószínűleg, mert egyszerűen nincs rá szükség, és a random read/write nem úgy működik, ahogy ezeket általában mérik (1 darab viszonylag nagy file mozgatása, de kisebb mint az SSD-n lévő DRAM kapacitás).

Mi értesz SSD-n lévő DRAM kapacitás alatt?

Pontosan azt. Azt a DRAM mennyiséget ami az SSD-n van.