Καλά, συγνώμη, εγώ που έχω και sony tv, δεν έχω πάρει γραμμή τίποτα. Που ζω
Καλά, συγνώμη, εγώ που έχω και sony tv, δεν έχω πάρει γραμμή τίποτα. Που ζω
Δεν πειράζει γιατί δεν έχει ακουστεί εδώ και πολλά χρόνια αυτή η δυνατότητα. Μόνο στους πρώτους μήνες ζωής του πς3 γινόντουσαν αναφορές και μετά πάπαλα.
Τι πας και θυμασαι κι εσυ ρε αδερφε μου; Εχει αλλαξει πλεον το αφηγημα. Τωρα -για να ξερετε κι εσεις και να ειστε προετοιμασμενοι- αυτο που συζηταμε ειναι:
- Ο SSD που θα βγαλει προβληματα στα 2 χρονια και μια ημερα απο την αγορα της κονσολας, οποτε δεν θα σας καλυπτει η εγγυηση και η κονσολα παει για πεταμα.
- Οι σκανδαλες του Dualsense που χαλανε μετα απο 5 ωρες gameplay.
- Και το Liquid Metal που θα χυθει εξω απο την κονσολα, με αποτελεσμα να διαβρωθει και το επιπλο στο οποιο εχετε πανω το ps5. Αλλα εξοδα κι απο εκει...
Brazhlias (21-12-2020)
Ενταξει αλλα εδω που τα λεμε το device link στο PS5 χρειαζεται πολυ περισσοτερα Options γιατι αυτη τη στιγμη ειναι πρακτικα αχρηστο και εκνευριστικοτατο.
Δε θελω επειδη ανοιγω την τιβι να ανοιγει ντε και καλα και το PS5... τι σοι βλακεια ειναι αυτη? Προφανως και το εχω απενεργοποιημενο μεχρι να επελθει λογικη σε αυτο το feature... Το ΧΒΟΧ εχει πολυ περισσοτερες και καλυτερες επιλογες στο συγκεκριμενο κομματι ωστε να θετεις εσυ το ποτε και πως θα ενεργοποιειται το Feature. Πρεπει και η Sony να πραξει αναλογως.
Dimitris_ (24-12-2020)
Θα το τεσταρω σπιτι. Ισως ειναι το remote control? Εχει ξεχωριστο setting γι αυτο?
Valkyre (24-12-2020)
^^ Τελικα δε βγαζω ακρη! Στη δικη μου περιπτωση ή θα ανοιγουν ολα με το device link ή τιποτα. Καποιος με LG Oled που να εχει ψαξει το θεμα; Μπορει να λειτουργει οπως περιγραφει ο Μιχαλης πιο πανω;
Στην ουσια Μιχαλη απο οτι εχω καταλαβει η τηλεοραση σπυ σωνει την ατελεια του firmware του Playstation.
Valkyre (26-12-2020)
Κάπως offtopic, αλλά δεν βρίσκω πιο ταιριαστό θέμα να το βάλω (αν υπάρχει πιο κατάλληλο θέμα, μετακινήστε το ελεύθερα):
https://www.copetti.org/writings/consoles/
Πολύ καλές τεχνικές αναλύσεις για αρκετές διάσημες κονσόλες της αγοράς που έχουν γράψει ιστορία. Οι παλιοί τα ξέρουμε τα περισσότερα, αλλά ένα φρεσκάρισμα δεν βλάπτει! Για να θυμούνται οι παλιοί και να μαθαίνουν οι νεότεροι...
Κατά καιρούς έχω δει διάφορους να απαξιούν σε στυλ «άσε μας ρε φίλε που θα διαβάσω για παλιατζούρες, ενώ περιμένουμε φρέσκο πράμα».
Και όμως, δεν είναι καθόλου έτσι παιδιά. Πολλές τεχνολογίες που σήμερα μας φαίνονται καινούριες, στην πραγματικότητα έχουν τις ρίζες τους αρκετά πίσω.
Όσο πιο πολύ διαβάζεις περί Τεχνολογίας, τόσο πιο πολύ ανοίγει ο νους και είσαι σε θέση να κάνεις διάφορες συνδέσεις μεταξύ -φαινομενικά- ανόμοιων τεχνολογιών (π.χ. Cell SPUs vs GPGPU compute).
Ξεκοκαλίστε τα όσοι ενδιαφέρεστε, έχουν πολύ ζουμί. Περιμένω πως και πως να ανεβάσει άρθρο για το PS3 (λατρεία!), κι ας τα ξέρω ήδη τα περισσότερα για την αρχιτεκτονική του.
Ακόμα και η τεχνοτροπία rasterization της RDNA2 με το tiling έχει τις ρίζες της αρκετά πίσω (σε 3D πρώτο ήταν το Dreamcast και στις 2D/sprite-based πρακτικά όλες δουλεύανε με tiles για οικονομία πόρων).
Για N64 να αναφέρω ότι είχε UMA (SGI roots γαρ) και μια πρώιμη μορφή pixel shaders; Όχι, γιατί κάποιοι νομίζουν ότι τα pixel shaders ήρθαν με την GeForce 3 πρώτη φορά...
Το δε GameBoy για όσους δεν θυμούνται είχε Z80 CPU (υπήρχε και σε arcade/coin-op boards των early 80s). Και αυτό το αναφέρω γιατί Ζ80 και Intel 8080 (πρόγονος της x86) έχουν πολλές ομοιότητες.
Έχετε ακούσει ποτέ κανέναν να λέει ότι το GameBoy ήταν portable PC; Με τις ντομάτες θα τον έπαιρναν!
Αυτό για όσους στέκονται επιφανειακά στο αν ένα μηχάνημα έχει off-the-shelf CPU (πάντα συνέβαινε αυτό, άλλο αν κάποιοι δεν τα ζήσανε ή παθαίνουν αμνησία) και ξεχνάνε τα γύρω-γύρω (coprocessors, buses)...
Το δε SNES που θεωρείται κονσόλα-τέρας για την εποχή του, μόνο «τέρας» δεν ήταν, ασχέτως αν ήταν mainstream κονσόλα. Η CPU του αναλογικά ήταν χειρότερη από Jaguar το 2013 και απόγονος αυτής του NES. Όλη η μαγεία ήταν στους συνεπεξεργαστές που κάνανε (και κάνουν ακόμα) το heavy lifting.
Γενικώς μην τρώτε τον παπά/ταραμά της PCMR. Όσοι ενδιαφέρεστε, διαβάστε/ερευνήστε και αποκτήστε δική σας άποψη. Το μόνο εύκολο είναι να παπαγαλίζεις/γίνεσαι φερέφωνο άλλων και να πηγαίνεις με το ρεύμα («ε αφού όλοι βρίζουν τις κονσόλες, ας το κάνω κι εγώ, είναι cool στα fora/social media»).
Lefteris_X (28-01-2021),mihalis13 (28-01-2021),Stefanos (28-01-2021)
Αν θυμάμαι σωστά (μπορεί να λανθάνει όμως η μνήμη μου) το tiling χρησιμοποιήθηκε από τα SEGA coin-op, με τσιπάκια συνεργασίας SEGA-Lockheed!
To SNES ήταν άθλιο από μεριάς CPU: 6502.......έλεος, μια CPU των 70ς που είχε χρησιμοποιηθεί σε αρκετούς home υπολογιστές (Apple I/II, Commodore 64 κλπ)......και την έβαλε η Νιντεντο σε hardware που σχεδιαζόταν το 1988 και παραδόθηκε το 1990. Γι' αυτό και τα shooters / platform όταν είχα πολλά objects στην οθόνη έπεφτε slowdown του κερατά (μιλάμε για 5 fps έτσι; τέτοιο χάλι). Τρανό παράδειγμα το Super Ghouls 'n' Ghosts που είχε μεν καλύτερα γραφικά/ήχο από την έκδοση για Megadrive αλλά ΣΕΡΝΟΤΑΝ.
Αντιστοίχως για Z80 (το πολύ μικρό αδελφάκι του Z8000 που ήταν για mainframes), μια CPU των 70ς που είχε μπει σχεδόν παντού: Sinclair, Spectrum, Amstrad, Coin-ops.
Και πάει η Νιντεντο και το βάζει σε φορητή κονσόλα........και μάλιστα με χρονισμό 1 MHz (ενώ πχ σε Amstrad 464/664/6128 ήταν στα 4 MHz δέκα χρόνια πριν το GameBoy!!).
Συμφωνώ και επαυξάνω, ότι για να "καταλαβαίνεις ορθά" τι συμβαίνει στην τεχνολογία σήμερα (και γιατί συμβαίνει), να κάνεις τις συνδέσεις στο μυαλό σου ώστε να συνθέτεις το "παζλ", ειδάλλως είσαι ένας "σημερινός" χρήστης με στείρα γνώση (σημερινή μόνο) που ΝΟΜΙΖΕΙ ότι ξέρει, αλλά δεν γνωρίζει/αντιλαμβάνεται ότι πραγματικά ΔΕΝ ξέρει.
ΥΓ: @psx3 πέρνα από System16 (ιστοσελίδα) να πάθεις τεχνολογικό ΟΡΓΑΣΜΟ: αναλύει όλα τα τσιπάκια που υπήρχαν σε εκατοντάδες coin-op. Μελέτη άπειρη, αποκλείεται να μην ξέρεις την σελίδα! Ανακαλύπτεις το πραγματικό innovation σε hardware και πολλές από τις προσπάθειές τους τότε, έχουν "μεταμορφωθεί" σε σημερινά τεχνολογικά στοιχεία. Επίσης, ΑΝ έχεις μελετήσει την τότε εποχή και πως σκέφτονταν τα μυαλά των μηχανικών, καταλαβαίνεις ότι πάσχιζαν να ΜΗΝ υπάρχουν bottlnecks ενώ αντιθέτως η PC αρχιτεκτονική έβριθε από δαύτα. Γι' αυτό και οι σημερινοί PCMR δεν μπορούν να "αντιληφθούν" πόσο κακό κάνουν τα μυριάδες bottlenecks στην αρχιτεκτονική του PC (άρα έχουν πληρώσει δύναμη που χάνεται λόγω bnecks), διότι δεν έχω "πρότερη γνώση" αλλά έχουν στείρα γνώση.
Μερικά tidbits περί CPU (PC φιλοσοφία/BC 40 ετών vs console/semi-custom φιλοσοφία):
Τόσο extensive customization δεν θυμάμαι να είχε γίνει στις Jaguar CPUs...
Για να μην κουράζουμε πολύ με τα τεχνικά, κρατήστε ότι έχει πέσει πολύ «μαγείρεμα» (με την καλή έννοια) από την ομάδα του Cerny στο να προσαρμόσουν μια general-purpose CPU (x86) και να την εξειδικεύσουν αναφορικά με τα workloads που θα κληθεί να επιτελέσει η κονσόλα στα next-gen video games. Gaming workloads, όχι Word/Excel/Powerpoint.
PC του 2021 θα τρέξει και DOS άμα λάχει, ενώ η κονσόλα δεν έχει ανάγκη να φτάνει το BC της μέχρι το 1981 (εποχές ορθόδοξου ΠΑΣΟΚ, λολ).
Περί "RDNA 1.5" debate:
Δώστε έμφαση στο "Same goes for the Xbox Series". Well, that didn't age well, did it?
Οι GPUs των κονσολών είναι υβριδικές, όπως είναι η χίμαιρα στην μυθολογία. Μπορούν να συνδυάζουν στοιχεία από διάφορες σειρές (κάτι που προφανώς βοηθάει και το hardware-based BC των κονσολών, συγκριτικά με PC GPUs που βασίζονται περισσότερο σε software abstraction).
Για να μην ξεκινήσει πάλι κανά ανούσιο debate (όπως βλέπαμε με τα GCN vs RDNA flops παλιότερα σε γνωστά ξένα fora), θα υπενθυμίσω μερικά πράγματα εν τάχει περi PS4 GPU (για να θυμούνται οι παλιοί και να μαθαίνουν οι νέοι):
Η GPU του PS4 είναι βασισμένη σε αυτό εδώ το part (ω ναι, laptop-based και η GPU, δεν είναι μόνο η Jaguar CPU): https://www.techpowerup.com/gpu-spec...-hd-7970m.c388
Πάνω σε αυτό το part έχουν γίνει πολλά customizations. Το πιο προφανές σε όλους είναι ότι δεν έχει 2GB dedicated VRAM, αλλά 8GB unified/shared RAM.
Ένα ακόμα customization είναι ο αριθμός των ACEs (ας πούμε ότι είναι κάτι σαν τροχονόμοι/διόδια για τα CUs όσον αφορά τα compute workloads).
Όσο περισσότερα ACEs έχεις, τόσο πιο fine-grain compute μπορείς να έχεις. Και ποιός άλλος φημισμένος επεξεργαστής είχε δυνατότητα fine-grain compute για physics κλπ; Ο Cell!
Το λοιπόν: η Radeon 7970M είναι GCN 1.0 (η πρώτη «γενιά»/έκδοση της GCN αρχιτεκτονικής) και είχε μόνο 2 ACEs. Στο PS4 έχει 8 ACEs (το XB1 έχει μόνο 2 ACEs, κάτι που αυξήσανε αργότερα στο XB1X).
Σε PC Radeon GPUs αυτό το feature (8 ACEs) ήρθε στην αμέσως επόμενη έκδοση (GCN 1.1), γνωστή και ως Hawaii σειρά (R9 290 κλπ). Σας θυμίζει κάτι από αυτά που είπε ο Cerny; Ότι το custom μαγείρεμα/secret sauce της Sony μπορεί να έρθει και σε PC (RDNA3) αργότερα (αν κριθεί πετυχημένο από την αγορά); Υπάρχει ιστορικό προηγούμενο λοιπόν και δεν είναι τυχαίο.
Γιατί ανάφερω τα παραπάνω; Γιατί δεν θυμάμαι κανείς να ισχυριζόταν ότι η PS4 GPU είναι GCN 1.0 (ούτε debates για TeraScale* vs GCN flops θυμάμαι). Οπότε λήγει εδώ το debate περί RDNA 1.5.
* TeraScale είναι η προηγούμενη αρχιτεκτονική γραφικών της AMD (πρώην ATi), η οποία εφαρμόστηκε σε XBOX 360 & Wii U. Πάντα όταν έχουμε μια μεγάλη αλλαγή αρχιτεκτονικής αυξάνεται το efficiency (εξού και γιατί δεν έχει νόημα η ξερή σύγκριση flops).
Τα flop wars του σήμερα είναι σαν τα bit wars του κάποτε, δηλαδή για ανίδεους/ημιμαθείς system warriors. Μην αναφέρω τι παπάτζα έπεφτε κάποτε με τα "64 bits" του Atari Jaguar και αργότερα του Nintendo 64. Βρίσκουν και τα κάνουν πάνω στην άγνοια του κοσμάκη τα marketing τμήματα. Από εποχής 8-16 bit home computers κρατάει η κολώνια και πως ο καθένας τα μετρούσε διαφορετικά, ανάλογα με το τι αφήγημα ήθελε να περάσει.
Με απλά λόγια, η Sony προσπάθησε να εφαρμόσει πάνω σε AMD parts την φιλοσοφία του Cell (θα εμβαθύνω παρακάτω σε αυτό). Και το πέτυχε. Ένα παράδειγμα (tech demo) έχουμε εδώ:
Και o πρόγονος αυτού του demo (ίδια φιλοσοφία) εδώ:
Αυτά περί Cell που επηρέασε τα projects της AMD (Fusion -μετέπειτα APU-, GCN) δεν τα βγάζω από το κεφάλι μου. Όπως και το libGCM (low-level PS3 API) που επηρέασε το Mantle (low-level AMD GCN API) και το Mantle άφησε απογόνους (DX12, Vulkan, Metal). Και φυσικά το libGCM από κάποια άλλα εξωτικά συστήματα (hint: όχι PC) κρατάει η σκούφια του, αλλά ας μην ξεφύγουμε, γιατί θα μας πάει πολύ βαθιά η τρύπα του λαγού και είναι ήδη μεγάλο το υπέρδιπλο σεντόνι.
Βάζω και αυτό (πηγή κατευθείαν από Ιαπωνία, πιο έγκυρη δεν υπάρχει):
https://pc.watch.impress.co.jp/docs/...ai/621310.html
Ελπίζω τώρα να έλιωσε οριστικά η καραμέλα του "low-end PC" (τοστιέρα/σαπάκι/μπακατέλα σύμφωνα με κάποιους ειδήμονες της PCMR). Ας φτιάξουν PC με Jaguar CPU & Radeon 7970M (ή την desktop 7850) να τρέξει Death Stranding, RDR2 κλπ. Καλή τύχη όχι απλά να τα τρέξει, αλλά να τα μπουτάρει καλά-καλά.The configuration of the front-end command processor group of the GPU core of PS4 is very similar to AMD's latest GPU "Radeon R9 290 / 290X" (Hawaii). It consists of one "Graphics Command Processor" and eight "ACEs" (Asynchronous Compute Engine), each of which can have up to eight queues. In other words, PS4 will have the same front end as the current AMD top-level discrete GPU.
As mentioned earlier, the large number of ACEs and arithmetic task queues means that you can handle finer granular arithmetic. Computational tasks are likely to have smaller granularity than graphics. If you don't have enough ACEs, you may not be able to dispatch tasks in time and perform well in general-purpose computing. The more ACEs you have, the more tasks you can handle.
The number of ACEs is required because there is a limit to the tasks that one ACE can handle. Therefore, a large number of ACEs are required to perform various different tasks. In the case of PS4, there are many ACEs because the idea is to let the GPU CU use the PLAYSTATION 3 (PS3) like an SPU (Synergistic Processor Unit). It is a mechanism to reduce the particle size of compute tasks on the GPU and increase the number of types.
Και σαπάκι να το βαφτίσει κάποιος δηλαδή, είναι σαν να βλέπεις ένα 5χρονο παιδί να κάνει πράγματα που μόνο ένα 15χρονο (higher tier) θα μπορούσε να κάνει... όπως λένε και οι Αμερικάνοι "it punches above its weight". Δεν είναι όλα θέμα ωμής δύναμης. Κοιτάμε και τα γύρω-γύρω.
Κατανοητό τώρα γιατί όποιος θέλει να εμβαθύνει στα των AMD/Sony δεν αρκεί μόνο η προϋπηρεσία σε PC (κι ας είναι κι από εποχές 8088 XT/Olivetti, μικρή διαφορά κάνει σε γνωστικό πεδίο);
Δεν περιστρέφονται όλα γύρω από "TMUs" και πόσα είναι αυτά. Καλά και αυτά, δεν λέω, όπως καλό είναι και το κομπιουτεράκι για να κάνεις γρήγορα πράξεις, αλλά όπως έλεγε κι ένας (συγχωρεμένος) δάσκαλός μου κάποτε στο σχολείο «πρώτα μαθαίνεις προπαίδεια και μετά χρησιμοποιείς κομπιουτεράκι». Όταν κάποια Demoscene groups (ακόμα και στην PC σκηνή, βλ. Future Crew/Second Reality) κάποτε γράφανε χεράτη x86 assembly, δεν είχαν την εύκολη λύση των TMUs. Γράφανε με το χέρι κώδικα για texture mapping. Αν δεν σκληραγωγηθείς στα δύσκολα (προπαίδεια/assembly), να καταλάβεις τι ακριβώς κάνεις στο χαμηλότερο επίπεδο, τι να σου κάνει το κομπιουτεράκι (TMUs) και τα έτοιμα APIs; Μια ζωή άμπαλος/απαίδευτος θα παραμείνεις. Θεμελιώδης αρχή του εκπαιδευτικού συστήματος, που δυστυχώς τείνει να ξεχαστεί στο σύγχρονο άρπα-κόλλα game development.
Όποιος δεν έχει διαβάσει βιβλιογραφία περί Cell, δεν πρόκειται να καταλάβει ούτε τι ρόλο βαράει μια semi-custom APU, ούτε γιατί ξεκίνησε το Fusion project η AMD, ούτε τι ακριβώς έκανε στην IBM η Lisa Su (AMD CEO), ούτε γιατί ήταν (επίτηδες) τόσο compute-heavy η GCN και συνεπώς δεν θα μπορέσει ποτέ του να συνδέσει τα dots μεταξύ (φαινομενικά τουλάχιστον) ανόμοιων τεχνολογιών. Είναι σαν να έχεις μεγάλα κενά γνώσεων (επειδή ήσουν τεμπελάκος όλη την χρονιά στο σχολείο) και να θες να γράψεις 19 στις Πανελλήνιες με πασαλείμματα εδώ κι εκεί. Αμ δε! Πετσόκομμα θα φας και δεν θα σου φταίει κανείς.
Απλά θα πω ότι το Asynchronous Compute δεν το ανακάλυψε η AMD πρώτη, αλλά ήταν συνήθης πρακτική προγραμματισμού στον Cell από περίοπτα studios. Οι παλιοί θυμόμαστε διάφορα διαγράμματα (από Killzone μέχρι Uncharted) και πως προσπαθούσαν οι προγραμματιστές να στριμώξουν ένα σωρό "jobs" (αυτό που λέμε σήμερα compute tasks στην GPGPU) στα (6 διαθέσιμα) SPUs, με σκοπό να τα φουλάρουν:
Αυτό ακριβώς το πράγμα έκαναν και στην GCN GPU τα καλοπρογραμματισμένα AAA games. Γέμιζαν κατά 50-70% την GPU με graphics tasks (pixel/vertex shaders) και το υπόλοιπο 30-50% με compute shaders. Έτσι έφταναν όσο πιο κοντά μπορούσαν στο πολυπόθητο 99-100% utilization (ελληνιστί ξεζούμισμα και τα φουρφούρια δούλευαν υπερωρίες!), ενώ με τον PCάτο αυτοματοποιημένο προγραμματισμό του DX11 ζήτημα ήταν να έφταναν 70% max αξιοποίηση στις Radeon των PC. Είναι πολύ βασικό σε μια GPU να φουλάρεις όλα τα pipelines στο μέγιστο δυνατό (max occupancy rate). Φανταστείτε το σαν μια ορχήστρα με χιλιάδες όργανα (ALUs) τι μαέστρος χρειάζεται για να τα συντονίσει στον σωστό ρυθμό.
Είναι τραγελαφικό να βλέπεις PCάδες να κοροϊδεύουν τον Cell (ενώ ήταν τεράστιο σχολείο για την βιομηχανία Πληροφορικής & video games) και να μην γνωρίζουν ούτε τα βασικά: να μπερδεύουν τις caches των x86 CPUs με την scratchpad memory των Cell SPUs.
Για να διασαφηνιστεί και αυτό:
Cache = αυτοματοποιημένη SRAM (υπάρχουν extra κυκλώματα που χειρίζονται τις μεταφορές δεδομένων αυτοματοποιημένα)
Scratchpad = manual SRAM (όλα τα transfers γίνονται χειροκίνητα από τον προγραμματιστή μέσω DMA)
Έχω ξαναπεί το παράδειγμα με τα αυτοκίνητα (automatic vs manual transmission) και πως επηρεάζει το efficiency (κατανάλωση καυσίμου).
Το ίδιο ακριβώς ισχύει και εδώ: η αυτοματοποίηση κοστίζει σε extra transistors (που θα πρέπει να αφαιρεθούν από το συνολικό silicon budget).
Ο Ken Kutaragi είχε πει ότι ήθελε 8 SPUs στον Cell γιατί του άρεσε σαν αριθμός. Αν έβαζαν caches αντί για scratchpad, θα έπρεπε κάτι να κόψουν (λιγότερα SPUs).
Όλως τυχαίως και ο Cerny έβαλε 8 ACEs στην PS4 GPU για να μιμηθεί τον Cell...
Κάθε SPU λοιπόν έχει 256KB SRAM, που όμως δεν είναι cache. Είναι old school SRAM. Όλα γίνονται χεράτα!
Γιατί αναφέρω τα παραπάνω; Γιατί δεν υπάρχει περίπτωση να καταλάβει κάποιος τι εστί Tempest Audio CU αν δεν έχει μελετήσει ενδελεχώς τα περί Cell. Το ακούει ο μέσος PCάς και λέει «α, ένα CU της σειράς είναι μωρέ, έχει φλομώσει στην παπάτζα ο Cerny τα Sony πρόβατα».
Tempest Audio CU = συγκερασμός TrueAudio Next (CU-based audio για περισσότερη ευελιξία/programmability, αντί για fixed-function DSP) & Cell SPU φιλοσοφία (ΟΧΙ caches, μόνο scratchpad memory + DMA transfers) -> 100% utilization του CU (από μόλις 40% σε ένα συμβατικό CU με cache)
Σε έναν ιδανικό κόσμο έτσι θα ήταν στημένη όλη η GPGPU και όλα τα CUs της (και τα 36!). Προφανώς αυτό δεν είναι ρεαλιστικό σενάριο (θα θύμιζε Cell 2), αφού καλώς ή κακώς η Sony έχει να σκεφτεί και τους άμπαλους devs, για να εισπράττει 3rd party royalties από παντού. Εν ολίγοις ο Cerny έχει έναν δύσκολο ρόλο, να ισορροπήσει μεταξύ του business σκέλους (χαρτογιακάδες/μέτοχοι που θέλουν να βλέπουν συνεχώς αυξανόμενα νούμερα εσόδων στα PowerPoint slides κάθε τρίμηνο) και του τεχνικού/τεχνολογικού σκέλους (σε κάποια σημεία θα γίνουν συμβιβασμοί, σε άλλα όχι).
Πάντρεμα AMD + Sony τεχνολογίας. Αυτό είναι με απλά λόγια το Tempest Audio CU.
Περί SSD και για όσους παραμένουν αδιάβαστοι/σκεπτικοί, ας ανατρέξουν μια στην παρουσίαση του Cerny και τι ακριβώς ανέφερε περί next-gen level design (όχι άλλα elevators, tunnels κλπ.)
Δεν είναι απλά για faster loading times (PCMR mindset). Σίγουρα θα το έχουμε κι αυτό στα cross-gen/native PS5 builds, αλλά δεν θα μείνουμε εκεί.
Όπως και με τον Cell άργησε να έρθει η πλήρης αξιοποίηση των SPUs, το ίδιο θα γίνει κι εδώ με τον SSD. Τα βαρβάτα exclusives έρχονται πάντα 3 χρόνια μετά, like clockwork (2009/Uncharted 2, 2016/Uncharted 4, 2023/???).
Το είπε και η Remedy:
https://www.gamesradar.com/marvels-a...nes-new-issue/
Ε αν το λέει η Remedy, φανταστείτε τι παπάδες θα κάνει η ND από άποψη detail...The SSD will allow for "more data at runtime, allowing us to have much more detail in the game worlds than before," says technical director Mika Vehkala before tempering expectations: "You could do things faster or you could add more content and run things the same 30fps as before; often times it is the latter,"
cocous (15-02-2021),djpar (18-02-2021),drifterx (15-02-2021),Ezio (15-02-2021),hakoo (24-02-2021),johnnyman25 (15-02-2021),Kkritikos (15-02-2021),Lefteris_X (15-02-2021),margarit (15-02-2021),modecris (16-02-2021),mtifosi (15-02-2021),nikosarg (15-02-2021),odytsak (15-02-2021),panos74gr (15-02-2021),PDS (15-02-2021),Slay (15-02-2021),Stefanos (15-02-2021),Viper (15-02-2021)
psx3.. Πραγματικά δεν έχω λόγια να πω.
Respect φίλε μου. Τρομερή επεξήγηση σε οτι αναφέρεις. Χαίρομαι πολύ που υπάρχουν παιδιά σαν και σένα σε αυτό το forum.
Στάλθηκε από το SM-G955F μου χρησιμοποιώντας Tapatalk
Να 'σαι καλά cocous. Η τεχνική παραπληροφόρηση (και γενικά τα fake news) είναι μεγάλη μάστιγα στην εποχή μας. Θέλει μεγάλη προσπάθεια και πείρα να ξεχωρίσεις την ήρα από το στάρι.
Επειδή βλέπω επικρατεί μεγάλος αναβρασμός περί VRS (και σιγά το feature, υποβάθμιση στην ποιότητα εικόνας «προσφέρει» -άρα καμία σχέση με ray tracing- για να αυξηθεί το framerate, συνεπώς η χρησιμότητα του περιορίζεται κυρίως σε MP), θα ήθελα να υπενθυμίσω κάτι από το παρελθόν...
Εποχές PS2 vs OG XBOX υπήρχε μεγάλο χάος σε feature set στον επεξεργαστή γραφικών (Graphics Synthesizer vs GeForce 3). Προσοχή: όχι επιδόσεις. Αναφέρομαι σε features όπως programmable shaders.
Το «σαπάκι» PS2 (που μόνο σαπάκι δεν ήταν σε fillrate με την uber fast eDRAM του) μπορεί να μην είχε εγγενή υποστήριξη για shaders, αλλά κοίτα να δεις που έβγαλε παιχνίδι με fur shaders:
http://selmiak.bplaced.net/games/ps2...&page=makingof
Για τους PCάκηδες, θα υπενθυμίσω ότι αυτή η υποστήριξη ήρθε με τις GeForce 4 για πρώτη φορά:
Spoiler!
Θυμάστε κανά PC game με fur shaders να έφτανε/ξεπερνούσε το SoTC; Ναι, ούτε εγώ μπορώ να θυμηθώ κάποιο. Χώρια ότι οι GeForce 4 ήταν για πέταμα μόλις 1 χρόνο μετά την κυκλοφορία τους.
Συν η υποστήριξη HDR rendering σε μηχάνημα του 2000... πότε είπαμε ήρθε HDR στις GeForce;
Όλο το future-proofness (από άποψη ευελιξίας προγραμματισμού) του μηχανήματος ήταν στον Emotion Engine (ο πρόγονος του Cell).
Ας ξεκαβαλήσει λιγάκι η MS με το Kool-Aid του DirectX, λες και αυτή τα ανακάλυψε όλα πρώτη.
Το έχω ξαναπεί ότι το DirectX δεν είναι καν το σετ εντολών της GPU (επειδή μερικοί νομίζουν ότι η GPU «μιλάει» DirectX). Η CPU μιλάει C/C++/Java άραγε;
Η GPU μιλάει γλώσσα μηχανής (όπως και η CPU), δηλαδή 0 και 1. Το Direct3D (όπως και το OpenGL και άλλα APIs) είναι σαν να λέμε C++/Java για την CPU. Ένα higher-level abstraction είναι, για να διευκολύνει τους ανθρώπους (προγραμματιστές) στο να διαβάζουν/γράφουν κώδικα (και αυτός ο κώδικας μεταφράζεται με διάφορα layers σε κώδικα μηχανής).
Με baseline PS5 vs Series S δεν νομίζω ότι έχει να φοβηθεί πολλά η Sony σε επίπεδο exclusives. Αν η MS άλλαζε ρότα και έχτιζε exclusives πάνω στο baseline του XSX, τότε να το συζητούσαμε.
Ούτε κατά διάνοια δεν υπάρχει χάος σε feature set ανάμεσα σε PS5 vs XBOX Series X/S, ό,τι προπαγάνδα και να σερβίρουν στο διαδίκτυο.
cocous (17-02-2021)
Περί FPU "debate" (σε «δουλειά» να βρισκόμαστε), ένα πολύ ενδιαφέρον tweet:
Και γιατί το λέω ενδιαφέρον;
Απλά δείτε ποιός το γράφει (hint: δεν είναι πληρωμένος υπάλληλος της Sony):
https://twitter.com/JamesStanard/
"Graphics R&D @ Xbox
Game Engines, GPU Architecture, Compute, Optimization, Lighting, HDR, Raytracing, Compression, etc."
Προς απογοήτευση όσων ήλπιζαν να γίνει system wars νταβαντούρι/ίντριγκα, δεν τους «τάισε» καν...
Το έγραψα και στο νήμα του XBOX (και νομίζω συμφωνούμε αρκετοί, αν όχι όλοι) ότι οι 2 κονσόλες/APUs σχεδιάστηκαν με τελείως διαφορετική φιλοσοφία/στρατηγική.
Δεν το περίμενα καν να έχει customιές ΚΑΙ στην CPU το PS5 (κάτι που δεν συνέβη επί εποχής PS4/Jaguar). Η Sony έφτιαξε μια κονσόλα με home console gaming focus first & foremost. Ούτε βλέπω να έχουν πει τίποτα για virtualization capabilities (π.χ. στα 36 CUs να τρέχει 2 OG PS4 sessions των 18 CUs έκαστο για cloud streaming).
Ορθώς το είχε πει ο Λευτέρης ότι η MS δεν θέλει να πολεμήσει στα ίσια την Sony με παραδοσιακή console στρατηγική και ακολουθεί τον δικό της δρόμο (ίσως Blue Ocean δρόμο θα συμπληρώσω εγώ).
Δεν ξέρω αν με χαροποιεί να γίνει μονοπώλιο η Sony στις home κονσόλες (στυλ Nintendo Switch στις φορητές/υβριδικές), αλλά μάλλον εκεί πάει το πράγμα, for better or worse. 3 εταιρίες, 3 ξεχωριστοί δρόμοι/βίοι παράλληλοι. Μάλλον είναι και ο μόνος τρόπος (επαρκής διαφοροποίηση) για να μπορούν να επιβιώσουν 3 κονσόλες στην αγορά.
Lefteris_X (18-02-2021)
@psx3
Με συγχωρείς ρε φίλε, την μία λές για την μάστιγα της τεχνικής παραπληροφορήσης και των fake news, και την άλλη γράφεις αυτό
Ελπίζω τώρα να έλιωσε οριστικά η καραμέλα του "low-end PC" (τοστιέρα/σαπάκι/μπακατέλα σύμφωνα με κάποιους ειδήμονες της PCMR). Ας φτιάξουν PC με Jaguar CPU & Radeon 7970M (ή την desktop 7850) να τρέξει Death Stranding, RDR2 κλπ. Καλή τύχη όχι απλά να τα τρέξει, αλλά να τα μπουτάρει καλά-καλά.
Για τις θερμοκρασίες της ram που αναφερθήκατε προηγουμένος, οι 90 βαθμοί δεν είναι λόγος ανησυχίας. Υπάρχουν ram με TJmax τους 120 βαθμούς. Πχ. η 3090 μου σε βαριά workloads φτάνει ~100, σε βαριά games είναι 75-85. Υπάρχουν αναφορές για άλλες υλοποιήσεις που βαράνε 110 μόνιμα. Οπότε το PS5 μια χαρά είναι, εντός "ορίων".
Αυτό που κάνει ΜΕΓΑΛΗ ζημιά, και σας το λέω να προσεχέτε, όποιος κάνει ηλεκτρονικό τσιγάρο! Μεγάλη προσοχή μάγκες γιατί τα σκίζει όλα. Έχω χαλάσει panel οθόνης, ανεμιστήρες mobo και ποντίκι. Τα άνοιξα να δώ τι φάση και ήταν τίγκα στην υγρασία, γεμάτα σταγόνες "νερού". Οπότε μην φυσάτε στην είσοδο ροής αέρα του PS5 γιατί θα το κλαίτε μέσα στο χρόνο.
Last edited by Ryzenlake; 24-02-2021 at 11:19.
Bookmarks