Περί resolution scaling θέλω να γράψω μερικά πραγματάκια... συμφωνώ 100% με τον Λευτέρη ότι είναι φιλοσοφία PCίλας.
Γιατί το λέμε αυτό; Γιατί η GPU (εδώ και 15 χρόνια περίπου) ΔΕΝ είναι απλά και μόνο για γραφικά (όπως ήταν εποχές 3Dfx Voodoo, RIVA και όλες οι GeForce/Radeon πριν έρθουν τα unified shaders).
Ο σωστός όρος είναι GPGPU (General Purpose GPU). Τι σημαίνει "general purpose"; Σημαίνει ότι πλέον υπάρχει η δυνατότητα/ευελιξία να εκτελέσει ακόμα και αλγόριθμους που συνήθως θα έτρεχε η CPU (πολύ συνηθισμένο φαινόμενο σε PC λόγω brute force/CPU-centric νοοτροπίας και γενικότερης προγραμματιστικής αμπαλίασης).
Παραδείγματα: από physics μέχρι AI pathfinding (ο αλγόριθμος που χρησιμοποιούν οι NPCs για να κινούνται στον χώρο). Γενικά οτιδήποτε μπορεί να παραλληλιστεί*, κατά 99% είναι προτιμότερη η GPGPU, έναντι της CPU (FPU). FPU = floating point unit (την ίδια δουλειά κάνει πάνω-κάτω σαν concept και λόγω παράδοσης την προτιμούν οι PC devs)
* εδώ θέλει λίγο background σε Μαθηματικά (στο κομμάτι της γραμμικής άλγεβρας/πράξεις πινάκων/διανύσματα), αλλά μην το κάνουμε και τελείως διατριβή.
Οτιδήποτε δουλεύει με διανύσματα (π.χ. X, Ψ, Z συντεταγμένες), μπορεί να παραλληλιστεί. Είτε είναι νευτώνεια φυσική, είτε γραφικά (pixels, πολύγωνα), είτε AI (pathfinding, machine/deep learning/νευρωνικά δίκτυα βλ. DLSS), είτε weather simulation (έτσι βγαίνουν οι προβλέψεις καιρού εδώ και δεκαετίες).
Γενικά η φιλοσοφία της (GP)GPU έχει να κάνει με παράλληλη επεξεργασία πολλών στοιχείων (π.χ. pixels) από πολλούς υποεπεξεργαστές (οι ALUs που έλεγε ο Cerny). ALU = αριθμητική και λογική μονάδα -> εκεί επεξεργάζονται τα φημισμένα τεραφλόπια!
Παραδοσιακά οι CPUs έχουν εξειδίκευση στο serial processing.
Βάζω το παρακάτω video για να δείτε παραστατικά την φιλοσοφία serial (CPU) vs parallel (GPU) processing:
Spoiler!
Το concept της παράλληλης επεξεργασίας έχει τις ρίζες του στα supercomputers και έχει μεταλαμπαδευτεί παντού πλέον -> CPUs (από FPU και διάφορες SIMD επεκτάσεις/νέες εντολές, μέχρι multi-core CPUs), DSPs (digital signal processors), GPGPUs και φυσικά και mobile SoCs που περιέχουν όλα τα προηγούμενα. Ακόμα και ο Blitter της Amiga τέτοιας φιλοσοφίας είναι.
~
Μια σύγχρονη (GP)GPU έχει 2 modes λειτουργίας:
1) Το rasterization. Είναι το παραδοσιακό και γνώριμο στους PC devs (εδώ και 20 χρόνια περίπου). Όλοι ξέρουν να το δουλεύουν και είναι αυτό που χρησιμοποιούν συνήθως για να κάνουν render γραφικά.
Σε αυτό το mode λειτουργίας η GPU τρέχει (pixel & vertex) shaders = μικρά προγραμματάκια.
Pixel shader = οτιδήποτε έχει να κάνει με εφέ φωτοσκίασης (π.χ. η χαρακτηριστική γυαλάδα που βλέπουμε σε μεταλλικές/πλαστικές/βρεγμένες επιφάνειες)
Vertex shader = οτιδήποτε έχει να κάνει με πολύγωνα/animation. Aπό την ομαλή/φυσική κίνηση ενός χαρακτήρα στον χώρο (inverse kinematics λέγεται αυτή η τεχνική), μέχρι το ρεαλιστικό animation στόματος/χειλιών για να συγχρονίζεται με το voice-over του ηθοποιού.
Από τα παραπάνω που γράφω είναι εύκολο να καταλάβει κανείς γιατί είδαμε μεγάλη άνοδο του cinematic gaming στην PS360 γενιά.
Εδώ να σημειώσω ότι και το PS2 μπορούσε (μέσω Emotion Engine) να κάνει τα παραπάνω που περιγράφω, αλλά προφανώς δεν ήταν τόσο δυνατό όσο το PS3.
π.χ. οι fur shaders (εφέ γούνας) στους Κολοσσούς στο SoTC. Με πολύ χαμηλό framerate βέβαια, αλλά το αναφέρω ως proof of concept.
Όπως και το ray tracing μπορείς να το τρέξεις μέσω software (βλ. Crysis remaster στα PS4 Pro/XB1X) ή μέσω dedicated hardware acceleration (NVIDIA RTX ON, AMD RDNA2 HW RT). Η RSX GPU (semi-custom GeForce 7800 GTX) προφανώς έτρεχε τα shaders natively.
Για όσους το έχουν απορία: όχι, δεν εφηύρε πρώτη η NVIDIA τα programmable shaders (ούτε το T&L, ούτε το ray tracing, ούτε πολλά γενικώς). Η Pixar ήταν ο πρωτεργάτης των shaders στα late 80s, γνωστή για τις φωτορεαλιστικές cartoon ταινίες της. Απλά εδώ μιλάμε για hardware μαζικής χρήσης (τα τελευταία 20 χρόνια που ανέφερα).
2) Το GPGPU compute (compute shaders). Όπως είπα, εμφανίστηκε πριν 15 χρόνια περίπου με τα unified shaders.
Εδώ μιλάμε για exotic programming (συγκριτικά με το rasterization) που θυμίζει αμυδρά την φιλοσοφία/concept του Cell (όχι τον τρόπο εκτέλεσης/τεχνική υλοποίηση, το διευκρινίζω, αλλιώς θα είχαμε ήδη PS3 BC).
Σε αυτό το mode δουλεύουν μόνο οι ALUs και οι άλλες υπομονάδες της GPU που επεξεργάζονται τα textures (TMUs) ή το τελικό στάδιο του rasterization (ROPs) δεν χρειάζονται καν.
Θυμάστε τι έκανε ο Cell; Πόσα tasks έκαναν offload στα SPUs; Ε μαντέψτε: αυτή η φιλοσοφία/σχολή σκέψης ζει και βασιλεύει και στην GPU του PS4!
Όπως η ND έκανε offload διάφορα tasks (physics, AI pathfinding, post-processing effects) στα Cell SPUs στο PS3, έτσι κάνει και τώρα με την GPGPU του PS4.
Το Uncharted 4 είναι εξίσου προγραμματισμένο στο μέταλλο της κονσόλας και δεν φορτώνει την Jaguar CPU με περιττά tasks. Όλος αυτός ο κακός χαμός (physics, destruction και κακό στα setpieces) που βλέπετε επί της οθόνης σας γίνεται offload στην GPGPU.
Στον αντίποδα έχουμε παραδείγματα όπως το Witcher 3 που σέρνεται στο Novigrad λόγω NPCs (τρέχει το AI pathfinding στην CPU), αλλά και το Control που επίσης τρέχει τα physics στην CPU (ενώ δεν θα έπρεπε).
Για αυτό διαχωρίζουμε τους game developers σε 2 σχολές: 1) την PCάδικη που έχει αλλεργία σε low-level/exotic programming, 2) την console/Demoscene/home computer σχολή σκέψης που θα πιάσει το hardware και θα το στραγγίξει μέχρι την τελευταία σταγόνα ιπποδύναμης.
Εξαιρέσεις φυσικά και υπάρχουν, αλλά ο κανόνας είναι αυτός που ανέφερα.
Κάποιος θα πει ότι το κάνουν από ανάγκη επειδή είναι αδύναμος ο Jaguar (ή αντίστοιχα στο PS3 η RSX GPU). Δεν είναι έτσι.
Ο developer που θέλει πραγματικά να ξεζουμίσει το hardware θα το κάνει σε ΚΑΘΕ γενιά με συνέπεια (βλ. ND σε PS1/2/3/4 και οσονούπω PS5), ασχέτως hardware περιορισμών.
Όποιος δεν θέλει να ζυμώσει (π.χ. Ubisoft, Bethesda), μονίμως θα κοσκινίζει και θα του φταίνε τα πάντα...
Fun fact: το Dreams δουλεύει με 100% compute shaders, 0% rasterization. Φιλοσοφία Cell με λίγα λόγια.
~
Ένα μικρό offtopic εδώ, αλλά έχει σημασία:
Προσωπικά όταν είδα αναλυτικά τα PS4 specs δια χειρός Cerny, αυτό που σκέφτηκα είναι ότι προσπάθησε να τιμήσει την φιλοσοφία (parallel processing) του οραματιστή/Σαμουράι Ken Kutaragi, με το να την εφαρμόσει σε AMD hardware και να γίνει από λίγο πιο εύκολος ο low-level προγραμματισμός (Cell SPUs -> compute shaders), έως πολύ πιο εύκολος (rasterization).
https://vrzone.com/articles/sony-cel...ips/63732.html
"The Cell processor was the precursor to today’s accelerated processing units, very much a heterogeneous architecture" he said."But unfortunately it was complicated to use."
Για αυτό σε άλλο νήμα έγραφα ότι είναι πολύ σημαντικό να παρακολουθούμε σφαιρικά την βιομηχανία.
Οι PCίλες/PCMR που ουδέποτε μελέτησαν τα του Cell (και όχι μόνο), είδαν την semi-custom APU του PS4 και αναφώνησαν «χαχα, low-end PC σαπάκι» το 2013.
Τα κλασικά που γράφονταν παντού: «που πας μωρή Sony με την μπακατέλα σου», «το PS4 ξεζουμίστηκε από το 2013 λόγω x86 CPU, δεν έχει άλλο ζουμί να δώσει» κλπ κλπ. Τώρα τι σχέση έχει η x86 CPU με το GPGPU programming, άντε να το καταλάβουν... 7 χρόνια μετά ακόμα δεν έχουν καταλάβει ΤΙΠΟΤΑ!
Μετά βγήκαν όλα τα γνωστά exclusives και κρύφτηκαν στις troll σπηλιές/dungeons τους... και μετά από μια 7ετία ξανά-μανά τα ίδια με το PS5 και δώσ' του πάλι concern trolling το 2027 με το PS6!
Η Sony ιστορικά για όσους έχουν μελετήσει την αρχιτεκτονική των PlayStation πάντα έχει στο DNA της φιλοσοφία parallel processing & dedicated/custom συνεπεξεργαστές, που πάντα είναι πιο μπροστά από τον ανταγωνισμό (πριν την αντιγράψουν).
PS1 -> GTE (Geometry Transformation Engine = ειδικός συνεπεξεργαστής για πολύγωνα/φωτισμό για να ξαλαφρώνει από φόρτο την MIPS CPU) -> σε PC για πρώτη φορά ήρθε 5 χρόνια μετά με τις GeForce 256 & Radeon (T&L) και στο ενδιάμεσο αγκομαχούσαν οι Pentium με το τρισάθλιο MMX σετ εντολών. Συν ο συνεπεξεργαστής για video decode.
PS2 -> Emotion Engine (VUs -> Vector Units) -> προγραμματιστική ευελιξία (όχι ιπποδύναμη, το διευκρινίζω) επιπέδου mesh shaders που οι PC GPUs είδαν για πρώτη φορά το 2018! Για να δείτε πόσο μπροστά ήταν ο άνθρωπος (Ken Kutaragi). Συν MPEG2 decoder για DVD.
PS3 -> Cell SPUs
PS4 -> GPGPU + Zlib ASIC decompressor (ω ναι, ούτε εδώ κάνει το decompression η Jaguar CPU!) + TrueAudio DSP (τρέχει και το party chat/VoIP εκεί συν τοις άλλοις)
PS5 -> Machine learning acceleration, Geometry Engine, custom I/O ASIC, Tempest Audio (και τυχόν άλλα που θα μάθουμε στην πορεία)
Θα έβαζα και το PS4 Pro με κάποια special features του (όπως το 2xFP16 acceleration, που θα ήταν χρήσιμο για AI/ML και όχι για pixel shaders όπως νομίζανε οι προφέσορες PCίλες το 2016), αλλά δεν είδαμε ποτέ exclusives σε αυτό, οπότε δεν θα το κάνω για να είμαι δίκαιος στην κριτική που ασκώ στην MS περί S vs X. Στο PS5 πάντως θα δούμε next-gen AI μέσω του machine learning της RDNA2 GPU. Σε ένα υποθετικό PS5 Pro πάλι δεν θα δούμε αξιοποίηση τυχόν special features. Νομίζω έγινα κατανοητός.
Στα XBOX από την άλλη διαχρονικά είναι πιο "safe" το hardware design τους. Προσπαθούν να μην αποκλίνουν πολύ από PC. Έχει τους λόγους της η MS, όπως έχει τους λόγους της και η Sony.
Μην κοιτάτε που τα Xbots επί 360 εποχής ρίχνανε καζούρα στον Cell (τόσα ξέρανε, τόσα λέγανε). Ο Cell (ως φιλοσοφία/concept ξαναλέω) ζει μέσα σε κάθε GPGPU, συμπεριλαμβανομένης και αυτής των XBOX ONE/S/X, Series S/X κλπ.
Δεν είναι τυχαίο πως η Sony πήρε ένα CU (Compute Unit) στην PS5 APU και το τροποποίησε κατάλληλα για να λειτουργεί ως SPU (βλ. Tempest Audio). Προφανώς και υπάρχει ένα convergent evolution* μεταξύ Cell και (GP)GPUs.
* είναι το φαινόμενο όπου 2 διαφορετικά είδη (π.χ. θηλαστικά και μαρσιποφόρα) συγκλίνουν ως προς τα χαρακτηριστικά τους, κι ας μην ανήκουν βιολογικά στο ίδιο γένος.
Και το BD-ROM/Blu-Ray φυσικά (μην ξεχνιόμαστε)! Ό,τι κοροϊδεύανε, αργά ή γρήγορα το υιοθέτησαν.
Τέλος η ιστορική αναδρομή.
~
Αφού έγραψα τα παραπάνω, να γράψω και μερικά πράγματα περί GCN vs RDNA efficiency/flops:
Όταν μιλάμε για flops, αναφερόμαστε αυστηρά και μόνο στο κομμάτι των ALUs (βλ. Cerny παρουσίαση). Τα flops είναι σημαντικά στο compute. Δεν είναι τόσο σημαντικά όμως στο rasterization.
Το rasterization χρησιμοποιεί και άλλες υπομονάδες της GPU, όχι μόνο τις ALUs. Και ανάλογα με το στήσιμο της GPU αρχιτεκτονικής, μπορεί το rasterization να είναι λιγότερο ή περισσότερο efficient.
Αυτό που κάνει η RDNA/Navi αρχιτεκτονική και ανεβάζει το efficiency δραματικά συγκριτικά με την GCN, είναι το εξής απλό (old school) κόλπο rendering:
Η GPU έχει SRAM (L2 cache). Αυτή είναι μια μικρή (συνήθως λίγα MB), αλλά πανγρήγορη on-chip μνήμη, δηλαδή εντός της GPU.
Και τι κάνει λοιπόν; Χρησιμοποιεί μια τεχνική (tiled rendering) που σπάει την εικόνα σε «κουτάκια». Παίρνει λοιπόν ένα-ένα τα κουτάκια, βάζει 1 κουτάκι ανά φορά μέσα στην L2 cache, το κάνει render με ΜΗΔΕΝ (memory) bottlenecks και μετά το στέλνει στην κυρίως μνήμη (GDDR). Κουτάκι-κουτάκι λοιπόν χτίζει ΟΛΗ την εικόνα (αυτό που ονομάζουμε framebuffer, με απλά λόγια ο «καμβάς ζωγραφικής» της GPU).
Η GCN τι έκανε και θεωρείται ότι έχει inefficient rasterization; Δεν είχε tiled rendering και αναγκαστικά επικοινωνούσε συνεχώς με την GDDR μνήμη για να ζωγραφίζει ολόκληρο τον framebuffer εκεί -> bottleneck, που θέλει ανέβασμα του memory bandwidth -> αύξηση της κατανάλωσης ενέργειας (η DRAM/GDDR είναι εξ' ορισμού πάντα πιο ενεργοβόρα από την SRAM).
Το tiled rendering υπάρχει εδώ και πολλά χρόνια (από PowerVR GPUs/Dreamcast, μέχρι mobile GPUs σε κινητά/tablets που είναι bottlenecked λόγω της αργής LPDDR μνήμης).
Αυτός είναι ο λόγος που σε rasterization (όχι compute!) τα 4TF RDNA2 (Series S) ισούνται με 6TF GCN (XB1X).
Προσοχή όμως: αν ένα παιχνίδι κάνει βαριά χρήση GPGPU compute (το Wolfenstein New Colossus χρησιμοποιεί 80% της GCN GPU για compute shaders) και εν ολίγοις παρακάμπτει το bottlenecked rasterization pipeline (ROPs), εκεί θα έχει το αβαντάζ το XB1X έναντι του Series S σε ανάλυση/pixel count.
Για αυτό και η MS δεν πολυδιαφημίζει το 4K (μιλάω για native, όχι upscaled) στο Series S και πιο πολύ ακούγεται το 1080-1440p.
Σίγουρα θα παίζει καλύτερα (framerate-wise) όλα τα current-gen games με Jaguar baseline ελέω Zen 2 CPU και σίγουρα θα έχει καλύτερα loading times ελέω NVMe SSD. Τώρα το πως θα τρέχει τα next-gen games, αυτό είναι άλλη ιστορία. Θα το δούμε σε συγκριτικά λίαν συντόμως.
~
Και για να καταλήξουμε και στην ταμπακιέρα (γιατί το Series S θα κρατήσει πίσω το next-gen baseline):
Από την στιγμή που γνωρίζουμε ότι η (GP)GPU δεν είναι μόνο για γραφικά στις μέρες μας, αλλά και για physics και για AI pathfinding και οσονούπω θα έχουμε και next-gen AI (με νευρωνικά δίκτυα θα μπορούμε να έχουμε πιο ρεαλιστική/αληθοφανή AI σε NPCs), πως γίνεται να μιλάμε αυστηρά και μόνο για graphics/resolution scaling;
Δείτε εδώ ένα παράδειγμα (next-gen Battlefield):
Spoiler!
Ξέρω ότι δεν έχει τρελή πέραση το Campaign στο BF, απλά το βάζω ως proof of concept/tech demo, για να δείτε το potential της τεχνολογίας. Δεν είναι τέλειο φυσικά (video του 2018 είναι), αλλά ούτε η πρώτη έκδοση του DLSS ήταν τέλεια. 2 χρόνια εξέλιξης στα νευρωνικά δίκτυα είναι 25 χρόνια εξέλιξης σε άλλους τομείς!
Μπορούν να γίνουν scale down τα physics ή το AI pathfinding; Προφανώς και όχι, εκτός και αν τα πετσοκόψουν εντελώς, οπότε εκεί μιλάμε για τελείως άλλο παιχνίδι από άποψη gameplay/game world και στην εποχή των social media θα γινόταν του backlash το κάγκελο από κατόχους Series S.
Ενδεικτικά θα σας πω ότι πολλά current-gen AAA games (σχεδόν όλες οι σύγχρονες engines, δεν μιλάω για απολειφάδια στυλ Bethesda) κάνουν 50% χρήση της GPU για compute shaders. Χοντρικά δηλαδή aπό τα 1.84TF του PS4, τα 0.92TF πάνε για compute shaders και τα άλλα μισά για pixel/vertex shaders.
Θα μπορούσε να τρέξει ένα Uncharted 4 στο Xbone του 1.31TF; Με την καμία, εκτός αν φάει το πετσόκομμα της αρκούδας και γίνει αγνώριστο! Το δε TLOU2 το είδατε τι πλούσια βλάστηση έχει (τρέχει σε compute shaders και αυτό).
Αντίστοιχα: ούτε το Uncharted 2 (με 100% SPU usage) θα μπορούσε να τρέξει ποτέ αυτούσιο στο XBOX 360.
Το baseline της νέας γενιάς θα είναι τα 4TF RDNA2. Με τον διαχωρισμό που ανέφερα παραπάνω (50/50) μόλις 2TF θα μπορούν να γίνουν allocate σε compute shaders.
Αντιλαμβανόμαστε τι σημαίνει αυτό για τον σχεδιασμό των 3rd-party/multiplatform AAA παιχνιδιών;
Εκεί δηλαδή που το «σαπάκι» (για κάποιους) PS5 θα μπορεί να δώσει 5TF για physics, next-gen AI, post-processing effects, αλλά ΜΟΝΟ σε exclusives.
Αντίστοιχα ένα Series X που θα έπαιζε μπάλα μόνο του θα είχε ανώτερο ταβάνι για compute shaders γύρω στα 6TF, ενώ τώρα θα το στραγγαλίζει το Series S baseline. Οπότε ναι, μιλάμε για 8TF πεταμένα στον κάδο του Recycle Bin (αυξημένη ανάλυση, higher graphics settings, άντε και 1-2 RT εφεδάκια παραπάνω).
Για όσους έχουν απορία για την Zen 2 CPU και το κομμάτι της FPU/vector units (τα 256-bit instructions που ανέφερε ο Cerny, γνωστό και ως AVX256 σετ εντολών SIMD) δεν είναι ούτε 1TF. Μπροστά δηλαδή στην ωμή παράλληλη ισχύ μιας GPU, ακόμα και ο Zen 2 ωχριά.
Σίγουρα θα αξιοποιηθεί και η CPU, δεν θα κάθεται, αλλά η GPU είναι πιο πολύ για τα βαριά physics (π.χ. το destruction ενός κτιρίου) και η CPU για πιο ελαφριά (π.χ. το δοχείο βενζίνης που παλατζάρει πέρα-δώθε στο τζιπάκι του Drake). Πάντα δηλαδή θα υπάρχει αυτή η ψαλίδα CPU vs GPU σε πράξεις κινητής υποδιαστολής (floating point operations aka flops) -> είτε Jaguar vs GCN, είτε Zen 2 vs RDNA2, είτε Zen 6 vs RDNA6 (ένα υποθετικό PS6).
Ένα «θετικό» του Lockhart είναι ότι θα μπορούν να βγάζουν περισσότερα παιχνίδια και πιο γρήγορα (για να γεμίζει το Game Pass μπόλικη VHS σαβουρίτσα). Ποσότητα vs ποιότητα (χαμηλότερα vs υψηλότερα production values). Δεν μπορεί να γίνει αλλιώς, σόρρυ XBOX fans, αλλά αυτή είναι η αλήθεια.
~
Εδώ να σημειώσω περί Lockhart/Series S (για όσους φαντασιώνονταν 6-8TF GPU στο κάστρο του Δον Κιχώτη) ότι θες και το ανάλογο memory bandwidth για να «ταΐσεις» τις ALUs.
Δηλαδή ναι μεν η RDNA/Navi είναι πιο memory-bandwidth efficient έναντι της GCN λόγω tiling (συν οι κάπως πιο advanced αλγόριθμοι συμπίεσης), αλλά δεν υπάρχει κάποιος μαγικός τρόπος να αυξήσεις τα CUs/TF χωρίς να αυξήσεις αντίστοιχα και το memory bandwidth (GB/s). Δείχνει τεράστια άγνοια περί υπολογιστικών συστημάτων όποιος XBOX evangelist (λολ) το λέει αυτό.
Θα το πω πολύ απλά χωρίς πολλά-πολλά τεχνικά: φανταστείτε Εθνική Οδό μετά το Πάσχα που γυρνάνε όλοι Αθήνα από τα χωριά τους. Η Εθνική Οδός έχει συγκεκριμένο πλάτος σε lanes (λωρίδες κυκλοφορίες) και έχει φτιαχτεί με βάση την συνήθη, καθημερινή χρήση, όχι τι γίνεται 1-2 φορές τον χρόνο μετά από γιορτές (ειδάλλως το κόστος κατασκευής δρόμων θα ήταν πολλαπλάσιο).
Έτσι και εδώ όπως είπε ο Λευτέρης το Series S είναι ένα scaled down Series Χ σε όλα του. Δεν μπορείς να πας στα 6-8TF χωρίς να κάνεις ανάλογο scaling και στην μνήμη (εύρος διαύλου σε bits), γιατί θα σε σκίσει στο bottleneck. Και φυσικά για να ανεβάσεις το memory bus, θα πρέπει να βάλεις περισσότερα τσιπάκια (συν ότι θέλει νέο σχεδιασμό στην πλακέτα/motherboard για να φαρδύνει το bus) -> περισσότερη ποσότητα μνήμης/GB -> μεγαλύτερο κόστος.
Συν τα όσα είχαμε συζητήσει εδώ μέσα περί ξεχωριστών APU dies (20 vs 52 CUs) για οικονομοτεχνικούς λόγους με τα silicon wafers. Ψιλά γράμματα αυτά για κάποιους που φαντασιώνονταν ανεμόμυλους και δήθεν γνωρίζουν εις βάθος την βιομηχανία ημιαγωγών... για να μην αναφέρω κάτι άλλες χοντράδες ότι το Lockhart θα ήταν δήθεν φορητό (Switch killer) στα 4TF. Γελάει ο κόσμος!
Κάποιοι τα ξέραμε/είχαμε προβλέψει αυτά εδώ και 2 χρόνια. Μέχρι και τα price points. Nailed it που λέμε.
~
Κάτι τελευταίο για τον SSD:
Αν η GPU είναι ο «ζωγράφος» όπως είπαμε, τότε ο SSD είναι ο τροφοδότης μελανιών προς αυτήν.
Κι εδώ βλέπω καζούρα (gimmick/astro-SSD) από Xbots/PCMR που αδυνατούν να καταλάβουν τον κρίσιμο ρόλο του I/O σε ένα υπολογιστικό σύστημα.
Βάζω ένα παράδειγμα από PC port ενός PS360 console game φτιαγμένο με baseline οπτικού δίσκου (τότε δεν είχαμε υποχρεωτικά HDD installs, υπήρχε όμως partial HDD install σε κάποια παιχνίδια, συνήθως open world όλως τυχαίως):
Spoiler!
PC με HDD αδυνατεί να το τρέξει σωστά... εξαφανίζονται ολόκληρα πολύγωνα/textures/κτίρια, ακριβώς επειδή η GPU δεν μπορεί να τροφοδοτηθεί αρκετά γρήγορα με δεδομένα από το storage.
Το παραπάνω συν τοις άλλοις αποδεικνύει τι bottleneck ολκής εμφανίζεται σε PC/Windows με πεπαλαιωμένο I/O API κοντά 40 ετών. Αν βάλεις SSD, θα κάνεις brute force μεν, αλλά και πάλι δεν θα πάρεις 100% αξιοποίηση.
Υποτίθεται αυτά έρχεται να φτιάξει το DirectStorage API. Ίδωμεν.
Φανταστείτε ένα GTA6 φτιαγμένο με NVMe SSD baseline. Μην πω PS5 baseline (5.5 GB/s) και γίνουν trigger διάφοροι...!
ΥΓ1: Αρχικά έλεγα να το ποστάρω στο "PS5 Technology/Graphics Discussion Thread" (για να μην χαθεί στο παρόν νήμα), αλλά ίσως θα ήταν offtopic (λόγω αναφορών σε PC/XBOX).
Δεν ξέρω, ό,τι θέλετε οι mods. Το αφήνετε εδώ ή το κάνετε move.
ΥΓ2: Ελπίζω να βοήθησα, προσπάθησα να απλοποιήσω κάποια πράγματα όσο μπορούσα. Οι γνώστες της παρέας μπορείτε ελεύθερα να συμπληρώσετε.
Ξέρω ότι υπάρχουν και άλλων ειδών shaders εκτός από τα pixel/vertex/compute, αλλά εστίασα σε αυτά για λόγους απλοποίησης.
Bookmarks