Αραγε σε ποιους να αναφέρεται όταν λεει "that dismissal puzzles me" , μα και βέβαια τους χρήστες που δεν έχουν δει ακόμα μισο ray-traced pixel απο την κονσολα της επιλογής τους, αλλα κάθονται και ξεψειρίζουν τι κάνουν οι άλλοι.
Οπως είχα πει σε παρόμοιο βιντεο του Moore's Law η ύπαρξη αυτης της μεγάλης cache (λεει για 128ΜΒ στις ακριβες κάρτες) ειναι μάλλον ο λόγος που ο Cerny εφτιαξε τους GPU cache scrubbers και που το memmory bus έιναι μικρότερο. Το ίδιο εικάζει και ο Redgamingtech σύμφωνα με τις πληροφορίες που έχει. Αυτο εξηγεί και μέρος απο την μεγαλή μυστικοπάθεια της Sony, αλλα και το γεγονος ότι ειδαμε die shot απο την APU του XSX στο Hot Chips. Επειδη το XSX επέλεξε μεγαλύτερο Bus και περισσοτερα CU δεν έχει αυτή την cache στην δική τους APU. Η επίσημη παρουσίαση του RDNA2 και των καρτών της AMD ειναι για τις 28 Οκτωβρίου.
Κάποιες - σοβαρές - απαντήσεις στα παραπάνω:
2. Ο Cell αποδείχθηκε μεγαλειωδώς πως απέτυχε σαν concept - και αποδεικνύεται στην πράξη πως δημιουργεί και σοβαρές επιπλοκές στο Continuity της πλατφόρμας, καθώς είναι δυσθεώρητα τα κόστη του R&D για υλοποίηση BC για το PS3 σε επόμενες γενιές. Αλλιώς θα τον εξέλισσε και στην επόμενη γενιά. Το concept της GPGPU που επικρατεί έχει εντελώς αντίστροφες αρχές από την αρχή του CELL (απλοϊκά, integration/acceleration GP λειτουργιών στη CPU), καθώς ενσωματώνει και επιταχύνει τις GP λειτουργίες στην GPU.
3. Unified RAM για CPU και GPU πρώτο είχε το XBOX 360. Όπως και unified shaders. Η MS δεν αντέγραψε, απλά έκανε υλοποίηση GDDR5 στην ενδιάμεση γενιά (όπως και όλες οι GPU του εμπορίου) απλά επειδή ήταν καθαρά γρηγορότερη. Όλα τα υπόλοιπα περί Low latency DDR3, power of the Cloud κλπ. ήταν καθαρά damage control της απελπισίας εκείνη την εποχή από την MS....φαίνεται να έχουν πάρει το μάθημά τους πάντως σε αυτή τη γενιά.
Για να μπω και λίγο on topic πάντως, φαίνεται να έχει λύσει σημαντικά εργονομικά ζητήματα στον νέο controller η Sony (μένει να επιβεβαιωθεί και δια ζώσης)...στο ds4 είχα σοβαρό ζήτημα με τον δεξιό αντίχειρα μετά από μακρά gaming sessions....
Last edited by retro; 11-10-2020 at 16:18.
Σαν concept δεν απέτυχε, σαν υλοποίηση θες να πεις, επειδή είχε old school DSP σχεδιασμό (scratchpad memory, DMA transfers) και αυτό ζόριζε την πλειοψηφία των developers/programmers που είναι άμπαλοι (PC roots οι περισσότεροι εξ' αυτών). Οι Demosceneάδες (από ND μέχρι Housemarque) ένιωσαν κυριολεκτικά σαν το σπίτι τους με την μετάβαση από Cell SPU coding σε GPGPU coding, όσο οι PCάδες έσκουζαν νυχθημερόν για τον Jaguar. Τυχαίο;
Το concept/φιλοσοφία είναι η παράλληλη επεξεργασία/vector processing που έχουν και οι GPGPUs. Συμφωνούμε εδώ;
Το έχω ξαναπεί ότι όταν ανακοινώθηκαν τα specs του PS4 ήμουν από τους πρώτους που έκανα τον παραλληλισμό (GCN CUs/GPGPU compute = αντικαταστάτης Cell SPUs) στο μυαλό μου (ήδη από το 2011 είχα πάρει χαμπάρι που πάει η δουλειά με το CUDA της NVIDIA, υπάρχουν posts μου εδώ μέσα που τα έχω γράψει), ενώ άλλοι (PCMR) μιλούσαν για αδύναμο PCάκι (κοινώς τόσα ξέρανε, τόσα λέγανε).
Τρανή απόδειξη του παραπάνω: το γεγονός ότι μπόρεσαν να τροποποιήσουν ένα CU στην PS5 GPU για να δουλεύει ως Cell SPU. Αν μη τι άλλο δείχνει μια μακρινή «συγγένεια», δεν νομίζεις; Το 2005 δεν υπήρχε καν GPGPU (το R&D του Cell ξεκίνησε το 2001).
Συμφωνώ ότι τα κόστη του R&D είναι δυσθεώρητα στις μέρες μας λόγω μεγάλης πολυπλοκότητας (o Cell κόστισε 400 εκατομμύρια $ σε λιθογραφία των 90nm). Προφανώς και ένα exotic chip σε 28nm θα κόστιζε πολλαπλάσια (η MS πλήρωσε 3 δις στην AMD για την OG XB1 APU). Ακόμα χειρότερα αν πάμε σε 7nm. Προφανώς δεν βγαίνουν τα κουκιά (βάλε και την οικονομική κρίση του 2008 και δένει το γλυκό). Άλλωστε εκείνη την περίοδο ο Cerny ξεκίνησε την έρευνά του σε x86 CPUs όλως τυχαίως.
Αλλά να σου πω κάτι; Το PS3 ήταν η τελευταία exotic κονσόλα. Αν κάποιος αυτοπροσδιορίζεται ως exotic fan και ΔΕΝ έχει PS3 στην κατοχή του, για μένα είναι παπατζής ολκής.-
Φυσικά δεν ισχυρίζομαι ότι η Sony εφηύρε πρώτη αυτό το concept. Υπάρχει από εποχής supercomputers.
Οι σημερινές GPUs τέρατα τι νομίζεις ότι είναι; Miniaturized supercomputers. Το ίδιο και οι δυνατές semi-custom APUs. Μέχρι και τα κινητά (mobile SoC) είναι αρκετές φορές πιο γρήγορα από Cray supercomputer των 80s. Πως νομίζεις ότι τρέχουν όλοι αυτοί οι AI αλγόριθμοι (π.χ. face recognition); Με παράλληλη επεξεργασία φυσικά.
Το πρόβλημά μου ξέρεις ποιό είναι; Ότι οι Xbots/PCMR (η ίδια οικογένεια/οικοσύστημα είναι στην ουσία) δεν ξέρουν την τύφλα τους από παράλληλη επεξεργασία/vector processing. Αν ήξεραν, δεν θα κορόιδευαν τον Cell το 2005. Θα καταλάβαιναν ότι αυτό είναι το μέλλον (έστω με άλλου τύπου υλοποίηση, όπως και έγινε δηλαδή).
Βγαίνει ο άλλος και κοροϊδεύει το 2xFP16 acceleration του PS4 Pro, λες και ξέρω γω έχει καμία σχέση με τα pixel shaders της GeForce FX. Εμ άμα ρε φίλε (όχι εσύ) ξέρεις ΜΟΝΟ από PC GPUs (και τίποτα από άλλους χώρους), τέτοια μαργαριτάρια θα πετάς και θα γελάνε όσοι έχουν πιο σφαιρική γνώση. Το RPM (Rapid Packed Math) της Vega (feature που είχε η Polaris GPU του PS4 Pro) μπήκε για AI acceleration, concept που έχει εξελιχθεί κι άλλο στην RDNA/Navi. Αν υπήρχαν PS4 Pro exclusives, θα βλέπαμε και βελτιωμένη AI (μεταξύ άλλων).
Επίσης ξέρουμε ότι η AMD πήρε τεχνογνωσία από IBM/Cell για τις APUs (heterogeneous computing λέγεται το concept ενοποίησης CPU/GPU):
Φιλικά τα γράφω τα παραπάνω, για να δείξω ότι οφείλουμε (όσοι ασχολούμαστε με αυτά τελοσπάντων) να μπορούμε να συνθέσουμε όλα τα κομμάτια του παζλ και όχι αποσπασματικά. Τα έλεγε και ο RedGamingTech στο Twitter για την ημιμάθεια προχθές αν θυμάμαι καλά.
Unified RAM εννοείς παρέα με την eDRAM; Δηλαδή αυτό που έκανε και το PS2 με Rambus + eDRAM με τεράστιο bus width για την εποχή του;
Περί unified shaders μπορούμε να πάμε πολύ πίσω αν θες, ακόμα και σε εποχές Amiga Blitter (proto-GPU):
https://sansimeracomputers.wordpress...12/26/blitter/
Τα περί καταστροφικού high latency της GDDR5 ήταν εσκεμμένο FUD από το μαγαζί του misterXmedia, ότι τάχα μου θα κόψουν πωλήσεις από το PS4. Οι ίδιοι που κράζανε το (ομολογουμένως μέτριο παικτικά) The Order 1886, αλλά το QTE fest gameplay του Ryse το έκαναν αβαβά. Αυτό λέγεται double standards.
Και -ω εκ του θαύματος- το XB1X έχει 20% χαμηλότερο latency με GDDR5 συγκριτικά με την super-duper DDR3:
Υπάρχει η κωλοτούμπα της εταιρίας, υπάρχει όμως και η κωλοτούμπα των Xbots, έτσι; Να τα λέμε όλα.
Φυσικά ούτε εδώ ήταν πρώτη η Sony ή η AMD με την unified memory. UMA είχαν κάποια (low-cost) SGI workstations:
http://www.sgidepot.co.uk/o2/1352.pdf
Και ξαναρωτώ: οι system warriors/μπαχαλάκηδες τα γνωρίζουν αυτά; Αν δεν τα γνωρίζουν, τότε γιατί μας πρήζουν συστηματικά εδώ και 15 χρόνια; Ας παίξουν τα παιχνιδάκια τους ήρεμα κι ωραία όπως κάνει το 99% του κόσμου που αγοράζει κονσόλες χωρίς να έχει ιδέα από specs. Όποιος μπαίνει σε τέτοιες συζητήσεις, οφείλει να είναι καλά διαβασμένος (να έχει κάνει το homework του που λέμε).
Last edited by psx3; 11-10-2020 at 17:46.
Axilleas_GR (11-10-2020),gRim (11-10-2020),Lefteris_X (11-10-2020),Leon_DiZ (11-10-2020),modecris (11-10-2020),panos74gr (11-10-2020),PDS (11-10-2020),spartan (12-10-2020),Stefanos (11-10-2020),Valkyre (12-10-2020)
Εν ολίγοις αυτό που θέλω να πω είναι ότι ο Cell επηρέασε σε μεγάλο βαθμό την βιομηχανία ημιαγωγών (και αντίστοιχα ο Cell επηρεάστηκε από την SIMD φιλοσοφία των supercomputers). Αποτυχία δεν το λες αυτό, μέχρι και τους game devs εκπαίδευσε στο concept της παράλληλης επεξεργασίας. Και η Amiga άφησε παρακαταθήκη, κι ας μην είναι εμπορικά διαθέσιμη σήμερα.
Παρακαταθήκη Cell = GPGPU, Intel Larrabee (Xeon Phi/AVX512 σήμερα), APUs, mobile SoCs κλπ.
Αν δεν το αναγνωρίζουμε αυτό, υπάρχει θέμα/bias.
Axilleas_GR (11-10-2020),Leon_DiZ (11-10-2020),spartan (12-10-2020),Valkyre (12-10-2020)
Άλλο ήθελα να πω, αλλά προσπάθησα να το διατυπώσω ευγενικά. Να το διατυπώσω πιο ευθέως: ΔΕΝ επιτελεί ο CELL λειτουργίες GPGPU ούτε ποτέ διεκδίκησε κάτι τέτοιο. Δεν ήταν αυτός ο σκοπός του. Επεδίωξε να επιτύχει το ακριβώς αντίστροφο, να παραλληλοποιήσει (επιδιώκοντας μοντέλο GPU σε GP λειτουργίες) τον κεντρικό επεξεργαστή του συστήματος. Είναι πολύ σημαντικό να γίνει η σχετική διάκριση και κατανόηση του παραπάνω. Τα γράφω απλουστευμένα, αλλά ελπίζω να βρισκόμαστε στην ίδια σελίδα.
Το project Larrabee της Intel από την άλλη που πολύ όμορφα αναφέρεις (επίσης ποτέ δεν ευοδώθηκε εμπορικά) σαφώς και αποτελεί GPGPU προσπάθεια. Η καινοτομία χοντρικά ήταν πως η Intel επεδίωξε να αντικαταστήσει τα CUs με πολύ απλουστευμένους και πολλούς x8 microcores που θα επιτάχυναν , λειτουργώντας παράλληλα, κυρίως GP λειτουργίες.
Εκεί που θέλω τέλος πάντων να καταλήξω είναι ότι δεν έχει νόημα να αναζητείται η μήτρα της παραλληλοποίησης ή να ανάγουμε την κουβέντα εκεί. Χάνεται το νόημα και πηγαίνοντας πίσω θα καταλήξουμε στα clusters των Supercomputers του παρελθόντος που αναφέρεις και εσύ(κανένα νόημα για την κουβέντα μας).
Τώρα, όσον αφορά exotic hw...χμμμ, εγώ ήμουν πάντα οπαδός και υποστηρικτής hardware/software πρακτικών και υλοποιήσεων που να έχουν ή να επιδιώκουν την ευρύτερη δυνατή απήχηση. Και σαν καταναλωτής και σαν φοιτητής και σαν developer. Έτσι, νομοτελειακά, κατά τη γνώμη μου, επιτυγχάνεται κάποια στιμή το μεγαλύτερο adoption rate και η καλύτερη δυνατή αξιοποίηση του hw και κατ' επέκταση και του sw, παρά τα όποια missteps με περιττά layerings που μπορεί να ρίξουν την εκμετάλλευση του hw, παροδικά.
Όλη την πορεία του "εξωτικού" hw προσωπικά την αντιμετωπίζω (όχι πάντα δίκαια, ομολογώ) σαν half assed υλοποιήσεις μίας ανώριμης βιομηχανίας που έψαχνε τα πατήματά της κατά το πέρασμα από τα ουφάδικα στις προσωπικές κονσόλες, εκεί κατά τη δεκαετία του 80. Και όπως και στο PC, που πέρασε μία αντίστοιχη περίοδο μέχρι να προτυποποιηθεί και να κάνει πραγματική επανάσταση τις δεκαετίες 80-90, αντίστοιχη διαφαίνεται να είναι η πορεία και στις συσκευές ψυχαγωγίας. Νομοτελειακά παρατηρούμε όλοι πως προτυποποιούνται και έχουμε φτάσει να έχουμε στην προηγούμενη και στην παρούσα γενιά σχεδόν πανομοιότυπες βασικές αρχιτεκτονικές (πέραν της Nintendo, αλλά και αυτή ΟΚ, στην ARM προτυποποίηση βαδίζει, δεν ακολουθεί κάποιον εξωτικό δρόμο επίσης).
Όσον αφορά τώρα psfans, xbots, pcmr κλπ., δεν πρόκειται να μπω σε τέτοια "αντιπαράθεση", ούτε να τσουβαλιάσω ομάδες ανθρώπων βάση προτιμήσεων διασκέδασης. Δεν με αφορά βασικά. Προσωπικά, ξεκίνησα πιτσιρικάς με PC και συνέχισα σε κονσόλες με σχετική προτίμηση στην πλατφόρμα της MS (πάντα είχα και τις 2 κονσόλες,Xbox και Playstation, συνήθως ήταν πρώτη μου προτίμηση τα Xbox). Δεν νομίζω ότι έχει αυτό κάποια σχέση ή με κατατάσσει αυτόματα σε κάποια συγκεκριμένη κλάση όσον αφορά στο γνωσιακό μου υπόβαθρο, no?
------------------------------------------
Unified RAM εννοώ κοινό pool μνήμης για GPU και CPU. Για παράδειγμα το 360 είχε unified(shared) 512MB RAM, ενώ στο PS3 ήταν σπαστή (256MB για CELL, 256MB για την GPU, ένα από τα βασικά bottlenecks του PS3, if you ask me).
Τέλος, αυτό που αναφέρεις για την Amiga και το Blitter δεν έχει σχέση με αυτό που έγραψα. Το Blitter ουσιαστικά αφορά offloading και acceleration λειτουργιών που λάμβαναν μέρος στη CPU σε άλλο κομμάτι HW (Blitter) και μάλιστα σε 2D.
Οι unified shaders μπορούν ταυτόχρονα να επιτελέσουν λειτουργία τόσο Pixel όσο και Vertex Shaders, που μέχρι εκείνη τη στιγμή ήταν ξεχωριστοί (απλό wiki link, 2ο "εύπεπτο" link )
Όσον αφορά τα της GDDR5, δεν έχει νόημα να πω κάτι άλλο, συμφωνούμε.
Μόνο μην με βάζεις στο παιχνίδι των "στρατοπέδων", δεν με αφορά τι λέγαν οι τάδε και οι δείνα.
Το παραπάνω είναι μια υπόθεση που στην πράξη δεν έχει ποτέ βάση. Δεν είχε στο χθες, δεν έχει στο σήμερα δεν θα έχει και στο κοντινό μέλλον αν θες. Μακάρι να είχε. Ίσως όταν έρθει η μετάβαση σε streaming στο μακρινό μέλλον. Και δεν είναι μόνο θέμα εξωτικου hardware. Κάποτε η MS έβγαζε το GeoW1 σαν benchmark και τώρα βγάζει το Halo Infinite. Αυτο γίνεται στην - ωμή- πραγματικοτητα όταν σημερα ψάχνεις μεγαλύτερη απήχηση και την ψαχνεις κάπου προς τα κάτω...
Όσο η "μεγαλύτερη απήχηση" σημαίνει περισσότερα, διαφορετικά και υποδιεστερα hardware(και φθηνες υπηρεσιες) στην εξίσωση, δεν θα έχει κανένα νόημα και οφελος για τα ίδια τα παιχνίδια. Σε μια ουτοπία που μπορείς να έχεις Pixar ποιότητα και στα smartphones έχει τεράστιο νόημα αυτό που λες. Αλλά είμαστε πολύ μακριά από κάτι τέτοιο.
Για την ώρα, σύμφωνα με τους devs έστω η "μεγάλη απήχηση" που φιλοδοξεί να φέρει το series s, φέρνει δώρο και ένα αγκαθι για το development των παιχνιδιων της επόμενης γενιάς. Εύχομαι οι ανησυχίες τους να είναι υπερβολικές.
Edit. Συμφωνω απολυτα με την σημαντικοτητα της μεγαλυτερης απηχησης και ειναι τεραστιο ζητημα για το gaming γιατι φερνει χρηματα=περισσοτερο detailed κοσμους και ποιοτητα(oχι με την μορφη του gamepass ομως που πιθανον μεγαλωνει την απηχηση αλλα μειωνει τα εσοδα). Απλα θα πρεπει αναγκαστικα να βαζουμε στην εξισωση και το hardware για την ωρα. Το ιδανικο ειναι να γινεται focus σε ενα δυνατο για την εποχη hardware που μπορει να ειναι mainstream και που παραλληλα θα εχει και μεγαλη απηχηση. Mια ιδανικη ισορροπια. Σου θυμιζει κατι? PlayStation.
Η αγορα πχ της bethesda ειναι προς την αντιθετη κατευθυνση, οταν βγαζεις εξω την κονσολα με την μεγαλυτερη απηχηση.
.
Το λάθος σου είναι ότι βάζεις τον Cell στην κατηγορία των CPUs. Είναι understatement να λέμε ότι είναι απλά μια CPU. Ο Cell ανήκει στην κατηγορία των heterogeneous processors (2 διαφορετικές ISAs σε ένα ενιαίο chip). Ήταν μια proto-APU.
Αλήθεια, τα FMA operations που υποστήριζε ο Cell, θυμάσαι πόσα χρόνια έκαναν να τα υλοποιήσουν οι GPGPUs; Η προγραμματιστική ευελιξία και η ιπποδύναμη που έδινε ο Cell το 2005 ήταν μίλια μακριά από οτιδήποτε άλλο στην αγορά.
Δεν έγραψα ότι είναι GPU ο Cell. Έγραψα ότι σχεδιάστηκε για να υπερέχει σε floating point/compute tasks (εξειδίκευση). Ακριβώς όπως και οι GPGPUs τρέχουν compute shaders.
Ξέρεις, όταν μια GPGPU τρέχει compute shaders, δεν χρησιμοποιεί καθόλου ούτε τα TMUs (texture operations), ούτε τα ROPs (raster operations). Στην ουσία χρησιμοποιεί την GPGPU ως καθαρό vector processor (επεξεργασία διανυσμάτων και τίποτα άλλο).
Αν δεν βλέπεις ούτε εκεί καμία ομοιότητα με τα SPUs (vector processors και αυτά), τι να πω... ρίξε μια ματιά στο Dreams να δεις τι φιλοσοφία προγραμματισμού χρησιμοποιεί.
Το πρόβλημα του Cell εμπορικά είναι ότι δεν κατάφερε να πιάσει οικονομίες κλίμακας (όπως ήλπιζαν οι IBM/Sony/Toshiba). Ήθελαν να μπει από κινητά, μέχρι και σε ψυγεία.
Αυτά που θα έκανε ο Cell, τελικά τα έκαναν άλλα τσιπάκια (με οικονομίες κλίμακας).
π.χ. video decoding/encoding -> video decode/encode ASICs (υπάρχουν παντού, από mobile SoCs μέχρι GPUs).
Number crunching -> GPGPUs
Όλα αυτά λειτούργησαν ανταγωνιστικά ως προς τον Cell και καπάρωσαν την αγορά. Ο Cell βρήκε την μεγαλύτερη εφαρμογή στις κονσόλες (PS3), κάποιους servers και μερικά laptops της Toshiba (SpursEngine) ως accelerator.
Πρώτα από όλα ούτε το Larrabee είναι GPGPU. Ήταν μια προσπάθεια της Intel να συνδυάσει πολλά low-power Pentium cores με beefy vector units (κάτι που θυμίζει τα SPUs).
Θεωρώ ότι το αδικείς, γιατί και αυτό έχει αφήσει παρακαταθήκη (AVX512):
https://tomforsyth1000.github.io/blo...0fail%3F%5D%5D
Η ιστορική αναδρομή είναι αναγκαία για να δίνουμε credit where credit is due.
Θα σου πω πως βλέπω εγώ προσωπικά τις 3 εταιρίες όσον αφορά την προσφορά τους στο console τοπίο:
1) Sony -> μεγάλη συνεισφορά σε future-proof hardware, ενίοτε κάπως δύστροπο όσον αφορά τον προγραμματισμό του (Emotion Engine, Cell).
Ένα απλό παράδειγμα ευελιξίας του EE με τα VUs:
Πόσα χρόνια μπροστά ήταν το PS2; 2000-2018 (όταν εμφανίστηκε η πρώτη GPU με mesh shaders).
Και το PS4 φτιάχτηκε με future-proof λογική customιών (αυτό που είπε ο Cerny περί "supercharged PC architecture" και η συνεργασία τους με την AMD, όπου παίρνει features από την Sony και τα περνάει στις PC GPUs).
2) MS -> υπηρεσίες/online features (unified friends list, party chat).
3) Nintendo -> καινοτόμος χειρισμός (σταυρός, δόνηση, γυροσκόπιο).
Όλοι κάτι έχουν προσφέρει στο console τοπίο, απλά η MS πλην του 360 δεν έχει καμία άλλη επιτυχία στο ενεργητικό της.
Φυσικά υπάρχει και αρνητική συνεισφορά εκ μέρους της M$ (paid online, paid DLC -> horse armor/Oblivion -> από εκεί ξεκίνησε το κακό). Θα δούμε και με το Game Pass τι θα γίνει εν καιρώ...
Ακόμα και το GPGPU programming που θεωρείται mainstream πλέον, αρκετοί developers έχουν εκφράσει δυσαρέσκεια ότι τους φαίνεται δύσκολο.
Και ο Tim Sweeney της Epic τα ίδια έλεγε κάποτε, ότι θα ανεβάσει το κόστος του development το GPGPU programming και κοίτα να δεις ρε παιδί μου που το Fortnite κάνει χρήση αυτού του concept για να μεταφέρει λειτουργίες από την Jaguar CPU στην GCN GPU. Πως νομίζεις ότι πιάνει 60 fps στις τωρινές κονσόλες; Με CPU brute force;
Αν θεωρείς πανομοιότυπα τα PS4/XB1 ή ακόμα περισσότερο τα PS5/XBOX S/X, τι να πω.
Μην μπερδεύεσαι με την ISA, το συνολικό στήσιμο ενός συστήματος κοιτάμε πάντα, όχι 3 το λάδι, 3 το ξύδι. Δεν είναι «λαδόξυδο» οι κονσόλες.
Τους co-processors που έχει μια κονσόλα (βγάζω το Switch εκτός, μιας και δεν είναι semi-custom design) δύσκολα θα τους βρεις σε PC. Οι co-processors είναι όλη η μαγεία (secret sauce) των κλειστών συστημάτων.
Ακόμα και η κάρτα ήχου του νέου XBOX είναι μίλια μακριά από το 99% των PC με Realtek, πόσο μάλλον το Tempest Audio του PS5 (σε σύγκριση με PC onboard audio/Realtek κι αυτό).
Αυτά δεν υπάρχουν σε PC πλέον και όταν τα λες στους PCMR στο γυρνάνε σε τρελίτσα/τσάμικο mode on «ααα εμένα δεν με ενδιαφέρει το 3D audio, μια χαρά είμαι και με απλό stereo».
Τις ίδιες πίπες μου λέγανε κάποτε (εποχές προ 3Dfx Voodoo) ότι νταξ μωρέ, καλά είμαστε με το software rasterization της CPU (εποχές Pentium MMX), τι να τους κάνουμε τους 3D accelerators; Πεταμένα λεφτά.
Ή βλέπουμε μπροστά ποιό είναι το μέλλον ή παραμένουμε μύωπες.
Όσον αφορά τον εξωτικό δρόμο που λες, είναι γνωστό ότι οι commodity τεχνολογίες που αναφέρεις έχουνκλέψειαντιγράψει του κόσμου το exotic tech από SGI, DEC και άλλες εταιρίες του χώρου. Και αυτές δεν έχουν αφήσει παρακαταθήκη πίσω τους;
Για δες βιογραφικό μηχανικού της NVIDIA (που έχει εμπλακεί και σε mobile graphics): https://blogs.nvidia.com/blog/author/alben/
Σου διαφεύγει το FlexIO bus των 35 GB/s. Ναι, είχε σπαστή μνήμη το PS3, αλλά δεν ήταν PC με PCIe 1.1 x16 (4 GB/s). Είχε πανγρήγορο custom δίαυλο έτσι ώστε (με σωστό προγραμματισμό) να λειτουργεί η μνήμη σαν να είναι ενιαία (και ο Cell είχε πρόσβαση στην GDDR3 και η RSX GPU στην XDR του Cell).
Πως νομίζεις έβγαλαν γραφικάρες τα Uncharted 2/3 με texture quality που δεν έβρισκες σε 3rd party/multiplatform games;
Ναι, είχε σχεδιαστεί για 2D/sprite acceleration, αλλά με custom coding βγήκαν και 3D games.
Είναι κάτι ανάλογο με αυτό που βλέπουμε σήμερα raytracing σε hardware που δεν υποστηρίζει εγγενώς raytracing.
Δεν διαφωνώ, σε γενικές γραμμές ισχύει το Xenos > RSX, όμως ότι έχανε το PS3 από RSX, το αναπλήρωνε και με το παραπάνω από τα Cell SPUs. Αυτό ακόμα δεν μπορεί να το χωνέψει κόσμος 15 χρόνια μετά.
Στην ουσία δηλαδή το PS3 δεν είχε απλά μια semi-custom GeForce 7, είχε και το compute capability μιας GeForce 8 μέσω των Cell SPUs και μάλιστα με μακράν μεγαλύτερο flexibility.
Μην πας μακριά: απλά δες τα minimum requirements του Heavy Rain (PC port) τι specs ζητάει συγκριτικά με τα αρχαία specs του PS3:
https://www.systemrequirementslab.co...avy-rain/18635
Last edited by psx3; 12-10-2020 at 04:43.
Lefteris_X (13-10-2020),PDS (12-10-2020),Stefanos (12-10-2020),Valkyre (12-10-2020)
PDS (12-10-2020)
The PS5 SSD Seemingly Has DRAM Cache, Offers Benefits Over Xbox Series X SSD
https://www.psu.com/news/the-ps5-ssd...-series-x-ssd/
^^ Χωρις να θελω να πω τιποτα για το συγκεκριμενο βιντεο ο τυπος αυτος μου ειναι απιστευτα αντιπαθης. Πρωτα απο ολα εχει ουκ ολιγες φορες βγει λαθος σε αυτα που λεει (καποιες φορες κανει και σχετικο βιντεο) αλλα το χειροτερο ολων ειναι οτι ειναι biased του κερατα. Γι αυτο και του εχω ριξει μαυρο εδω και καιρο (βεβαια ισως τωρα να εχει αλλαξει τροπαρι).
Σορρυ για το οφφ, απλα θα με ενδιεφερε να δω το βιντεο αν ηταν απο καποιον αλλον και οχι αυτον.
Lefteris_X (13-10-2020),psx3 (13-10-2020)
Valkyre (13-10-2020)
Ναι Αποστολη προς θεου δεν το ειπα για εσενα που το εβαλες, εσυ καλα εκανες, αλλα μου γυρνανε λιγο τ'αντερα με το τυπακι αυτο!
WolfRathmA (13-10-2020)
Το πρόβλημα είναι ότι έχει αναχθεί σε είδωλο της new age PCMR, με τα γνωστά «αποτελέσματα» σε συζητήσεις.
«Με όποιον δάσκαλο καθίσεις, τέτοια γράμματα θα μάθεις» λέει ο θυμόσοφος λαός μας...
Ένα πράγμα θα πω μόνο: η συντριπτική πλειοψηφία των PC (Intel-based) που κυκλοφορούν εκεί έξω, ΔΕΝ έχει καν dedicated PCIe lanes στην CPU για τον NVMe SSD. Ο NVMe κουμπώνει στο southbridge (PCH το λέει η Intel πλέον). Για να το πω και με απλά λόγια: τα δεδομένα πάνε μέσω Λαμίας (κυριολεκτικά)!
Όποιος γνωρίζει 2-3 πραγματάκια περί buses και ροής δεδομένων, αντιλαμβάνεται για τι bottleneck μιλάμε. Ακόμα και PC με πανάκριβες CPUs θα πρέπει να αλλαχθούν εξ' ολοκλήρου (πέταμα η παλιά motherboard). Όχι απλά αλλάζουμε GPU και γίναμε μάγκες.
Άπαξ και το game dev baseline θα είναι κονσόλες με NVMe κουμπωμένο απευθείας στην APU/SoC, θα πρέπει να ακολουθήσει αναλόγως και το PC hardware.
Εν ολίγοις αυτό που θέλω να πω είναι ότι GPU και SSD θα πρέπει να επικοινωνούν απευθείας με την συντομότερη δυνατή διαδρομή (PCIe root complex εντός της CPU), ειδάλλως το DirectStorage API θα είναι δώρον-άδωρον.
Αυτά θα έπρεπε να διδάσκει ο κύριος Linus στο κοινό του (να εκμεταλλεύεται το network effect/subscriber base του για καλό/επιμορφωτικό σκοπό), όχι τι νέο RGB LED keyboard βγήκε ή πως θα ρίξουν τα nanoseconds της DDR4 στα «benchάκια».
cocous (13-10-2020),Lefteris_X (13-10-2020),Valkyre (13-10-2020)
Αυτος που μιλάει ειναι software developer και φυσικά έχει σχέσεις και με άλλους, και έχει πολύ ενδιαφέρον τι του είπε κάποιος απο αυτους (δεν τον ονομάζει, ουτε τις εταιρίες που αναφέρει). Βασικά είναι πράγματα που υποψιαζόμασταν εδω και μήνες τόσο απο την αντίδραση του Sweeny στο Ps5, όσο και απο την συνέντευξη του Crytek Rendering Engineer.
Στο 1:35:26 ξεκινά
Lefteris_X (20-10-2020),psx3 (20-10-2020)
Τα είχα πει; Και ξαναπεί;
Ότι οι 3rd party devs θα τα βρουν σκούρα διότι...
α) το παιχνίδι θα είναι με current-gen ανάπτυξη αλλά on steroids = παρόμοια εμπειρία/απόδοση σε XsX-PS5 με ελαφρώς καλύτερα γραφικά/εφφέ/fps στο XsX.......με ενδεχόμενο (δηλαδή όχι 100% σίγουρο) αποτέλεσμα να φάνε κράξιμο από το κόσμο του PS5 "δεν πληρώνω για κάτι που δεν χρησιμοποιεί ουσιαστικά το PS5, θα περιμένω να πέσει η τιμή"
β) το παιχνίδι εξ αρχής έχει PS5 centric ανάπτυξη και απόδοση.....με αποτέλεσμα να μην τρέχει καθόλου στο XsX ούτε καν όταν ρίχνεις ανάλυση/εφφέ/γραφικά/fps λόγω της διαφοράς σε SSD/controller...........εκτός κι αν είναι τόσο αλλαγμένο το παιχνίδι στις βάσεις του engine/gameplay/κλπ η έκδοση για XsX (δηλαδή θα είναι ένα εντελώς διαφορετικό παιχνίδι στην ουσία)..........οπότε θα πέσει κράξιμο από τους XsX χρήστες.
Μεγάλα πανηγύρια και drama αναμένονται σε βάθος χρόνου σε συνεντεύξεις-δηλώσεις και κατάθεση εμπειριών με το κάθε dev kit από διάφορους devs!
psx3 (20-10-2020)
Το θεμα Λευτερη ειναι οτι αν ειναι ετσι τα πραγματα και μαλιστα τοσο σοβαρα οπως τα περιγραφεις/ουν στο "β" point σου, τοτε δεν νομιζω οτι θα υπαρξει καποιος νοημον multiplatform dev ο οποιος δεν θα επιλεξει την "α" οδο... οποτε οκ μπορει στη θεωρια να κερδιζεις ως PS5 user αλλα στην πραξη πολυ απλα θα χανεις. Και επειδη η πραξη ειναι που μετραει, θα τρωει τρελο τρολινγκ το PS5 community απο ολες τις παντες. Ειτε ειναι θεμα performance, ειτε ειναι θεμα neglection των δυνατοτητων του απο τους devs.
Μιλάμε για next-gen leap στον ήχο... βέβαια ο Cerny είπε δεν χρειαζόμαστε τόσα πολλά (5000) sources, θα προτιμήσουν λιγότερα (100άδες) και υψηλότερης ποιότητας.
Επίσης, κάπου διάβασα ότι τα τελευταία χρόνια έληξαν HRTF* πατέντες 20+ ετών (τόσο είναι η διάρκεια των πατεντών στην Αμερική) της Aureal (A3D), οι οποίες είχαν περιέλθει στην κατοχή της Creative λόγω δικαστικής διαμάχης και ήταν σε limbo το όλο θέμα επί μια 20ετία!
* αυτός είναι ο αλγόριθμος του 3D audio
Για αυτό και η σχετική αναζωπύρωση του θέματος στην βιομηχανία με διάφορα πρότυπα από διάφορες εταιρίες.
Ειλικρινά ακόμα δεν μπορώ να το χωνέψω πόσο πίσω είχε μείνει το θέμα του 3D ήχου για μια κ@λο-εταιρία (ναι, εσένα λέω Creative και τις δόλιες πρακτικές σου εναντίον της Aureal)... ΟΥΣΤ!
Με λίγα λόγια: η Τεχνολογία μπορούσε να μας πάει μπροστά εδώ και 20+ χρόνια (προφανώς όχι με τόσα πολλά sources, αλλά έστω με λιγότερα και σιγά-σιγά θα τα ανέβαζαν), αλλά μας κρατούσαν πίσω ηλίθιοι, νομικίστικοι λόγοι (βούτυρο στο ψωμί των δικηγόρων)!
Φυσικά δεν βοηθάει και το γεγονός ότι ο κόσμος δεν είναι τόσο «εκπαιδευμένος» στα του ήχου (σε αντίθεση με τα γραφικά λόγω DF comparisons) και δεν υπήρχε η ανάλογη απαίτηση για ποιοτικό, immersive ήχο.
ΥΓ: Το Dolby Atmos δεν είναι τσάμπα, χρεώνεται κανονικά ως digital αγορά (€18 στο MS store για PC/XBOX). Το Tempest Audio θα παρέχεται δωρεάν σε όλους τους κατόχους PS5.
Lefteris_X (20-10-2020)
Τα βασίζει κάπου αυτά που λέει ή κλασικά τα βγάζει από το κεφάλι του ο Tidux;
System architect Mark Cerny said Sony's goal with the Tempest engine for 3D audio was to support 'hundreds of sources, not just the 32 that Dolby Atmos supports'.Is it true Dolby Atmos is capped at 32 objects?
No, that is incorrect. As a technology, Dolby Atmos can support hundreds of simultaneous objects.
That being said, we fall back on sage advice from developers of some of the first Atmos games: objects are a fantastic tool, but restraint should be shown with respect to the number of objects active at any time. Too many objects in motion can create a confusing soundscape.
Developers have also told us that avoiding the horizontal "bed" for an all-object mix is an unnecessarily time-consuming and labor-intensive effort. So far, developers are creating next-generation mixes by blending bed audio and object audio. More is good, but more may not necessarily be "better."
https://wccftech.com/dolby-atmos-can-also-support-hundreds-of-objects-like-ps5s-tempest-says-dolby/
PDS (21-10-2020)
Bookmarks