obione (18-11-2020)
Εντωμεταξύ το γέλιο είναι ότι η MS έχει στρώσει κώλο να βάλει x64 υποστήριξη emulation στα Windows ARM...
Διόλου τυχαίο. (καθώς οι ARM Mac δεν μπορούν να έχουν προγράμματα Virtualization, αφού δεν υποστηρίζεται η τεχνολογία από το τσιπάκι = όχι VM σαν τα Parallels/Fusion, όχι bootcamp Windows x64)
Σπάστε πλάκα οι ARM Mac να "ωθήσουν" την εξάπλωση/ανάπτυξη των ARM (x64) Windows!
Άλλο αυτό που λες (το γνωρίζω) άλλο αυτό που λέω.
Τα πάραλλελς/φιουζιον που θα βγουν ΔΕΝ θα προσφέρουν windows x64 (7,8,10).
Γιατί πολύ απλά το Μ1 τσιπ δεν έχει αυτή τη δυνατότητα (virtualization για x64).
Αντιθέτως, μπορεί να προσφέρει vm για arm OSs όπως windows ARM, Linux κλπ.
Τώρα πλέον η ΜΣ ενσωματώνει «μεταφραστή» x64 εντός των windows arm.
Το προετοιμαζε καιρο το εργο αυτο η apple. Οπως και με τα chip στα κινητα ετσι και εδω δεν θα εχουν αντιπαλο σε λιγο καιρο... ειναι να τρομαζει κανεις με το MacPro που θα κουβαλαει την οποια εκδοχη του...
panos74gr (23-11-2020)
Valkyre (23-11-2020)
^^Γι αυτο λεω τρομαζω και μονο στη σκεψη του τι θα γινει οταν πεταξουν αυτα τα chipset μεσα στους MacPro.
Και με τα κινητα Πανο ειναι η ιδια περιπτωση εδω και καιρο. Οι αδαης κραζουν για την λιγη Ram και οτι η Apple τσιγκουνευεται αλλα δεν ειναι ετσι. Οι επεξεργαστες που εχουν ειναι πολυ μπροστα, ειναι και πολυ πιο αποδοτικοι και πολυ πιο efficinet και το παντρεμα/αρμονια με το Software τους επιτρεπει να εχουν το ιδιο και καλυτερο αποτελεσμα με μικροτερους αριθμους σε καποιες κατηγοριες οπως η Ram... (κατι σαν PS5-XSX ενα πραγμα )
Και το καλυτερο ειναι που οι τιμες μειωθηκαν ακριβως επειδη πλεον δεν πληρωνουν royalties... για να δουμε ομως. Γνωριζοντας την apple ολο και κατι θα "παρει" πισω απο τα μηχανηματα...
Μην το γελάτε καθόλου.
Αυτό που (προσπαθεί) τώρα να κάνει η Sony με τον SSD του PS5 (εννοώ την λειτουργία Virtual RAM στον υπερταχύτατο SSD ώστε να "αυξάνεται" η διαθέσιμη RAM).............το κάνει η Apple από το πρώτο iPhone. Με "κουλά" κάπως τα πρώτα βήματα......αλλά μετά το iPhone 5S τελειοποίησε το "δέσιμο" μεταξύ flash storage + OS + Ax επεξεργαστή.......ιδιαίτερα με την έλευση του APFS για την διαχείριση των αρχείων.
Αυτά που είδα όμως στο παραπάνω βίντεο (γνωρίζω τον youtuber).......έμεινα με το στόμα ανοιχτό.
Εμφανώς ο M1 δεν είναι ο Α14 που χρησιμοποιεί στα τηλέφωνα, όχι ο ίδιος 100% τέλος πάντων.
Και πάλι όμως με μόλις 4 "δυνατούς" πυρήνες και "μόλις" 8 πυρήνες γραφικών και 8GB RAM (ενοποιημένης General RAM + GFX RAM)...............ΠΑΤΗΣΕ ΚΑΤΩ το γαιδούρι Mac Pro των (σχεδόν) 20.000 δολαρίων!
Καταλαβαίνουμε τι σημαίνει αυτό;
Για να βάλουμε στο μυαλό μας τι έχει μέσα του αυτό το Mac Pro......πχ. 192 GB RAM, δύο κάρτες γραφικών ταυτόχρονα, της Παναγιάς τα μάτια από πλευράς bandwidth........................και πήρε τα @@ του στον ώμο από ένα..................SoC!!!!!!!!
Ξαναγράφω: από ένα SoC!!!!!
Ας σκεφτούμε τώρα έναν Mac Pro με daughterboards 2-3-4 τέτοιων SoC (το καθένα ένα αυτόνομο σύστημα με CPU+GPU cores + RAM) που θα μπαίνουν σε PCI-e.............και τώρα ας σκεφτούμε έναν Mac Pro με 2, 3, 4 τέτοιες κάρτες-daughterboards...
ΚΟΛΑΣΗ.
Παιδια μην σας φαινονται παραξενα ολα αυτα. Ουτε οι μηχανικοι της apple εγιναν ξαφνικα θεοι ουτε η Intel και η AMD ειναι αχρηστοι. Απλα ειναι το αποτελεσμα εξελιξεων που εχουν λαβει χωρα καιρο πριν και τα συνδυαστικα αποτελεσματα των οποιων φαινονται τωρα.
Λιγη ιστορια. Η αρχιτεκτονικη Χ86 ειναι CISC (για οποιν ενδιαφερεται παραθετω link https://cs.stanford.edu/people/erobe...0per%20program.)
Αυτή η αρχιτεκτονικη (ξεκινησε από τα IBM mainframes) εχει εντολες μεταβλητου ευρους που εκτελουν πολλες επιμερους διεργασιες σε μια εντολη. Όταν βγηκε ειχε το πλεονεκτημα ότι με λιγοτερους πορους (διευθυνσεις μνημης, ram και λοιπα) μπορουσες να υλοποιησεις software. Το μεγαλο μειονεκτημα αυτης της αρχιτεκτονικης ειναι ότι με τον καιρο ηταν πολύ πολύ δυσκολο να κανεις επεξεργαστες με πιο πολλα σταδια εκτελεσης (pipelines) και εκτελεση out of order.
Αντιθετα η αρχιτεκτονικη RISC εχει εντολες σταθερου ευρους, πιο απλες που κάθε μια κανει μια διεργασια μονο (load / store / fetch). Αυτο σε συνδυασμο με το γεγονος ότι υπαρχει αφθονια από registers κανει πιο ευκολο να κανεις αυτά που ειπαμε παραπανω (επεξεργαστες με πιο πολλα σταδια εκτελεσης (pipelines) και εκτελεση out of order).
Αυτή η ιστορια δεν είναι νεα, είναι από τη δεκαετια του 80. Αρχες δεκαετιας 90 η apple αποφασισε να γυρισει από CISC (Motorola 68000) σε RISC για να αξιοποιησει αυτά που λεμε. Τοτε εγινε και η περιφημη PowerPC alliance (AIM β apple / ibm / Motorola). Οι IBM - Motorola θα σχεδιαζαν RISC PowerPC επεξεργαστες, θα τους παρηγαγαν στα εργοστασια τους και η apple θα εφτιαχνε το OS.
Ολοι αυτοι δεν υπολογισαν 3 πραγματα:
- H intel, προτιστως δεν είναι εταιρεια που σχεδιαζει επεξεργαστες, είναι μια εταιρεια με πολλα πολύ συγχρονα εργοστασια παραγωγης τσιπ που σχεδιαζει και επεξεργαστες.
- Το περιφημο backwards compatibility.
- Economies of scale.
Πως απαντησε η Intel (και ακολουθησε η AMD): Εκμεταλευομενη τις τρομακτικα μεγαλυτερες ποσοτητες τσιπ, εκσυχρονιζε τα εργοστασια της με πολλα λεφτα και παντα ειχε στη διαθεση της την τελευταια και πιο ενεργειακα αποδοτικη διαδικασια παραγωγης (process node). Αυτό ηταν πολύ σημαντικο γιατι?
Γιατι από τον Pentium Pro και μετα, όλα τα Χ86 τσιπ είναι CISC στον εξω κοσμο του software αλλα RISC στον πυρηνα. Ένα μεγαλο κομματι των συγχρονων Χ86 (ο decoder) σπαει τις CISC εντολες σε εσωτερικες RISC (rops) και ο πυρηνας του επεξεργαστη λειτουργει σαν RISC (ΔΕΝ είναι απλο, ας το κρατησουμε εδώ). Τι μειονεκτημα εχει αυτό? Ενας Χ86 παντα θα είναι αρκετα πιο ενεργοβορος και πολυπλοκος από έναν καθαρο RISC. Όταν όμως εχεις τα καλυτερα εργοστασια και λογω ποσοτητων πιο συγχρονη τεχνολογια παραγωγης το μειονεκτημα απλα καλυπτεται από brute force.
Η apple πως τα καταφερε τωρα?
Μετεφερε το παιχνιδι αλλου. Πηρε μια ωραια αρχιτεκτονικη RISC (ARM), την εβαλε σε μια κατηγορια συσκευων (κινητα) που δεν χρειαζοταν backwords compatibility, και αρχισε να πουλαει πολλα, ΜΑ ΠΑΡΑ ΠΟΛΛΑ τηλεφωνα. Αρα απεκτησε:
- Economies of scale
- Το δικο της τεραστιο pool από developers, development tools και εφαρμογες
Το τελευταιο βημα δεν ηταν δυσκολο. Με τοσο χρημα να ρεει, το να φτιαξεις μια δικη σου πανακριβη και σουπερ ομαδα τσιπ architects ηταν απλα συνεπεια των πραγματων. Η οποια μαλιστα δεν κραταει τα ποδια της με αλυσιδες λογω Χ86 συμβατοτητας, εχει να δουλεψει με μια καθαρη αρχιτεκτονικη, και εμαθε να σχεδιαζει για low power συσκευες, το πιο δυσκολο. Αν εισαι καλος στο low power πιο ευκολα κανεις scale up. Και από εργοστασια?
Εδώ ηρθε το τελευταιο και εδεσε το γλυκο. Οι κάθε λογης Samsung, TSMC και λοιπα παλικαρια, με το αφθονο χρημα από τα κινητακια και τα tabletakia να ρεει, μπορουν να εκσυγχρονιζουν τις μεθοδους παραγωγης το ιδιο γρηγορα (η και γρηγοροτερα) από την intel (η AMD δεν εχει ιδιοκτητα εργοστασια πλεον). Αρα παει και το brute force που επνιξε τοσες και τοσες εξοχες αρχιτεκτονικες RISC στο παρελθον (Mips, Alpha κλπ).
Έχοντας η apple μαλιστα και 2 υλοποιησεις binary translation στην πλατη (από 68000 σε PowerPC και από PowerPC σε Χ86) πραγματικα δεν απορω με αυτά που βλεπω. Το μελλον? Ποιος ξερει αλλα βλεπω ότι τελειωμο δεν θα εχει η πικρα για καποιους.
Υστερογραφο: Εγω αν ημουν Sony exec για την MS ουτε που θα ανησυχουσα. Στην πιθανοτητα όμως να αποφασισει ο ελεφαντας (apple) ότι θα βγαλει κονσολα, θα εχανα τον υπνο μουβ¦.
Sorry για το σεντονι, ευχαριστω για την υπομονη σας!!!!
Last edited by nikosarg; 23-11-2020 at 14:36.
gRim (24-11-2020),Lefteris_X (23-11-2020),Slay (23-11-2020),Stefanos (23-11-2020),Valkyre (25-11-2020)
To μεγάλο πλεονέκτημα των χ86 ειναι ταυτόχρονα και το μεγάλο τους μειονέκτημα , και αυτό ειναι το backwards compatibility. Εκεί για εμένα οφείλεται το γεγονός ότι η εξέλιξη δεν προχωρα με ρυθμους του παρελθόντος. Απο εκει και πέρα η Apple ναι έχει πάρει εναν δρόμο απο τα κινητά που φτιάχνει custom hardware , όχι πολυ διαφορετική προσέγγιση απο την σχεδίαση της Sony στις κονσολες τις στο παρελθόν, και αυτό τις επιτρέπει να έχει πολλαπλάσια καλύτερες επιδόσεις σε συγκεκριμένα tasks. Στο M1 έβαλε και την μνήμη πάνω στο SOC και έδεσε το γλυκό. Ναι ΟΚ για ανθρώπους που έχουν συνηθίσει να πειράζουν/φτιάχνουν τα μηχανήματα τους, η λύση της Apple και γενικά η στάση της όσο αφορά επισκευή απο τρίτους, ειναι πράγματα απωθητικά για πολύ κόσμο.
Αλλά δεν μπορω να μην αναγνωρίσω το τι έχουν καταφέρει, και το πόσο εύκολο το κάνουν να τρέχουν εφαρμογες χ86 σε ARM, και με πολύ μικρό penalty ,κάποιες φορές ακόμα και με αυτό το βάρος και πάλι αποδίδουν καλυτερα απο Intel.
psx3 (25-11-2020)
Εξαιρετική η ανάλυση του nikosarg.
Η x86 έχει κλέψει σχεδόν τα πάντα από RISC (out-of-order execution, load/store κλπ.), αλλά το ενεργειακό βαρίδι παραμένει το frontend (decoder/μεταφραστής), συν ότι είναι χάος από εντολές/opcodes (πολύ legacy cruft).
Ακόμα κι ένα σύγχρονος προσωπικός υπολογιστής bootάρει πρώτα σε 16-bit/real mode για λόγους BC. Υπάρχει ακόμα το παλιό BIOS κρυμμένο μέσα στο UEFI. Legacy cruft σχεδόν 40 ετών. Μπορούν να τρέξουν DOS, κι ας μην το χρειάζεται κανείς πλέον.
Επίσης ο προγραμματιστής (assembly) ή ο compiler (C/C++) δεν έχει πρόσβαση σε όλους τους καταχωρητές/registers (η πιο γρήγορη μνήμη που υπάρχει σε CPU).
Η Intel Skylake μικροαρχιτεκτονική έχει 180 internal registers (στο RISC backend), αλλά στον έξω κόσμο ο προγραμματιστής/compiler έχει διαθέσιμους μόνο 16 GPR (General Purpose Registers). Και συνέχεια γίνεται μετάφραση/αντιστοίχιση από τους εξωτερικούς προς τους εσωτερικούς καταχωρητές (register renaming λέγεται αυτή η τεχνική).
Είναι φάση IPv4/NAT για να το πω σε δικτυακούς όρους. Ασχολούμαστε με πεπαλαιωμένες τεχνολογίες εν έτει 2020, για να κρατάμε BC σε βάθος 40 (!!!) ετών.
RISC on steroids είναι οι σύγχρονες load/store GPGPUs με πολλές χιλιάδες registers (τεράστια register files).
Αυτοί που λένε ότι η RISC πέθανε/έχασε τον πόλεμο με την CISC απλά δεν ξέρουν τι τους γίνεται. Είναι κρυμμένη μέσα σε κάθε συσκευή.
Άντε μπας και ξεφορτωθούμε το απολειφάδι την x86. Τόσα χρόνια Intel -κυρίως- και κατά 2ο λόγο AMD κοροϊδεύουν τον κόσμο δίνοντας επιδόσεις με το σταγονόμετρο.
Βρε λέτε το PS6 να μας έρθει με ARM CPU τελικά;
Σκέψου ότι έχει custom NVMe ήδη από το 2015 (iPhone 6S).
Ακριβώς αυτό που έκανε η Sony με το PS5. Προφανώς και μοιράζονται πολλά κοινά σε φιλοσοφία (unified RAM, dedicated co-processors, soldered DRAM, NAND, προσεγμένο/λιτό software stack κλπ.)
Για να δείτε πόσο αλαζονική ήταν η στάση της Intel.
Είχε το αβαντάζ (ελέω λιθογραφίας) να ανταγωνιστεί την ARM και τι έκανε; Πούλησαν την XScale 1 χρόνο πριν βγει το iPhone και τα σαρώσει όλα (post-PC era).
Η ιστορία θα μπορούσε να είχε γραφτεί διαφορετικά.
Δεν τους λυπάμαι. Εν έτει 2020 πουλάνε inefficient 14nm σαπάκια.
Τα ίδια και η MS που πήγαινε για τον γκρεμό με τον Ballmer στο τιμόνι και άπειρες αποτυχίες στον χώρο του mobile computing (PDA, UMPC, καταστροφή της Nokia, WinCE/Windows Mobile/Phone).
Αυτό το δίπολο (Wintel) μπορεί να πέτυχε στα 80s/90s εις βάρος άλλων (και η ARM ψόφια ήταν πριν την αναστήσει η Apple), αλλά δεν μπορούσε να πιάσει τον παλμό των 2000s/2010s.
Last edited by psx3; 25-11-2020 at 01:01.
Lefteris_X (25-11-2020),nikosarg (25-11-2020),Slay (25-11-2020)
Είναι πολύ περίεργος να μάθω αν έχουν κάνει κάτι ιδιαίτερο με την μνήμη στα νέα Mac εκτός του ότι την έβαλαν στο ίδιο chip. Ακούω από τους reviewers να μιλάνε για unified memory ως κάτι πολύ εξωτικό ενώ το iOS και άλλες πλατφόρμες το είχαν χρόνια τώρα.
Σίγουρα ο SSD controller είναι εκτός συναγωνισμού σε ταχύτητα, αυτό είχε φανεί και από τα benchmarks στα τελευταία iPad Pro όποτε μαζί με το πολύ καλό virtual memory management που κάνει το Mac OS κάνει σίγουρα μεγάλη διαφορα. Το Mac OS χρόνια τώρα κάνει και hardware compression στην virtual memory, οπότε κερδίσει και από εκεί.
Στο iOS πάντως δεν κάνουν κάτι μαγικό σε σχέση με virtual memory. Απλά δεν έχουν virtual memory και όταν ένα app που είναι στο προσκήνιο απαιτήσει μνήμη κλείνουν τα apps στο background για να του δώσουν και πάντα με το όριο μνήμης που έχει το device.
Υπάρχει στο SDK η δυνατότητα memory mapping αρχείων (δηλαδή ένα αρχείο να φαίνεται ως μνήμη) αλλά το application πρέπει να το διαχειριστεί μόνο του. Έτσι πχ παίζει το photos που μπορεις να έχεις άπειρες εικόνες και να σκρολαρεις σε 120fps στο iPad Pro χωρίς frame drops.
Τώρα μάλιστα.
Λέμε τα πράγματα με το όνομα τους.
https://erik-engheim.medium.com/why-...t-3262b158cba2
Σαν να λεμε... καλα κρασια στην AMD και την Intel...
Κρασιά, βαρέλια, αποθήκες και όλα τα αμπέλια των intel/amd.
Sorry παιδια αλλα δεν αντεχω να μην βαλω αυτο το κομματι απο το αρθρο που ποσταρε ο Λευτερης. Για ολους ερχεται καποτε η ωρα, και οπως λεγαμε και πιο πανω, τελειωμο δεν θα εχει η πικρα
Why Can’t Intel and AMD Add More Instruction Decoders?
This is where we finally see the revenge of RISC, and where the fact that the M1 Firestorm core has an ARM RISC architecture begins to matter.
You see, for x86 an instruction can be anywhere from 1β15 bytes long. On a RISC chip instructions are fixed size. Why is that relevant in this case?
Because splitting up a stream of bytes into instructions to feed into 8 different decoders in parallel becomes trivial if every instruction has the same length.
However on an x86 CPU the decoders have no clue where the next instruction starts. It has to actually analyze each instruction in order to see how long it is.
The brute force way Intel and AMD deal with this is by simply attempting to decode instructions at every posssible starting points. That means we have to deal with lots of wrong guesses and mistakes which has to be discarded. This creates such a convoluted and complicated decoder stage, that it is really hard to add more decoders. But for Apple it is trivial in comparison to keep adding more.
In fact adding more causes so many other problems that 4 decoders according to AMD itself is basically an upper limit for how far they can go.
This is what allows the M1 Firestorm cores to essentially process twice as many instructions as AMD and Intel CPUs at the same clock frequency.
One could argue as a counterpoint that CISC instructions turn into more micro-ops, that they are denser so that e.g. decoding one x86 instruction is more similar to decoding say two ARM instructions.
Except this is not the case in the real world. Highly optimized x86 code rarely use the complex CISC instructions. In some regards it has a RISC flavor.
But that doesn’t help Intel or AMD, because even if those 15 byte long instructions are rare, the decoders have to be made to handle them. This incurs complexity which blocks AMD and Intel from adding more decoders.
But AMDs Zen3 Cores are Still Faster Right?
As far as I remember from performance benchmarks the newest AMD CPU cores, the ones called Zen3 are slightly faster than Firestorm cores. But here is the kicker, that only happens because the Zen3 cores are clocked at 5 GHz. Firestorm cores are clocked at 3.2 GHz. The Zen3 is just barely squeezing past Firestorm despite having almost 60% higher clock frequency.
Last edited by nikosarg; 02-12-2020 at 22:09.
psx3 (02-12-2020)
Φοβερό το άρθρο! Μου έλυσε παρά πολλές απορίες και με πήγε πίσω στα φοιτητικά μου χρόνια, στα μέσα 90, που είχε ξεκινήσει η διαμάχη risk cisc. Ο τότε εαυτός μου θεωρούσε ότι πολύ σύντομα θα είχαν επικρατήσει οι αρχιτεκτονικές τύπου RISC αλλά τελικά πήρε πολύ παραπάνω χρόνο.
Υπάρχει πιθανότητα (έστω και 1 στο εκατομμύριο) να κάνει license τα custom ARM cores της η Apple αλλού (π.χ. nVidia);
Το σκέφτομαι σε φάση συνεργασίας «φτιάξε με να σε φτιάξω». Θα μπορούσε η nVidia να δώσει χαμηλότερα (ή ακόμα και δωρεάν?) ARM royalties στην Apple με αντάλλαγμα το custom ARM IP της.
Η Apple κερδίζει λεφτά και η nVidia (που έτσι κι αλλιώς δεν ανταγωνίζεται την Apple στα κινητά, έχει άλλο πεδίο δράσης) δυναμώνει τα Tegra SoC για άλλες χρήσεις (automobile, consoles). Win-win.
Θα ζοριζόταν και η AMD να βγάλει πιο δυνατές semi-custom APUs αν θέλει να παραμείνει ανταγωνιστική...
Ξέρω, κουλή η σκέψη μου (για δεδομένα Apple), αλλά είπα να ρωτήσω (κι ας βαρέσετε)!
Πηγή έμπνευσης τα παρακάτω άρθρα (από τον ίδιο αρθρογράφο):
https://medium.com/swlh/pc-users-in-...e-373cbf7c9d5d
https://medium.com/macoclock/how-app...h-c63f60275f59
Και ειδικά αυτό το κομμάτι:
Νομίζω είμαστε προ των πυλών να αλλάξει ριζικά η βιομηχανία (ελέω disruptive innovation)... σκεφτείτε μόνο το κλάμα που θα ρίξει η PCMR αν απαξιωθούν -εν μια νυκτί- τα πανάκριβα γαϊδούρια rigs τους των 500-600W full load με τίγκα ανεμιστήρες/υδροψύξεις!What about x86 Gaming Rig PCs?
It will be interesting to see how the gaming-rig market develops. The system on a chip (SoC) trend will mean custom built rigs with external graphics cards may no longer be able to compete.
Nvidia is on top of this trend as well, as can be seen from the purchase of ARM. They will likely being creating ARM based SoCs which gamers will start switching to, for max performance in first person shooter games.
In the iPhone analogy, Nvidia may be the Samsung/Google of the PC world. Old players such as Intel and AMD may get squeezed out while new players like Nvidia enters.
There could be more innovative or smaller players in the PC industry that make a bold bets on Nvidia ARM SoC solutions and steal a lot of marketshare from established players like Dell and HP. This could be companies like ASUS or some other Asian manufacturer who is looking for some big change they can exploit to get an upper hand on the current dominant players.
Last edited by psx3; 03-12-2020 at 15:27.
nikosarg (03-12-2020)
Bookmarks