13
Επιστήμη & Έρευνα

Πώς η τεχνητή νοημοσύνη επανεφευρίσκει τους υπολογιστές

Πώς η τεχνητή νοημοσύνη επανεφευρίσκει τους υπολογιστές
Μπορεί οι υπολογιστές να είναι μικρότεροι και ταχύτεροι, αλλά παραμένουν “κουτιά” με εντολές που έχουν προγραμματιστεί από ανθρώπους. Η Τεχνητή Νοημοσύνη έρχεται να τα αλλάξει όλα, από το πως κατασκευάζονται οι υπολογιστές, μέχρι το πως χρησιμοποιούνται.

Δεν έχουν περάσει παρά λίγοι μήνες από την τελευταία παρουσίαση κάποιου επεξεργαστή, είτε κατηγορίας CPU, είτε επεξεργαστή γραφικών (GPU), είτε επεξεργαστή για κινητά (SoC), ανεξαρτήτως του πότε διαβάζεις αυτό το άρθρο. Κάθε τόσο έχουμε ανακοινώσεις από κάποια εκ των κολοσσών της πληροφορικής: Intel, AMD, Apple, Nvidia, Qualcomm, Samsung, ή κάποια από τις πιο μικρές. Εδώ και δεκαετίες, με μαθηματική ακρίβεια, παρουσιάζεται κάποιο νέο μοντέλο, πιο ισχυρό, πιο αποδοτικό, πιο γρήγορο. Ο λεγόμενος “νόμος του Moore”, ο οποίος δεν είναι νόμος αλλά απλή παρατήρηση, ήθελε την τεχνολογία να διπλασιάζει τον αριθμό των transistors (ανά μονάδα επιφάνειας) κάθε 18 μήνες (περίπου). Όλες οι εταιρείες επένδυαν δισεκατομμύρια προσπαθώντας να ακολουθήσουν αυτόν τον “νόμο” από τη δεκαετία του ’70 μέχρι και σήμερα. Παρά ταύτα, οι επεξεργαστές κατά βάσιν δεν έχουν αλλάξει λογική τα τελευταία 40 χρόνια. Μπορεί πλέον να αριθμούν δισεκατομμύρια αντί για χιλιάδες transistors, αλλά η λογική παραμένει η ίδια: είναι κυκλώματα τα οποία εκτελούν εντολές οι οποίες δίνονται από ανθρώπους.

Τώρα, όμως, έρχεται η στιγμή που αυτό θα αλλάξει!

Όπως αναφέρει ο Pradeep Dubey, διευθυντής του parallel computing lab στην Intel, «ο πυρήνας της πληροφορικής μετατοπίζεται από την επεξεργασία αριθμών στη λήψη αποφάσεων». Η Daniela Rus, διευθύντρια του εργαστηρίου τεχνητής νοημοσύνης του MIT, το προσδιορίζει λίγο διαφορετικά: «η τεχνητή νοημοσύνη απελευθερώνει τους υπολογιστές από τα κουτιά τους».

Λιγότερη ταχύτητα, περισσότερη επίσπευση

Οι υπολογιστές εδώ και δεκαετίες γίνονται πιο γρήγοροι μειώνοντας τον χρόνο που απαιτείται για να εκτελέσουν συγκεκριμένες εντολές, τη μία μετά την άλλη. Έτσι φτάσαμε στους σημερινούς επεξεργαστές των μερικών gigahertz σε συχνότητα λειτουργίας – για σύγκριση, το πρώτο PC χρησιμοποιούσε επεξεργαστή των 4,77 megahertz, χοντρικά χίλιες φορές πιο αργό. Η τεχνητή νοημοσύνη, όμως, λειτουργεί εντελώς διαφορετικά. Δεν χρειάζεται επεξεργαστές ικανούς να διαχειριστούν αριθμούς πολύ υψηλής ακρίβειας, αλλά κάτι διαφορετικό: μονάδες επεξεργασίας ικανές να διακινήσουν τεράστιες ποσότητες αριθμών μικρότερης ακρίβειας όσο πιο γρήγορα γίνεται. Όταν ξεκίνησε η σύγχρονη εποχή του deep learning, οι κλασσικοί επεξεργαστές (CPU) δεν ήταν κατάλληλοι, δεν υπήρχαν σχεδιάσεις κατάλληλες για κάτι τέτοιο, οπότε οι ερευνητές αναγκάστηκαν να χρησιμοποιήσουν το πιο κοντινό διαθέσιμο: τους επεξεργαστές γραφικών (GPU)! Οι GPUs ήταν σχεδιασμένες για να διακινούν γραφικά, δηλαδή να επεξεργάζονται παράλληλα μεγάλες ποσότητες δεδομένων μικρής ακρίβειας, για να σχηματίζουν τα γραφικά που προβάλλονται στις οθόνες των υπολογιστών, κυρίως σε τρισδιάστατα παιχνίδια.

Τώρα όλοι οι μεγάλοι σχεδιαστές έχουν στραφεί και προς αυτή την κατεύθυνση, με τα μεγαθήρια AMD, Apple, ARM, Intel, Nvidia, αλλά και οι υπόλοιποι, να σχεδιάζουν μονάδες επεξεργασίας ειδικά για workloads τεχνητής νοημοσύνης. Αλλά ακόμη και εταιρείες που δεν ασχολούνταν με το αντικείμενο, όπως η Google και η Meta, έχουν παρουσιάσει εξειδικευμένες σχεδιάσεις με αποκλειστικό στόχο το AI computing.

Τα αποτελέσματα αυτής της στροφής τα βλέπουμε ήδη, εδώ και λίγα χρόνια, στα smartphones που βρίσκονται στα χέρια μας! Πλέον όλα τα νέα μοντέλα διαθέτουν κάποιου είδους επεξεργαστική μονάδα “νευρωνικών δικτύων”, όπως το TPU (Tensor Processing Unit) εντός του SoC των smartphones της Google, του Neural Engine των επεξεργαστών της Apple, ή το αντίστοιχο στους νέους Snapdragon της Qualcomm ή τους Exynos της Samsung. Η Google έχει τέτοια τσιπάκια από το 2015 και έχουν αναλάβει την επεξεργασία των φωτογραφιών των χρηστών, αλλά και τις αναζητήσεις με φυσική γλώσσα! Αλλά και η DeepMind, θυγατρική της Google, τα χρησιμοποιεί για να εκπαιδεύει τα συστήματα τεχνητής νοημοσύνης που η ίδια σχεδιάζει.

Μη λες, δείξε

Η βασική αλλαγή στον τρόπο λειτουργίας των συστημάτων τεχνητής νοημοσύνης είναι το πώς προγραμματίζονται. Ή, για την ακρίβεια, το πώς δεν προγραμματίζονται! Τα συστήματα αυτά εκπαιδεύονται! Ακριβώς αυτό λέει και ο Chris Bishop, επικεφαλής του Microsoft Research στην Αγγλία: «Τα προηγούμενα 40 χρόνια, προγραμματίζαμε τους υπολογιστές· για τα επόμενα 40 θα τους εκπαιδεύουμε». Παραδοσιακά, για να προγραμματιστεί ένας υπολογιστής έτσι ώστε να κάνει το οτιδήποτε, πρώτα έπρεπε οι προγραμματιστές να οριοθετήσουν τους κανόνες για τον υπολογιστή. Με το machine learning, οι προγραμματιστές δεν γράφουν κανόνες· αντιθέτως, φτιάχνουν ένα νευρωνικό δίκτυο το οποίο μαθαίνει τους κανόνες από μόνο του. Ο τρόπος είναι θεμελιωδώς διαφορετικός.

Παραδείγματα υπάρχουν ήδη και μάλιστα είναι πολλά! Η αναγνώριση φωνής και η αναγνώριση αντικειμένων σε εικόνες είναι πράγματα ήδη διαδεδομένα στα περισσότερα smartphones. Πριν από λίγα χρόνια, γράψαμε για το AlphaZero, ένα τέτοιο σύστημα το οποίο έμαθε μόνο του να παίζει το παιχνίδι Go! και μάλιστα να κερδίσει ακόμη και τους πρωταθλητές. Μια παραλλαγή του, το AlphaFold μπόρεσε να λύσει ένα θεμελιώδες πρόβλημα στη βιολογία, το πώς αναδιπλώνονται οι πρωτεΐνες, το οποίο με παραδοσιακές μεθόδους απαιτούσε υπερυπολογιστές και χρόνια υπολογισμών για κάθε πρωτεΐνη!

Παντού υπολογιστές

Η εικόνα που έχουμε για έναν υπολογιστή, εδώ και δεκαετίες, είναι αυτή ενός μηχανήματος με οθόνη και πληκτρολόγιο, ή έστω οθόνη αφής, στην οποία έπρεπε να γράψεις κάτι ή έστω να πατήσεις ένα κουμπί. Τώρα αυτό αλλάζει. Οι υπολογιστές δεν χρειάζονται ούτε οθόνη ούτε πληκτρολόγιο· το οτιδήποτε μπορεί να γίνει υπολογιστής. Ήδη έχουμε πολλά αντικείμενα της καθημερινότητάς μας, τα οποία έχουν πλέον εκδόσεις “smart”: τηλεοράσεις, ψυγεία, πλυντήρια, κλιματιστικά, οδοντόβουρτσες, κουδούνια (πόρτας), πρίζες, μέχρι και λάμπες! Αλλά όσο εξαπλώνονται, ο στόχος είναι να μην χρειάζεται καν να πρέπει να τους δώσουμε εντολή, αλλά να αρχίσουν να καταλαβαίνουν τι θέλουμε να κάνουν χωρίς να τους το πούμε!

Αυτή είναι και η νέα εποχή της πληροφορικής: η μετάβαση από την απλή “αριθμητική” στην λήψη αποφάσεων και τη συνδυαστική λογική.

Υπολογιστές σχεδιάζουν υπολογιστές

Είναι προφανές το ότι οι ερευνητές θα δοκίμαζαν να εκπαιδεύσουν τέτοια συστήματα τεχνητής νοημοσύνης στη σχεδίαση επεξεργαστών. Ήδη μια από τις πρώτες τέτοιες πειραματικές δοκιμές ήταν ένα σύστημα τεχνητής νοημοσύνης το οποίο κλήθηκε να σχεδιάσει ένα φτερό αεροπλάνου με προκαθορισμένο εξωτερικό σχήμα, με περιορισμό την ελάχιστη αντοχή που έπρεπε να έχει. Το σύστημα κατέληξε σε ένα οργανικό σχήμα το οποίο έμοιαζε με κάτι ανάμεσα σε πίνακα του Νταλί και μάθημα ανατομίας πτηνών, αλλά το οποίο επέδειξε εξαιρετική αντοχή και σημαντικά μειωμένο βάρος! Η ιστορία επαναλήφθηκε και με τη σχεδίαση επεξεργαστή. Η τεχνητή νοημοσύνη κατέληξε σε περίεργες νέες σχεδιάσεις, οι οποίες ουδέποτε θα πέρναγαν από το μυαλό των ανθρώπων σχεδιαστών, αλλά οι οποίες, περιέργως, δούλευαν! Οι ερευνητές αναμένουν πως στο μέλλον θα έχουμε συστήματα τεχνητής νοημοσύνης τα οποία θα αναπτύσσουν καλύτερα και πιο αποδοτικά μικροτσίπ.

Θα κλείσουμε με την Daniela Rus, η οποία μοιράζεται μαζί μας το όραμά της για τους υπολογιστές του μέλλοντος: «όταν ήμουν παιδί, μια από τις αγαπημένες μου σκηνές ήταν το ‘The Sorcerer’s Apprentice’ από το Fantasia του Disney. Βλέπετε πώς ο Μίκυ καλεί τη σκούπα για να τον βοηθήσει να καθαρίσει; [Εμείς στο κοντινό μέλλον] δεν θα χρειαζόμαστε μαγεία για να το κάνουμε»!

Βέβαια, όσοι έχουμε δει την ταινία, ξέρουμε και πώς τελειώνει αυτή η ιστορία. Ο Μίκυ χάνει τον έλεγχο της σκούπας και γίνεται χαμός! Σιγά σιγά, οι μηχανές μαθαίνουν – και πλέον αυτό δεν είναι ευφημισμός – να αλληλεπιδρούν με τους ανθρώπους. Σύντομα θα έχουμε μηχανές οι οποίες θα λειτουργούν στο χάος το οποίο ονομάζουμε “καθημερινότητα” – με κυριότερο παράδειγμα τα αυτόνομα οχήματα. Ξαφνικά, όλα γίνονται πιο αβέβαια. Φαίνεται πως ζούμε στην εποχή που το ηλεκτρονικό “τζίνι” βγαίνει από το μπουκάλι.