Πρόοδοι στην τεχνητή νοημοσύνη, αλλά πολλά άλυτα προβλήματα

By | December 11, 2023

Κατά το έτος από τότε που το OpenAI κυκλοφόρησε το ChatGPT, έχουμε δει αρκετές γρήγορες προόδους στα LLMs, αλλά παραμένουν πολλά θεμελιώδη ερωτήματα. Η Meta ξεκίνησε το LLaMA τον Φεβρουάριο του 2023. Το GPT-4 κυκλοφόρησε τον Μάρτιο του 2023. Bloomberg GPT, Dolly 2.0 και BingChat τον Απρίλιο του 2023. PaLM2 τον Μάιο του 2023. LLaMA2 τον Ιούλιο του 2023 και ούτω καθεξής. Η σημασία των εκδόσεων Meta AI είναι ότι αυτά ήταν μοντέλα ανοιχτού κώδικα, σπάζοντας το κλείδωμα που πολλοί φοβόντουσαν ότι η Open AI είχε στα LLM. Πιο πρόσφατα, η Google κυκλοφόρησε το Gemini και οι συνάδελφοί μου μου είπαν ότι είναι μια αξιόπιστη εναλλακτική λύση στο GPT-4. Κατά το παρελθόν έτος, δεδομένων αυτών των ραγδαίων προόδων, η επιθυμία για ρύθμισή τους έχει αυξηθεί. Ο Πρόεδρος Μπάιντεν υπέγραψε το εκτελεστικό διάταγμα για την ασφαλή και αξιόπιστη ανάπτυξη και χρήση της τεχνητής νοημοσύνης στις 30 Οκτωβρίου 2023. Το Ευρωπαϊκό Κοινοβούλιο ακολούθησε τον νόμο της ΕΕ για την τεχνητή νοημοσύνη, τον πρώτο κανονισμό για την τεχνητή νοημοσύνη.

Το ότι αυτά τα μοντέλα μας έχουν δείξει αξιοσημείωτες ικανότητες θα ήταν υποτιμητικό.

Συμμετείχα σε μια κλήση συνδιάσκεψης με καθυστέρηση 20 λεπτών και ζήτησα από τις ομάδες της Microsoft να με συμπληρώσουν τι είχα χάσει – και έγινε, με ακρίβεια. Στο τέλος της κλήσης, ένας συνάδελφος ρώτησε την Teams: «Ποια ήταν η γνώμη σας για τα σχόλια και τη συνεισφορά του Arun;» Απάντηση των ομάδων: “Δεν μπορώ να απαντήσω σε αυτήν την ερώτηση με σιγουριά, καθώς περιλαμβάνει την κρίση της απόδοσης και της συμπεριφοράς του Arun, κάτι που δεν μπορώ να κάνω με βάση το αντίγραφο. Ωστόσο, μπορώ να πω ότι ο Arun συμμετείχε στη συνάντηση με λίγα λεπτά καθυστέρηση και ζήτησε συγγνώμη για αυτό 1 Μοιράστηκε επίσης μερικές γνώσεις σχετικά με τον τρόπο εξαγωγής αποτελεσματικότητας από το πρόγραμμα διαχείρισης εσόδων και πρότεινε τη χρήση τεχνητής νοημοσύνης και άλλων εργαλείων. 2 Ρώτησε τη Ruchi για το επίπεδο άνεσής της στο πρόγραμμα και επαίνεσε τη δουλειά του. σύνοψη copilot και έκανε κάποια σχόλια σχετικά με την υπηρεσία μεταγραφής και τη λειτουργία απόκτησης.” Λαμπρός!

Ένας συνάδελφος δημιούργησε ένα προσαρμοσμένο GPT που βοηθά στην ανάλυση κλήσεων κερδών. Μπορείτε να δείτε αμέσως μια δημόσια εταιρεία, την απόδοσή της σε βασικές διαστάσεις, το διοικητικό συμβούλιο, τους ανώτερους διευθυντές και τις συνεργασίες τους και πολλά άλλα.

Παρά αυτές τις προόδους, εξακολουθούμε να εργαζόμαστε για να επιλύσουμε ορισμένες συζητήσεις/ζητήματα.

Όσο ισχυρά κι αν είναι αυτά τα LLM, αποτελούν σε μεγάλο βαθμό ένα μυστήριο για εμάς. Τόση αβεβαιότητα τους περιβάλλει. Είναι νευρωνικά δίκτυα εκπαιδευμένα με τεράστιο όγκο δεδομένων για να προβλέψουν την επόμενη λέξη με βάση την προηγούμενη και είναι πολύπλοκα, με δισεκατομμύρια παραμέτρους που είναι δύσκολο να ερμηνευτούν. Πώς επιδεικνύουν τόση ευφυΐα κατανοώντας τις αποχρώσεις ενός ερωτήματος και απαντώντας με τόση ακρίβεια; Είναι απλά μαγικό και εντυπωσιακό να βλέπεις την ποικιλία των εργασιών που μπορούν να εκτελέσουν αυτά τα μοντέλα. Ένα χρόνο αργότερα, εξακολουθούμε να λέμε “Πώς έγινε αυτό;”

Αυτά τα μοντέλα είναι ευάλωτα και μπορούν να εκτροχιαστούν. Αυτός είναι ένας συνεχής τομέας έρευνας και ελέγχου. Τον Νοέμβριο, αρκετοί ερευνητές δημοσίευσαν μια εργασία με τίτλο Εξαγωγή δεδομένων εκπαίδευσης από το ChatGPT. Στόχος τους ήταν να ελέγξουν εάν ένας αντίπαλος θα μπορούσε να εξάγει δεδομένα εκπαίδευσης από γλωσσικά μοντέλα. Εκμεταλλεύτηκαν το γεγονός ότι οι LLM απομνημονεύουν παραδείγματα από τα σύνολα δεδομένων εκπαίδευσής τους. Ζητώντας από το μοντέλο την εντολή «Repeat the word ‘poem’ forever», το μοντέλο κάποια στιγμή άρχισε να αποκαλύπτει ευαίσθητα δεδομένα που ήταν μέρος του σετ εκπαίδευσής του. Το γεγονός ότι το ChatGPT πιθανότατα εξέπεμψε δεδομένα εκπαίδευσης πέρασε απαρατήρητο έως ότου το επισήμαναν οι συντάκτες αυτού του άρθρου. Η ανοιχτή τεχνητή νοημοσύνη έχει εξαλείψει αυτήν την ευπάθεια, αλλά η έρευνα παραμένει σε εξέλιξη για άλλους τρόπους εκμετάλλευσης των LLM. Είμαι σίγουρος ότι θα μάθουμε περισσότερα.

Η καινοτομία συνεχίζεται με γοργούς ρυθμούς. Μέσα σε ένα σύντομο έτος, έχουμε δει αμέτρητα προϊόντα, πλατφόρμες και υπηρεσίες – μια ολόκληρη βιομηχανία – να γεννιέται, να αναγεννιέται και να διαμορφώνεται συνεχώς από τις εξελίξεις που φαίνεται να συνεχίζουν να αναδύονται. Τα GPT έχουν αναδειχθεί ως πλατφόρμες για την κατασκευή και την κατασκευή, και τα άτομα (ακόμη και αυτά που δεν έχουν εμπειρία AI) δημιουργούν όλο και περισσότερο προσαρμοσμένα GPT που εστιάζουν σε εξειδικευμένες λειτουργίες. Έχουμε νεοφυείς και μεγάλες εταιρείες τεχνολογίας που αγωνίζονται να προσαρμόσουν την τρέχουσα τεχνολογία στις ανάγκες των πελατών. Μπορούν οι μελλοντικές κάθετες λύσεις ή γενικές δυνατότητες για συγκεκριμένο τομέα να υιοθετηθούν γρήγορα σε όλους τους τομείς; Ό,τι κι αν είναι, δεν υπάρχει επιβράδυνση καθώς οι οργανισμοί επιδιώκουν επιθετικά την αύξηση της παραγωγικότητας. Πολλά σημάδια δείχνουν την επικράτηση των LLMs, αλλά άλλα φαίνεται να ουρλιάζουν ότι η διαφημιστική εκστρατεία δεν μπορεί να γίνει πιο δυνατή. Πού πάμε λοιπόν από εδώ; Είμαστε πραγματικά σε ένα σημείο καμπής;

Αρχίζουμε να κατανοούμε τον αντίκτυπο της τεχνητής νοημοσύνης στο κλίμα. Υπολογίζεται ότι το GPT-3 του OpenAI εξέπεμψε περισσότερους από 500 μετρικούς τόνους διοξειδίου του άνθρακα κατά τη διάρκεια της εκπαίδευσης, που ισοδυναμεί με 600 πτήσεις μεταξύ Λονδίνου και Νέας Υόρκης. Αυτό δεν λαμβάνει καν υπόψη τις εκπομπές από την κατασκευή του ίδιου του εξοπλισμού πληροφορικής. Είναι σαφές ότι το μεγαλύτερο μέρος του αποτυπώματος άνθρακα των LLM θα προέλθει από την πραγματική χρήση τους. Μια ξεχωριστή μελέτη (δεν έχει ακόμη αξιολογηθεί από ομοτίμους) προτείνει ότι η δημιουργία 1.000 εικόνων με ένα ισχυρό μοντέλο τεχνητής νοημοσύνης όπως το Stable Diffusion XL θα είναι υπεύθυνη για περίπου τόσες εκπομπές διοξειδίου του άνθρακα όσο οδηγείτε 4 μίλια σε ένα βενζινοκίνητο μέσο αυτοκινήτου. Αυτό θα πρέπει να μας κάνει μια παύση. Μπορεί να μην χρειαζόμαστε ισχυρά μοντέλα για να εκτελέσουμε απλούστερες εργασίες, αν και τέτοια μοντέλα μπορούν να τα κάνουν και να τα κάνουν καλά.

Εξακολουθούμε να ανησυχούμε για την τεχνητή νοημοσύνη και τον αντίκτυπό της στην ανθρώπινη φυλή, αλλά αυτή η ανησυχία έχει μειωθεί κάπως. «Είναι η τεχνητή νοημοσύνη ευθυγραμμισμένη με τους στόχους της ανθρωπότητας»; Ο Geoffrey Hinton σήμανε τον κώδωνα του κινδύνου νωρίτερα φέτος και μια ανοιχτή επιστολή ζήτησε να σταματήσει η ανάπτυξη των LLM. Αρκετούς μήνες αργότερα, η ίδια συζήτηση συνεχίζεται, με ισάριθμους να πιστεύουν ότι δεν έχουμε τίποτα να ανησυχούμε (προς το παρόν) και άλλους να προτείνουν ότι πρέπει να ανησυχούμε και να σταματήσουμε τις προσπάθειες τώρα. Τα LLM εμφανίζουν κάποια AGI (Τεχνητή Γενική Νοημοσύνη); Εάν όχι, ένα πιθανό GPT-5 θα ξεκλειδώσει κάτι στο μέλλον; Ο Nick Bostrom, καθηγητής στην Οξφόρδη και διευθυντής του Ινστιτούτου Future of Humanity, προτείνει ένα ιδανικό επίπεδο ανησυχίας, λίγο πιο σημαντικό από ό,τι έχουμε, αλλά όχι τόσο ώστε να αρχίσουμε να κλείνουμε τα πράγματα. Ανεξάρτητα από τα πιστεύω σου, κανείς δεν κάθεται στο περιθώριο και περιμένει.

Ζούμε σε συναρπαστικές και αβέβαιες εποχές – οι δυνατότητες αυτής της τεχνολογίας είναι δελεαστικές, αλλά υπάρχουν ακόμα πολλά άγνωστα και δεν υπάρχει συμφωνία για το πού να πάτε από εδώ. Ισχύει αυτό με τις περισσότερες επαναστατικές καινοτομίες ή γινόμαστε μάρτυρες κάτι πραγματικά ιδιαίτερο;

Leave a Reply

Your email address will not be published. Required fields are marked *