Η μόνη απόφαση που το AI δεν μπορεί να προβλέψει

By | February 10, 2024

Συχνά μιλάμε για εξατομικευμένη ιατρική. Σχεδόν ποτέ δεν μιλάμε για εξατομικευμένο θάνατο.

Οι αποφάσεις στο τέλος της ζωής είναι μερικές από τις πιο περίπλοκες και φοβερές λύσεις, τόσο από ασθενείς όσο και από επαγγελματίες υγείας. Αν και πολλές πηγές δείχνουν ότι οι άνθρωποι προτιμούν να πεθαίνουν στο σπίτι, στις ανεπτυγμένες χώρες συχνά τελειώνουν τη ζωή τους σε νοσοκομεία και συχνά σε χώρους εντατικής θεραπείας. Αρκετοί λόγοι έχουν προταθεί για να εξηγηθεί αυτό το κενό, συμπεριλαμβανομένης της υποχρησιμοποίησης των εγκαταστάσεων παρηγορητικής φροντίδας, εν μέρει λόγω καθυστερημένων παραπομπών. Οι επαγγελματίες υγείας δεν ξεκινούν πάντα συζητήσεις για το τέλος της ζωής, ίσως ανησυχώντας για την πρόκληση ταλαιπωρίας, την παρέμβαση στην αυτονομία των ασθενών ή λόγω έλλειψης εκπαίδευσης και δεξιοτήτων για να συζητήσουν αυτά τα θέματα.

Συνδέουμε αρκετούς φόβους με τον θάνατο. Στο ιατρείο μου ως γιατρός, δουλεύοντας για χρόνια στην παρηγορητική φροντίδα, έχω συναντήσει τρεις βασικούς φόβους: φόβο του πόνου, φόβο αποχωρισμού και φόβο για το άγνωστο. Ωστόσο, οι διαθήκες διαβίωσης ή οι εκ των προτέρων οδηγίες, που θα μπορούσαν να θεωρηθούν ότι παίρνουν τον έλεγχο της διαδικασίας σε κάποιο βαθμό, είναι συχνά ασυνήθιστες ή ανεπαρκώς λεπτομερείς, αφήνοντας τα μέλη της οικογένειας με μια απίστευτα δύσκολη επιλογή.

Εκτός από το σημαντικό κόστος που αντιμετωπίζουν, η έρευνα έχει δείξει ότι οι πλησιέστεροι συγγενείς ή οι αναπληρωτές λήπτες αποφάσεων μπορεί να είναι ανακριβείς στην πρόβλεψή τους για τις προτιμήσεις του ετοιμοθάνατου ασθενή, πιθανώς επειδή αυτές οι αποφάσεις τον επηρεάζουν προσωπικά και αφορούν τα δικά τους συστήματα πεποιθήσεων και τις δικές τους πεποιθήσεις συστήματα. ρόλο ως παιδιά ή γονείς (η σημασία του τελευταίου αποδείχθηκε σε μια μελέτη της Ann Arbor).

Μπορούμε να αποφύγουμε αυτές τις αποφάσεις από τα μέλη της οικογένειας ή τους γιατρούς, αναθέτοντάς τες σε ηλεκτρονικά συστήματα; Και αν μπορούμε, θα πρέπει;

AI για αποφάσεις στο τέλος του κύκλου ζωής τους

Οι συζητήσεις σχετικά με έναν «πρόβλεψη προτιμήσεων ασθενών» δεν είναι καινούριες, ωστόσο, έχουν κερδίσει έλξη πρόσφατα στην ιατρική κοινότητα (όπως αυτές οι δύο εξαιρετικές ερευνητικές εργασίες του 2023 από την Ελβετία και τη Γερμανία), καθώς οι δυνατότητες AI στις Ταχείες εξελίξεις μετατοπίζουν τη συζήτηση από την υποθετική βιοηθική σφαίρα στη συγκεκριμένη σφαίρα. Ωστόσο, αυτό είναι ακόμη σε εξέλιξη και οι αλγόριθμοι τεχνητής νοημοσύνης στο τέλος της ζωής τους δεν έχουν υιοθετηθεί κλινικά.

Πέρυσι, ερευνητές από το Μόναχο και το Κέμπριτζ δημοσίευσαν μια μελέτη απόδειξης της ιδέας που παρουσιάζει ένα μοντέλο μηχανικής μάθησης που συμβουλεύει μια σειρά από ιατρικά ηθικά διλήμματα: Σύμβουλος Ιατρικής Δεοντολογίαςή ΜΕΘΑΔ. Οι συγγραφείς δήλωσαν ότι επέλεξαν ένα συγκεκριμένο ηθικό κατασκεύασμα, ή ένα σύνολο αρχών, πάνω στο οποίο εκπαίδευσαν τον αλγόριθμο. Αυτό είναι σημαντικό να το καταλάβετε, και ενώ είναι αξιοθαύμαστο και απαραίτητο το γεγονός ότι αναφέρθηκε ξεκάθαρα στο άρθρο σας, δεν λύνει ένα βασικό πρόβλημα με τα «συστήματα υποστήριξης αποφάσεων» στο τέλος του κύκλου ζωής τους: ποιο σύνολο τιμών πρέπει να έχουν τέτοιοι αλγόριθμοι βασίζεται σε?

Όταν εκπαιδεύουν έναν αλγόριθμο, οι επιστήμονες δεδομένων χρειάζονται συχνά μια «βασική αλήθεια» για να βασίσουν τον αλγόριθμό τους, συχνά μια αντικειμενική και ξεκάθαρη μέτρηση. Ας εξετάσουμε έναν αλγόριθμο που διαγιγνώσκει καρκίνο του δέρματος με βάση την εικόνα μιας βλάβης. η «σωστή» απάντηση είναι είτε καλοήθης είτε κακοήθης – με άλλα λόγια, καθορισμένες μεταβλητές στις οποίες μπορούμε να εκπαιδεύσουμε τον αλγόριθμο. Ωστόσο, με αποφάσεις στο τέλος της ζωής, όπως να μην επιχειρήσετε ανάνηψη (όπως φαίνεται ξεκάθαρα στο New England Journal of Medicine), ποια είναι η αντικειμενική αλήθεια με την οποία εκπαιδεύουμε ή μετράμε την απόδοση του αλγορίθμου;

Μια πιθανή απάντηση θα ήταν να αποκλείσουμε κάθε είδους ηθική κρίση και απλώς να προσπαθήσουμε να προβλέψουμε τις επιθυμίες του ίδιου του ασθενούς. έναν προσαρμοσμένο αλγόριθμο. Ευκολότερο να το λες παρά να το κάνεις. Οι προγνωστικοί αλγόριθμοι χρειάζονται δεδομένα για να βασίσουν την πρόβλεψή τους και στην ιατρική, τα μοντέλα τεχνητής νοημοσύνης συχνά εκπαιδεύονται σε ένα μεγάλο ολοκληρωμένο σύνολο δεδομένων με σχετικά πεδία πληροφοριών. Το πρόβλημα είναι ότι δεν ξέρουμε τι είναι σχετικό. Πιθανώς, εκτός από το ιατρικό αρχείο, παραϊατρικά δεδομένα όπως δημογραφικά στοιχεία, κοινωνικοοικονομική κατάσταση, θρησκευτικές πεποιθήσεις ή πνευματική πρακτική θα μπορούσαν να είναι απαραίτητες πληροφορίες για τις προτιμήσεις του ασθενούς στο τέλος της ζωής του. Ωστόσο, αυτά τα λεπτομερή σύνολα δεδομένων είναι ουσιαστικά ανύπαρκτα. Ωστόσο, οι πρόσφατες εξελίξεις σε μεγάλα γλωσσικά μοντέλα (όπως το ChatGPT) μας επιτρέπουν να εξετάσουμε δεδομένα που προηγουμένως δεν μπορούσαμε να επεξεργαστούμε.

Εάν η χρήση αναδρομικών δεδομένων δεν είναι αρκετά καλή, θα μπορούσαμε να εκπαιδεύσουμε υποθετικά αλγόριθμους τέλους ζωής; Φανταστείτε ότι ρωτήσαμε χιλιάδες ανθρώπους για φανταστικά σενάρια. Θα μπορούσαμε να πιστέψουμε ότι οι απαντήσεις τους αντιπροσωπεύουν τις πραγματικές τους επιθυμίες; Μπορεί εύλογα να υποστηριχθεί ότι κανείς από εμάς δεν μπορεί να προβλέψει πώς θα μπορούσαμε να αντιδράσουμε σε πραγματικές καταστάσεις, καθιστώντας αυτή τη λύση αναξιόπιστη.

Υπάρχουν και άλλες προκλήσεις. Εάν αποφασίσουμε να εμπιστευτούμε έναν αλγόριθμο τέλους ζωής, ποιο θα ήταν το ελάχιστο όριο ακρίβειας που θα δεχόμασταν; Όποιο κι αν είναι το σημείο αναφοράς, θα πρέπει να το παρουσιάσουμε ανοιχτά σε ασθενείς και γιατρούς. Είναι δύσκολο να φανταστείς να αντιμετωπίζεις μια οικογένεια σε μια τόσο δύσκολη στιγμή και να λες «ο αγαπημένος σου είναι σε κρίσιμη κατάσταση και πρέπει να ληφθεί μια απόφαση. Ένας αλγόριθμος προβλέπει τι θα επέλεγε η μητέρα/γιος/η σύζυγός σας…, αλλά να έχετε κατά νου ότι ο αλγόριθμος το κάνει σωστά μόνο το 87% των περιπτώσεων». Αυτό βοηθά πραγματικά ή δημιουργεί περισσότερες δυσκολίες, ειδικά εάν η σύσταση είναι αντίθετη με τις επιθυμίες της οικογένειας ή δίνεται σε άτομα που δεν γνωρίζουν την τεχνολογία και θα δυσκολεύονται να κατανοήσουν την έννοια των προκαταλήψεων ή των ανακρίβειων αλγορίθμων.

Αυτό είναι ακόμη πιο έντονο όταν λαμβάνουμε υπόψη το «μαύρο κουτί» ή το ανεξήγητο χαρακτηριστικό πολλών αλγορίθμων μηχανικής μάθησης, αφήνοντάς μας ανίκανους να αμφισβητήσουμε το μοντέλο και σε τι βασίζεται η σύστασή του. Η επεξήγηση, αν και συζητείται στο ευρύτερο πλαίσιο της τεχνητής νοημοσύνης, είναι ιδιαίτερα σημαντική σε ηθικά ζητήματα, όπου ο συλλογισμός μπορεί να μας βοηθήσει να παραιτηθούμε.

Λίγοι από εμάς είμαστε έτοιμοι να πάρουμε μια απόφαση για το τέλος της ζωής μας, παρόλο που είναι το μόνο σίγουρο και προβλέψιμο γεγονός σε μια δεδομένη στιγμή. Όσο περισσότερο κατέχουμε τις αποφάσεις μας τώρα, τόσο λιγότερο εξαρτημένοι θα είμαστε από την τεχνητή νοημοσύνη για να καλύψουμε το κενό. Διεκδικώντας το δικό μας παιδιά επιλογή σημαίνει ότι δεν θα χρειαστούμε ποτέ ένα έθιμο αλγόριθμος.

Leave a Reply

Your email address will not be published. Required fields are marked *