Michal Tzuchman-Katz, MD
Kahun Medical
Καθώς το ChatGPT κυριαρχεί στις συζητήσεις σχετικά με τη δυνατότητα της τεχνητής νοημοσύνης (AI) να διαταράξει ολόκληρους κλάδους, ένας Αυστραλός γιατρός διηγήθηκε νευρικά πώς το μοντέλο υποτίθεται ότι «διέγνωσε τον ασθενή του σε δευτερόλεπτα», ανέφερε η Each day Mail. Φυσικά, αυτό το σενάριο αποτελεί εξαίρεση και όχι κανόνα, δεδομένου ότι το ChatGPT, που δημιουργήθηκε από τον προγραμματιστή OpenAI, δεν έχει σχεδιαστεί για βιομηχανικές χρήσεις που απαιτούν αυτό το επίπεδο ακρίβειας – πόσο μάλλον για ιατρική διάγνωση ασθενών.
Η εντυπωσιακή επιτυχία του chatbot εγείρει, ωστόσο, ερωτήματα σχετικά με τη συμμετοχή της τεχνητής νοημοσύνης στην υγειονομική περίθαλψη.
Μπορεί ένα μοντέλο τύπου ChatGPT να χρησιμοποιηθεί προς όφελος των γιατρών και των ασθενών;
Κατά μία έννοια, ναι. Οι δύο πιο έντονες ανακαλύψεις του ChatGPT σε σχέση με την υγειονομική περίθαλψη θα είναι:
Διαταραχή του τρόπου πρόσβασης στη γνώση. Το ChatGPT θα γίνει το one-stop-shop που θα χρησιμοποιούν οι γιατροί για να αναζητούν αποτελεσματικά απαντήσεις σε ερωτήσεις για τις οποίες διαφορετικά θα χρειαζόταν να κάνουν αναζήτηση στο Google ή σε άλλους επιμελημένους ιστότοπους γνώσης. Η εκπληκτική του ευχέρεια και η ικανή πεζογραφία του που μπορούν να βοηθήσουν στην αποτελεσματική επικοινωνία οποιασδήποτε σκέψης σε οποιοδήποτε κοινό – είτε ασθενείς, ασφαλιστικές εταιρείες ή συναδέλφους.
Τα μέσα κοινωνικής δικτύωσης εκρήγνυνται με συμβουλές από γιατρούς σχετικά με τον τρόπο χρήσης του ChatGTP. Μερικά παραδείγματα περιλαμβάνουν την αποστολή οδηγιών συνταγογράφησης σε ασθενείς, τη μείωση των οδηγιών φαρμάκων, τη σύνταξη επιστολής προς τις ασφαλιστικές εταιρείες που ζητούν έγκριση για ένα φάρμακο ή μια διαδικασία και τη σύνταξη του αρχικού σχεδίου και της περίληψης μιας επιστημονικής εργασίας. Η λίστα συνεχίζεται και βρισκόμαστε μόνο στην αρχή αυτής της ιστορικής στροφής.
Πού υστερεί ακόμα;
Το πραγματικό ερώτημα είναι εάν το ChatGPT μπορεί να σκεφτεί κλινικά έναν ασθενή. Μπορεί το μοντέλο του OpenAI να εκτελεί κλινική συλλογιστική με τρόπο που βασίζεται σε στοιχεία που μπορεί να βοηθήσει τους γιατρούς στη λήψη αποφάσεων;
Εκεί γίνεται δύσκολο.
Ένα από τα μεγαλύτερα εμπόδια που αντιμετωπίζει το ChatGPT –στην υγειονομική περίθαλψη και σε άλλους τομείς– είναι ότι έχει κατασκευαστεί με την προσέγγιση μηχανικής εκμάθησης «μαύρου κουτιού», που σημαίνει ότι προσφέρει μηδενική διαφάνεια στον τρόπο με τον οποίο το μοντέλο παράγει τα αποτελέσματά του. Αυτό εμποδίζει σε μεγάλο βαθμό τη δυνατότητα, για παράδειγμα, για συγγραφείς και ερευνητές να αξιοποιήσουν το ChatGPT πέρα από τον ιδεασμό, τα περιγράμματα και τις σύντομες παραγράφους, επειδή το μοντέλο δεν ανατρέχει στις αρχικές του πηγές.
Δεν είναι ότι το ChatGPT ή η τεχνητή νοημοσύνη μαύρου κουτιού γενικότερα δημιουργήθηκαν με σκοπό να δημιουργήσουν σκόπιμα μυστήριο γύρω από τις αποφάσεις τους. Αντίθετα, είναι μια συνέπεια των μεθόδων μέσω των οποίων αναπτύσσεται το λογισμικό. Πολλές μέθοδοι μαύρων κουτιών για τη δημιουργία μοντέλων τεχνητής νοημοσύνης με προσανατολισμό στην υγειονομική περίθαλψη που τροφοδοτούν τα chatbot και τα εργαλεία κλινικής πρόσληψης παράγουν τα αποτελέσματά τους συγκρίνοντας κάθε συγκεκριμένη περίπτωση με τα αμέτρητα αρχεία ασθενών στις βάσεις δεδομένων τους. Με αυτόν τον τρόπο, βασίζουν ουσιαστικά τις αλγοριθμικές τους αποφάσεις σε μεγάλα δεδομένα, καθιστώντας αδύνατο να αιτιολογήσουν ή να παραπέμψουν τις αποφάσεις τους σε μια συγκεκριμένη ιατρική πηγή.
Όλοι έχουμε συνηθίσει σε ένα hit-or-miss AI που παράγει αποτέλεσμα σχεδόν μαγικά. Κάποια πράγματα τα παίρνει σωστά και άλλα λανθασμένα, αλλά ποτέ δεν εξηγεί το σκεπτικό ή τις αναφορές στις πηγές του.
Δημιουργία αποτελεσματικού εξηγήσιμου AI
Τι θα χρειαστεί για να κερδίσουν οι γιατροί την εμπιστοσύνη και να υιοθετήσουν μια τεχνολογία βασισμένη στην τεχνητή νοημοσύνη στις πρακτικές τους; Η δημιουργία εξηγήσιμου AI (XAI) ξεκινά με τα δεδομένα στα οποία εκπαιδεύουμε τα μοντέλα μας. Οι εταιρείες πρέπει να έχουν κατά νου τη διαφάνεια και την επεξήγηση νωρίς στα ταξίδια τους για να ξεκινήσουν με τα κατάλληλα δεδομένα – δεδομένα στα οποία οι χρήστες του προβλεπόμενου λογισμικού κατανοούν και βασίζονται ήδη.
Στην περίπτωση λογισμικού υγειονομικής περίθαλψης που έχει ως στόχο να συνεργάζεται δίπλα-δίπλα με τους παρόχους, αυτό σημαίνει δεδομένα από ιατρική βιβλιογραφία υψηλής ποιότητας με κριτές από ομοτίμους. Η τυποποιημένη φροντίδα που βασίζεται σε αξιόπιστα στοιχεία είναι το κλειδί για φροντίδα υψηλής ποιότητας. Τα συστήματα τεχνητής νοημοσύνης που βασίζονται σε αυτήν την αρχή βασίζονται όχι μόνο στην ποσότητα των δεδομένων που χρησιμοποιούν, αλλά και στην ικανότητα των μοντέλων να κατανοούν το περιεχόμενο αυτών των πηγών και να το εφαρμόζουν έξυπνα όπου χρειάζεται σε πραγματικό χρόνο.
Υπάρχουν διάφοροι τρόποι με τους οποίους το XAI θα μπορούσε να ωφελήσει τους γιατρούς όταν πρόκειται για εργαλεία κλινικής συλλογιστικής:
Βελτιωμένη εμπιστοσύνη και εμπιστοσύνη: Παρέχοντας στους γιατρούς πληροφορίες που είναι πλήρως εξηγήσιμες και αναφέρονται στις ίδιες αξιόπιστες πηγές που χρησιμοποιούν, η XAI μπορεί να βοηθήσει στην οικοδόμηση εμπιστοσύνης μεταξύ των γιατρών. Αυτό μπορεί να κάνει τους γιατρούς πιο πιθανό να χρησιμοποιήσουν αυτά τα εργαλεία και μπορεί να βοηθήσει να διασφαλιστεί ότι χρησιμοποιούνται αποτελεσματικά.
Παρέχοντας στους γιατρούς πληροφορίες που είναι πλήρως εξηγήσιμες και αναφέρονται στις ίδιες αξιόπιστες πηγές που χρησιμοποιούν, η XAI μπορεί να βοηθήσει στην οικοδόμηση εμπιστοσύνης και εμπιστοσύνης μεταξύ των γιατρών. Αυτό μπορεί να κάνει τους γιατρούς πιο πιθανό να χρησιμοποιήσουν αυτά τα εργαλεία και μπορεί να βοηθήσει να διασφαλιστεί ότι χρησιμοποιούνται αποτελεσματικά. Μειωμένη προκατάληψη και τυποποιημένη φροντίδα: Κάθε γιατρός περιορίζεται από τη δική του προκατάληψη και τα τυφλά σημεία του. Παρέχοντας στους γιατρούς ένα αξιόπιστο εργαλείο που συμβουλεύεται όλη τη σχετική ιατρική βιβλιογραφία, η XAI καλύπτει τα τυφλά σημεία των γιατρών και διασφαλίζει μια βασική βάσηMichal Tzuchman-Katz, MD
Kahun Medical
Καθώς το ChatGPT κυριαρχεί στις συζητήσεις σχετικά με τη δυνατότητα της τεχνητής νοημοσύνης (AI) να διαταράξει ολόκληρους κλάδους, ένας Αυστραλός γιατρός διηγήθηκε νευρικά πώς το μοντέλο υποτίθεται ότι «διέγνωσε τον ασθενή του σε δευτερόλεπτα», ανέφερε η Each day Mail. Φυσικά, αυτό το σενάριο αποτελεί εξαίρεση και όχι κανόνα, δεδομένου ότι το ChatGPT, που δημιουργήθηκε από τον προγραμματιστή OpenAI, δεν έχει σχεδιαστεί για βιομηχανικές χρήσεις που απαιτούν αυτό το επίπεδο ακρίβειας – πόσο μάλλον για ιατρική διάγνωση ασθενών.
Η εντυπωσιακή επιτυχία του chatbot εγείρει, ωστόσο, ερωτήματα σχετικά με τη συμμετοχή της τεχνητής νοημοσύνης στην υγειονομική περίθαλψη.
Μπορεί ένα μοντέλο τύπου ChatGPT να χρησιμοποιηθεί προς όφελος των γιατρών και των ασθενών;
Κατά μία έννοια, ναι. Οι δύο πιο έντονες ανακαλύψεις του ChatGPT σε σχέση με την υγειονομική περίθαλψη θα είναι:
Διαταραχή του τρόπου πρόσβασης στη γνώση. Το ChatGPT θα γίνει το one-stop-shop που θα χρησιμοποιούν οι γιατροί για να αναζητούν αποτελεσματικά απαντήσεις σε ερωτήσεις για τις οποίες διαφορετικά θα χρειαζόταν να κάνουν αναζήτηση στο Google ή σε άλλους επιμελημένους ιστότοπους γνώσης. Η εκπληκτική του ευχέρεια και η ικανή πεζογραφία του που μπορούν να βοηθήσουν στην αποτελεσματική επικοινωνία οποιασδήποτε σκέψης σε οποιοδήποτε κοινό – είτε ασθενείς, ασφαλιστικές εταιρείες ή συναδέλφους.
Τα μέσα κοινωνικής δικτύωσης εκρήγνυνται με συμβουλές από γιατρούς σχετικά με τον τρόπο χρήσης του ChatGTP. Μερικά παραδείγματα περιλαμβάνουν την αποστολή οδηγιών συνταγογράφησης σε ασθενείς, τη μείωση των οδηγιών φαρμάκων, τη σύνταξη επιστολής προς τις ασφαλιστικές εταιρείες που ζητούν έγκριση για ένα φάρμακο ή μια διαδικασία και τη σύνταξη του αρχικού σχεδίου και της περίληψης μιας επιστημονικής εργασίας. Η λίστα συνεχίζεται και βρισκόμαστε μόνο στην αρχή αυτής της ιστορικής στροφής.
Πού υστερεί ακόμα;
Το πραγματικό ερώτημα είναι εάν το ChatGPT μπορεί να σκεφτεί κλινικά έναν ασθενή. Μπορεί το μοντέλο του OpenAI να εκτελεί κλινική συλλογιστική με τρόπο που βασίζεται σε στοιχεία που μπορεί να βοηθήσει τους γιατρούς στη λήψη αποφάσεων;
Εκεί γίνεται δύσκολο.
Ένα από τα μεγαλύτερα εμπόδια που αντιμετωπίζει το ChatGPT –στην υγειονομική περίθαλψη και σε άλλους τομείς– είναι ότι έχει κατασκευαστεί με την προσέγγιση μηχανικής εκμάθησης «μαύρου κουτιού», που σημαίνει ότι προσφέρει μηδενική διαφάνεια στον τρόπο με τον οποίο το μοντέλο παράγει τα αποτελέσματά του. Αυτό εμποδίζει σε μεγάλο βαθμό τη δυνατότητα, για παράδειγμα, για συγγραφείς και ερευνητές να αξιοποιήσουν το ChatGPT πέρα από τον ιδεασμό, τα περιγράμματα και τις σύντομες παραγράφους, επειδή το μοντέλο δεν ανατρέχει στις αρχικές του πηγές.
Δεν είναι ότι το ChatGPT ή η τεχνητή νοημοσύνη μαύρου κουτιού γενικότερα δημιουργήθηκαν με σκοπό να δημιουργήσουν σκόπιμα μυστήριο γύρω από τις αποφάσεις τους. Αντίθετα, είναι μια συνέπεια των μεθόδων μέσω των οποίων αναπτύσσεται το λογισμικό. Πολλές μέθοδοι μαύρων κουτιών για τη δημιουργία μοντέλων τεχνητής νοημοσύνης με προσανατολισμό στην υγειονομική περίθαλψη που τροφοδοτούν τα chatbot και τα εργαλεία κλινικής πρόσληψης παράγουν τα αποτελέσματά τους συγκρίνοντας κάθε συγκεκριμένη περίπτωση με τα αμέτρητα αρχεία ασθενών στις βάσεις δεδομένων τους. Με αυτόν τον τρόπο, βασίζουν ουσιαστικά τις αλγοριθμικές τους αποφάσεις σε μεγάλα δεδομένα, καθιστώντας αδύνατο να αιτιολογήσουν ή να παραπέμψουν τις αποφάσεις τους σε μια συγκεκριμένη ιατρική πηγή.
Όλοι έχουμε συνηθίσει σε ένα hit-or-miss AI που παράγει αποτέλεσμα σχεδόν μαγικά. Κάποια πράγματα τα παίρνει σωστά και άλλα λανθασμένα, αλλά ποτέ δεν εξηγεί το σκεπτικό ή τις αναφορές στις πηγές του.
Δημιουργία αποτελεσματικού εξηγήσιμου AI
Τι θα χρειαστεί για να κερδίσουν οι γιατροί την εμπιστοσύνη και να υιοθετήσουν μια τεχνολογία βασισμένη στην τεχνητή νοημοσύνη στις πρακτικές τους; Η δημιουργία εξηγήσιμου AI (XAI) ξεκινά με τα δεδομένα στα οποία εκπαιδεύουμε τα μοντέλα μας. Οι εταιρείες πρέπει να έχουν κατά νου τη διαφάνεια και την επεξήγηση νωρίς στα ταξίδια τους για να ξεκινήσουν με τα κατάλληλα δεδομένα – δεδομένα στα οποία οι χρήστες του προβλεπόμενου λογισμικού κατανοούν και βασίζονται ήδη.
Στην περίπτωση λογισμικού υγειονομικής περίθαλψης που έχει ως στόχο να συνεργάζεται δίπλα-δίπλα με τους παρόχους, αυτό σημαίνει δεδομένα από ιατρική βιβλιογραφία υψηλής ποιότητας με κριτές από ομοτίμους. Η τυποποιημένη φροντίδα που βασίζεται σε αξιόπιστα στοιχεία είναι το κλειδί για φροντίδα υψηλής ποιότητας. Τα συστήματα τεχνητής νοημοσύνης που βασίζονται σε αυτήν την αρχή βασίζονται όχι μόνο στην ποσότητα των δεδομένων που χρησιμοποιούν, αλλά και στην ικανότητα των μοντέλων να κατανοούν το περιεχόμενο αυτών των πηγών και να το εφαρμόζουν έξυπνα όπου χρειάζεται σε πραγματικό χρόνο.
Υπάρχουν διάφοροι τρόποι με τους οποίους το XAI θα μπορούσε να ωφελήσει τους γιατρούς όταν πρόκειται για εργαλεία κλινικής συλλογιστικής:
Βελτιωμένη εμπιστοσύνη και εμπιστοσύνη: Παρέχοντας στους γιατρούς πληροφορίες που είναι πλήρως εξηγήσιμες και αναφέρονται στις ίδιες αξιόπιστες πηγές που χρησιμοποιούν, η XAI μπορεί να βοηθήσει στην οικοδόμηση εμπιστοσύνης μεταξύ των γιατρών. Αυτό μπορεί να κάνει τους γιατρούς πιο πιθανό να χρησιμοποιήσουν αυτά τα εργαλεία και μπορεί να βοηθήσει να διασφαλιστεί ότι χρησιμοποιούνται αποτελεσματικά.
Παρέχοντας στους γιατρούς πληροφορίες που είναι πλήρως εξηγήσιμες και αναφέρονται στις ίδιες αξιόπιστες πηγές που χρησιμοποιούν, η XAI μπορεί να βοηθήσει στην οικοδόμηση εμπιστοσύνης και εμπιστοσύνης μεταξύ των γιατρών. Αυτό μπορεί να κάνει τους γιατρούς πιο πιθανό να χρησιμοποιήσουν αυτά τα εργαλεία και μπορεί να βοηθήσει να διασφαλιστεί ότι χρησιμοποιούνται αποτελεσματικά. Μειωμένη προκατάληψη και τυποποιημένη φροντίδα: Κάθε γιατρός περιορίζεται από τη δική του προκατάληψη και τα τυφλά σημεία του. Παρέχοντας στους γιατρούς ένα αξιόπιστο εργαλείο που συμβουλεύεται όλη τη σχετική ιατρική βιβλιογραφία, η XAI καλύπτει τα τυφλά σημεία των γιατρών και διασφαλίζει μια βασική βάση