Όλο και περισσότεροι ασθενείς δεν ψάχνουν πλέον απλώς τα συμπτώματά τους στο διαδίκτυο. Ρωτούν ένα chatbot. Περιγράφουν πόνο, ζάλη, θολή όραση, εξετάσεις, φόβους και ζητούν μια πρώτη εξήγηση. Η τεχνητή νοημοσύνη μπορεί να βοηθήσει έναν ασθενή να οργανώσει καλύτερα τις σκέψεις του, όμως δεν μπορεί να αντικαταστήσει την ιατρική εξέταση, την εμπειρία του γιατρού και τη συνολική αξιολόγηση του περιστατικού.
Ο νέος «πρώτος συνομιλητής» του ασθενή
Μέχρι πριν λίγα χρόνια, ο ασθενής που ανησυχούσε για ένα σύμπτωμα έκανε μια αναζήτηση στο Google. Σήμερα, η αναζήτηση γίνεται συχνά με πιο προσωπικό τρόπο. Ο χρήστης γράφει σε ένα chatbot: «Έχω αυτό το σύμπτωμα εδώ και τρεις μέρες, τι μπορεί να είναι;». Ή: «Ο γιατρός μού είπε αυτό, μπορείς να μου το εξηγήσεις απλά;». Ή ακόμη: «Πρέπει να ανησυχώ;».
Αυτό από μόνο του δεν είναι κακό. Σε πολλές περιπτώσεις, η τεχνητή νοημοσύνη μπορεί να βοηθήσει τον ασθενή να καταλάβει καλύτερα όρους που δεν γνωρίζει, να προετοιμάσει ερωτήσεις για τον γιατρό του ή να βάλει σε σειρά τις πληροφορίες που έχει. Το πρόβλημα αρχίζει όταν η απάντηση του chatbot αντιμετωπίζεται σαν διάγνωση.
Η διάγνωση δεν είναι απλή αντιστοίχιση συμπτωμάτων. Απαιτεί ιστορικό, κλινική εξέταση, εργαστηριακά ή απεικονιστικά ευρήματα, εμπειρία και κρίση. Ένα chatbot μπορεί να δώσει μια πιθανή εξήγηση. Δεν μπορεί όμως να δει τον ασθενή, να εκτιμήσει την εικόνα του, να αναγνωρίσει τη σοβαρότητα μιας κατάστασης ή να πάρει ευθύνη για την πορεία της υγείας του.
Όταν το AI βοηθά πραγματικά
Υπάρχουν έρευνες που δείχνουν ότι τα μεγάλα γλωσσικά μοντέλα μπορούν να έχουν εντυπωσιακή επίδοση όταν τους δίνονται καλά οργανωμένα ιατρικά περιστατικά. Σε μελέτη για νευρο-οφθαλμολογικές παθήσεις, το ChatGPT δοκιμάστηκε πάνω σε 22 case reports. Το ChatGPT 3.5 έδωσε σωστή διάγνωση σε 13 από τις 22 περιπτώσεις, ενώ το ChatGPT 4.0 σε 18 από τις 22. Οι δύο ειδικοί νευρο-οφθαλμίατροι πέτυχαν 19 από τις 22.
Αυτό είναι ενδιαφέρον, αλλά θέλει σωστή ανάγνωση. Δεν σημαίνει ότι ο ασθενής μπορεί να αντικαταστήσει τον ειδικό με ένα chatbot. Σημαίνει ότι, όταν υπάρχει πλήρης και δομημένη περιγραφή περιστατικού, το AI μπορεί να λειτουργήσει ως βοηθητικό εργαλείο. Μπορεί να προτείνει πιθανές διαγνώσεις, να θυμίσει κάτι που αξίζει να εξεταστεί ή να βοηθήσει έναν γιατρό να σκεφτεί πιο πλατιά.
Η καθημερινή πραγματικότητα του ασθενή, όμως, είναι διαφορετική. Ο ασθενής συνήθως δεν περιγράφει την κατάστασή του σαν ιατρικό case report. Μπορεί να ξεχάσει σημαντικές λεπτομέρειες, να υπερτονίσει άλλες, να μην ξέρει ποια συμπτώματα έχουν σημασία ή να μην μπορεί να αξιολογήσει αν κάτι είναι επείγον. Εκεί βρίσκεται το όριο.
Η ψευδής ασφάλεια μιας «λογικής» απάντησης
Το πιο ύπουλο πρόβλημα δεν είναι πάντα μια εμφανώς λάθος απάντηση. Είναι μια απάντηση που ακούγεται λογική, ήρεμη και καθησυχαστική, αλλά δεν τονίζει αρκετά τον κίνδυνο.
Το IatroBench, μια πρόσφατη ερευνητική εργασία, εξετάζει ακριβώς αυτό το σημείο. Δεν ασχολείται μόνο με το αν ένα μοντέλο λέει κάτι επικίνδυνα λάθος. Ασχολείται και με το αν παραλείπει να πει κάτι που θα έπρεπε να ειπωθεί. Οι ερευνητές το περιγράφουν ως “omission harm”, δηλαδή πιθανή βλάβη από παράλειψη.
Αυτό έχει μεγάλη σημασία για τον απλό ασθενή. Ένα chatbot μπορεί να δώσει μια γενική απάντηση, να προτείνει «επικοινωνήστε με γιατρό» και να αποφύγει πιο συγκεκριμένη καθοδήγηση. Όμως σε ορισμένες περιπτώσεις ο ασθενής χρειάζεται να καταλάβει ότι κάποια σημάδια δεν πρέπει να περιμένουν. Η υπερβολικά γενική απάντηση μπορεί να μοιάζει ασφαλής, αλλά να μην είναι αρκετά χρήσιμη.
Το ίδιο ερώτημα προκύπτει και από μελέτες για τη χρήση AI από το ευρύ κοινό. Η υψηλή επίδοση ενός μοντέλου σε εξετάσεις ιατρικής γνώσης δεν σημαίνει απαραίτητα ότι βοηθά έναν μη ειδικό να πάρει σωστή απόφαση για την υγεία του. Άλλο ένα μοντέλο που «ξέρει» ιατρικές πληροφορίες και άλλο ένα εργαλείο που οδηγεί έναν πραγματικό άνθρωπο, με άγχος και ατελή πληροφόρηση, προς την ασφαλέστερη επόμενη κίνηση.
Η διαφορά ανάμεσα στην ενημέρωση και την αυτοδιάγνωση
Υπάρχει μια λεπτή αλλά κρίσιμη διαφορά. Είναι άλλο να χρησιμοποιεί κάποιος μηχανή AI για να καταλάβει καλύτερα μια διάγνωση που ήδη του εξήγησε ο γιατρός του. Και είναι άλλο να τη χρησιμοποιεί για να αποφασίσει αν θα πάει ή όχι στον γιατρό.
Στην πρώτη περίπτωση, το chatbot μπορεί να λειτουργήσει ως εργαλείο ενημέρωσης. Μπορεί να εξηγήσει έναν όρο, να βοηθήσει τον ασθενή να διατυπώσει ερωτήσεις, να κάνει πιο κατανοητή μια εξέταση ή να βοηθήσει στην προετοιμασία ενός ραντεβού.
Στη δεύτερη περίπτωση, ο κίνδυνος είναι μεγαλύτερος. Αν ο ασθενής στηριχθεί στην απάντηση και καθυστερήσει την ιατρική αξιολόγηση, μια κατάσταση που χρειαζόταν άμεση αντιμετώπιση μπορεί να χαθεί μέσα σε μια φαινομενικά καθησυχαστική συνομιλία.
Αυτό δεν σημαίνει ότι πρέπει να δαιμονοποιήσουμε την τεχνητή νοημοσύνη. Σημαίνει ότι πρέπει να τη βάλουμε στη σωστή θέση. Το AI μπορεί να είναι βοηθός στην κατανόηση. Δεν πρέπει να γίνει ο τελικός κριτής της υγείας ενός ανθρώπου.
Τι σημαίνει αυτό για τα δικαιώματα των ασθενών
Για τον ασθενή, το βασικό δικαίωμα παραμένει το ίδιο: να λαμβάνει σωστή, έγκαιρη και κατανοητή ενημέρωση από επαγγελματίες υγείας. Η τεχνητή νοημοσύνη μπορεί να αλλάζει τον τρόπο με τον οποίο οι άνθρωποι αναζητούν πληροφορίες, αλλά δεν αλλάζει την ανάγκη για υπεύθυνη ιατρική κρίση.
Αν ένας ασθενής έχει αμφιβολίες, αν αισθάνεται ότι κάτι δεν εξηγήθηκε επαρκώς ή αν βλέπει ότι τα συμπτώματα επιμένουν, η λύση δεν είναι να κάνει όλο και περισσότερες ερωτήσεις σε ένα chatbot. Η ουσιαστική απάντηση βρίσκεται στην επανεκτίμηση, στη δεύτερη ιατρική γνώμη όπου χρειάζεται και στην τεκμηριωμένη εξέταση των πραγματικών δεδομένων της υπόθεσης.
Η τεχνητή νοημοσύνη μπορεί να ανοίξει μια συζήτηση. Δεν πρέπει να την κλείσει.
Η σημερινή εικόνα
Το AI μπαίνει όλο και περισσότερο στην υγεία, είτε μέσα από εφαρμογές για ασθενείς είτε μέσα από εργαλεία που υποστηρίζουν γιατρούς. Η εξέλιξη αυτή μπορεί να φέρει πραγματικά οφέλη. Μπορεί να βοηθήσει στη διάγνωση σπάνιων παθήσεων, στην καλύτερη οργάνωση πληροφοριών και στην ταχύτερη επεξεργασία δεδομένων.
Όμως όσο πιο πειστικές γίνονται οι απαντήσεις των συστημάτων αυτών, τόσο πιο σημαντικό είναι να θυμόμαστε τα όριά τους. Ένα chatbot μπορεί να μιλά με σιγουριά ακόμη και όταν δεν έχει όλη την εικόνα. Και ο ασθενής, ειδικά όταν φοβάται, μπορεί εύκολα να κρατήσει από την απάντηση αυτό που θέλει περισσότερο να ακούσει: ότι ίσως δεν είναι κάτι σοβαρό.
Το σωστό ερώτημα, λοιπόν, δεν είναι αν το AI είναι καλό ή κακό. Το σωστό ερώτημα είναι πώς τη χρησιμοποιούμε. Ως εργαλείο κατανόησης, μπορεί να βοηθήσει. Ως υποκατάστατο διάγνωσης, μπορεί να δημιουργήσει καθυστερήσεις, παρεξηγήσεις και ψευδή ασφάλεια.
** Το περιεχόμενο είναι ενημερωτικού χαρακτήρα και δεν αποτελεί νομική ή ιατρική συμβουλή. Κάθε υπόθεση αξιολογείται ξεχωριστά, με βάση τα πραγματικά περιστατικά και τα διαθέσιμα στοιχεία.
Πηγές:
IatroBench: Pre-Registered Evidence of Iatrogenic Harm from AI Safety Measures
ChatGPT Assisting Diagnosis of Neuro-ophthalmology Diseases Based on Case Reports
Nature Medicine – Reliability of LLMs as medical assistants for the general public
JAMA – Are AI Tools Ready to Answer Patients’ Questions About Their Medical Care?
Επικοινωνήστε με την εξειδικευμένη μας ομάδα εδώ:
Διαβάστε επίσης
AI και διάγνωση: όταν ο ασθενής ρωτά ένα chatbot πριν
Όλο και περισσότεροι ασθενείς δεν ψάχνουν πλέον απλώς τα συμπτώματά τους στο διαδίκτυο. Ρωτούν ένα chatbot. Περιγράφουν πόνο, ζάλη, θολή όραση, εξετάσεις, φόβους...
ΠερισσότεραΦωτιά σε ασθενοφόρο του ΕΚΑΒ Βόλου
Ένα σοβαρό περιστατικό σημειώθηκε στην Εθνική Οδό, όταν ασθενοφόρο του ΕΚΑΒ Βόλου που μετέφερε 12χρονο παιδί προς νοσοκομείο της Αθήνας πήρε φωτιά εν...
ΠερισσότεραΠιστεύετε ότι έχετε υποστεί ιατρικό λάθος εσείς ή κάποιο αγαπημένο σας προσώπο;
Μη διστάσετε να ζητήσετε τη συμβουλή μας για οποιαδήποτε απορία σας.
Συμπληρώστε τα στοιχεία σας για να επικοινωνήσουμε μαζί σας