Η Τεχνητή Νοημοσύνη έχει εισβάλει σε κάθε γωνιά της καθημερινότητάς μας — και η υγεία δεν αποτελεί εξαίρεση. Όλο και περισσότεροι άνθρωποι ρωτούν το ChatGPT για τα συμπτώματά τους, παρακάμπτοντας τον γιατρό τους. Αλλά τι λέει η επιστήμη γι’ αυτό;
Μια εκτεταμένη επιστημονική μελέτη κατέγραψε ότι το 50% των ιατρικών συμβουλών που δίνουν AI chatbots είναι προβληματικές — από ελαφρώς παραπλανητικές έως εξαιρετικά επικίνδυνες. Πρόκειται για δεδομένα που οφείλει να γνωρίζει ο καθένας που χρησιμοποιεί AI ως υποκατάστατο ιατρικής γνώμης.
Η Έρευνα: 250 Ερωτήσεις, 5 Chatbots, Ανησυχητικά Αποτελέσματα
Οι ερευνητές υπέβαλαν 250 εξειδικευμένες ιατρικές ερωτήσεις σε πέντε από τα πιο δημοφιλή AI μοντέλα και αξιολόγησαν κάθε απάντηση με βάση την ιατρική ορθότητα και την ασφάλεια για τον ασθενή.
Τα ευρήματα ήταν αποκαλυπτικά:
- Το 20% των απαντήσεων χαρακτηρίστηκε «άκρως προβληματικό» — με άμεσο κίνδυνο για την υγεία
- Ένα επιπλέον 30% ήταν «προβληματικό» και άλλο 30% «ελαφρώς προβληματικό»
- Από 250 ερωτήσεις, τα chatbots αρνήθηκαν να απαντήσουν μόνο σε 2 περιπτώσεις — σήμα κινδύνου για την απουσία προστατευτικών φίλτρων
Αξίζει να σημειωθεί ότι τα ανοιχτού τύπου ερωτήματα (π.χ. «Ποιες εναλλακτικές θεραπείες υπάρχουν για τον καρκίνο;») ήταν εκείνα με τα χειρότερα αποτελέσματα: το 32% των απαντήσεων κρίθηκε εξαιρετικά επικίνδυνο, έναντι μόλις 7% στις κλειστές ερωτήσεις Ναι/Όχι.
Ποιο AI “Αποτυγχάνει” Περισσότερο στην Ιατρική;
Δεν αποδίδουν εξίσου άσχημα όλα τα μοντέλα — αλλά κανένα δεν ξεχωρίζει θετικά. Οι επιδόσεις των μεγάλων players:
- Grok (xAI / X): 58% λανθασμένες ή επικίνδυνες απαντήσεις — χειρότερη επίδοση
- ChatGPT (OpenAI): 52% προβληματικές απαντήσεις
- Meta AI: 50% — στο μέσο όρο της κατηγορίας
Η επίδοση βελτιώνεται αισθητά σε τομείς με αυστηρά δομημένη επιστημονική βάση δεδομένων, όπως τα εμβόλια και η ογκολογία (λάθος μέχρι 25%). Αντίθετα, σε χώρους όπως η διατροφολογία, τα συμπληρώματα διατροφής και η αθλητική απόδοση — όπου το διαδίκτυο γέμει αντικρουόμενες απόψεις και ψευδοεπιστήμη — η ακρίβεια των AI καταρρέει.
Ακαδημαϊκή Πειστικότητα Χωρίς Βάση: Το Πρόβλημα των Hallucinations
Ένας από τους πιο ύπουλους κινδύνους δεν είναι η προφανής παραπληροφόρηση, αλλά η επιστημονική ψευδαίσθηση αξιοπιστίας. Όταν οι ερευνητές ζήτησαν από τα chatbots να παραθέσουν 10 επιστημονικές πηγές, η μέση πληρότητα ήταν μόλις 40%.
Σε 25 διαφορετικές δοκιμές, κανένα chatbot δεν κατάφερε να δημιουργήσει έστω και μία 100% ακριβή λίστα παραπομπών. Τα μοντέλα εμφάνισαν φαινόμενα AI hallucination:
- Απέδωσαν πραγματικές έρευνες σε λάθος συγγραφείς
- Παρουσίασαν σπασμένα και ανύπαρκτα links
- Επινόησαν εντελώς φανταστικές επιστημονικές δημοσιεύσεις με πειστικούς τίτλους και ψεύτικους αριθμούς DOI
Ο μέσος χρήστης δεν μπορεί να το ξεχωρίσει. Το κείμενο φαντάζει έγκυρο, τεκμηριωμένο, επιστημονικό — και μπορεί να οδηγήσει σε αποφάσεις με σοβαρές συνέπειες για την υγεία.
Το φαινόμενο αυτό δεν αφορά αποκλειστικά την ιατρική. Όπως εξηγούμε και στο άρθρο μας για το Εφέ Placebo και την τεχνολογία υγείας, η σχέση ανθρώπου και ψηφιακών συστημάτων στην υγεία είναι πολύ πιο σύνθετη απ’ ό,τι φαίνεται.
Το Παράδοξο: 95% Δυνατότητα, 35% Πρακτικό Αποτέλεσμα
Ένα από τα πιο εντυπωσιακά — και ανησυχητικά — στατιστικά της μελέτης αφορά το χάσμα ανάμεσα στη θεωρητική δυνατότητα του AI και στο πρακτικό αποτέλεσμα για τον χρήστη.
Στο εσωτερικό τους περιβάλλον, τα μοντέλα διέθεταν τα σωστά δεδομένα στο 95% των περιπτώσεων. Αλλά όταν πραγματικοί άνθρωποι προσπάθησαν να χρησιμοποιήσουν τα chatbots για να επιλύσουν ένα ιατρικό πρόβλημα, το ποσοστό επιτυχίας έπεσε κάτω από το 35%.
Αυτό σημαίνει ότι στατιστικά, η χρήση AI για ιατρική γνώμη είναι σχεδόν ισοδύναμη με το να μην κάνεις καμία έρευνα. Γιατί συμβαίνει αυτό;
- Ο μέσος χρήστης δεν γνωρίζει πώς να διατυπώσει σωστά το prompt του
- Δεν έχει τη γνώση να φιλτράρει τις πολλαπλές μεταβλητές που επιστρέφει το AI
- Δεν μπορεί να εφαρμόσει τη γενική πληροφορία στη δική του ειδική κατάσταση
Πότε το AI Λειτουργεί Πράγματι στην Ιατρική;
Υπάρχει μία σαφής, αποδεδειγμένη περίπτωση όπου η Τεχνητή Νοημοσύνη αποδίδει εντυπωσιακά στον τομέα της υγείας: η ανάλυση δομημένων δεδομένων.
Όταν στα μοντέλα δόθηκαν γενικές περιγραφές συμπτωμάτων (ηλικία, φύλο, πόνος, αδυναμία), η αποτυχία στη σωστή διάγνωση ξεπέρασε το 80%. Η κλινική διάγνωση απαιτεί ολιστική προσέγγιση, φυσική παρουσία και εμπειρία που κανένας αλγόριθμος δεν μπορεί να προσομοιώσει.
Αντίθετα, όταν τροφοδοτήθηκαν με εργαστηριακές εξετάσεις, αιματολογικά αποτελέσματα και ακτινολογικές αναφορές, η ακρίβειά τους εκτινάχθηκε πάνω από το 90%. Εκεί είναι η πραγματική δύναμη του AI στην ιατρική: ως εργαλείο ανάλυσης παραμέτρων στα χέρια εκπαιδευμένων επαγγελματιών, όχι ως αυτόνομος διαγνωστής.
Τι Σημαίνει Αυτό για Εσάς;
Η χρήση AI για γενική ενημέρωση σχετικά με μια πάθηση δεν είναι κατ’ ανάγκη κακή ιδέα. Το πρόβλημα εμφανίζεται όταν αυτή η ενημέρωση μετατρέπεται σε αυτοδιάγνωση ή, χειρότερα, σε αλλαγή αγωγής χωρίς ιατρική γνωμάτευση.
Ένας απλός οδηγός για ασφαλή χρήση AI και υγεία:
- ✅ Χρήσιμο: Ενημέρωση για μια ασθένεια που σας εξήγησε ο γιατρός σας
- ✅ Χρήσιμο: Κατανόηση ιατρικών όρων σε μια εξέταση
- ✅ Χρήσιμο: Ανάλυση εργαστηριακών αποτελεσμάτων (ως συμπλήρωμα, όχι αντικατάσταση)
- ❌ Επικίνδυνο: Αυτοδιάγνωση βάσει συμπτωμάτων
- ❌ Επικίνδυνο: Αλλαγή ή διακοπή φαρμακευτικής αγωγής
- ❌ Επικίνδυνο: Αναζήτηση “εναλλακτικών θεραπειών” χωρίς ιατρική καθοδήγηση
Η τεχνολογία εξελίσσεται με ρυθμούς που μας εκπλήσσουν — όπως είδαμε και στο ρεπορτάζ μας για τα ρομπότ που νίκησαν κορυφαίους μαραθωνοδρόμους. Αλλά η ταχύτητα της ανάπτυξης δεν συνεπάγεται αυτόματα αξιοπιστία σε κρίσιμα πεδία όπως η υγεία.
Τι Κάνουν οι Εταιρείες Τεχνητής Νοημοσύνης;
Ενώ η OpenAI, η Meta και η xAI επενδύουν εκατομμύρια στη βελτίωση της ακρίβειας των μοντέλων τους, η ρυθμιστική πλαισίωση παραμένει αποσπασματική. Η Ευρωπαϊκή Ένωση, μέσω του AI Act, έχει κατατάξει τα ιατρικά AI συστήματα στην υψηλότερη κατηγορία κινδύνου, απαιτώντας αυστηρές διαδικασίες επικύρωσης.
Ωστόσο, τα γενικά chatbots — το ChatGPT που ρωτάτε για τον πονόλαιμό σας — δεν εμπίπτουν αυτόματα σε αυτές τις προδιαγραφές. Κανένα από τα πέντε chatbots που δοκιμάστηκαν δεν ήταν εγκεκριμένο ιατρικό βοήθημα, κι όμως εκατομμύρια χρήστες τα χρησιμοποιούν καθημερινά για ιατρικές αποφάσεις.

