Μια επινοημένη ασθένεια, η λεγόμενη
«bixonimania», κατάφερε να περάσει από ψεύτικες αναρτήσεις και πλαστές ακαδημαϊκές προδημοσιεύσεις στις απαντήσεις δημοφιλών chatbots
τεχνητής νοημοσύνης, τα οποία την παρουσίασαν ως υπαρκτή ιατρική πάθηση.
Όπως αναφέρει σε ανάρτησή της η καθηγήτρια Αιματολογίας της Ιατρικής Σχολής του Πανεπιστημίου Ιωαννίνων, κυρία Ελευθερία Χατζημιχαήλ, το περιστατικό αναδεικνύεται από το Nature και φωτίζει ένα βαθύτερο πρόβλημα: πόσο ευάλωτα είναι τα μεγάλα γλωσσικά μοντέλα στην παραπληροφόρηση, όταν αυτή εμφανίζεται με τον μανδύα της επιστημονικής εγκυρότητας.
Η υπόθεση ξεκίνησε ως πείραμα της ερευνήτριας Almira Osmanovic Thunström από το Πανεπιστήμιο του Γκέτεμποργκ, η οποία θέλησε να διαπιστώσει αν τα συστήματα AI θα «πίστευαν» ένα εντελώς ψεύτικο ιατρικό αφήγημα. Η απάντηση, όπως αποδείχθηκε, ήταν ναι.
Η «bixonimania» δεν υπήρξε ποτέ
Η ψευδής πάθηση δημιουργήθηκε από το μηδέν το 2024. Αρχικά, εμφανίστηκε σε δύο αναρτήσεις στο Medium και στη συνέχεια σε δύο προδημοσιεύσεις που αναρτήθηκαν στο SciProfiles. Οι μελέτες αποδίδονταν σε έναν ανύπαρκτο ερευνητή, τον Lazljiv Izgubljenovic, με φωτογραφία φτιαγμένη από AI, ενώ το υποτιθέμενο πανεπιστήμιό του, η πόλη όπου βρισκόταν, ακόμη και οι χρηματοδότες της έρευνας ήταν επινοημένοι.
Παρά τα εμφανή σημάδια απάτης, τα chatbots άρχισαν γρήγορα να αναπαράγουν τη «bixonimania» σαν να ήταν πραγματική οφθαλμολογική νόσος που σχετίζεται με την έκθεση στο μπλε φως.
Η Thunström εξηγεί ότι στόχος της ήταν να διαπιστώσει αν μπορούσε να «δημιουργήσει μια ιατρική κατάσταση που δεν υπήρχε στη βάση δεδομένων». Όπως λέει, το πείραμα πέτυχε «πάρα πολύ καλά».
Από τις ψεύτικες μελέτες… στις απαντήσεις των chatbots
Μέσα σε λίγες εβδομάδες, μοντέλα όπως το Copilot, το Gemini, το Perplexity και το ChatGPT άρχισαν να παρουσιάζουν τη «bixonimania» ως υπαρκτή νόσο. Σε ορισμένες περιπτώσεις, μάλιστα, έδιναν και «κλινικές» πληροφορίες για τη συχνότητά της ή συμβούλευαν τους χρήστες να επισκεφθούν οφθαλμίατρο.
Ωστόσο, το πιο ανησυχητικό, ενδεχομένως, δεν ήταν μόνο ότι τα εργαλεία αναπαρήγαγαν το κατασκευασμένο περιεχόμενο. Ήταν και το γεγονός ότι η πλαστή ασθένεια άρχισε να εμφανίζεται αργότερα και σε επιστημονικά άρθρα – τα οποία πέρασαν από διαδικασίες αξιολόγησης. Με άλλα λόγια, από ό,τι φαίνεται ορισμένοι ερευνητές ίσως χρησιμοποιούν παραπομπές που παράγει η τεχνητή νοημοσύνη χωρίς να ελέγχουν καν τις αρχικές πηγές.
Όταν η παραπληροφόρηση μοιάζει «επιστημονική»
Σύμφωνα με ειδικούς, η επιτυχία του πειράματος δεν ήταν τυχαία. Ο γιατρός και ερευνητής Mahmud Omar από την Ιατρική Σχολή του Χάρβαρντ επισημαίνει ότι τα μοντέλα AI είναι πιο επιρρεπή σε παραπλανητικά ή ψευδή συμπεράσματα, όταν το περιεχόμενο που επεξεργάζονται είναι γραμμένο σε ύφος που μοιάζει ιατρικό ή ακαδημαϊκό.
«Όταν το κείμενο φαίνεται επαγγελματικό και είναι διατυπωμένο όπως γράφει ένας γιατρός, παρατηρείται αύξηση στα ποσοστά παραληρητικών συμπερασμάτων», σημειώνει.
Οπότε, το πρόβλημα δεν είναι μόνο τα κίβδηλα στοιχεία, αλλά και η μορφή τους. Όταν ένα κατασκευασμένο αφήγημα εμφανίζεται ως «paper», «preprint» ή «κλινικό report», πολλαπλασιάζονται οι πιθανότητες να γίνει πιστευτό τόσο από τις μηχανές όσο και από τους ανθρώπους.
«Φαίνεται αστείο, αλλά έχουμε πρόβλημα»
Ο Alex Ruani, ερευνητής παραπληροφόρησης για την υγεία στο University College London, θεωρεί ότι το πείραμα της ψεύτικης ασθένειας αποτυπώνει κάτι πολύ πιο σοβαρό από μια τεχνική αστοχία.
Όπως τονίζει, αν η ίδια η επιστημονική διαδικασία και τα συστήματα που τη στηρίζουν δεν μπορούν να εντοπίσουν και να φιλτράρουν τέτοιου τύπου περιεχόμενο, τότε το ζήτημα δεν αφορά μόνο την AI, αλλά και τη συνολική αξιοπιστία της παραγωγής γνώσης.
Στο παρόν παράδειγμα, η «bixonimania» δεν έμεινε μόνο στα chatbots. Η επινοημένη ασθένεια αναφέρθηκε σε άρθρο που δημοσιεύθηκε στο Cureus, το οποίο στη συνέχεια ανακλήθηκε. Στην ανακοίνωση γνωστοποιήθηκε ότι το άρθρο περιείχε άσχετες επισημάνσεις, μεταξύ αυτών και παραπομπή σε φανταστική πάθηση, γεγονός που κατέστρεψε την εμπιστοσύνη της συντακτικής ομάδας στην ακρίβεια της εργασίας.
Η μικροβιολόγος και ειδική στην ακαδημαϊκή ακεραιότητα, Elisabeth Bik, προειδοποιεί ότι το φαινόμενο αυτό μπορεί να πάρει μεγαλύτερες διαστάσεις, ακριβώς επειδή η διαδικασία ευρετηρίασης και επεξεργασίας δεδομένων είναι σε μεγάλο βαθμό αυτοματοποιημένη. «Όλα είναι αυτοματοποιημένα, οπότε υπάρχουν ελάχιστες πιθανότητες να παρέμβει κάποιος [άνθρωπος] και να αφαιρέσει τα ψεύτικα στοιχεία».
Ο κίνδυνος δεν είναι (μόνο) θεωρητικός
Οι ειδικοί τονίζουν ότι το πρόβλημα γίνεται ακόμη πιο σοβαρό όταν η τεχνητή νοημοσύνη χρησιμοποιείται για ζητήματα υγείας. Η ενσωμάτωση ανυπόστατων ή παραποιημένων δεδομένων μπορεί να οδηγήσει σε λανθασμένες ιατρικές συμβουλές, παραπλανητική αίσθηση βεβαιότητας και, εν τέλει, σε πραγματική βλάβη.
Ανάλογη ανησυχία εκφράζει και η μοριακή ογκολόγος Jennifer Byrne από το Πανεπιστήμιο του Σίδνεϊ, η οποία μιλά για έναν κίνδυνο «ασυμμετρίας πληροφοριών». Όπως εξηγεί, μια διορθωτική παρέμβαση ή μία ανάκληση δύσκολα μπορεί να ισορροπήσει εκατοντάδες αναληθείς ή παραπλανητικές επαναλήψεις που έχουν ήδη περάσει στο οικοσύστημα των δεδομένων.
Στο ίδιο μήκος κύματος, προκύπτει και ένα άλλο ερώτημα. Μπορεί η AI να «δηλητηριαστεί» σκόπιμα; Πόσο εύκολο είναι για έναν κακόβουλο χρήστη να χειραγωγήσει τα μοντέλα για εμπορικό, ίδιον ή άλλο όφελος;
Η Thunström το παραθέτει ως εξής: «τι θα συνέβαινε αν κάποιος ήθελε να πουλήσει, για παράδειγμα, γυαλιά μπλε φωτός και κατασκεύαζε πρώτα μια υποτιθέμενη νόσο που σχετίζεται με την έκθεση στις οθόνες;». Στη συνέχεια, θα μπορούσε να χρησιμοποιήσει τις απαντήσεις των chatbots ως «τεκμήριο».
Οι εταιρείες απαντούν, αλλά ο σκεπτικισμός παραμένει
Εκπρόσωποι εταιρειών όπως η Google, η Perplexity και η OpenAI δήλωσαν ότι τα παλαιότερα αποτελέσματα δεν αντικατοπτρίζουν τις σημερινές δυνατότητες των μοντέλων τους, ενώ υπογράμμισαν ότι σε ευαίσθητα ζητήματα, όπως η υγεία, οι χρήστες πρέπει να απευθύνονται σε επαγγελματίες.
Παρά τις βελτιώσεις, πάντως, η επιφύλαξη παραμένει. Ο Glenn Cohen από τη Νομική Σχολή του Χάρβαρντ, που ειδικεύεται στη βιοηθική και το ιατρικό δίκαιο, σημειώνει ότι υπάρχουν ακόμη ανοιχτά ερωτήματα για το πόση εμπιστοσύνη αξίζουν τέτοια συστήματα, ειδικά όταν εισέρχονται σε πεδία εφαρμογής με υψηλό διακύβευμα.
Σε αυτό το πλαίσιο, ο Omar υποστηρίζει ότι χρειάζεται ένα μόνιμο, ανοικτό και αυτοματοποιημένο σύστημα αξιολόγησης για όλα τα μοντέλα AI που χρησιμοποιούνται σε θέματα υγείας. Αυτό, όπως λέει, θα πρέπει να ελέγχει όχι μόνο τις «παραισθήσεις» των μοντέλων, αλλά και την ευπάθειά τους στην παραπληροφόρηση, στις κοινωνικές προκαταλήψεις και σε άλλες αδυναμίες.
Συμπέρασμα
Η υπόθεση της «bixonimania» δεν είναι απλώς μια παράξενη ιστορία για μια ψεύτικη ασθένεια που ξεγέλασε μερικά chatbots. Αποτελεί ένα καμπανάκι για το πόσο εύκολα η τεχνητή νοημοσύνη μπορεί να αναπαράγει, να νομιμοποιεί και να διαχέει ανυπόστατα ιατρικά δεδομένα, ιδίως όταν αυτά μοιάζουν «επιστημονικά».
Και όσο η AI ενσωματώνεται όλο και περισσότερο στην καθημερινή αναζήτηση των ανθρώπων για θέματα υγείας, προκύπτει ένα απλό αλλά βασικό ερώτημα «ποιος ελέγχει τι είναι αλήθεια, πριν αυτό παρουσιαστεί ως γνώση;».
Αναλυτικά η ανάρτηση
«Μια ασθένεια που δεν υπάρχει.
Με fake παραπομπές. Fake πανεπιστήμιο. Χρηματοδότηση από το «Ίδρυμα Sideshow Bob για Προχωρημένη Απάτη». Και μια ρητή δήλωση μέσα στο ίδιο το paper: «αυτό είναι επινοημένο – “this is made up.”.»
Η ΤΝ δεν το πήρε χαμπάρι.
Chatbots παγκόσμιας εμβέλειας την παρουσίασαν ως πραγματική πάθηση. Τρεις επιστήμονες, πραγματικοί , την ανέφεραν σε peer-reviewed περιοδικό.
Αυτή είναι η Bixonimania.
Στο πλαίσιο της ομιλίας μου για το BIP Erasmus+ “Medical Humanities in the Age of AI”, μίλησα στους φοιτητές για την Τεχνητή Νοημοσύνη, τις κατευθυντήριες οδηγίες, τους κανονισμούς και τα όρια της μηχανής.
Μπορεί να ξεχάσουν τις κατευθυντήριες οδηγίες ή τους αριθμούς.
Αυτό νομίζω όμως θα το θυμούνται.
Η Bixonomania μας υπενθυμίζει κάτι που κανένα μοντέλο δεν μπορεί να αντικαταστήσει: την κλινική σκέψη. Την κριτική ματιά. Την ανθρώπινη κρίση.
Η ΤΝ είναι εργαλείο. Ισχυρό, χρήσιμο, απαραίτητο αλλά εργαλείο που χρήζει ελέγχου, νομοθετικών πλαισίων και επίβλεψης.
Δείτε την ιστορία στα σχόλια!
🩺 Keep Medicine Human. Use AI Wisely».