Εργαλεία Τεχνητής Νοημοσύνης - Πότε πρέπει να βασιζόμαστε σε αυτά και πότε όχι;

Εργαλεία Τεχνητής Νοημοσύνης - Πότε πρέπει να βασιζόμαστε σε αυτά και πότε όχι;

Τα chatbots και οι γεννήτριες εικόνων, όπως τα ChatGPT, Deep AI, DALL-E και Claude, είναι σίγουρα για πολλούς χρήσιμα εργαλεία που τους βοηθούν να διεκπεραιώσουν κάθε είδους εργασία, χωρίς όμως αυτό να σημαίνει ότι είναι παντού αποτελεσματικά

chatbots-mk
Από τότε που αυτό που είναι γνωστό ως τεχνητή νοημοσύνη (ΤΝ) έγινε ευρέως γνωστό με διαδικτυακές γεννήτριες κειμένου, εικόνας και πλέον βίντεο, οι άνθρωποι έχουν αναστατωθεί και χάνουν την ψυχραιμία τους όταν τα μοντέλα δίνουν προσβλητικές, λανθασμένες ή εντελώς ανισόρροπες απαντήσεις. Αν τα chatbots υποτίθεται ότι θα φέρουν επανάσταση στη ζωή μας γράφοντας emails, απλοποιώντας τα αποτελέσματα αναζήτησης και κρατώντας μας συντροφιά, γιατί αποφεύγουν ορισμένες ερωτήσεις, εκτοξεύουν απειλές και μας ενθαρρύνουν να μην βασιζόμαστε εξ ολοκλήρου σε αυτά;

Δυνατά σημεία και περιορισμοί
Τα chatbots και οι γεννήτριες εικόνων αντιπροσωπεύουν μόνο δύο όψεις των εφαρμογών ΤΝ, η καθεμία με τα δικά της δυνατά σημεία και περιορισμούς. Ενώ υπερέχουν σε ορισμένες εργασίες, όπως η απλοποίηση της επικοινωνίας ή η παραγωγή οπτικού υλικού για δημιουργικά έργα, τελικά μπορεί να υπολείπονται σε άλλες, ιδίως μάλιστα όταν πρόκειται για την εξεύρεση στοιχείων.
chatgpt

Τα chatbots, για παράδειγμα, είναι προγραμματισμένα να ανταποκρίνονται σε προκαθορισμένες προτροπές και ερωτήσεις με βάση αλγορίθμους και σύνολα δεδομένων στα οποία πάνω έχουν εκπαιδευτεί. Υπερέχουν στη διαχείριση απλών ερωτημάτων και στην παροχή γρήγορης βοήθειας. Στην εξυπηρέτηση πελατών για παράδειγμα, μπορούν να αντιμετωπίσουν αποτελεσματικά κοινά ερωτήματα, αποδεσμεύοντας τον άνθρωπο να επικεντρωθεί σε πιο σύνθετα ζητήματα. Ωστόσο, αυτά τα μοντέλα, όταν έρχονται αντιμέτωπα με διαφοροποιημένα ερωτήματα ή καταστάσεις που απαιτούν ενσυναίσθηση και κατανόηση, μπορεί να δυσκολεύονται να δώσουν ικανοποιητικές απαντήσεις. Σε τέτοιες περιπτώσεις η ανθρώπινη παρέμβαση καθίσταται απαραίτητη, κυρίως για να εξασφαλιστεί η εξατομικευμένη υποστήριξη.
Artificial Intelligence: Deepfakes. Disinformation. Dangers | WION Wideangle

Ομοίως, οι γεννήτριες εικόνων αξιοποιούν αλγορίθμους ΤΝ για την παραγωγή εικόνων με βάση δεδομένα εισόδου ή επιθυμητά στυλ και αισθητικές. Μπορούν να αποτελέσουν ανεκτίμητα εργαλεία για καλλιτέχνες, σχεδιαστές και δημιουργούς περιεχομένου που αναζητούν έμπνευση ή δημιουργούν εικόνες μεγάλης κλίμακας. Τα εργαλεία αυτά μάλιστα αξιοποιούν εξελιγμένες τεχνικές, όπως η νευρωνική μεταφορά στυλ ή τα γενεσιουργά αντιθετικά δίκτυα, για τη δημιουργία εντυπωσιακών αποτελεσμάτων. Ωστόσο, ενώ μπορούν να παράγουν οπτικά εντυπωσιακά αποτελέσματα, μπορεί τελικά να στερούνται το πλαίσιο και το συναισθηματικό βάθος που φέρνουν οι ανθρώπινοι δημιουργοί στο έργο τους. Επιπλέον, η εξάρτηση αποκλειστικά από εικόνες που δημιουργούνται από τεχνητή νοημοσύνη, χωρίς τον κατάλληλο έλεγχο, μπορεί να οδηγήσει στη διάδοση παραπλανητικών ή ψευδών πληροφοριών, ιδίως στην εποχή των deepfakes και των παραποιημένων μέσων ενημέρωσης.
Κλείσιμο

Για έμπνευση, όχι για εξακρίβωση της αλήθειας
Κάτι για το οποίο σίγουρα δεν θα πρέπει να χρησιμοποιούνται όμως, είναι η εξακρίβωση των στοιχείων και η αναζήτηση της αλήθειας. “Ποτέ μην εμπιστεύεστε το μοντέλο ότι θα σας δώσει μια σωστή απάντηση”, δήλωσε στην Washinghton Post ο Rowan Curran, αναλυτής μηχανικής μάθησης στην εταιρεία έρευνας αγοράς Forrester. Αυτά τα ρομπότ, όπως το ChatGPT, έμαθαν να αναδημιουργούν ουσιαστικά την ανθρώπινη γλώσσα, συλλέγοντας μαζικά δεδομένα από το διαδίκτυο. Και τι συμβαίνει στο διαδίκτυο; Παραπληροφόρηση.
Chatgpt_douleies_

Αν και στην εποχή της υπερφόρτωσής μας με πληροφορίες, ο πειρασμός να αναθέσουμε τον έλεγχο των γεγονότων και τα ερευνητικά καθήκοντα σε εργαλεία τεχνητής νοημοσύνης, φαίνεται ιδιαίτερα ελκυστικός, η τυφλή εμπιστοσύνη στην ΤΝ για τέτοιους σκοπούς μπορεί να οδηγήσει σε σφάλματα, προκαταλήψεις και παραπληροφόρηση. Όταν λοιπόν πρόκειται για τη διερεύνηση γεγονότων, τα εργαλεία ΤΝ πρέπει να προσεγγίζονται με προσοχή, γιατί ενώ μπορούν να κοσκινίζουν τεράστιες ποσότητες δεδομένων και να εντοπίζουν μοτίβα με αξιοσημείωτη ταχύτητα, τα συμπεράσματά τους είναι τόσο αξιόπιστα όσο τα δεδομένα στα οποία εκπαιδεύονται και οι αλγόριθμοι που καθοδηγούν την ανάλυσή τους. Έτσι σε τομείς όπως η δημοσιογραφία, η έρευνα ή η λήψη αποφάσεων στην υγειονομική περίθαλψη ή την χρηματοδότηση - εκεί δηλαδή όπου η ακρίβεια είναι υψίστης σημασίας - η ανθρώπινη εποπτεία και η κριτική σκέψη παραμένουν απαραίτητες.

Ειδικά τώρα που η γενεσιουργός ΤΝ κερδίζει έδαφος και οι άνθρωποι έχουν προβλέψει την άνοδο μιας νέας κατηγορίας επαγγελματιών που ονομάζονται "μηχανικοί άμεσης πληροφόρησης" - άνθρωποι σε διαδικασία κατά την οποία καθοδηγούν τις λύσεις γενετικής τεχνητής νοημοσύνης (generative AI) ώστε να παράγουν τα επιθυμητά αποτελέσματα -, υποθέτοντας μάλιστα ότι θα αντικαταστήσουν τους επιστήμονες δεδομένων ή τους παραδοσιακούς προγραμματιστές.

Εναλλακτικά λοιπόν, ο γρηγορότερος τρόπος για να ελέγξετε την παραγωγή ενός bot είναι να αναζητήσετε στο Google την ίδια ερώτηση και να συμβουλευτείτε μια αξιόπιστη πηγή - κάτι που θα μπορούσατε βέβαια να είχατε κάνει εξαρχής. Μείνετε λοιπόν σε αυτό που το μοντέλο κάνει καλύτερα: Να παράγει ιδέες.
Ακολουθήστε το protothema.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις

Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, τη στιγμή που συμβαίνουν, στο Protothema.gr

ΡΟΗ ΕΙΔΗΣΕΩΝ

Ειδήσεις Δημοφιλή Σχολιασμένα
ΔΕΙΤΕ ΟΛΕΣ ΤΙΣ ΕΙΔΗΣΕΙΣ

BEST OF NETWORK

Δείτε Επίσης