Ζήστε τη μαγεία των Χριστουγέννων στο νέο Flagship Store της Toys-Shop στην Αριστοτέλους
Οφθαλμός αντί οφθαλμού
Οφθαλμός αντί οφθαλμού
Από τον Νίκολας Κέιτζ και τον Μπαράκ Ομπάμα στο «Βασιλιά των λιονταριών»: γιατί όλοι μιλάνε για τα deepfakes?
Ο νέος «Βασιλιάς των λιονταριών» του Τζον Φαβρό, που κυκλοφορεί από σήμερα Πέμπτη στις αίθουσες, έχει χαρακτηριστεί από κάποιους ως «οπτικά εκθαμβωτικός». Από κάποιους άλλους όμως, όχι. Το Indiewire τον περιγράφει ως το «λιγότερο πειστικό deepfake του κόσμου» και η Guardian γράφει ότι «αυτό το μιμητικό deepfake δεν είναι και τόσο τρρρρομερό».
Τι είναι όμως το deepfake?
Θα τρίβεις τα μάτια σου
Το deepfake προκύπτει από το συνδυασμό των «deep learning» και «fake». Στα ελληνικά θα μπορούσε κανείς να το μεταφράσει ως «βαθιά ψεύτικο» και να έχει πέσει μέσα, κυριολεκτικά και μεταφορικά. Θα κρατήσω όμως τον αγγλικό όρο για ευκολία. Xρησιμοποιήθηκε πρώτη φορά το 2017 όταν ένας χρήστης του Reddit αξιοποίησε την τεχνολογία του deep learning για να μοντάρει πρόσωπα διασημοτήτων σε πορνογραφικά κλιπ.
Αλλά έγινε ευρέως γνωστό το 2018 με πιο mainstream βίντεο όπως αυτό στο οποίο ο Τζόρνταν Πιλ μιλούσε ως Μπαράκ Ομπάμα, και φυσικά αυτό, γιατί δε θα μπορούσε να λείπει από το οτιδήποτε ο Νίκολας Κέιτζ. Πιο πρόσφατο και ωραίο είναι αυτό, με τον Τζιμ Κάρεϊ να αντικαθιστά τον Τζακ Νίκολσον στη «Λάμψη».
Πρόκειται για μια τεχνική που συνθέτει ανθρώπινα πρόσωπα με τη βοήθεια της εικονικής πραγματικότητας, για ψεύτικα βίντεο ή ηχογραφήσεις δηλαδή που μοιάζουν και ακούγονται σαν αληθινά.
Η διαδικασία συμπεριλαμβάνει τη συνεργασία δυο υπολογιστών – ο ένας δημιουργεί (generator) και ο άλλος διακρίνει (discriminator). Ο πρώτος (ας τον πούμε δημιουργό) φτιάχνει ένα ψεύτικο βίντεο και μετά ρωτά τον δεύτερο (ας τον πούμε κριτή) να καταλάβει αν το απόσπασμα είναι πραγματικό ή ψεύτικο. Κάθε φορά που ο κριτής βρίσκει ότι το βίντεο είναι ψεύτικο, δίνει στον δημιουργό ένα στοιχείο για το τι πρέπει να διορθώσει.
Όσο πιο πολύ εξελίσσεται η ικανότητα του δημιουργού να κατασκευάζει ψεύτικα βίντεο, τόσο πιο καλός γίνεται ο κριτής στο να τα ανιχνεύει. Και φυσικά ισχύει και το αντίστροφο. Οι δυο υπολογιστές μαζί αποτελούν το Generative Adversarial Network / Αναπαρωγικό Ανταγωνιστικό Δίκτυο (GAN).
Αυτοί εδώ οι τύποι έκαναν ένα deepfake με τον Τομ Κρουζ και στο κλιπ εξηγούν βήμα-βήμα τη διαδικασία:
Κάλλιο να σου βγει το μάτι, παρά τ’ όνομα
Προφανώς και δε μιλάμε για καινούργια πρακτική, βλέπε δεκαετίες προπαγάνδας και χολιγουντιανών εφέ. Από τις κατασκευασμένες ειδήσεις στην αρχή του 20ου αιώνα μέχρι τα σημερινά fake news και από τον «Φόρεστ Γκαμπ» και τον Πολ Γουόκερ στο «Fast & Furious 7» τα παραδείγματα είναι άπειρα.
Το deepfake διαφέρει χάρη στην αναπτυγμένη τεχνολογία που το καθιστά δυνατό. Από εκεί που κάποτε έπρεπε να ιδρώσεις πάνω από τον υπολογιστή προσαρμόζοντας πίξελ πίξελ τα καρέ σου, τώρα εκπαιδεύεις τον υπολογιστή να κάνει τη βαριά λάντζα.
Τι είναι όμως το deepfake?
Θα τρίβεις τα μάτια σου
Το deepfake προκύπτει από το συνδυασμό των «deep learning» και «fake». Στα ελληνικά θα μπορούσε κανείς να το μεταφράσει ως «βαθιά ψεύτικο» και να έχει πέσει μέσα, κυριολεκτικά και μεταφορικά. Θα κρατήσω όμως τον αγγλικό όρο για ευκολία. Xρησιμοποιήθηκε πρώτη φορά το 2017 όταν ένας χρήστης του Reddit αξιοποίησε την τεχνολογία του deep learning για να μοντάρει πρόσωπα διασημοτήτων σε πορνογραφικά κλιπ.
Αλλά έγινε ευρέως γνωστό το 2018 με πιο mainstream βίντεο όπως αυτό στο οποίο ο Τζόρνταν Πιλ μιλούσε ως Μπαράκ Ομπάμα, και φυσικά αυτό, γιατί δε θα μπορούσε να λείπει από το οτιδήποτε ο Νίκολας Κέιτζ. Πιο πρόσφατο και ωραίο είναι αυτό, με τον Τζιμ Κάρεϊ να αντικαθιστά τον Τζακ Νίκολσον στη «Λάμψη».
Πρόκειται για μια τεχνική που συνθέτει ανθρώπινα πρόσωπα με τη βοήθεια της εικονικής πραγματικότητας, για ψεύτικα βίντεο ή ηχογραφήσεις δηλαδή που μοιάζουν και ακούγονται σαν αληθινά.
Η διαδικασία συμπεριλαμβάνει τη συνεργασία δυο υπολογιστών – ο ένας δημιουργεί (generator) και ο άλλος διακρίνει (discriminator). Ο πρώτος (ας τον πούμε δημιουργό) φτιάχνει ένα ψεύτικο βίντεο και μετά ρωτά τον δεύτερο (ας τον πούμε κριτή) να καταλάβει αν το απόσπασμα είναι πραγματικό ή ψεύτικο. Κάθε φορά που ο κριτής βρίσκει ότι το βίντεο είναι ψεύτικο, δίνει στον δημιουργό ένα στοιχείο για το τι πρέπει να διορθώσει.
Όσο πιο πολύ εξελίσσεται η ικανότητα του δημιουργού να κατασκευάζει ψεύτικα βίντεο, τόσο πιο καλός γίνεται ο κριτής στο να τα ανιχνεύει. Και φυσικά ισχύει και το αντίστροφο. Οι δυο υπολογιστές μαζί αποτελούν το Generative Adversarial Network / Αναπαρωγικό Ανταγωνιστικό Δίκτυο (GAN).
Αυτοί εδώ οι τύποι έκαναν ένα deepfake με τον Τομ Κρουζ και στο κλιπ εξηγούν βήμα-βήμα τη διαδικασία:
Κάλλιο να σου βγει το μάτι, παρά τ’ όνομα
Προφανώς και δε μιλάμε για καινούργια πρακτική, βλέπε δεκαετίες προπαγάνδας και χολιγουντιανών εφέ. Από τις κατασκευασμένες ειδήσεις στην αρχή του 20ου αιώνα μέχρι τα σημερινά fake news και από τον «Φόρεστ Γκαμπ» και τον Πολ Γουόκερ στο «Fast & Furious 7» τα παραδείγματα είναι άπειρα.
Το deepfake διαφέρει χάρη στην αναπτυγμένη τεχνολογία που το καθιστά δυνατό. Από εκεί που κάποτε έπρεπε να ιδρώσεις πάνω από τον υπολογιστή προσαρμόζοντας πίξελ πίξελ τα καρέ σου, τώρα εκπαιδεύεις τον υπολογιστή να κάνει τη βαριά λάντζα.
Το τρομερό είναι πως όσο πιο εξελιγμένη η τεχνολογία του deepfake, τόσο πιο προσιτή γίνεται στο μέσο χρήστη. Δε χρειάζεται ούτε ιδαίτερες ικανότητες για να φτιάξεις ένα deepfake (γιατί παίρνει το ΑΙ τα ηνία και κάνει τη δουλειά), αλλά ούτε και πολλά χρήματα. Με ένα λάπτοπ, ένα κατάλληλο πρόγραμμα (π.χ. το DeepFaceLab), μια καλή κάρτα γραφικών και μπόλικο VideoRAM (ε, και αρκετό χρόνο), τα πάντα είναι πιθανά. Γι’ αυτό και ως τώρα έχει χρησιμοποιηθεί κυρίως από ερασιτέχνες.
Να σημειώσουμε βέβαια εδώ πως τα GAN δεν αξιοποιούνται μόνο για το σκοπό ψεύτικων πορνοβίντεο. Το «μαγικό», όπως τόσα πολλά με το ΑΙ, είναι πως οι υπολογιστές μπορούν να μαθαίνουν ο ένας από τον άλλον, κάτι που εξυπηρετεί καταπληκτικά σε περιπτώσεις αυτο-οδηγούμενων αμαξιών ή σε ψηφιακούς βοηθούς όπως η Siri και η Alexa.
«Ποιόν θα πιστέψεις, εμένα ή τα ίδια σου τα μάτια;» - «Duck Soup»
Το deepfake έχει τρομερές δυνατότητες επιρροής. Πόσες φορές δεν έχει καταστραφεί μια σχέση ή επηρεαστεί το αποτέλεσμα εκλογών από μια φήμη, ακόμα κι αν δεν ήταν αληθινή; Ένας σπόρος αμφιβολίας χρειάζεται (το λεγόμενο FUD - Fear, Uncertainty, Doubt / Φόβος, αβεβαιότητα, αμφιβολία). Εξ ου και η δύναμη των fake news.
Πολλοί έχουν αρχίσει ήδη να φοβούνται, όπως ο Ρεπουμπλικάνος γερουσιαστής Μάρκο Ρούμπιο, ο οποίος έχει παρομοιάσει τα deepfakes με πυρηνικά όπλα! Ο Ρούμπιο έχει μεγάλη φαντασία (και ανησυχία, για να το πούμε ευγενικά). Ο Τιμ Χουάνγκ, Διευθυντής Ηθικής και Διοίκησης της Πρωτοβουλίας AI στο Κέντρο Berkman-Klein και το Media Lab του ΜΙΤ, ακούγεται πιο ψύχραιμος και δεν τα βάζει στο ίδιο τσουβάλι με τις πυρηνικές βόμβες. «Σίγουρα όσα έχουμε δει είναι ανησυχητικά», λέει στο CSO. «Προκύπτουν πολλά ερωτήματα, σαφώς, αλλά είμαι επιφυλακτικός για το αν θα αλλάξουν το παιχνίδι με τον τρόπο που υπαινίσσεται πολύς κόσμος».
Δε χρειαζόμασταν τα deepfakes για να πληροφορηθούμε την... παραπληροφόρηση: δε χρειάζεται καν ΑΙ για να διαστρεβλώσεις την πρόσληψη/ανάγνωση γεγονότων προς όποια πλευρά θες. Γινόταν και θα γίνεται με πολύ λιγότερα κι ευκολότερα μέσα.
Κάποιοι λένε ότι αν φτάσουμε στο σημείο να μην μπορούμε να αναγνωρίζουμε τα deepfakes, τότε δε θα εμπιστευόμαστε απολύτως τίποτα, που κακά τα ψέματα, κάπως έτσι είναι και τώρα. Ποια αλήθεια και ποια κοινή «αντικειμενική» πραγματικότητα;
Άλλοι υποστηρίζουν πως το κακό θα γίνει σε μικρότερη κλίμακα. Όχι στο πεδίο της πολιτικής δηλαδή, όπου η αλήθεια και το ψέμα περνάνε και δεν αγγίζουν, αλλά κυρίως σε περιπτώσεις πιο προσωπικές, τύπου «εκδικούμαι μια πρώην βάζοντας το πρόσωπό της σε όποια συνθήκη θέλω». Θα ενισχυθεί δηλαδή πιο πολύ το bullying και η παρενόχληση, παρά η «αλήθεια».
Επιπλέον, παρά τις αδιάσειστες αποδείξεις, υπάρχουν ακόμα άνθρωποι που πιστεύουν πως η Γη είναι επίπεδη, ότι το Ολοκαύτωμα και η 11η Σεπτεμβρίου δε συνέβησαν ποτέ. Τα deepfakes προσφέρουν έδαφος σε τέτοιου είδους «θεωρίες» για να ανθίσουν. Παρότι μεγάλα ιστορικά γεγονότα δεν μπορούν (ακόμα) να «πειραχτούν» πειστικά, ο προβληματισμός αφορά το πως ακόμα και ένα μικρό deepfake μπορεί να σπείρει την αμφιβολία.
Και – κυριότερα – τα deepfakes εγκυμονούν κινδύνους. Όπως στην Ινδία, όπου εθνικιστές κυκλοφόρησαν deepfake πορνοβίντεο με το πρόσωπο της δημοσιογράφου Ράνα Αγιούμπ, κάτι που οδήγησε σε κύματα παρενόχλησης και απειλών.
«Δεν είναι τι κοιτάς που έχει σημασία. Είναι τι βλέπεις». – Χένρι Ντέιβιντ Θορώ
Η τεχνολογία των deepfakes δεν είναι επαρκώς αναπτυγμένη, κι ακόμα και στις περιπτώσεις που το ανθρώπινο μάτι ενδεχομένως να μην αντιλαμβάνεται τις διαφορές, ένας υπολογιστής μπορεί. Όπως γράφει το CNN.com, διαφαίνεται πως θα αναπτυχθεί σταδιακά η ψηφιακή εγκληματολογία συνδυάζοντας ΑΙ, αλγορίθμους και blockchain εναντίον των deepfakes. Το ΑΙ θα εντοπίζει τα ίχνη (αποτυπώματα) των deepfakes και το blockchain θα προειδοποιεί για αρχεία (ή ανθρώπους) που έχουν συσχετιστεί με deepfake συστήματα.
Ερευνητές του ΑΙ θεωρούν πως τα παραπάνω θα είναι κάποτε μάταια. Όσο εξελίσσονται τα λογισμικά, τόσο πιο καλά θα γίνονται τα deepfakes, και τόσο λιγότερο αποτελεσματικές οι μέθοδοι εντοπισμού τους.
Αλλά όλο μάταιο δεν ακούγεται; Ψάχνουμε τις πληροφορίες που θα επιβεβαιώσουν όσα πιστεύουμε και αγνοούμε όλες τις υπόλοιπες. Όπως λέει και η ινδική παροιμία, τα μάτια δεν βλέπουν αυτό που το μυαλό δεν θέλει. Οι άνθρωποι θα συνεχίσουν να βλέπουν μόνο όσα θέλουν, με ή χωρίς deepfakes.
Να σημειώσουμε βέβαια εδώ πως τα GAN δεν αξιοποιούνται μόνο για το σκοπό ψεύτικων πορνοβίντεο. Το «μαγικό», όπως τόσα πολλά με το ΑΙ, είναι πως οι υπολογιστές μπορούν να μαθαίνουν ο ένας από τον άλλον, κάτι που εξυπηρετεί καταπληκτικά σε περιπτώσεις αυτο-οδηγούμενων αμαξιών ή σε ψηφιακούς βοηθούς όπως η Siri και η Alexa.
«Ποιόν θα πιστέψεις, εμένα ή τα ίδια σου τα μάτια;» - «Duck Soup»
Το deepfake έχει τρομερές δυνατότητες επιρροής. Πόσες φορές δεν έχει καταστραφεί μια σχέση ή επηρεαστεί το αποτέλεσμα εκλογών από μια φήμη, ακόμα κι αν δεν ήταν αληθινή; Ένας σπόρος αμφιβολίας χρειάζεται (το λεγόμενο FUD - Fear, Uncertainty, Doubt / Φόβος, αβεβαιότητα, αμφιβολία). Εξ ου και η δύναμη των fake news.
Πολλοί έχουν αρχίσει ήδη να φοβούνται, όπως ο Ρεπουμπλικάνος γερουσιαστής Μάρκο Ρούμπιο, ο οποίος έχει παρομοιάσει τα deepfakes με πυρηνικά όπλα! Ο Ρούμπιο έχει μεγάλη φαντασία (και ανησυχία, για να το πούμε ευγενικά). Ο Τιμ Χουάνγκ, Διευθυντής Ηθικής και Διοίκησης της Πρωτοβουλίας AI στο Κέντρο Berkman-Klein και το Media Lab του ΜΙΤ, ακούγεται πιο ψύχραιμος και δεν τα βάζει στο ίδιο τσουβάλι με τις πυρηνικές βόμβες. «Σίγουρα όσα έχουμε δει είναι ανησυχητικά», λέει στο CSO. «Προκύπτουν πολλά ερωτήματα, σαφώς, αλλά είμαι επιφυλακτικός για το αν θα αλλάξουν το παιχνίδι με τον τρόπο που υπαινίσσεται πολύς κόσμος».
Δε χρειαζόμασταν τα deepfakes για να πληροφορηθούμε την... παραπληροφόρηση: δε χρειάζεται καν ΑΙ για να διαστρεβλώσεις την πρόσληψη/ανάγνωση γεγονότων προς όποια πλευρά θες. Γινόταν και θα γίνεται με πολύ λιγότερα κι ευκολότερα μέσα.
Κάποιοι λένε ότι αν φτάσουμε στο σημείο να μην μπορούμε να αναγνωρίζουμε τα deepfakes, τότε δε θα εμπιστευόμαστε απολύτως τίποτα, που κακά τα ψέματα, κάπως έτσι είναι και τώρα. Ποια αλήθεια και ποια κοινή «αντικειμενική» πραγματικότητα;
Άλλοι υποστηρίζουν πως το κακό θα γίνει σε μικρότερη κλίμακα. Όχι στο πεδίο της πολιτικής δηλαδή, όπου η αλήθεια και το ψέμα περνάνε και δεν αγγίζουν, αλλά κυρίως σε περιπτώσεις πιο προσωπικές, τύπου «εκδικούμαι μια πρώην βάζοντας το πρόσωπό της σε όποια συνθήκη θέλω». Θα ενισχυθεί δηλαδή πιο πολύ το bullying και η παρενόχληση, παρά η «αλήθεια».
Επιπλέον, παρά τις αδιάσειστες αποδείξεις, υπάρχουν ακόμα άνθρωποι που πιστεύουν πως η Γη είναι επίπεδη, ότι το Ολοκαύτωμα και η 11η Σεπτεμβρίου δε συνέβησαν ποτέ. Τα deepfakes προσφέρουν έδαφος σε τέτοιου είδους «θεωρίες» για να ανθίσουν. Παρότι μεγάλα ιστορικά γεγονότα δεν μπορούν (ακόμα) να «πειραχτούν» πειστικά, ο προβληματισμός αφορά το πως ακόμα και ένα μικρό deepfake μπορεί να σπείρει την αμφιβολία.
Και – κυριότερα – τα deepfakes εγκυμονούν κινδύνους. Όπως στην Ινδία, όπου εθνικιστές κυκλοφόρησαν deepfake πορνοβίντεο με το πρόσωπο της δημοσιογράφου Ράνα Αγιούμπ, κάτι που οδήγησε σε κύματα παρενόχλησης και απειλών.
«Δεν είναι τι κοιτάς που έχει σημασία. Είναι τι βλέπεις». – Χένρι Ντέιβιντ Θορώ
Η τεχνολογία των deepfakes δεν είναι επαρκώς αναπτυγμένη, κι ακόμα και στις περιπτώσεις που το ανθρώπινο μάτι ενδεχομένως να μην αντιλαμβάνεται τις διαφορές, ένας υπολογιστής μπορεί. Όπως γράφει το CNN.com, διαφαίνεται πως θα αναπτυχθεί σταδιακά η ψηφιακή εγκληματολογία συνδυάζοντας ΑΙ, αλγορίθμους και blockchain εναντίον των deepfakes. Το ΑΙ θα εντοπίζει τα ίχνη (αποτυπώματα) των deepfakes και το blockchain θα προειδοποιεί για αρχεία (ή ανθρώπους) που έχουν συσχετιστεί με deepfake συστήματα.
Ερευνητές του ΑΙ θεωρούν πως τα παραπάνω θα είναι κάποτε μάταια. Όσο εξελίσσονται τα λογισμικά, τόσο πιο καλά θα γίνονται τα deepfakes, και τόσο λιγότερο αποτελεσματικές οι μέθοδοι εντοπισμού τους.
Αλλά όλο μάταιο δεν ακούγεται; Ψάχνουμε τις πληροφορίες που θα επιβεβαιώσουν όσα πιστεύουμε και αγνοούμε όλες τις υπόλοιπες. Όπως λέει και η ινδική παροιμία, τα μάτια δεν βλέπουν αυτό που το μυαλό δεν θέλει. Οι άνθρωποι θα συνεχίσουν να βλέπουν μόνο όσα θέλουν, με ή χωρίς deepfakes.
Ακολουθήστε το protothema.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, τη στιγμή που συμβαίνουν, στο Protothema.gr
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, τη στιγμή που συμβαίνουν, στο Protothema.gr
ΡΟΗ ΕΙΔΗΣΕΩΝ
Ειδήσεις
Δημοφιλή
Σχολιασμένα