Deepfakes: Η τεχνολογία του Υπερψεύδους απειλεί...

Revenge porn, βίντεο με εικόνες και ήχο ψευδή. Πώς ένα υπερσύγχρονο τεχνολογικό εργαλείο μετατρέπεται σε όργανο διαβολής. Ποιες είναι οι επιλογές για τον έλεγχό του.

Deepfakes: Η τεχνολογία του Υπερψεύδους απειλεί...
  • Του καθηγητή Κωνσταντίνου Ζοπουνίδη* και του δρα Άγγελου Κωστή**

Σε άρθρα μας, συχνά αναφερόμαστε σε θετικές πτυχές αναδυόμενων ψηφιακών τεχνολογιών και σε τρόπους με τους οποίους επιχειρήσεις και οργανισμοί μπορούν να τις χρησιμοποιήσουν για να δημιουργήσουν αξία και να καινοτομήσουν.

Στο παρόν άρθρο εστιάζουμε σε μια ιδιαίτερα αρνητική πτυχή μιας αναδυόμενης τεχνολογίας που θα απασχολεί ολοένα και περισσότερο την κοινωνία μας. Λόγω της ταχύτητας και της ευκολίας με τις οποίες μπορεί να δημιουργηθεί και να διαδοθεί οπτικό και ηχητικό περιεχόμενο, όπως επίσης και των εξελιγμένων «Deepfake» τεχνολογιών, η παραγωγή και διάδοση ψευδών πληροφοριών θα αποτελέσει στο εγγύς μέλλον μια βασική πρόκληση για την ανθρωπότητα και την ομαλή ύπαρξη και ανάπτυξη της κοινωνίας μας.

Τι είναι οι «Deepfakes» τεχνολογίες

Οι «Deepfake» τεχνολογίες αναφέρονται σε ένα σύνολο αλγορίθμων και μηχανικής μάθησης που μπορούν να δημιουργούν ή να τροποποιούν ηχητικό και οπτικό περιεχόμενο με τέτοιο τρόπο που να παράγονται αληθοφανείς, αλλά συνάμα συνθετικές, εικόνες και πραγματικότητες.

Η τεχνολογία αυτή έχει τη δυνατότητα να παράγει περιεχόμενο που δύσκολα διακρίνεται από το γνήσιο, προκαλώντας σημαντικές προκλήσεις και ηθικά διλήμματα. Παρά τις δυνατότητες και οφέλη που προσφέρει σε διάφορους τομείς όπως η ψυχαγωγία, η εκπαίδευση και η υγεία, απαιτεί μια προσεκτική και προληπτική προσέγγιση για τη διαχείριση των πιθανών κινδύνων και της εκμετάλλευσής της για αθέμιτες πρακτικές.

Για παράδειγμα, ενώ deepfakes μπορούν να αξιοποιηθούν για δημιουργία προσομοιώσεων για εκπαίδευση και προετοιμασία ενάντια σε φυσικές καταστροφές, να επιτρέψουν ρεαλιστικές ιστορικές αναπαραστάσεις ενισχύοντας τη διαδικασία μάθησης και να βοηθήσουν την επικοινωνία παρέχοντας σε πραγματικό χρόνο ερμηνεία νοηματικής γλώσσας, υπάρχουν εφαρμογές της που ελλοχεύουν σημαντικούς κινδύνους για την κοινωνία μας ευρύτερα. Ενώ λοιπόν τα deepfakes μπορούν να χρησιμοποιηθούν υπεύθυνα με κατάλληλα ηθικά κριτήρια και ρυθμιστική εποπτεία και να προσφέρουν καινοτόμες λύσεις και σημαντικά οφέλη σε διάφορους τομείς, μπορούν επίσης να αποτελέσουν μοχλό για τη διάδοση παραπληροφόρησης. Αυτό είναι ιδιαίτερα ανησυχητικό μιας και η ποιότητα της παραγόμενης εικόνας ή/και του ήχου καθιστούν οριακά ανέφικτο το διαχωρισμό του αυθεντικού από το αληθοφανές περιεχόμενο

Τύποι «deepfakes»

Ένα deepfake, «βαθύ ψεύτικο περιεχόμενο», μπορεί να εμφανισθεί σε διάφορες μορφές, όπως η εναλλαγή προσώπων σε ένα βίντεο όπου το πρόσωπο ενός ατόμου έχει τοποθετηθεί στο σώμα κάποιου άλλου, η μίμηση της φωνής σε ένα ηχητικό μήνυμα, η αλλαγή του τρόπου με τον οποίο κινούνται τα χείλη ενός ατόμου σε ένα βίντεο ώστε να φαίνεται ότι το άτομο λέει κάτι διαφορετικό, η παρουσίαση εκφράσεων και κινήσεων του προσώπου και σώματος ενός ατόμου μέσω μίμησης ενός άλλου χωρίς αυτές να έχουν συμβεί πραγματικά, αλλά και η δημιουργία προσώπων που δεν υπάρχουν μέσω σύνθεσης χαρακτηριστικών άλλων προσώπων.

Κίνδυνοι και προκλήσεις

Τα deepfakes μπορούν να χρησιμοποιηθούν με επιβλαβείς τρόπους και είναι σημαντικό να ξεκινήσει ένας διάλογος τόσο για τους κινδύνους και τις προκλήσεις που φέρνουν στο προσκήνιο τα deepfakes, όσο και των προτεραιοτήτων που θα πρέπει να υπάρξουν όσον αφορά την αντιμετώπιση αυτών. Συνοπτικά, θα θέλαμε να εστιάσουμε σε τέσσερις βασικές κατηγορίες.

  • Πρώτον, όπως προαναφέραμε, ο βασικός κίνδυνος των deepfakes είναι η διασπορά ψευδών ειδήσεων με έναν ιδιαίτερα πειστικό τρόπο, απειλώντας την ακεραιότητα της πληροφόρησης.
  • Δεύτερον, συχνά τα deepfakes χρησιμοποιούνται με τρόπο που παραβιάζει το απόρρητο και την αξιοπρέπεια των ατόμων. Παραδείγματα όπως revenge porn και αλλοιωμένες ομιλίες είναι η κορυφή του παγόβουνου.
  • Τρίτον, η διάδοση ψευδών δηλώσεων δημόσιων προσωπικοτήτων μπορεί να προκαλέσει αναστάτωση και να υπονομεύσει την εθνική ασφάλεια. Εδώ, θα ήταν σημαντικό να αναφερθούμε στη πολιτική παραπληροφόρηση μέσω της δημιουργίας και διάδοσης βίντεο όπου ένας πολιτικός φαίνεται να κάνει ακραίες δηλώσεις ή να εκφράζει απόψεις που ποτέ δεν είχε, με σκοπό να επηρεαστεί η δημόσιας γνώμη.
  • Τέταρτον, και ίσως ένας κίνδυνος που πηγάζει από όλα τα παραπάνω αναφέρεται στο ότι η διάδοση των deepfakes μπορεί να συμβάλει στην ολοένα και εντονότερη διάβρωση της δημόσιας εμπιστοσύνης προς θεμελιώδεις θεσμούς της κοινωνίας μας, μέσα ενημέρωσης αλλά ακόμη και προς διαπροσωπικές σχέσεις.

Αντιμετώπιση των προκλήσεων

Η αντιμετώπιση των προκλήσεων που θέτουν τα deepfakes απαιτεί μια συντονισμένη προσπάθεια που περιλαμβάνει την ανάπτυξη τεχνολογιών ανίχνευσης, την ενημέρωση του κοινού, καθώς και νομικά και ρυθμιστικά πλαίσια.

Συχνά, αναφέρονται λύσεις που στο επίκεντρο έχουν τεχνολογικές οντότητες και αλγοριθμικά φαινόμενα. Για παράδειγμα, έμφαση έχει δοθεί στην ανάπτυξη τεχνολογιών ανίχνευσης deepfakes, όπου αλγόριθμοι θα μπορούν να ανιχνεύουν deepfakes εντοπίζοντας ανωμαλίες σε βίντεο που διακινούνται.

Επίσης, πρόσφατες ερευνητικές προσπάθειες εστιάζουν στο πώς μπορεί να γίνει έλεγχος της ταυτότητας διάφορων πολυμέσων μέσω τεχνολογιών blockchain ή μέσω watermarks όπου ενσωματώνονται σήματα και μεταδεδομένα σε αρχεία πολυμέσων ώστε να είναι διαφανής η προέλευσή τους και να γίνεται δυνατή η επαλήθευση της αυθεντικότητας τους.

Αν και τεχνολογικές λύσεις μπορούν να βοηθήσουν σημαντικά, παρατηρούμε ένα παράδοξο που βάζει την ανθρωπότητα σε έναν φαύλο κύκλο μιας και τεχνολογίες που είναι στο επίκεντρο ενός προβλήματος, είναι επίσης αυτές που λαμβάνουν την προσοχή του ανθρώπου για την επίλυση του ίδιου προβλήματος.

Τα deepfakes είναι λοιπόν μια ιδιάζουσα μορφή δεδομενοκρατίας για την καταπολέμηση της οποίας απαιτείται μια πιο συντονισμένη και πολύπλευρη προσπάθεια όπου η εκπαίδευση και ευαισθητοποίηση του κοινού, η θέσπιση νομικών πλαισίων και κανονισμών, η δημιουργία συνεργατικών δικτύων επαλήθευσης της αυθεντικότητας του περιεχομένου διάφορων πολυμέσων θα πρέπει να πλαισιώσουν τεχνολογικές λύσεις που αναφέραμε παραπάνω.

Συνοπτικά, υποστηρίζουμε ότι τα deepfakes είναι μια ιδιαίτερη μορφή δεδομενοκρατίας που επιτάσσει την ανάπτυξη πρωτοβουλιών σε μια σειρά από μέτωπα που εκτείνονται πέραν των τεχνολογικών ορίων.
Καθώς οι διαδικασίες βαθιάς μάθησης γίνονται πιο περίπλοκες, ο εντοπισμός των deepfakes μπορεί να γίνει όλο και πιο δύσκολος.

Ταυτόχρονα, η διανομή τους είναι πιθανό να είναι ολοένα και πιο γρήγορη, ιδιαίτερα μέσω των κοινωνικών δικτύων. Οι συνέπειες αυτών των ψεύτικων βίντεο είναι πολλές και προκαλούν ανησυχία: χειραγώγηση του κοινού, παραπληροφόρηση, δυσφήμιση κ.λπ.

Ως απάντηση σε αυτό το φαινόμενο, η Google δημοσίευσε το 2019 μια βάση δεδομένων που περιέχει περισσότερα από 3.000 βαθιά ψεύτικα βίντεο και ενημερώνεται συνεχώς, προκειμένου να βοηθήσει το λογισμικό να εντοπίζει ευκολότερα το παραποιημένο περιεχόμενο.

Επομένως, η χρήση deepfake βίντεο αντιπροσωπεύει μια αυξανόμενη απειλή στον Ιστό και απαιτεί τη μεγαλύτερη επαγρύπνηση. Ένας ακόμη λόγος για να μάθουμε περισσότερα για την ασφάλεια στον κυβερνοχώρο και να την λάβουμε σοβαρά υπόψη.

 

* Ο Κωνσταντίνος Ζοπουνίδης είναι Ακαδημαϊκός, Πολυτεχνείο Κρήτης, Επίτιμος Δρ. ΑΠΘ, Paris School of Business

** Ο Δρ Αγγελος Κωστής είναι μεταδιδακτορικός Ερευνητής στο Lab Τεχνητής Νοημοσύνης Σουηδικό Κέντρο για Ψηφιακή Καινοτομία, Πανεπιστήμιο του Ούμεο, Σουηδία, Επισκέπτης Ακαδημαϊκός στο Πανεπιστήμιο του Στάνφορντ, Καλιφόρνια, Αμερική


Oι απόψεις που διατυπώνονται σε ενυπόγραφο άρθρο γνώμης ανήκουν στον συγγραφέα και δεν αντιπροσωπεύουν αναγκαστικά, μερικώς ή στο σύνολο, απόψεις του Euro2day.gr.

ΣΧΟΛΙΑ ΧΡΗΣΤΩΝ

blog comments powered by Disqus
v