Η τάση για δημοσίευση στο Διαδίκτυο παραποιημένου περιεχομένου όπως τα videos δεν είναι καινούρια και χρονολογείται εδώ και αρκετά χρόνια. Όμως, αυτό που έχει αλλάξει τα τελευταία χρόνια είναι η εξέλιξη των τεχνολογικών εργαλείων και ειδικά αυτών που σχετίζονται με τη μηχανική μάθηση (machine learning) και την τεχνητή νοημοσύνη (ΑΙ) προκειμένου αυτό το παραποιημένο περιεχόμενο να μην είναι καθόλου εύκολο να το διακρίνει κανείς από το αληθινό!

Ο λόγος για τα αποκαλούμενα deepfakes, έναν όρο που αναφέρεται σε ψηφιακά αρχεία, κυρίως video ή ηχητικά, που έχουν υποστεί αλλοίωση μέσω προηγμένων τεχνολογιών τεχνητής νοημοσύνης, με σκοπό να εμφανίζουν πρόσωπα ή φωνές να λένε ή να κάνουν πράγματα που στην πραγματικότητα δεν συνέβησαν. Σε διεθνές επίπεδο, τα deepfakes έχουν χρησιμοποιηθεί και συνεχίζουν να χρησιμοποιούνται αρκετά για οικονομικές απάτες αλλά και για επηρεασμό των πολιτών για πολιτικά θέματα. Και εκεί είναι το σημείο που τα deepfakes αρχίζουν να γίνονται επικίνδυνα με αποτέλεσμα πολλοί να έχουν αρχίσει να χτυπούν τον κώδωνα του κινδύνου και στην Ελλάδα.

«Τα deepfakes αποτελούν πλέον μια πραγματική και διαρκώς εντεινόμενη πρόκληση τόσο διεθνώς όσο και για την Ελλάδα. Δεν πρόκειται για ένα μελλοντικό ή θεωρητικό πρόβλημα, αλλά για ένα φαινόμενο που επηρεάζει ήδη την ασφάλεια, την οικονομική δραστηριότητα, την εμπιστοσύνη στην πληροφορία και, τελικά, τη δημοκρατική λειτουργία» σημειώνει στο CNN Greece ο Βασίλης Καρκατζούνης, Ειδικός Γραμματέας Τεχνητής Νοημοσύνης και Διακυβέρνησης Δεδομένων του υπουργείου Ψηφιακής Διακυβέρνησης. «Στη χώρα μας παρατηρούμε αυξανόμενη έκθεση των πολιτών σε συνθετικό περιεχόμενο, ενώ οι δυνατότητες ανίχνευσης και επαλήθευσης παραμένουν περιορισμένες» σπεύδει να προσθέσει ο κ. Καρκατζούνης.

Deepfakes και ΑΙ

Ένα ενδιαφέρον σημείο είναι ότι τα deepfakes δεν εμφανίστηκαν λόγω του GenAI. Μάλιστα, ο όρος έχει τη βάση του στη «βαθιά μηχανική μάθηση» (deep machine learning), ήτοι στις τεχνολογίες εκείνες που αποτελούν τη βάση για τα σύγχρονα εργαλεία τεχνητής νοημοσύνης και ειδικότερα του GenAI. «Ο λόγος που μοιάζουν με πραγματικά τα deepfakes είναι γιατί έχουν πολλαπλά επίπεδα» εξηγεί στο CNN Greece ο Θανάσης Δαββέτας, ερευνητής στο ΕΚΕΦΕ Δημόκριτος και μέλος της ειδικής ομάδας που υπάρχει στο συγκεκριμένο ίδρυμα που ασχολείται με το συγκεκριμένο ζήτημα. «Για να καταλάβεις ένα deepfake πρέπει να είσαι αρκετά εξοικειωμένος με την τεχνητή νοημοσύνη. Αλλά μπορείς να το καταλάβεις από το περιεχόμενο» σπεύδει να προσθέσει ο κ. Δαββέτας.

Η πραγματικότητα είναι πως η έλευση εργαλείων GenAI που είναι διαθέσιμα και μάλιστα δωρεάν στο ευρύ κοινό έχει κάνει εύκολη τη δημιουργία. «Η ταχεία διάδοση εργαλείων τεχνητής νοημοσύνης καθιστά την παραγωγή deepfakes εύκολη και φθηνή, αυξάνοντας τον κίνδυνο χρήσης για σκοπούς που κινούνται πέρα από τη δημιουργικότητα ή τη σάτιρα. Για τον λόγο αυτό, θεωρώ κρίσιμο να αντιμετωπίσουμε το ζήτημα όχι αποσπασματικά, αλλά ως μέρος μιας ευρύτερης στρατηγικής για την ψηφιακή εμπιστοσύνη στην εποχή της τεχνητής νοημοσύνης» επισημαίνει ο κ. Καρκατζούνης.

Σύμφωνα με τον κ. Δαββέτα, οι εταιρείες που έχουν αναπτύξει εργαλεία GenAI έχουν συμπεριλάβει μέτρα προστασίας ώστε, για παράδειγμα, να μην μπορεί ένας χρήστης να παραποιεί πρόσωπα. Και είναι αρκετά δύσκολο για κάποιον που δεν έχει τους απαραίτητους υπολογιστικούς πόρους να παραβιάσει αυτά τα μέτρα. «Θέλει συγκεκριμένη γνώση» σημειώνει ο ερευνητής του Δημοκρίτου, επισημαίνοντας πάντως ότι αν κάποιος έχει την τεχνογνωσία και σημαντικούς πόρους θα μπορούσε να δημιουργήσει το δικό του μοντέλο για τη δημιουργία deepfakes.

Τι γίνεται στην Ελλάδα

Αυτό που πρέπει να επισημανθεί είναι πως σε παγκόσμιο επίπεδο υπάρχει μεγάλη κατανάλωση περιεχομένου το οποίο έχει δημιουργηθεί με λογική deepfake αλλά πρόκειται κυρίως για αστεία videos που έχουν μεγάλη κατανάλωση καθώς δημιουργούν μία συναισθηματική σύνδεση μεταξύ του δημιουργού και του χρήστη. Τα videos με ζώα ή με μικρά παιδιά που κάνουν διάφορα αστεία είναι εξαιρετικά δημοφιλή. Όπως είναι και videos που δημιουργούνται αναπαραστάσεις γεγονότων του παρελθόντος αλλά και ΑΙ παραγωγές ιστοριών που και εμπλέκουν πραγματικά πρόσωπα μεν που εμφανίζονται σε αστείες καταστάσεις.

«Στην Ελλάδα δεν είναι τόσο έντονο το φαινόμενο της χρήσης των deepfakes για κακό σκοπό, ιδίως όσον αφορά τη χρήση για πολιτικούς σκοπούς. Ότι υπάρχει είναι κυρίως στο εξωτερικό» σημειώνει ο κ. Δαββέτας, σπεύδοντας, όμως, να προσθέσει ότι αυτό δεν σημαίνει ότι δεν μπορεί να υπάρξει ξαφνικά αύξηση.

Από την άλλη πλευρά, όμως, έχουμε δει ουκ ολίγες περιπτώσεις χρήσης deepfakes videos όπου εμφανίζονται προσωπικότητες της πολιτικής σκηνής ή καλλιτέχνες και αθλητές και προωθούν συγκεκριμένα προϊόντα με τα κρυπτονομίσματα να είναι ψηλά στη συγκεκριμένη λίστα. Εκεί εστιάζεται αυτή τη στιγμή το πρόβλημα, το οποίο εντείνεται από το γεγονός ότι στην Ελλάδα υπάρχει ένα σχετικά υψηλό ποσοστό ψηφιακούς αναλφαβητισμού. Κάτι που πρακτικά σημαίνει ότι πολλοί Έλληνες δεν καταλαβαίνουν τις διαφορές μεταξύ deepfake και αληθινού περιεχομένου με αποτέλεσμα να πέφτουν ακόμη και θύματα απάτης. «Πρέπει να είμαστε λίγο πιο προσεκτικοί» τονίζει ο κ. Δαββέτας

Αντιμετωπίζοντας το πρόβλημα

Το θέμα των deepfakes απασχολεί όλο και περισσότερο τους διεθνείς οργανισμούς καθώς οι επιπτώσεις που μπορεί να υπάρξουν είναι πολλαπλές. Με δεδομένο ότι το περιεχόμενο που δημιουργείται με ΑΙ εργαλεία πολλαπλασιάζεται συνεχώς οι κίνδυνοι είναι ουκ ολίγοι και μέτρα προστασίας όπως η σήμανση με υδατογραφήματα έχει αρχίσει να αποδεικνύεται ανεπαρκής. Είναι χαρακτηριστικό ότι με δεδομένο ότι στο όχι πολύ μακρινό μέλλον το ΑΙ περιεχόμενο θα αποτελεί τη συντριπτική πλειοψηφία αυτού που θα διακινείται μέσα στο Διαδίκτυο και ειδικά στα μέσα κοινωνικής δικτύωσης, πολλοί υποστηρίζουν ότι θα πρέπει να έχει σήμανση το περιεχόμενο που θα δημιουργείται από ανθρώπους ώστε να είναι πιο εύκολος ο διαχωρισμός.

Όσον αφορά την Ελλάδα, όπως αναφέρει ο κ. Καρκατζούνης «η ελληνική προσέγγιση εστιάζει στη διαφάνεια, στη νομική σαφήνεια και στην τεχνική αξιοπιστία. Υποστηρίζουμε ότι η αντιμετώπιση των deepfakes δεν μπορεί να βασιστεί αποκλειστικά σε αποσπασματικές και ευάλωτες τεχνικές, όπως τα απλά υδατογραφήματα. Αντίθετα, προτείνουμε τη χρήση ανθεκτικών και διαλειτουργικών μεθόδων πιστοποίησης της προέλευσης του περιεχομένου, σε συνδυασμό με σαφείς υποχρεώσεις διαφάνειας, κώδικες πρακτικής και αποτελεσματική εποπτεία. Στόχος μας είναι η ενίσχυση της εμπιστοσύνης χωρίς να περιορίζεται η ελευθερία της έκφρασης και η καινοτομία».


Πηγή