Η τεχνητή νοημοσύνη αλλάζει με εξαιρετικά γρήγορους ρυθμούς τον τρόπο με τον οποίο δημιουργείται και διακινείται το ψηφιακό περιεχόμενο. Εικόνες, βίντεο, φωνές και κείμενα που μέχρι πριν από λίγα χρόνια απαιτούσαν επαγγελματικό εξοπλισμό και εξειδικευμένες γνώσεις, πλέον μπορούν να παραχθούν μέσα σε λίγα λεπτά από οποιονδήποτε διαθέτει έναν υπολογιστή και πρόσβαση σε σύγχρονα εργαλεία AI.

Το αποτέλεσμα είναι εντυπωσιακό. Αλλά ταυτόχρονα δημιουργεί και μία νέα πρόκληση: πώς μπορούμε να γνωρίζουμε αν αυτό που βλέπουμε είναι πραγματικό;

Η συζήτηση αυτή έχει αρχίσει να γίνεται όλο και πιο έντονη τους τελευταίους μήνες καθώς πληθαίνουν οι περιπτώσεις δημοσίευσης στα μέσα κοινωνικής δικτύωσης φωτογραφιών αλλά και video επεξεργασμένων με ΑΙ εργαλεία που εμφανίζουν μία ψευδή εικόνα. Το προ ολίγων ημερών περιστατικό με τον υπουργό Υγείας, Άδωνι Γεωργιάδη αποτελεί μία τέτοια χαρακτηριστική περίπτωση.

Η πραγματικότητα είναι πως η τεχνολογία έχει εξελιχθεί σε τέτοιο βαθμό ώστε πολλές φορές ακόμη και έμπειροι χρήστες δυσκολεύονται να διακρίνουν το αυθεντικό από το τεχνητό.

Αυτό που πρέπει να επισημανθεί είναι πως η παραποίηση εικόνας δεν είναι κάτι καινούργιο. Εδώ και δεκαετίες υπάρχουν εργαλεία επεξεργασίας φωτογραφιών και βίντεο. Η διαφορά σήμερα είναι ότι με το GenAI τα υπάρχοντα εργαλεία -τα οποία παρέχονται με μικρό κόστος ή ακόμη και δωρεάν- δεν περιορίζονται στην επεξεργασία υπάρχοντος περιεχομένου. Αλλά μπορούν να δημιουργήσουν εξ ολοκλήρου νέα πρόσωπα, νέες φωνές και νέες σκηνές που δεν υπήρξαν ποτέ.

Ένα βίντεο μπορεί πλέον να δείχνει έναν πολιτικό να κάνει δηλώσεις που δεν είπε ποτέ ή έναν επιχειρηματία να ανακοινώνει ψευδείς ειδήσεις για την εταιρεία του. Αντίστοιχα, με τη βοήθεια εργαλείων «κλωνοποίησης φωνής» (voice cloning), μπορεί να δημιουργηθεί μια φωνή σχεδόν πανομοιότυπη με αυτή ενός πραγματικού ανθρώπου.

Το πρόβλημα γίνεται ακόμη μεγαλύτερο σε ένα περιβάλλον κοινωνικών δικτύων όπου η πληροφορία διακινείται με ταχύτητα και συχνά χωρίς έλεγχο.

Τα σημάδια που πρέπει να προσέξετε

Παρότι τα σύγχρονα AI μοντέλα έχουν βελτιωθεί σημαντικά, υπάρχουν ακόμη ενδείξεις που μπορούν να βοηθήσουν έναν χρήστη να καταλάβει ότι κάτι δεν είναι αληθινό.

Στα βίντεο, ένα από τα πιο συχνά σημάδια είναι οι αφύσικες κινήσεις του προσώπου ή των χειλιών. Μικρές ασυγχρονίες ανάμεσα στον ήχο και την εικόνα, περίεργες εκφράσεις ή υπερβολικά «τέλειο» δέρμα μπορούν να αποτελέσουν ενδείξεις συνθετικού περιεχομένου.

Επίσης, τα μάτια και τα χέρια εξακολουθούν να δυσκολεύουν αρκετά συστήματα AI. Παρά τις τεράστιες βελτιώσεις, σε αρκετές περιπτώσεις εμφανίζονται περίεργες κινήσεις δακτύλων, λάθος σκιές ή αφύσικες αντανακλάσεις.

Στον ήχο, οι τεχνητές φωνές συχνά έχουν υπερβολικά σταθερό τόνο, απουσία φυσικών παύσεων ή έναν ελαφρώς «μηχανικό» ρυθμό ομιλίας. Βέβαια, όσο περνά ο χρόνος, ακόμη και αυτά τα σημάδια μειώνονται.

Ένα από τα σημαντικότερα εργαλεία άμυνας απέναντι στα deepfakes, όπως αποκαλείται το συγκεκριμένο περιεχόμενο, δεν είναι άλλο από την επαλήθευση της πηγής.

Ένα βίντεο που εμφανίζεται ξαφνικά σε ένα άγνωστο προφίλ στο TikTok ή σε μία ανώνυμη ανάρτηση στο X χρειάζεται πολύ μεγαλύτερη προσοχή σε σχέση με περιεχόμενο που προέρχεται από επίσημους οργανισμούς ή αξιόπιστα ειδησεογραφικά δίκτυα.

Η αναζήτηση του ίδιου βίντεο ή της ίδιας είδησης σε περισσότερες από μία αξιόπιστες πηγές παραμένει κρίσιμη. Ειδικά σε περιόδους εκλογών, γεωπολιτικών κρίσεων ή μεγάλων γεγονότων, τα deepfakes μπορούν να χρησιμοποιηθούν για παραπληροφόρηση ή χειραγώγηση της κοινής γνώμης.

Πλατφόρμες και τεχνολογίες ανίχνευσης

Οι μεγάλες τεχνολογικές εταιρείες προσπαθούν πλέον να αναπτύξουν μηχανισμούς εντοπισμού AI περιεχομένου. Εργαλεία όπως τα ψηφιακά υδατογράμματα (watermarks), τα metadata authenticity standards και οι τεχνολογίες content provenance επιχειρούν να «υπογράφουν» ψηφιακά το αυθεντικό περιεχόμενο.

Οργανισμοί όπως η Coalition for Content Provenance and Authenticity προωθούν πρότυπα που επιτρέπουν την πιστοποίηση της προέλευσης μίας εικόνας ή ενός βίντεο, καταγράφοντας αν έχει τροποποιηθεί με AI.

Παράλληλα, εταιρείες όπως η OpenAI, η Google και η Microsoft επενδύουν σε τεχνολογίες watermarking και αναγνώρισης συνθετικού περιεχομένου. Ωστόσο, πρόκειται για μία συνεχή «κούρσα εξοπλισμών», καθώς όσο βελτιώνονται τα εργαλεία ανίχνευσης τόσο εξελίσσονται και τα εργαλεία δημιουργίας.

Η μεγαλύτερη πρόκληση ίσως δεν είναι τεχνολογική αλλά κοινωνική. Στην εποχή του GenAI, η ψηφιακή παιδεία αποκτά νέα σημασία. Οι χρήστες καλούνται να γίνουν περισσότερο επιφυλακτικοί, να ελέγχουν τις πληροφορίες που καταναλώνουν και να αποφεύγουν τη βιαστική αναπαραγωγή περιεχομένου.

Το παλαιότερο ερώτημα «είναι αλήθεια αυτό που διαβάζω;» μετατρέπεται πλέον στο «είναι αληθινό αυτό που βλέπω και ακούω;».

Και όσο η τεχνητή νοημοσύνη εξελίσσεται, τόσο πιο σημαντική γίνεται η ικανότητα να ξεχωρίζουμε το αυθεντικό από το κατασκευασμένο. Όχι μόνο για την προστασία από απάτες και παραπληροφόρηση, αλλά και για τη διατήρηση της εμπιστοσύνης στον ίδιο τον ψηφιακό δημόσιο διάλογο.


Πηγή