Ο πρώην πρόεδρος των ΗΠΑ τσακώνεται με την αστυνομία. Φωνάζει. Τρέχει. Αντιστέκεται. Τελικά, πέφτει, με τη χαρακτηριστική του φράντζα να είναι το μόνο πράγμα που είναι άκαμπτο απέναντι στη δίνη των σωμάτων που τον περιβάλλουν.
Οι φωτογραφίες που εικονίζουν αυτό το περιστατικό μπορεί να απεικονίζουν κάτι που θα μπορούσε να είναι πιστευτό για τον λάτρη του σόου Ντόναλντ Τραμπ αλλά είναι αποτέλεσμα της τεχνολογίας deepfake που αποδεικνύεται ιδιαίτερα επικίνδυνη γιατί μπορεί να γίνει viral και να ντύσει με εικόνα τα fake news που στόχο έχουν την κοινωνική και πολιτική αποσταθεροποίηση.
— Eliot Higgins (@EliotHiggins) March 20, 2023
«Ο κύκλος του hype είναι ένα ευμετάβλητο πράγμα. Και τώρα, όπως μας θυμίζουν αυτές οι ψεύτικες εικόνες, οι κινήσεις του μπορούν να διαμορφωθούν όχι μόνο από ανθρώπινα θεάματα, αλλά και από θεάματα που δημιουργούνται με Τεχνητή Νοημοσύνη. Ο Ντόναλντ Τραμπ, ο χειριστής των ψεύτικων εικόνων, είναι σε γενικές γραμμές συγγενής με την Τεχνητή Νοημοσύνη όσον αφορά τις απειλές που εγκυμονεί αλλά και αντιπροσωπεύει. Και οι εικόνες που δήθεν τον απεικονίζουν στη στιγμή της ταπείνωσης του υπαινίσσονται αυτές τις ομοιότητες. Τόσο ο έξυπνος επιχειρηματίας όσο και ο έξυπνος αλγόριθμος 'ξεκοιλιάζουν' μακροχρόνιους κανόνες με μεγάλη βαρύτητα. Είναι και οι δύο σοκ για το σύστημα, τόσο βραχυπρόθεσμα όσο και μακροπρόθεσμα.», ανέφερε σχετικά με αυτά τα τελευταία deepfake δημιουργήματα άρθρο του The Atlantic.
Ψηφιακές αλλοιώσεις που δεν εντοπίζονται εύκολα
Τα deepfakes είναι βίντεο ή εικόνες που συχνά παρουσιάζουν ανθρώπους που έχουν αλλοιωθεί ψηφιακά, είτε πρόκειται για τη φωνή, το πρόσωπο ή το σώμα τους, έτσι ώστε να φαίνεται ότι "λένε" κάτι άλλο ή ότι είναι κάποιος εντελώς άλλος.
Συνήθως, τα deepfakes χρησιμοποιούνται για τη σκόπιμη διάδοση ψευδών πληροφοριών ή μπορεί να έχουν κακόβουλη πρόθεση πίσω από τη χρήση τους. Μπορεί να έχουν σχεδιαστεί για να παρενοχλούν, να εκφοβίζουν, να υποτιμούν και να υπονομεύουν ανθρώπους. Τα deepfakes μπορούν επίσης να δημιουργήσουν παραπληροφόρηση και σύγχυση σχετικά με σημαντικά ζητήματα.
Περαιτέρω, η τεχνολογία deepfake μπορεί να τροφοδοτήσει άλλες ανήθικες ενέργειες, όπως η δημιουργία πορνογραφικού υλικού εκδίκησης, όπου οι γυναίκες πλήττονται δυσανάλογα.
Η πρόοδος της τεχνολογίας τα καθιστά δε όλο και πιο δύσκολο να εντοπιστούν.
«Το 2018, ερευνητές στις Ηνωμένες Πολιτείες απέδειξαν ότι τα πρόσωπα deepfake δεν ανοιγοκλείνουν τα μάτια όπως οι άνθρωποι, γεγονός που θεωρήθηκε ένας πολύ καλός τρόπος για να ανιχνεύεται αν οι εικόνες και τα βίντεο ήταν ψεύτικα ή όχι.
Ωστόσο, αμέσως μόλις δημοσιεύθηκε η μελέτη, οι δημιουργοί deepfake άρχισαν να το διορθώνουν αυτό, καθιστώντας ακόμα πιο δύσκολο τον εντοπισμό deepfakes. Συχνά, η έρευνα που έχει σχεδιαστεί για να βοηθήσει στην ανίχνευση των deepfakes καταλήγει να βοηθάει στο να γίνει η τεχνολογία deepfake καλύτερη.», εξηγεί η δρ. Παρομίτα Πέιν, βοηθός καθηγήτρια μίντια στην Σχολή δημοσιογραφίας Reynolds των ΗΠΑ.
Όπως επισημαίνεται σε άρθρο της Wall Street Journal με τίτλο «Οι κίνδυνοι του Deepfake μπροστά μας», η παραπληροφόρηση που παράγεται από την τεχνητή νοημοσύνη, ιδίως από εχθρικές ξένες δυνάμεις, «αποτελεί αυξανόμενη απειλή για τις δημοκρατίες που βασίζονται στην ελεύθερη ροή των ιδεών».
«Τα deepfakes πρόκειται να αλλάξουν τον τρόπο με τον οποίο πολλοί θεσμοί στις δημοκρατίες ασκούν τις δραστηριότητές τους. Ο στρατός θα χρειαστεί πολύ ασφαλή συστήματα για την επαλήθευση των εντολών και τη διασφάλιση ότι τα αυτοματοποιημένα συστήματα δεν μπορούν να ενεργοποιηθούν από πιθανά deepfakes.
Οι πολιτικοί ηγέτες που ανταποκρίνονται σε κρίσεις θα πρέπει να υπολογίζουν καθυστερήσεις ώστε να μπορούν να βεβαιωθούν ότι οι πληροφορίες που έχουν μπροστά τους δεν είναι ψευδείς ή έστω εν μέρει παραποιημένες από έναν αντίπαλο. Οι δημοσιογράφοι και οι συντάκτες θα πρέπει να είναι επιφυλακτικοί σε συγκλονιστικές ειδήσεις, διπλασιάζοντας το πρωτόκολλο της επαλήθευσης των γεγονότων με πολλαπλές πηγές.»
Και ο απλός πολίτης δεν θα πρέπει να κοινοποιεί εύκολα ό,τι βλέπει για να μην γίνεται εν αγνοία του σύμμαχος αυτών που για διάφορους λόγους κατασκευάζουν fake εικόνες, τονίζουν οι ειδικοί.