ΡΟΗ ΕΙΔΗΣΕΩΝ

6/recent/ticker-posts

Deepfakes: Τα αληθινά ψέματα και η ανυπαρξία του φαινομενικά υπαρκτού...



Tα Deepfakes Προκύπτουν Από Ένα Συγκεκριμένο Είδος «βαθιάς Μηχανικής Μάθησης» (Deeplearning) Στο Οποίο Ζεύγη Αλγορίθμων Τίθενται Ο Ένας Εναντίον Του Άλλου Σε «γεννητικά Ανταγωνιστικά Δίκτυα» (Generative Adversarial Networks/ Gan). Τα Gan Ως Ένα Είδος Μηχανικής Μάθησης (Machine Learning) Εισήχθησαν Το 2014 Από Τον Ian Goodfellow Και Άλλους Ερευνητές Στο Πανεπιστήμιο Του Μόντρεαλ.

Βασική Ιδέα Των Gan ​​είναι Να Εκπαιδεύσουν Μαζί Δύο Δίκτυα. Σε Ένα Gan, Ένας Αλγόριθμος, Η «γεννήτρια» (Generator), Δημιουργεί Περιεχόμενο Που Βασίζεται Σε Πηγαία Δεδομένα (Source Data): Για Παράδειγμα, Φτιάχνοντας Τεχνητές Εικόνες Σκύλων Από Μια Βάση Δεδομένων Πραγματικών Εικόνων Σκύλων), Ενώ Ένας Δεύτερος Αλγόριθμος Ο «διακριτής» (Discriminator), Προσπαθεί Να Εντοπίσει Το Τεχνητό Περιεχόμενο (να Διαλέξει Τις Ψεύτικες Εικόνες Σκύλου).

Ο Στόχος Της Γεννήτριας Είναι, Δηλαδή, Με Βάση Την Επεξεργασία Των Αρχικών, Πραγματικών Δεδομένων, Να Παράγει Πλαστά Ψηφιακά Δεδομένα, Που Δε Θα Γίνουν Αντιληπτά Από Το Διακριτή. Ενώ Ο Στόχος Του Διακριτή Είναι Να Εντοπίσει Τις Εικόνες Που Προέρχονται Από Τη Γεννήτρια Και Όχι Από Τη Βάση Των Πραγματικών Δεδομένων, Ως Ψεύτικες.

Δεδομένου Ότι Κάθε Αλγόριθμος Συνεχώς «εκπαιδεύεται» Εναντίον Του Άλλου, Τέτοιοι Συνδυασμοί Μπορούν Να Οδηγήσουν Σε Ταχεία Βελτίωση, Επιτρέποντας Στα Gan Να Παράγουν Εξαιρετικά Ρεαλιστικό Αλλά Ψεύτικο Περιεχόμενο Deepfakes.


Αποτελεσματα Των Deepfakes


Τα Deepfakes Ωστόσο, Δεν Έχουν Ως Αποτέλεσμα Μόνο:

-την Διάδοση Fake News, Αλλά Έχουν Και Μια Δεύτερη Συνέπεια Κυρίως Από Άποψη Πολιτικής Χρήσης:

-τη Δήλωση Κατά Της Αυθεντικότητας Των Μέσων Μαζικής Ενημέρωσης.

Είναι Πλέον Εύκολο Για Τον Κάθε Πολιτικό Ή Για Την Οποιαδήποτε Διασημότητα, Να Δηλώσει Δημοσίως Ότι Κάποιο Βίντεο Που Κυκλοφόρησε Απεικονίζοντας Τον Ίδιο Να Λέει Ή Να Κάνει Κάτι, Είναι Ψευδές Ακόμα Και Εάν Είναι Αυθεντικό.

Μπορούν Με Αυτόν Τον Τρόπο Να Επηρεάσουν Τις Επιπτώσεις Των Αρνητικών Τους Ενεργειών Και Να Εκτρέψουν Ή Να Αποτρέψουν Την Προσοχή Του Κοινού Μέσω Αυτής Της Χειραγώγησης.

Είναι Σαφές Λοιπόν Ότι Με Τον Έναν Ή Τον Άλλον Τρόπο, Η Εμπιστοσύνη Του Κοινού Στα Μέσα Μαζικής Ενημέρωσης Και Πιο Συγκεκριμένα Στα Σύγχρονα Μέσα, Κλονίζεται. Αυτό Είναι Αποτέλεσμα Της Αβεβαιότητας Που Δημιουργείται Και Λόγω Της Ανεξέλεγκτης Διάδοσης Των Fake News Και Συγκεκριμένα Των Deepfakes.

Το Προφανές Αποτέλεσμα Των Deepfakes Είναι Ότι:

-μπορούν Να Εξαπατήσουν Το Κοινό.

Ωστόσο: 

-ακόμα Και Αν Κάποιος Δεν Εξαπατηθεί, Φτάνει Στο Σημείο Να Αμφιβάλλει Για Το Τί Είναι Πραγματικά Αληθινό. Το Αίσθημα Της Καχυποψίας Και Της Αμφιβολίας Στο Επίπεδο Της Πολιτικής Και Κοινωνικής Εμπιστοσύνης, Κατακλύζει Την Κοινή Γνώμη.

Μάλιστα , Πολλές Φορές Η Συνεχής Προσπάθεια Που Καταβάλλεται Για Τον Διαχωρισμό Μεταξύ Αλήθειας Και Ψεύδους.

-οδηγεί Το Κοινό Στην Απάθεια Απέναντι Στην Πραγματικότητα, Με Αποτέλεσμα Να Μην Πιστεύει Τίποτα Από Την Πληροφόρηση Που Του Παρέχεται, Κατατάσσοντάς Τα Όλα, Χωρίς Κριτική Σκέψη, Στις Ψευδεπίγραφες Ειδήσεις.

Οι Τρεις Κατηγοριες Παραποιησεις Δεδομενων

-«face-swap Video», Όπου Το Πρόσωπο Ενός Ανθρώπου Σε Ένα Βίντεο Αντικαθίσταται Από Το Πρόσωπο Ενός Άλλου. Σ’ Αυτή Την Κατηγορία, Ένας Ηθοποιός, Π.χ., Μπορεί Να Φαίνεται Να Υποκαθίσταται Από Κάποιον Άλλον Ή Και Ένας Καθημερινός Άνθρωπος Να Φαίνεται Να Πρωταγωνιστεί Σε Μια Χαρακτηριστική Σκηνή Από Κινηματογραφική Ταινία Ή Από Συνέντευξη Ενός Διάσημου Προσώπου.

-«lip-sync», Όπου Η Πηγή Του Βίντεο Τροποποιείται Με Τέτοιον Τρόπο Ώστε Η Περιοχή Του Στόματος Και Οι Αντίστοιχες Κινήσεις Του Κατά Την Ομιλία, Να Είναι Σύμφωνες Με Ένα Αυθαίρετο Ηχητικό Απόσπασμα Που Χρησιμοποιεί Μια Άλλη Φωνή Ή Και Δημιουργείται Από Συρραφή Παλαιότερων Δηλώσεων Και Ομιλιών Του Ίδιου Του Προσώπου.
Σ’ Αυτήν Την Κατηγορία, Ένας Πολιτικός, Π.χ. Ή Ένα Διάσημο Πρόσωπο, Μπορεί Να Παρουσιάζεται Με Πολύ Πειστικό Τρόπο Να Λέει Κάτι Που Ποτέ Δεν Έχει Πει.

-«master-puppet Video», Όπου Όλες Οι Κινήσεις Του Προσώπου Ενός Ανθρώπου Σε Ένα Βίντεο (κινήσεις Ματιών, Κεφαλής, Χειλιών, Εκφράσεις) Ελέγχονται Από Ένα Άλλο Άτομο Που Κάθεται Πίσω Από Την Κάμερα Και Χειρίζεται Με Όποιον Τρόπο Θέλει Αυτά Που Κάνει Και Λέει Η «μαριονέτα Του».




Το σύστημα αλγόριθμων deepfakes είναι ένας μηχανισμός ο οποίος μπορεί να παραποιήσει οπτικοακουστικό υλικό με τέτοια λεπτομέρεια που είναι εξαιρετικά δύσκολο για τον οποιοδήποτε να ξεχωρίσει την αυθεντικότητα ενός βίντεο από ένα άλλο το οποίο είναι εξ ολόκληρου ψεύτικο και ταυτίζετε με το πρωτότυπο.

Υπάρχει τεράστιος κίνδυνος αυτή η πλατφόρμα παραποίησης δεδομένων να μεταβληθεί σε ένα πολυδιάστατο οπλικό σύστημα το οποίο θα μπορεί οποιαδήποτε στιγμή να αποσταθεροποιεί την κοινή γνώμη σε τέτοιο βαθμό οπού θα είναι σχεδόν απίθανο το ενδεχόμενο για μια ορθή και με βάση την πραγματικότητα πληροφόρηση. 

Πρόσωπα, χαρακτήρες, και προσωπικότητες θα μπορούν να διαβάλλονται, κυβερνήσεις θα πέφτουν μέσα σε λίγες ώρες και όλα αυτά προς όφελος εκείνων που θα κατέχουν αυτόν τον αυτοματισμό, ο οποίος από ότι φαίνεται μπορεί να βυθίσει στο απολυτό σκοτάδι τις κοινωνίες των ανθρώπων, αφού δεν θα μπορεί σχεδόν κάνεις να διακρίνει το αληθινό από το ψεύτικο, το υπαρκτό από το ανύπαρκτο, καταστρέφοντας την δυνατότητα της ανθρωπινής κριτικής σκέψης η οποία είναι ο πυλώνας που οδηγεί τον άνθρωπο στην βούληση των επιλογών του. 

Ολοι μιλούν για ασφάλεια και προστασία των πολιτών,
όλοι οι θεσμοί νομοθετούν με στόχο την ασφάλεια,
τελικά ποσό ασφαλείς είμαστε όταν οι ίδιοι οι θεσμοί επιτρέπουν σε όλες αυτές τις τεχνολογικές πλατφόρμες παραποίησης της αληθείας να παραβιάζουν άμεσα η έμμεσα την ασφάλεια των πολιτών ?

Τα συμπεράσματα δικά σας