Παρασκευή, 19 Απρ.
19oC Αθήνα

Τρομοκρατική επίθεση στη Μόσχα: Ρωσικό κανάλι έφτιαξε deepfake βίντεο για να κατηγορήσει την Ουκρανία

Τρομοκρατική επίθεση στη Μόσχα: Ρωσικό κανάλι έφτιαξε deepfake βίντεο για να κατηγορήσει την Ουκρανία

Ένα deepfake βίντεο με Τεχνητή Νοημοσύνη φαίνεται ότι έφτιαξε ρωσικό κανάλι προκειμένου να κατηγορηθεί η Ουκρανία για την τρομοκρατική επίθεση στη Μόσχα το βράδυ της Παρασκευής (22.03.24).

Σύμφωνα με το BBC, ένα από τα μεγαλύτερα τηλεοπτικά κανάλια στη Ρωσία το NTV μετέδωσε ένα deepfake βίντεο χρησιμοποιώντας ήχο που δημιουργήθηκε με AI ως «τεκμήριο» ότι η Ουκρανία εμπλέκεται στην τρομοκρατική επίθεση σε αίθουσα συναυλιών κοντά στη Μόσχα, όπου έχασαν τη ζωή τους 133 άνθρωποι.

Στο βίντεο, ο ανώτατος αξιωματούχος ασφαλείας της Ουκρανίας, Ολεκσίι Ντανίλοφ ακούγεται να λέει πως «είναι διασκεδαστικό αυτό στη Μόσχα σήμερα. Νομίζω ότι είναι πολύ διασκεδαστικό. Θα ήθελα να πιστεύω ότι θα κανονίσουμε τέτοια διασκέδαση για αυτούς πιο συχνά».

Σύμφωνα με το BBC, το βίντεο αποτελείται από δύο συνεντεύξεις που δημοσιεύθηκαν την τελευταία εβδομάδα. Η φωνή του Ντανίλοφ πιθανότητα δημιουργήθηκε χρησιμοποιώντας Τεχνητή Νοημοσύνη, σύμφωνα με ειδικό.

Οι δύο συνεντεύξεις που χρησιμοποιήθηκαν για τη δημιουργία του πλαστού βίντεο είναι προσβάσιμες στο YouTube. 

Η μία με ημερομηνία 19 Μαρτίου περιλαμβάνει τον Ντανίλοφ. Η άλλη με ημερομηνία 16 Μαρτίου τον αρχηγό στρατιωτικών υπηρεσιών της Ουκρανίας Κιρίλο Μπουντάνοφ.

Οι παρουσιαστές που παίρνουν συνέντευξη από τον Μπουντάνοφ φαίνονται στο ψεύτικο βίντεο του NTV, φορώντας τα ίδια ακριβώς ρούχα με το ίδιο φόντο πίσω τους.

Το απόσπασμα του Ντανίλοφ που εμφανίζεται στο βίντεο του NTV δεν μπορεί να ακουστεί στην αρχική συνέντευξη της 16ης Μαρτίου, οδηγώντας τους ειδικούς, σύμφωνα με το BBC, στο συμπέρασμα ότι ο ήχος έχει δημιουργηθεί από AI.

Ο Σαμ Γκρέγκορι, ειδικός σε περιεχόμενο που δημιουργείται από Τεχνητή Νοημοσύνη, είπε στο BBC ότι το βίντεο που προβλήθηκε από το NTV ήταν πιθανότατα deepfake και η φωνή του Ντανίλοφ σε αυτό φαινόταν να είναι «deepfake κλώνου φωνής».

 

Κόσμος Τελευταίες ειδήσεις