HTCinside


Ένας Ινδός πολιτικός χρησιμοποίησε AI για να μεταφράσει την ομιλία του σε μια άλλη γλώσσα

Ενώ οι πιο πρόσφατες τεχνολογίες εφαρμόζονται στην καθημερινή ζωή των ανθρώπων για να κάνουν τη ζωή ευκολότερη, φαίνεται ότι οι πολιτικοί σκέφτονται τρόπους να τις χρησιμοποιήσουν για να καλύψουν τις απαιτήσεις τους όσον αφορά την πολιτική και τις εκλογές.

Πρόσφατα, ο Manoj Tiwari, ένας Ινδός πολιτικός, ήταν στις ειδήσεις επειδή χρησιμοποίησε τεχνητή νοημοσύνη για να φαίνεται ότι έλεγε πράγματα που στην πραγματικότητα δεν είπε. Εθεάθη να μιλά μια μητρική ινδική γλώσσα Haryanvi, μια διάλεκτο των Χίντι, που ήταν διαφορετική από την αγγλική έκδοση στην οποία γυρίστηκε το βίντεο.

Η εταιρεία που είναι υπεύθυνη για αυτό, The Ideaz Factory, εξήγησε ότι το βίντεο δημιουργήθηκε για τη «θετική» εκστρατεία του τοπικού κυβερνώντος κόμματος, του Bharatiya Janata Party, στο οποίο ανήκει ο Tiwari. Αυτό επιτεύχθηκε χρησιμοποιώντας την τεχνολογία του deepfake.

Το Deepfake είναι ένας συνδυασμός των λέξεων Deep Learning και Fake. Είναι η χρήση τεχνολογίας βαθιάς εκμάθησης για τη δημιουργία πλαστών βίντεο. Αυτή η βαθιά μάθηση συγκεντρώνεται από άλλα ισχυρά εργαλεία όπως η μηχανική μάθηση και η τεχνητή νοημοσύνη. Η μηχανική μάθηση που χρησιμοποιείται περιλαμβάνει την εκπαίδευση αρχιτεκτονικών νευρωνικών δικτύων, όπως οι αυτοκωδικοποιητές και τα παραγωγικά αντίπαλα δίκτυα.

Αυτή η τεχνολογία μπορεί να κάνει ένα άτομο στο βίντεο να κάνει πράγματα που αρχικά δεν έκανε, όπως να ενεργήσει με έναν συγκεκριμένο τρόπο ή να πει πράγματα ή να αντικατασταθεί πλήρως από κάποιον άλλο. Αυτό επιτυγχάνεται χρησιμοποιώντας τα εν λόγω εργαλεία χειραγωγώντας έτσι τον θεατή.

Σχετικά με το πώς φτιάχτηκε το βίντεο με πρωταγωνιστή τον Tiwari, ο Sagar Vishnoi, ο οποίος συνεργάζεται με το The Ideaz Factory, εξηγεί: «Χρησιμοποιήσαμε έναν αλγόριθμο deepfake «lip-sync» και τον εκπαιδεύσαμε με ομιλίες του Manoj Tiwari να μεταφράζει ήχους ήχου σε βασικά σχήματα στόματος». Αυτό επέτρεψε στον Tiwari να επεκτείνει την εμβέλειά του στην κοινότητα Haryanvi και να φτάσει σε μια βάση ψηφοφόρων που διαφορετικά δεν θα μπορούσε να κάνει.

Αν και τα deepfakes δεν είναι συνηθισμένα στο πολιτικό ρεύμα, δεν είναι η πρώτη φορά που συμβαίνει αυτό. Ένα βίντεο από το 2018 του τότε προέδρου των ΗΠΑ Μπαράκ Ομπάμα προκάλεσε ανησυχίες για το πώς τα ψεύτικα βίντεο θα μπορούσαν να παρελαύνουν ως γνήσια βίντεο στην πολιτική σφαίρα. Περιττό να πούμε ότι αυτό έχει κάνει τους πολιτικούς και τεχνικούς αναλυτές να συζητούν τι μπορεί να κάνει η τεχνολογία για την πολιτική μιας χώρας και τους διάφορους τρόπους με τους οποίους μπορεί να επηρεάσει τις εκλογές χωρίς ουσιαστικά να το κάνει αυτό.

Ανάγνωση -Η τεχνολογία ανίχνευσης συναισθημάτων πρέπει να απαγορευτεί, λέει η AI Now

Οι ΗΠΑ έσπευσαν να αντιδράσουν με την Επιτροπή Δεοντολογίας της Βουλής των ΗΠΑ να ενημερώνει τα μέλη ότι θα θεωρούνταν παραβίαση των κανόνων της Βουλής εάν κάποιο μέλος δημοσίευε ένα τέτοιο ψεύτικο βίντεο. Η Καλιφόρνια, από την άλλη πλευρά, έχει ήδη ψηφίσει έναν νόμο που καθιστά παράνομη την κοινοποίηση των deepfakes των πολιτικών σε διάστημα μικρότερο των 60 ημερών από οποιεσδήποτε εκλογές. Το Twitter, το Facebook και το Reddit έχουν επίσης ενημερώσει τις πολιτικές τους για την καταπολέμηση των deepfakes στις αντίστοιχες πλατφόρμες τους.

Το Deepfakes έχει ήδη τη φήμη ότι χρησιμοποιείται σε μια σειρά από πορνογραφικά βίντεο διασημοτήτων, ψευδείς ειδήσεις, φάρσες και πολλά τέτοια επιβλαβή βίντεο. Ωστόσο, δεν έχει ακόμη φανεί πώς τα deepfakes θα κατακτήσουν την κατανάλωση των μέσων όπως τα ξέρουμε και πώς οι νομοθεσίες αντιμετωπίζουν τις ηθικά γκρίζες ζώνες που είναι βέβαιο ότι θα προκύψουν από τέτοια μέσα.