Gazda Podcast spune despre inteligenta artificiala care i-a replicat vocea ca e ciudat de realista

Am citit stiri sau am auzit lucruri despre celebritati care fac anumite chestii mai ciudate, insa de obicei, putem separa realitatea de fictiune. Chiar daca in acest caz exista o linie destul de fina intre aceste douja lucruri. Insa, ce se intampla atunci cand auziti aceste lucruri direct de la sursa unor zvonuri? Vei putea sa faci diferenta atunci cand auzi acel gen de imitatie care suna exact ca vocea unei celebritati? Asta este intrebarea pe care am ajuns sa ne-o punem in urma dezvoltarii de care are parte tehnologia inteligentei artificiale.

Astfel, inginerii din cadrul intreprinderii AI Dessa au publicat un videoclip in care demonstreaza ceea ce sustin ca este “cea mai realista simulare AI a unei voci pe care am auzit-o pana acum”, potrivit unui post publicat pe un blog Medium, in cadrul zilei de miercuri. Dessa a simulat vocea gazdei Podcast, Joe Rogan, si l-a facut sa spuna o gramada de lucruri suficient de bizare. Iar daca vreun YouTuber fara comunitate, de genul care posteaza sau reposteaza clipuri pentru a aduna ceva mai multe vizualizari decat are in mod normal prin streaming-urile sale de gaming, a auzit acest lucru, ar putea foarte usor sa posteze un clip pe canalul sau in care chiar spune ca acestea ar fi fost vorbele lui Rogan. Pentru cei care nu au auzit de aceasta tehnologie, este un lucru relativ usor de crezut, fiindca multi dintre utilizatorii de pe internet nu se documenteaza suficient in privinta unui lucru pentru a avea genul de informatii prin care sa poata face distinctia intre realitate si fictiune.

Rogan, care nu este strain de lumea tehnologiei, a postat despre inregistrarea celor de la Dessa pe Instagram. “Am ascultat o inregistrare audio generată de AI, in care am vorbit despre echipele de hochei ale cimpanzeilor, si este teribil de precisa”, a scris Rogan vineri. “In acest moment, am postat de mult timp destul de continut incat oricine sa poata sa-mi dezvolte vocea astfel incat sa spun ce vor ei, asa ca pozitia mea este sa dau din umeri, sa-mi scot capul inainte cu uimire si sa-l accept. Viitorul va fi cu adevarat al d****** de ciudat, copii.”

Dessa sustine ca inteligenta artificiala ar putea replica vocea oricui, atat timp cat se culeg suficiente date. Compania a subliniat de asemenea ca aceasta tehnologie ar putea fi folosita in mainile gresite, cum ar fi in cazul apelantilor care se confrunta cu spamul la telefon sau al persoanelor care impersoaneaza pe cineva pentru a obtine accesul la securitatea unei companii sau a unei platfomre. Dessa a mai spus ca tehnologia ar putea fi folosita pentru a crea un “audio deepfake”.

Deepfakes sunt falsuri video care, esential, pot face pe cineva, in general o persoana publica, sa para ca a spus sau a facut un lucru pe care nu l-a facut. Unele sunt distractii  inofensive, ca niste meme-uri care ii pun fata actorului Nicolas Cage in filme si spectacole in care nu a mai jucat niciodata. Altele pot fi daunatoare, ca si chipul unei victime involuntare altoite pornografiei grafice. Procesul incearca sa distrugă identitatea, astfel incat sa nu puna nimeni la indoiala faptul ca este 100% reala, iar posibilitatile de manipulare prin aceasta tehnologie sunt infinite.