Folosită mai întâi pentru a inunda site-urile de conţinut pornografic cu clipuri în care apar celebrităţi, acte de răzbunare pe foste iubite şi defăimare, clipurile deepfake sunt pe cale să devină şi mai simplu de realizat.
Prin efortul combinat depus de cercetători ai Universităţii Stanford, Institutul pentru Informatică Max Planck, Universitatea Princeton şi experţi ai companiei Adobe, sintetizarea vorbirii în clipurile deepfake va fi redusă în curând la încărcarea unui simplu mesaj redactat într-un editor text.
Încă nepublic, software-ul asistat cu tehnologii AI permite editarea în mod realist a cuvintelor rostite de persoane reale în faţa camerei de luat vederi, orice declaraţie putând fi astfel falsificată. Cumulat cu folosirea unui software pentru sinteză vocală capabil să imite vocea persoanei vizate, falsificarea realităţii devine aproape completă, doar o analiză făcută într-un studio profesionist mai putând identifica micile artefacte vizuale şi auditive strecurate în timpul procesării digitale.
Software-ul numit VoCo şi-ar putea face în cele din urmă apariţia în produsele Adobe, eventual cu funcţionalitate redusă pentru a limita abuzurile. În forma actuală, crearea unui fals video poate porni de la o simplă poză cu „victima”, ale cărei trăsături faciale sunt supraimpuse peste mişcările unui actor real, împreună cu mimica facială modelată după frazele introduse în formă text.
Vocea este obţinută analizând vorbirea persoanei respective, izolând sunetele constituente.
Deocamdată, software-ul aflat la stadiu experimental este doar parţial eficient, rămânând destule artefacte vizuale care să dea de gol falsul creat. Însă pe termen lung, este de aşteptat ca falsurile deepfake să devină mult mai dificil de descoperit.