Deep fake: sabotarea comunicării mediatice

Industria dezinformării și a mistificării adevărului, din care fac parte unele organisme media din lume și de la noi, s-a plictisit de banalele pseudo-știri, greșit și incomplet considerate știri false. Maeștrii propagandei agresive și-au îmbogățit arsenalul  cu o armă a minciunii cu efectele unei bombe nucleare în mediul comunicării din spațiul public.

Totul a început după paravanul satirei politice, în paralel cu unele cercetări aparent nevinovate de împingere spre noi orizonturi a inteligenței artificiale cu scopul de a produce conținut, fără intervenția sau controlul ființei umane. În 2017, Reddit, site de agregare a informațiilor de pe rețelele sociale, de evaluare și dezbatere a conținutului mesajelor a pus în circulație clipuri contrafăcute, numite deepfakes, tocmai ca să le deosebească de produse similare cu aspect asemănător, dar cu informații reale. Imagini și sunete digitale au fost procesate, pornind de la un program mai vechi de calculator, program cunoscut sub numele de Video Rewrite, produs în 1997. Pe un fragment de discurs al unei persoane publice a fost confecționată o imagine în care chipul și aparatul mandibulo-articulator creau iluzia că personajul respectiv ar fi fost filmat rostind în fața videocamerei pasajul prezentat ca autentic.

Procedeul s-a dovedit productiv în industria filmului, unde figura actorului Nicholas Cage a fost suprapusă pe cea a cascadorului în filmele de acțiune. În decembrie 2017, transferul tehnologiei hollywoodiene a ajuns în industria pornografică. În 2018, Reddit și alte site-uri au interzis folosirea manevrelor de reprocesare și circularea unor asemenea produse falsificate pe rețelele sociale, în primul rând pe Twitter, atât de drag președintelui american. Cu o viteză impresionantă, tehnica respectivă a atacat lumea politică. Așa, fostul președinte argentinian Mauricio Macri a apărut cu vocea și mesajul propriu, dar cu chipul lui Hitler. Cancelarul german, Angela Merkel și-a apărat politica pro-migrație cu vocea lui Trump, adversar înverșunat al imigrației. Exercițiul l-a determinat pe publicistul german Patrick Gensing să se întrebe dacă nu ne aflăm pe calea unei realități alternative.[1] Nici Obama nu a scăpat după ce a fost confecționată o secvență cu chipul lui Trump dar cu vocea sa, văitându-se că i s-a înnegrit și mai rău pielea după cele două mandate la Casa Albă. Democrata Nancy Pelossi, speaker al Camerei Reprezentanților a fost transformată într-o babă imbecilă și bâlbâită prin procedee de falsificare, într-o secvență difuzată pe canalul de știri Fox, ultra-conservator și pro-republican.

Ceea ce a debutat ca un instrument de falsificare și minciună, accesibil în laboratoarele de relații publice și marketing politic, a fost lansat în 2018 ca programul comercial FakeApp, creat să proceseze pe un calculator performant orice figură sau voce pornind de la două eșantioane reale. Internetul a devenit aglomerat de clipuri video deepfake, CNN numărând la începutul lui noiembrie 2019 peste 14 mii de asemenea produse cu conținut manipulat. Centrul Deeptrace din Amsterdam a constatat că din decembrie precedent până în iunie 2019 a înregistrat o creștere de 84 la sută, și a identificat aproape opt mii produse video falsificate, majoritatea circulate pe rețelele pornografice[2]. Eliminarea limitelor dintre real și plastografierea electronică poate să corupă nu numai realitatea însăși, ci și modul în care publicul îi acordă credibilitate unei publicații, unui post de radio sau unei televiziuni. Odată posibilitatea tehnică obținută, deepfake, falsul profund distruge încrederea legitimă, greu dobândită a discursului public difuzat de media. Societatea în ansamblu, riscă să se prăbușească în incertitudine și lipsă de legitimitate din cauză că devine dezorientată, nu mai are instrumentele și scara de valori în baza cărora să poată distinge între adevăr și minciună.

În 2018, Google a trecut pe lista neagră a interdicțiilor imaginile pornografice sintetice, dar răul fusese comis și spiritul rebel a ieșit din lampa lui Aladin[3]. Pericolul îl resimt toate societățile digitalizate de pe ambele maluri ale Atlanticului, care vor trece prin episoade electorale în perioada imediat următoare. În eventualitatea amenințătoare a recurgerii la deepfake de către șefii de campanii, alegătorilor le va fi foarte greu să distingă mesajul real de cel falsificat. Specialiștii în securitate cibernetică au intrat deja în stare de alarmă pentru că tehnologia ultimelor luni a avansat mult mai rapid decât pot ei coordona măsuri de limitare și de combatere. Facebook a inițiat cercetări pentru detectarea mesajelor procesate și Congresul american pregătește proiecte legislative care să pedepsească manevrele deepfake[4].

Conducători din industria inteligenței artificiale vor să promoveze instrumente și programe de scanare, dezvoltate în parteneriat de Universitatea Berkley și institute militare, programe puse la dispoziția jurnaliștilor și a operatorilor politici cu scopul să li se ofere media și campaniilor publice posibilitatea de a verifica clipurile contrafăcute înainte ca acestea să arunce alegerile în haos. Profesorul Hany Farid de la Universitatea Berkley avertiza că noua luptă din spațiul cibernetic trebuie tratată foarte serios. „După cele ce am văzut în ultimele luni, au existat deja unele interferențe cu viața politică și cu proiectele electorale. Nu este nevoie de multă imaginație ca să detectăm cât de ușor pot fi executate manevrele mistificatoare. Prelucrarea video conține o putere reală”.[5]

               FaceForensics, de la universitatea tehnică din Munchen, a lansat un proiect de analizare a fiecărui pixel din clipuri suspecte pentru detectarea falsului, dar se anunță o cursă asimetrică în care sabotorii se află cu un pas înaintea corectitudinii.

La noi, pericolul poate să pară îndepărtat. Avem protecția legislației UE, există experții eurocrației care iau bani buni ca să ne apere de abuzuri, dar reacționează târziu și ineficient. Experiența socială a dovedit că în România adoptarea unor soluții de avangardă în dezvoltarea inteligenței artificiale se face cu ritmul melcului. Lansarea unor proceduri frauduloase își găsește descurajant de rapid susținători entuziaști, alimentați de speranța că pot să obțină venituri fabuloase. În plus, lipsește preocuparea și, cu atât mai mult, lipsesc mecanismele profesionale și legale de prevenire și pedepsire a mesajelor deepfake. În acest perimetru, media românești rămân estrem de vulnerabile, iar alegătorii români sunt victime sigure ale propagandei subterane insidioase și ale tehnicilor de manipulare pe parcursul anului electoral ce se anunță extrem de tulbure. Motivele sunt clare. Prevalează interesele patronatului, dincolo de etica profesională și de politica editorială. Regimul divers al organismelor media, de stat, publice, comerciale, face dificilă, dacă nu imposibilă, alinierea practicilor jurnalistice la un standard sigur care să detecteze și să evite deepfake.

Procedurile de mistificare a comunicării mediatice produc efecte dezastruoase imediate în rândul celor pe care Axel Bruns i-a numit produtilizatori – activiștii de pe rețelele sociale care produc mesaje (mai mult sau mai puțin corecte) și care devin simultan și utilizatori ai mesajelor primite, pe care le îmbogățesc, în varianta fericită, sau le deformează cu propriile opinii difuzate ca fapte certe, în cel mai rău caz. Aceste persoane care dispun de mijloace digitale de comunicare, dar care în marea majoritate a cazurilor nu au nici pregătirea profesională și nici răspunderea morală pentru produsele lor, sunt copleșiți de tirania autorității. Ea se năpustește în spațiul public alimentată de două segmente componente: probitatea profesională a surselor și expansiunea numerică. Lozinca: „Așa e cum spunem noi, pentru că noi știm mai mult decât tine, deci avem dreptul să hotărâm” este susținută de competențe absolute. Jurnalistul nu poate să conteste afirmațiile Uniunii Europene, pentru că nu are toate sursele să le verifice. Poate doar să citeze sursele și să transfere răspunderea pentru acuratețea datelor celor care le pun în circulație. La fel de bine, același jurnalist, indiferent de gen, nu are cum să supună analizei unor personalități. Al doilea segment care alimentează tirania autorității este numărul. Cu cât acesta este mai mare, cu cât sunt mai numeroși cei care susțin o anumită idee, cu atât ea devine un adevăr acceptat. În limbajul curent auzim frecvent, „Toată lumea știe”, „Întreabă pe oricine, și ai să vezi că așa e!” Multiplicarea surselor, a produtilizatorilor, face și mai dificilă spargerea acestei bariere autoritare care nu se bazează pe fapte.

Cei care susțin că așa e cum afirmă ei, sunt autoritățile, opuse publicului, care dețin monopolul informațiilor de mare interes, strecurate în sfera publică atunci, în modul și în cantitatea în care le sunt favorabile. Scopul autorității, nu numai politice, ci și sociale, economice, culturale sau confesionale, este să instaureze convingerea că tot cea ce emană dinspre autoritate este bun, și să îndepărteze publicul de la probleme reale și de la răspunderea autorității de a da socoteală pentru deciziile sale. Tirania autorității izvorăște din teama pe care aceasta o cultivă și o transplantează în corpul comunicatorilor mediatici. Pe măsură ce autoritatea este chestionată și monitorizată ea devine tot mai tiranică. Ea are un arsenal tot mai bogat, dezvoltat odată cu creșterea comunicării în societate și a capacităților tehnologice de pătrundere în intimitatea individului. Una dintre arme este eliminarea oricăror surse alternative de verificare a faptelor prin: clasificarea/secretizarea unor documente, controlul strict al unor date care feresc autoritatea de răspunderea unor decizii îndoielnice, respingerea cererilor de divulgare a unor informații de interes public, care i-ar limita sau distruge credibilitatea, convingerea că deține adevăruri absolute ce nu pot fi puse la îndoială, frica de a fi înțeleasă greșit sau provocată să dea explicații. În aceste manevre, deep fake este echivalentul armelor de distrugere în masă, pentru că autoritatea poate să pună în circulație chipuri și voci convingătoare care să debiteze în mod fals, opinii, statistici, concluzii și proiecții care induc publicul în eroare, dar alimentează tirania autorității. În această conjunctură, media, și mai ales media video, devin în egală victime și protagoniste. Cel puțin în faza actuală, comunicarea mediatică poate fi depășită doar de industria relațiilor publice care folosește tehnici jurnalistice pentru convingerea publicului. La noi, și în lume, nu le este străină companiilor de PR, lansarea jumătăților de adevăr, marketingul de promovare a deciziilor autorității, sau procesarea frauduloasă a imaginilor în producția de mesaje de interes public. Industria relațiilor publice a simțit potențialul uriaș de mistificare a publicului antrenând în rețele sociale comunicatori neidentificabili, cultivarea lipsei de responsabilitate pentru conținut și forma mesajelor, a surselor anonime, a furtului intelectual. Și aici deepfake întunecă prăpastia spre care este împins publicul lipsit de metode și formate de verificare sau confirmare a conținuturilor mesajelor autorității. În etapa super-digitalizării și a extinderii fără precedent a rețelelor sociale deepfake nu mai reprezintă un monopol comunicațional și de aici marele pericol pe care îl prezintă. Pe scurt, decidenții se comportă tiranic și recurg la confecțiile deepfake, și s-au asigurat că nu li se poate cere să-și asume răspunderea pentru consecințele pe care asemenea manevre le produc pentru că fac parte din autoritate. Publicului îi lipsește voința și unitatea de reacție odată asemenea abuzuri ale autorității descoperite, iar comunitățile afectate de deepfake în urma comenzilor date de autoritate devin tot mai inconsistente, fiecare membru, descurajat sau dezamăgit, preferând să se retragă în intimitatea proprie, copleșit de tirania autorității. Așa, tirania validează acțiunile autorității și duce publicul într-o stare de letargie care-l face ușor manevrabil.

Între tehnicile care însoțesc conceptual deep fake, domină mai noul concept al post-adevărului, care afirmă că mereu există un adevăr mai profund în fapte și situații pe  care numai autoritatea poate să îl dezvăluie, să îl decripteze, ceea ce împinge media la marginea comunicării sociale. Faptele alternative se adaugă acestei pretenții monopoliste a autorității și fură obligația media de a prezenta și partea cealaltă a unei situații, a unui eveniment sau a declarațiilor unor persoane publice. Faptele alternative anulează efectele îmbogățirii unei relatări cu elemente de documentare, precedente și analogii. În fine, dezastruoasă pentru public și utilă în slujba autorității tiranice este demobilizarea asimetrică, tehnică circulată în marketingul politic, care permite preluarea, fără răspundere morală sau penală a unor idei, din platforma unui adversar, îmbrăcarea lor într-o variantă proprie autorității care –i slujește la consolidarea tiraniei sale. Efectele demobilizării asimetrice este tocirea gradului de interes pentru valorile fundamentale, dezamorsarea unor conflicte între autoritate și public în interesul acesteia, inclusiv descurajarea media independente sau distanțate de autoritate, și izolarea publicului într-o stare de adormire confortabilă și de securitate colectivă și individuală care, de fapt, nu există.

 

[1] https://www.tagesschau.de/faktenfinder/hintergrund/deep-fakes-101.html, accesat 6 noiembrie 2019.

[2] https://edition.cnn.com/2019/10/07/tech/deepfake-videos-increase/index.html, accesat 6 noiembrie 2019.

[3] https://www.aargauerzeitung.ch/leben/digital/wenn-merkel-ploetzlich-trumps-gesicht-traegt-die-gefaehrliche-manipulation-von-bildern-und-videos-132155720, accesat 6 noiembrie 2019.

[4] Yvette D. Clarke, H.R.3230 – 116th Congress (2019-2020): „Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act of 2019”. 28 June 2019, www.congress.govaccesat 6 noiembrie 2019.

[5] https://www.latimes.com/politics/story/2019-11-05/deep-fakes-2020-election-silicon-valley-cure, accesat 6 noiembrie 2019.

Nicolae Melinescu, Ph.D. / UZPR

 

Despre autor

Articole asemănătoare

Lasă un răspuns

*

Acest sit folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.