A trecut un an de la Comisia Europeană am adus o grămadă de giganți adtech împreună pentru a vărsa cerneală pe un Cod de practică voluntar pentru a face ceva – deși nimic nu se poate cuantifica – ca un prim pas pentru a opri răspândirea dezinformării online.

Ultima sa carte de raport cu privire la acest efort voluntar însumează platformele ar putea merge mai bine.

Comisia a spus același lucru în ianuarie. Și, fără îndoială, o va spune din nou. Cu excepția cazului în care autoritățile de reglementare să înțeleagă urzicile modelelor de afaceri online care profită prin maximizarea implicării. După cum spune și zicerea, minciuna zboară în timp ce adevărul vine să se poticnească după. Așadar, încercările de a micșora dezinformarea fără a repara stimulentele economice pentru a răspândi BS în primul rând se ocupă în mare parte de modificări și optici cosmetice.

Semnatarii Codului de practică al Comisiei în domeniul dezinformării sunt: ​​Facebook, Google, Twitter, Mozilla, Microsoft și mai multe asociații comerciale care reprezintă platforme online, industria publicitară și agenții de publicitate – inclusiv Biroul de publicitate pe Internet (IAB) și Federația Mondială a agenților de publicitate ( WFA).

Într-un comunicat de presă care evaluează rapoartele anuale de astăzi, întocmite de semnatari, Comisia își exprimă dezamăgirea de faptul că nicio altă platformă de internet sau companii de publicitate nu s-au înscris de când Microsoft s-a alăturat ca o completare tardivă la Cod în acest an.

„Lăudăm angajamentul platformelor online de a deveni mai transparente cu privire la politicile lor și de a stabili o cooperare mai strânsă cu cercetătorii, verificatorii de date și statele membre. Cu toate acestea, progresul diferă foarte mult între semnatari și rapoartele furnizează informații despre impactul real al măsurilor de autoreglementare preluate în ultimul an, precum și mecanisme de control independent ”, scriu comisarii Věra Jourová, Julian King și Mariya Gabriel a spus într-o declarație comună. [emphasis ours]

„În timp ce alegerile pentru Parlamentul European din 2019 din mai nu erau în mod clar lipsite de dezinformare, acțiunile și raportarea lunară înaintea alegerilor au contribuit la limitarea spațiului pentru interferențe și îmbunătățirea integrității serviciilor, la perturbarea stimulentelor economice pentru dezinformare și la asigurarea o mai mare transparență a publicității politice și bazate pe probleme. Încă, persistă propagarea automatizată la scară largă și dezinformarea și trebuie depus mai multe lucrări în toate domeniile Codului. Nu putem accepta acest lucru ca un nou normal ", adaugă ei.

Desigur, riscul este că codul încheieturii Comisiei are riscuri de a cimenta rapid o jeleu lăptoasă de autoreglare în zona confuză de dezinformare ca fiind noua normală, așa cum am avertizat la lansarea Codului anul trecut.

Comisia continuă să lase ușa deschisă (o fisură) pentru a face ceva pe care platformele nu le poate ignora (în mare parte) – adică reglementările actuale – spunând că evaluarea eficacității Codului rămâne în curs.

Dar este doar un băț înfundat. În acest punct de tranziție între comisiile de ieșire și cele de intrare, se pare că conținutul rămâne într-un model de deținere „trebuie să funcționeze mai bine”. (Sau: „Este ceea ce spune Comisia atunci când are alte priorități”, așa cum o spune o sursă din interiorul instituției.)

O evaluare cuprinzătoare a modului de funcționare a Codului este prevăzută la începutul anului 2020 – adică după ce noua Comisie și-a preluat mandatul. Așadar, da, acesta este sunetul care poate fi lansat încă câteva luni.

Rezumând principalele sale constatări din rapoartele „progresului” auto-semnate ale semnatarilor, Comisia de ieșire spune că au raportat o transparență îmbunătățită între ei, în urmă cu un an, în ceea ce privește discuțiile lor politici împotriva dezinformării.

Dar indică un progres slab implementarea angajamentelor de abilitare a consumatorilor și a comunității de cercetare.

„Furnizarea de date și instrumente de căutare este încă episodică și arbitrară și nu răspunde nevoilor cercetătorilor pentru control independent”, avertizează.

Aceasta este o problemă, în mod ironic, că unul dintre semnatari, Mozilla, a fost un critic activ pentru alții, inclusiv Facebook, a cărui API publicitară politică a revizuit în mod amețitor în acest an, considerând că nu este potrivit pentru scopuri și „proiectată în moduri care împiedică activitatea importantă a cercetătorilor, care informează publicul și factorii de decizie cu privire la natura și consecințele dezinformării”. Deci, er, ouch.

De asemenea, Comisia este critică pentru ceea ce afirmă că sunt variații „semnificative” în sfera acțiunilor întreprinse platforme care să pună în aplicare „angajamente” în conformitate cu Codul, menționând și diferențele în implementarea politicii de platformă; cooperarea cu părțile interesate; sensibilitatea la contextele electorale persistă în statele membre; precum și diferențele de valori specifice UE furnizate.

Dar, având în vedere că Codul a cerut vreodată o acțiune destul de vagă în unele zone destul de largi, fără a prescrie exact ce platforme s-au angajat să facă și nici să stabiliți valori de referință pentru măsurarea, inconsistența și varietatea este cu adevărat ceea ce ați aștepta. Asta și poate fi dat afară pe drum.

Codul a extras un angajament cvasi-ferm de la semnatari – în ceea ce privește problema detectării și identificării de bot – prin faptul că a primit platforme care să promită „să stabilească sisteme și reguli de marcare clare pentru roboți pentru a se asigura că activitățile lor nu pot fi confundate cu interacțiunile umane”.

Un an mai târziu, este greu de observat un semn clar de progres în acest obiectiv. Deși platformele ar putea susține că ceea ce susțin este un efort sporit pentru a prinde și ucide conturi bot-uri dăunătoare înainte de a avea șansa de a răspândi orice falsuri este locul în care cea mai mare parte a transpirației lor se află pe acest front.

Twitter raportul anual, de exemplu, vorbește despre ce face luptați împotriva „spamului și automatizării rău intenționate în mod strategic și la scară” pe platforma sa – spunându-i accentul este „din ce în ce mai mult pe identificarea proactivă a conturilor și comportamentului problematic, mai degrabă decât așteptarea până când vom primi un raport”; după care spune că își propune să „conteste… conturile care se implică într-un comportament spammy sau manipulator înainte ca utilizatorii să fie expuși la conținut înșelător, inautentic sau care distrag atenția”.

Așadar, cu alte cuvinte, dacă Twitter face acest lucru perfect – și prinde fiecare bot rău intenționat înainte de a avea șansa de a-l redacta – ar putea argumenta plauzibil că etichetele bot sunt redundante. Cu toate că nu este clar în poziția de a susține că a câștigat încă războiul anti-spam / malware. Ergo, utilizatorii săi riscă să consume tweeturi neautentice care nu sunt clar etichetate ca atare (sau chiar ca „potențial suspectate de Twitter). Probabil pentru că acestea sunt conturile care continuă să se strecoare sub radarul său de detectare a botului.

De asemenea, nu există nimic în raportul lui Twitter cu privire la faptul că etichetează chiar și conturi bot-uri (care nu sunt rău-intenționate) – în scopul de a preveni confuziile accidentale (după ce toate satirile interpretate greșit, deoarece adevărul poate duce și la dezinformare). Și acest lucru, în ciuda faptului că compania sugerează acum un an că se juca cu adăugarea de etichete contextuale în conturile bot, cel puțin unde le putea detecta.

În cazul în care va fi rezistat să adauge alte insigne în conturi. În timp ce o reformă internă a politicii sale de verificare pentru ecusoanele verificate a fost pusă în pauză anul trecut.

Raportul Facebook face, de asemenea, o mențiune trecătoare a roboților, în secțiunea „Spam”, subcapitolată – unde scrie circular: „Conținutul acționat pentru spam a crescut considerabil, de când am găsit și am luat măsuri pentru mai mult conținut care nu corespunde standardelor noastre. ”

Acesta include câteva puncte de date pentru a susține această reclamație de mai multe spam-uri stricate – citând un raport comunitar de punere în aplicare a standardelor comunitare din mai 2019 – în care se afirmă că Q4 2018 și T1 2019 au acționat pe 1,8 miliarde de bucăți de spam în fiecare trimestru față de 737 milioane în T4 2017; 836 milioane în primul trimestru 2018; 957 milioane în trimestrul II 2018; și 1,2 miliarde în T3 2018.

Deși a rămas publicarea de date spam actualizate mai actualizate, observând în raportul transmis la CE că:Se estimează că valorile actualizate ale spam-ului vor fi disponibile în noiembrie 2019 pentru trimestrul II și T3 2019 – adică târziu pentru includerea în acest raport.

Raportul Facebook notează eforturile continue de a pune etichete contextuale pe anumite tipuri de conținut suspect sau partizanat, cum ar fi etichetarea fotografiilor și videoclipurilor care au fost verificate în mod independent ca fiind înșelătoare; etichetarea mediilor controlate de stat; și etichetarea anunțurilor politice.

Etichetarea bot-urilor nu este discutată în raport – probabil, deoarece Facebook preferă să-și concentreze atenția asupra valorilor autorefinite de eliminare a spam-ului și a nămolului apei, discutând câtă activitate suspectă continuă să găzduiască pe platforma sa, fie prin incompetență, lipsă de resurse. sau pentru că este extrem de convenabil din punct de vedere politic pentru afacerile sale.

Etichetarea tuturor acestor roboți ar însemna Facebook semnalarea inconsecvențelor în modul în care își aplică propriile politici – într-un mod care ar putea pune în prim-plan propriul prejudecat politic. Și nu există niciun mecanism de autoreglare sub soare, care să facă ca Facebook să se încadreze în astfel de standarde duble.

Deocamdată, cerința Codului pentru semnatari să publice un raport anual cu privire la ceea ce fac pentru a face față dezinformării pare să fie cea mai mare câștig de până acum. Cu toate că, este foarte vag legat de auto-raportare. În timp ce unele dintre aceste „rapoarte” nu apar chiar la o pagină completă cu text A4 – așadar, setează-ți așteptările în consecință.

Comisia a publicat toate rapoartele aici. De asemenea, a elaborat propriul rezumat și evaluarea acestora (aici).

„În general, raportarea ar putea beneficia de perspective mai detaliate și calitative în unele domenii și de contexte suplimentare, cum ar fi tendințele”, scrie acesta. „În plus, valorile furnizate până acum sunt în principal indicatori de ieșire, mai degrabă decât indicatori de impact.”

În general, al Codului – ca „standard de autoreglementare” – Comisia susține că „a oferit o oportunitate pentru o mai mare transparență în politicile platformelor de dezinformare, precum și un cadru pentru un dialog structurat pentru a monitoriza, îmbunătăți și implementa eficient aceste politici ”, Adăugând:„ Acest lucru reprezintă un progres în ceea ce privește situația existentă înainte de intrarea în vigoare a Codului, în timp ce sunt încă necesari pași serioși ai semnatarilor individuali și ai comunității în ansamblu. "

Sursa articol

LĂSAȚI UN MESAJ

Please enter your comment!
Please enter your name here