Europos dezinformacijos problema neturi paprasto sprendimo
Praėjus dvejiems metams nuo pagrindinio ES reglamento įsigaliojimo, informacinė aplinka yra labiau suskaldyta nei bet kada.
Skaitmeninių paslaugų aktas turėjo būti Europos atsakymas į dezinformacijos krizę. Po dvejų metų nuo pagrindinių nuostatų įsigaliojimo reikalingas blaivus vertinimas.
Ką SPA pasiekė
SPA sukūrė teisinę sistemą, traktuojančią dideles platformas kaip infrastruktūrą, kuriai taikomi viešojo intereso įsipareigojimai. Privalomos rizikos vertinimai, tyrėjų prieiga prie duomenų ir algoritminės atskaitomybės ataskaitos pateikė įrodymų, kaip platformos veikia.
SPA sukūrė sąlygas geresniam vykdymui. Ar tas vykdymas sekės — tai politinis, ne teisinis klausimas.
— Prof. Joris van Hoboken, Vrije Universiteit Brussel
Ko jis nepadarė
Pagrindinė dėmesio platformų ekonomika nepasikeitė. Platformos laikosi SPA skaidrumo reikalavimų raidės, tačiau toliau eksploatuoja rekomendavimo sistemas, kurios sustiprina skaldantį turinį.
DI problema, kurios SPA nenumatė
What would actually work
The research consensus points to two interventions: media literacy education and real algorithmic transparency beyond what the DSA currently requires.
Moksliniai tyrimai rodo, kad efektyviausios intervencijos prieš dezinformaciją yra ne reguliacinės, o epistemologinės: medijų raštingumo programos, patikimų šaltinių žymėjimas, stabdymas prieš dalinantis nepatikrintu turiniu.
Where enforcement has failed
The Commission has issued violation findings against three platforms and is investigating several more. But the enforcement process is slow — investigations that began in 2023 are still unresolved — and the fines, while nominally up to 6% of global turnover, have not yet been levied at anything approaching that level. Platforms have learned that compliance theatre — publishing reports, creating trust and safety teams, commissioning audits — is sufficient to manage regulatory risk without fundamentally changing their business models.
The AI problem the DSA didn't anticipate
The DSA was designed for a world of human-generated content distributed at scale. It was not designed for a world of AI-generated content that is cheap to produce, difficult to detect, and can be targeted with unprecedented precision. Generative AI has changed the economics of disinformation: what previously required state-level resources can now be produced by a motivated individual with a €20 API subscription.
What would actually work
The evidence suggests that the most effective interventions against disinformation are not regulatory but epistemic: media literacy programmes, trusted source labelling, friction that slows sharing of unverified content. None of these require the DSA. But none of them are as politically satisfying as the idea of large fines levied against American technology companies.