Rząd w ogniu wielu napięć, z których część sam sprokurował, takich jak mętlik migracyjny, czy spór o wyniki wyborów, proponuje następne. Minister cyfryzacji Krzysztof Gawkowski mówi publicznie, że nie wyklucza wyłączenia X, dawnego Twittera w Polsce.
– (…) mam wrażenie, że wchodzimy na wyższy poziom mowy nienawiści, który sterowany jest przez algorytmy. (…) Przymknięcie oczu albo śmianie się z tego, jest błędem, które może kosztować [życie – przyp. mój] człowieka – mówił Gawkowski.
Kiedy ktoś mówi o zagrożeniu dla życia, robi się poważnie. Ale weźmy wszystko, co się da pod lupę. Wyłączenie X to poważna sprawa. Oznacza pozbawienie ponad pięciu milionów obywateli możliwości dostępu do informacji i porozumiewania się.
Usprawiedliwieniem miałaby być gorączka, w jaką wpadł X po zdjęciu algorytmów pilnujących względnej poprawności politycznej. I w jednej chwili, nie starając się o elegancję, X zaatakował polityków z lewej i prawej strony – Donalda Tuska i Jarosława Kaczyńskiego w Polsce oraz wielu polityków na świecie, nie oszczędzając swojego właściciela Muska, o którym napisał, że to megaloman. Minister Gawkowski przebywając na „cyfrowym Trójkącie Weimarskim” złożył wyjaśnienia w sprawie X.
Co to jest „cyfrowy Trójkąt Weimarski?” – pytam Pawła Pelca, prawnika, który specjalizuje się w europejskich aktach prawnych dotyczących AI, kiedyś wiceprzewodniczącego Komisji Papierów Wartościowych, ale on przyznaje, że o nowej instytucji nic nie wie. – Można przypuszcza – sugeruje – że będzie to kolejna antyamerykańska instytucja, chcąca odpowiednio wysoko opodatkować amerykańskie platformy cyfrowe.
Czy w sprawie wyłączenia X minister Gawkowski się zagalopował? Rozumiemy irytację, jeżeli się weźmie pod uwagę rolę X w ostatnich wyborach, które miał w cuglach wygrać Rafał Trzaskowski. Nie wygrał, bo X błyskawicznie weryfikował wypowiedzi kandydatów na prezydenta, przytaczał ich co bardziej niemądre wypowiedzi i pokazywał reakcje publiczności. Dotyczyło to wszystkich kandydatów, ale internauci prawicowi byli tym razem bardziej aktywni, a hasło: „Byle nie Trzaskowski” ogarnęło także elektorat impulsowy, którego dystans do takich partii, jak Konfederacja, Polska 2050 i PiS jest mniej więcej równy, a decyzje podejmuje pod wpływem istotnych dla siebie bodźców.
Zapędy do stworzenia cenzury nie są obce temu rządowi. Przeciwnie. Niedawno wpadł na pomysł, by bez sądu i wiedzy autorów prezes UKE mógł rozstrzygać, czy zablokować treści w Internecie. – To duże zagrożenie dla wolności słowa – mówiła wtedy Zofia Romaszewska, w latach 70. członek KOR i twórca podziemnego Radia „Solidarność” w stanie wojennym. Według niej, jak i wielu osób związanych z mediami, resort cyfryzacji wpisał do projektu ustawy, która miała wdrażać akt o usługach cyfrowych (DSA) – procedurę blokowania treści w mediach społecznościowych. Dziennik Gazeta Prawna zwracał uwagę, że resort „zrobił to już po przeprowadzeniu konsultacji publicznych, w pierwotnej wersji projektu jej nie było”.
Zgodnie z proponowanymi przepisami prezes Urzędu Komunikacji Elektronicznej mógł nakazać natychmiastowe zablokowanie treści w Internecie, jeśli uzna, że naruszają one czyjeś dobra osobiste, prawa własności intelektualnej lub też wyczerpują znamiona czynu zabronionego, pochwalają go lub nawołują do jego popełnienia. Ma to ocenić w postępowaniu trwającym od 2 do 21 dni – bez sądu i bez udziału osoby, która zamieściła w sieci blokowany wpis – napisano w tekście DGP.
W ten sposób zrealizowano rozporządzenie Brukseli, ale czy sam brukselski akt o usługach cyfrowych nie wchodził z butami w wolność słowa? I po co on w ogóle był? Nie łatwo rozeznać się w gąszczu regulacji, którymi raczy nas Unia Europejska: DGP, DMA, GDPR. Wejdźmy na chwilę do rubryki: DSA – pytania i odpowiedzi na stronach Komisji Europejskiej. Tam rzeczona KE podkreśla, że „DSA wprowadza szereg zasad chroniących nasze podstawowe prawa online. Prawa te obejmują wolność myśli, wolność wypowiedzi, wolność informacji i wolność opinii bez manipulacji”.
Jednak w nowym raporcie „Zapobieganie potokom nienawiści czy tłumienie wolności słowa w internecie?”, amerykański think tank The Future of Free Speech zwraca uwagę, że regulacje dotyczące Internetu zmieniły się istotnie w 2017 roku wraz z przyjęciem przez Niemcy ustawy o egzekwowaniu przepisów w sieci (NetzDG), „mającej na celu zwalczanie nielegalnych treści online, takich jak zniesławienie, podżeganie i zniewagi religijne”. To ta ustawa legła u podstaw DSA. „Założenia leżące u podstaw uchwalenia DSA obejmowały obawy przed zalewem treści szerzących nienawiść i nielegalnych treści w internecie i mediach społecznościowych” – zauważa raport.
Ale określenie „nienawiść” i inne formy niedopuszczalnych treści często zależą od gustu obserwatora. A możliwość karania platform za zezwalanie na zakazaną mowę zachęca do blokowania treści. Fundacja Electronic Frontier Foundation ostrzegała w 2022 roku, że ustawa DSA „daje agencjom rządowym zbyt duże uprawnienia w zakresie oznaczania i usuwania potencjalnie nielegalnych treści oraz ujawniania danych o anonimowych mówcach”.
„Ustawa o usługach cyfrowych w zasadzie zmusi wielkie firmy technologiczne do działania w roli prywatnego cenzora w imieniu rządów – cenzora, który będzie cieszył się szeroką swobodą działania w ramach niejasnych i subiektywnych standardów” – ostrzegał w tym samym roku Jacob Mchangama, obecnie dyrektor wykonawczy organizacji The Future of Free Speech.
I na czyje wyszło?
„Zgodne z prawem wypowiedzi w Internecie stanowiły większość usuniętych treści z postów na Facebooku i YouTube we Francji, Niemczech i Szwecji” – czytamy w raporcie. „Spośród usuniętych komentarzy zbadanych na różnych platformach i w różnych krajach, od 87,5% do 99,7%, w zależności od próby, było prawnie dozwolonych. Najwyższy odsetek prawnie dozwolonych usuniętych komentarzy odnotowano w Niemczech, gdzie odpowiednio 99,7% i 98,9% usuniętych komentarzy na Facebooku i YouTube uznano za zgodne z prawem.” Co za kuriozum. System usuwał wypowiedzi, z których prawie wszystkie były zgodne z prawem.
Świetną wykładnię tego daje w rozmowie z Tomaszem Wróblewskim, szefem Warsaw Enterprise Institute, Nadin Strossen – prawnik, była przewodnicząca American Civil Liberties Union i autorka książki „Nienawiść. Jak cenzura niszczy nasz świat”. Myślę, że wszyscy zgadzamy się, że nienawiść jest niepożądana. Wszystkim nam przyświeca zmiana postaw w celu zwiększenia tolerancji oraz wzajemnego szacunku i uprzejmości. Pytanie tylko, jaka jest skuteczna strategia realizacji tego celu i jaka jest strategia, która nie stłumi niepotrzebnie wielu ważnych, uprawnionych debat na temat polityki publicznej? Według Strossen problem ze zbyt szerokimi przepisami, które są wymierzone w mowę nienawiści, dezinformację lub mowę ekstremistyczną jest nieusuwalny. Są one wyjątkowo niedoskonałe, gdyż pojęcie „mowy nienawiści” jest nieuchronnie subiektywne, niejasne, szerokie, a zatem podlega manipulacji ze strony każdego, kto ma władzę. Jak można się spodziewać, władza będzie egzekwowana w sposób, który promuje dominującą ideologię partii rządzącej lub innych potężnych grup interesu, i będzie atakować każdy pogląd, który jest krytyczny, każdy pogląd odmienny, każdy pogląd mniejszości.
Wróćmy do naszego ministra.
Zakończyły się konsultacje społeczne nad projektem nowej „Polityki rozwoju sztucznej inteligencji w Polsce do 2030 roku” – który okazał się katastrofą. Ogólnikowy dokument stara się odgórnie programować innowacje AI zamiast skupić się na tworzeniu warunków dla ich rozwoju. Nie ma firm, czy instytucji, które uznałyby rację bytu tego dokumentu. Może więc w zamian rząd, udając liberalnego światowca, proponuje nam właśnie gąszcz przepisów, które mają potocznie mówiąc „złapać nas za twarz”, by raz na zawsze wybić z głowy pomysły nie idące po linii Brukseli i Tuskowej Warszawy.
Gawkowski podkreśla, że „wolność słowa należy się człowiekowi, a nie sztucznej inteligencji”. Poproszony o komentarz Paweł Pelc nazywa to „szalonym oksymoronem”. Ta wewnętrzna sprzeczność ma nas być może uspokoić. Ale nie powinna. Zbyt wiele jest głosów zaniepokojonych obecną sytuacją.