Dynamiczny rozwój sztucznej inteligencji (SI; ang. Artificial Inteligence – AI) od dawna budzi emocje i kontrowersje. Obiecuje ona rewolucję w wielu dziedzinach życia społecznego, gospodarczego i naukowego. Jednakże, w miarę jak jej rola w naszym życiu staje się coraz bardziej znacząca, obok licznych szans i usprawnień, pojawiają się coraz większe obawy związane z zagrożeniami dla wolności słowa, które jej proliferacja może za sobą nieść.
Wolność słowa, jako fundament nie tylko ustroju demokratycznego, ale i całego zachodniego paradygmatu aksjonormatywnego, stanowi jedną z najważniejszych swobód dla każdego człowieka. Pozwala ona na swobodne wyrażanie swoich przekonań, opinii i idei, niezależnie od tego, czy są one popularne czy kontrowersyjne. Jednak rozwijająca się AI niesie ze sobą szereg potencjalnych zagrożeń dla tej fundamentalnej zasady.
W pierwszej kolejności, SI może być wykorzystywana na masową skalę zarówno przez rządy, jak i podmioty rynku prywatnego (jak np. globalne platformy internetowe) do cenzurowania treści na niespotykaną wcześniej skalę, z niezwykłą łatwością i bez konieczności weryfikacji cenzurowanych treści przez czynnik ludzki. Algorytmy SI, które analizują i filtrują zawartość zamieszczaną w Internecie, mogą zostać zaprogramowane w taki sposób, by eliminować treści uważane za nieodpowiednie lub niezgodne z pewnymi narzuconymi normami. To może prowadzić do ograniczenia dostępu ogółu użytkowników do informacji i opinii, które nie są zgodne z oficjalną linią rządzących lub korporacji, co stanowić może poważne zagrożenie dla pluralizmu mediów i wolności słowa.
Owszem, nawet do tej pory, przed dobą powszechnego wykorzystywania do tego celu zaawansowanych narzędzi AI, cenzurowanie treści na wiodących portalach społecznościowych, takich jak Facebook czy Twitter było zjawiskiem faktycznie występującym i nieraz bardzo kontrowersyjnym. O ile cenzura i usuwanie z sieci treści jawnie sprzecznych z prawem, jak np. treści gorszących czy pornograficznych, lub naruszających dobra osobiste określonych osób lub ich prawa autorskie nie były raczej powszechnie kontestowane, to sytuacje, w których wielkie korporacje przedstawiały swoje arbitralne i jawnie nacechowane politycznie decyzje o usunięciu niechcianych treści jako rzekomą konsekwencję naruszenia przez danego użytkownika wewnętrznego regulaminu świadczenia usług (często bez podania konkretnego zapisu regulaminowego, który miał być naruszany), wywoływały nieraz falę oburzenia społecznego i zapowiedzi reform legislacyjnych, mających poddać samowolę „nowych regulatorów” władzy państwa. Tak było chociażby z cenzurą, którą w 2020 roku, przed amerykańskimi wyborami prezydenckimi, obłożony został przez platformę Twitter artykuł New York Post rzucający światło na podejrzenia korupcyjnych działań syna ówczesnego kandydata na prezydenta Huntera Bidena. Za przykład z polskich realiów posłużyć może natomiast usunięcie w 2022 r. przez portal Facebook profilu jednej z partii politycznych posiadających swoją reprezentację w Sejmie za rzekomo niezgodne z regulaminem platformy poglądy na temat pandemii Covid-19. Pomimo ostatecznego odwrócenia obydwu z powyższych decyzji po upływie pewnego czasu, wywarły one znaczący wpływ na realia polityczne i zapewne przyczyniły się do zwiększenia świadomości społecznej na temat potrzeby narzucenia pewnych wzorców kontroli tego rodzaju platformom, aby sytuacje te nie przekładały się na nieuczciwe tłumienie debaty społecznej, poprzez uniemożliwianie jednej ze stron danego sporu równoprawnego wyrażenia swojego poglądu na daną kwestię.
Mając na uwadze wszystkie złe strony tego rodzaju historycznych decyzji, trzeba jednakowoż uwzględnić, iż bez wsparcia narzędzi sztucznej inteligencji, działania ograniczające swobodę wypowiedzi siłą rzeczy musiały ograniczać się do wypowiedzi najbardziej wyeksponowanych osób i instytucji, w tym polityków, celebrytów, twórców internetowych – trudno było natomiast skontrolować wypowiedzi poszczególnych „szeregowych” użytkowników Internetu – oczywiście, było to częściowo możliwe poprzez zastosowanie algorytmów wyszukujących i blokujących określone słowa – ale przy inteligentnym i eufemistycznym ujęciu tematu przez użytkownika i obejściu przez niego wrażliwych słów, stawało się to znacznie trudniejsze.
Obecnie, przy zastosowaniu narzędzi sztucznej inteligencji, tego rodzaju techniki mogą być wdrożone na masową skalę, obejmując potencjalnie nawet wszystkich użytkowników publikujących treści na danym portalu. Implikacje tego rodzaju działań dla kształtu dyskursu w XXI-wiecznym społeczeństwie informacyjnym i demokratycznym byłyby trudne do przewidzenia, chociaż trudno nie odwołać się w tym kontekście do wzorców znanych z czasów PRLu, lub obecnie – z Chińskiej Republiki Ludowej.
Jednocześnie trzeba mieć natomiast na uwadze również kwestie prawne – powyższy system w dużej mierze pokrywałby się z udoskonaloną formą znanej nam z doświadczeń historycznych cenzurą prewencyjną, obecnie zakazaną wprost na gruncie art. 30 zd. 2 polskiej Konstytucji, zgodnie z którym „[c]enzura prewencyjna środków społecznego przekazu oraz koncesjonowanie prasy są zakazane”. Przykładowo, w Stanach Zjednoczonych podobną gwarancję wolności słowa, z którą tego rodzaju praktyki prima facie zdają się nie być kompatybilne (również, gdy są wykonywane przez podmiot niepaństwowy, ale pełniący quasi-regulacyjne funkcje) jest oczywiście pierwsza poprawka do Konstytucji USA.
Oprócz bezpośredniego stosowania cenzury, wspomnieć należy również o możliwości pośredniego wpływu na dyskurs publiczny poprzez wykorzystanie sztucznej inteligencji do manipulowania opinią publiczną – co jest trudniejsze do zaobserwowania, ale potencjalnie okazać się może równie niebezpieczne. Algorytmy analizujące dane i zachowania użytkowników Internetu mogą być wykorzystywane do tworzenia spersonalizowanych treści, mających na celu wpływanie na poglądy i zachowania ludzi. Przykładowo, przy formalnym utrzymaniu wszystkich zgodnych z prawem treści w Internecie, można jednocześnie – za pomocą algorytmów opartych na AI – nadać określonym treściom zdecydowanie większy zasięg niż innym, a jeszcze inne – można dla większości użytkowników nawet ukryć, za wyjątkiem tych, którzy będą tejże informacji wprost wyszukiwać. Tego rodzaju zabieg może w rezultacie prowadzić do dezinformacji oraz dezorientacji, co ma potencjał naruszenia demokratycznego procesu wyborczego i doprowadzenia do sytuacji, w której kształt publicznego dyskursu definiowany będzie według interesów tych, którzy faktycznie kontrolują SI.
W końcu, SI może prowadzić do nadużyć w dziedzinie ochrony praw autorskich. Algorytmy rozpoznawania treści mogą być używane do automatycznego usuwania lub blokowania materiałów, które są podejrzane o naruszenie praw autorskich. To może prowadzić do niezasłużonych ograniczeń w dostępie do treści, które powinny być dostępne publicznie, a także do nadmiernego kontrolowania nad własnością intelektualną. Jednocześnie z drugiej strony, można wyobrazić sobie scenariusz, w którym algorytmy sztucznej inteligencji mogą w przyszłości posłużyć do sprawnego obchodzenia praw autorskich poprzez tworzenie dzieł znajdujących się formalnie na pograniczu ochrony intelektualnej, nie przekraczając jej, ale jednocześnie tworząc dzieło podobne, ale – jako twór „pozaludzkiej” inteligencji – nieobjęty już ochroną.
Pomimo powyższych przykładów, sama sztuczna inteligencja nie powinna być sama w sobie postrzegana jako źródło zagrożeń dla wolności słowa. Jest ona raczej narzędziem, którego potencjał może przyczyznić się zarówno do ograniczenia, jak również do poszerzenia faktycznych ludzkich swobód, w tym – swobody wypowiedzi. To, jak SI zostaje użyta, zależy od ludzi, którzy ją kontrolują i regulują. Dlatego kluczowe jest, aby wprowadzać odpowiednie prawne i etyczne ramy regulujące wykorzystanie SI w dziedzinie komunikacji i mediów społecznościowych.
Warunkiem sine qua non jest transparentność i odpowiedzialność za stosowane algorytmy. Organizacje i osoby stosujące SI powinny być – w określonym zakresie – zobowiązane do udostępniania informacji na temat sposobu działania swoich algorytmów oraz kryteriów, na podstawie których są one programowane. To pozwoli na lepszą kontrolę i zrozumienie procesu filtrowania i manipulacji treściami.
Ponadto, potrzebujemy ścisłego nadzoru i regulacji w dziedzinie wykorzystania SI w celach politycznych i społecznych. Organizacje społeczeństwa obywatelskiego i niezależne agencje powinny monitorować działania SI i zgłaszać nadużycia władzy.
Wolność słowa to nie tylko prawo, ale także fundament liberalnego społeczeństwa i pluralizmu poglądów. W obliczu rosnącej roli SI w naszym życiu, musimy podejść do tych nowych technologii z rozwagą i dbać o to, aby nie naruszały one naszych podstawowych wartości i praw. Wolność słowa powinna być chroniona i respektowana, niezależnie od tego, jakie nowe technologie wkraczają w nasze życie.
Obrazek wyróżniający: Image by Freepik