Słownik pojęć: platformy, algorytmy i kultura uczestnictwa w badaniach

0
1
Rate this post

Nawigacja po artykule:

Dlaczego słownik pojęć jest kluczowy w badaniach internetu

Badania internetu opierają się na pojęciach, które są jednocześnie techniczne, ekonomiczne i kulturowe. Te same słowa – platforma, algorytm, społeczność, kultura uczestnictwa – znaczą coś innego dla programisty, socjolożki, analityka marketingowego i aktywistki. Bez uświadomienia sobie tych różnic badacz szybko zaczyna mieszać poziomy analizy, a wnioski tracą spójność.

Przykładowo: dla inżyniera algorytm to konkretna procedura obliczeniowa, dla badacza kultury – część szerszej infrastruktury władzy i modulowania widoczności treści. Obie perspektywy są zasadne, ale prowadzą do innych pytań badawczych, innych metod i innych rodzajów danych. Słownik pojęć nie jest ozdobnikiem wstępu – to rama, w której w ogóle da się sensownie zadawać pytania.

Różne dyscypliny, te same słowa – odmienne znaczenia

Największe napięcia pojawiają się tam, gdzie jedno słowo stało się modne i „uniwersalne”. Kilka kluczowych przykładów:

  • Algorytm – w informatyce: formalny przepis rozwiązania problemu; w praktyce badań internetu: złożony system łączący kod, dane, modele biznesowe, regulacje prawne i praktyki użytkowników.
  • Platforma – w ekonomii: model pośrednika między stronami rynku; w socjologii cyfrowej: infrastruktura wytwarzania i regulowania relacji społecznych; w marketingu: „kanał dotarcia” do odbiorców.
  • Społeczność – w badaniach klasycznych: relatywnie stabilna grupa z gęstymi więziami; w praktyce social media: każdy większy zbiór obserwujących, nawet jeśli nigdy ze sobą nie rozmawiają.

Jeśli w jednym projekcie analityk danych, badaczka kultury i osoba projektująca produkt używają tych samych słów w różnych znaczeniach, ilość nieporozumień rośnie wykładniczo. Dlatego w profesjonalnych zespołach badawczych początkowy etap definicyjny to nie akademicka „fanaberia”, ale inwestycja w przejrzystość całej pracy.

Słownictwo jako ukryta mapa władzy

Pojęcia nie są neutralne. Kto definiuje pojęcia, ten po cichu ustawia granice tego, co uchodzi za „naturalne”, „racjonalne” i „niewidoczne”. Nazwanie YouTube’a czy Ubera „platformą” zamiast „pracodawcą” czy „nadawcą” pomaga firmom przesuwać na użytkowników odpowiedzialność i koszty, a sobie zostawiać kontrolę i zyski. Z kolei mówienie o „algorytmie”, zamiast o „polityce firmy dotyczącej rekomendacji”, maskuje, że wiele decyzji ma charakter biznesowy, a nie czysto techniczny.

Badacz, który bezrefleksyjnie przejmuje język firm technologicznych („treści zyskują widoczność dzięki jakości i zaangażowaniu”), wzmacnia ich narrację. Ten, który świadomie rozróżnia między językiem platform a językiem krytycznej analizy, może zadawać mniej wygodne, ale bardziej trafne pytania: jakie formy pracy użytkowników są ukrywane? Jakie praktyki są wypychane poza zasięg widoczności? Kto nie ma szans „zagrać z algorytmem”, bo nie spełnia domyślnych norm platformy?

Jak spór o definicje wpływa na metody i interpretacje

Spór o słowa często wygląda na akademicką drobiazgowość, ale bezpośrednio przekłada się na praktykę badawczą. Kilka typowych przełożeń:

  • „Społeczność” vs „networked publics” – jeśli założysz, że badana grupa to „społeczność”, będziesz szukać więzi, norm, ról. Jeśli nazwiesz ją „publicznością sieciową”, skupisz się raczej na przepływach treści, wspólnych punktach odniesienia, infrastrukturze widoczności.
  • „Algorytm” jako kod vs system socjotechniczny – w pierwszym wypadku metody: analiza kodu, rekonstrukcja logiki obliczeniowej; w drugim: etnografia, audyty, obserwacja, jak algorytm jest interpretowany i współtworzony przez ludzi.
  • „Kultura uczestnictwa” vs „platform labor” – mówienie o uczestnictwie kieruje uwagę na kreatywność, remiksy, współtworzenie; mówienie o pracy platformowej uwidacznia wyzysk, klasyfikacje, nierówności i brak zabezpieczeń.

Bez uzgodnienia słownika zespół może realizować kilka różnych badań pod jednym tytułem, a następnie zestawić ich wyniki tak, jakby były to odpowiedzi na to samo pytanie. Taka sytuacja rodzi pozorny konsensus, który szybko się rozsypuje przy pierwszym krytycznym czytelniku.

Kiedy precyzja pojęciowa przeszkadza

Istnieje jednak druga skrajność: fetyszyzowanie definicji. Nadmierna sztywność pojęciowa może utrudniać uchwycenie nowych zjawisk. Platformy zmieniają interfejsy co kilka miesięcy, użytkownicy remiksują praktyki, kategorie „nadawca” i „odbiorca” się mieszają. Zbyt twarde trzymanie się jednej definicji może sprawić, że badacz przestaje widzieć to, co nie pasuje do ulubionego schematu.

Dobrym rozwiązaniem jest stosowanie definicji roboczych i jawnie warunkowych: jasno określasz, jak rozumiesz dane pojęcie w danym projekcie, przyznajesz, że istnieją inne ujęcia i wskazujesz, co tracisz i co zyskujesz, wybierając konkretny wariant. To uczciwsze niż udawanie, że da się raz na zawsze zdefiniować „platformę” lub „kulturę uczestnictwa”.

Para w mieszkaniu przegląda media społecznościowe na smartfonach
Źródło: Pexels | Autor: Viralyft

Platforma – od technologii do modelu władzy

„Platforma” to jedno z tych słów, które weszły do języka potocznego tak głęboko, że wydaje się, iż każdy wie, o co chodzi. Tymczasem w badaniach internetu precyzyjne rozróżnienie między platformą jako infrastrukturą, rynkiem i środowiskiem społecznym jest kluczowe, bo każda z tych perspektyw odsłania inne napięcia i mechanizmy władzy.

Techniczne, ekonomiczne i społeczne oblicze „platformy”

Na poziomie technicznym platforma to infrastruktura, która umożliwia działanie różnych aplikacji, usług czy modułów. Android, iOS, systemy chmurowe – to klasyczne przykłady. Z tego punktu widzenia kluczowe są API, standardy, biblioteki, kompatybilność. Pytania badawcze: jakie dane są dostępne, a jakie zablokowane? Jakie integracje są wspierane, a które utrudniane?

W ekonomii mówi się o platformach dwustronnych lub wielostronnych, które pośredniczą między różnymi grupami użytkowników – kierowcami i pasażerami, sprzedawcami i kupującymi, reklamodawcami i odbiorcami. Tu centralne są pojęcia efektów sieciowych, prowizji, monopoli, uzależnienia całych branż od jednego pośrednika. Badacz z tej perspektywy częściej analizuje modele biznesowe, strukturę rynku i przepływy wartości, niż interfejs użytkownika.

Socjologia i antropologia cyfrowa skupiają się na platformie jako środowisku społecznym: zbiorze reguł, norm i affordances – możliwości działania, które interfejs i kod oferują użytkownikom. Facebook, TikTok czy Discord są tu traktowane jako przestrzenie, w których kształtują się relacje, tożsamości, konflikty i wspólnoty. To ujęcie kieruje wzrok na moderację treści, formy widoczności, narzędzia interakcji i sposoby uczenia się kultury platformy.

Mieszanie tych poziomów prowadzi do nieporozumień. Gdy mówisz „platforma ogranicza wolność słowa”, możesz mieć na myśli: (1) ograniczenia w API, (2) warunki korzystania z rynku reklamowego, (3) decyzje moderatorów i algorytmów widoczności. To trzy różne poziomy analizy, wymagające innych danych i rozmówców.

Platforma, serwis, aplikacja – dlaczego rozróżnienie ma znaczenie

W potocznym języku „platforma”, „serwis” i „aplikacja” bywają używane zamiennie. W badaniach to skrót, który bywa kosztowny. Przykład:

  • Serwis – konkretna usługa dostępna pod określonym adresem, o określonej funkcji (np. YouTube jako serwis wideo, Gmail jako serwis pocztowy).
  • Aplikacja – aplikacja mobilna lub desktopowa, będąca interfejsem do korzystania z serwisu i infrastruktury (np. aplikacja Instagram na telefonie).
  • Platforma – szerszy ekosystem techniczno-biznesowy, który obejmuje wiele serwisów i aplikacji (np. Meta jako platforma łącząca Facebooka, Instagrama, WhatsApp i ich zaplecza reklamowe).

Badanie „Instagramu” może dotyczyć interfejsu aplikacji (np. jak użytkownicy korzystają z Reelsów), polityki platformy Meta (np. jak dane z Insta i Facebooka są łączone do targetowania reklam) lub kultury wizualnej generowanej przez użytkowników. Nazwanie wszystkich tych zjawisk po prostu „na Instagramie” spłaszcza złożoność i utrudnia czytelnikom zorientowanie się, o jakim poziomie mowa.

Koncepcja „platform society” i jej konsekwencje

José van Dijck, Thomas Poell i Martijn de Waal opisują współczesne społeczeństwa jako platform societies – systemy, w których logika platform przeniknęła nie tylko rozrywkę i komunikację, ale też media, transport, edukację, zdrowie, instytucje publiczne. Kluczowy jest tu proces platformizacji: przepisywania istniejących praktyk i branż na język interfejsów, API, danych i algorytmów.

To podejście ma kilka praktycznych konsekwencji dla badań:

  • Trudno analizować jedno pole (np. dziennikarstwo) bez uwzględnienia zależności od platform – dystrybucji przez Facebooka, YouTube’a, wyszukiwarki.
  • Granice między sektorami się zacierają – Uber nie jest „tylko” firmą transportową, a Facebook nie jest „tylko” medium społecznościowym; to infrastrukturę, z której korzystają inne podmioty.
  • Platformy stają się quasi-publicznymi infrastrukturami, ale bez typowej dla instytucji publicznych odpowiedzialności demokratycznej.

Perspektywa platform society przesuwa więc pytania od „jak użytkownicy korzystają z X” do „jak platformy konstruują warunki korzystania w różnych obszarach życia zbiorowego” – od jednostkowych zachowań do politycznych skutków infrastruktury.

Platformizacja komunikacji i kultury

Platformizacja komunikacji oznacza, że coraz więcej form wypowiedzi – od wiadomości dziennikarskich, przez kampanie polityczne, po zajęcia dydaktyczne – realizowanych jest w środowiskach kontrolowanych przez komercyjne platformy. To nie tylko kwestia „gdzie to się dzieje”, ale jak interfejsy i algorytmy kształtują samą formę i rytm komunikacji.

Dziennikarze myślą o tytułach pod kątem klikalności na Facebooku i widoczności w Google. Nauczyciele używają platform edukacyjnych, które mierzą każdą interakcję i zamieniają ją w punktację, rankingi, odznaki. Aktywiści planują działania tak, by były „viralowe” i łatwo adaptowalne w kulturze memów. To wszystko prowadzi do standaryzacji formatów: krótkie wideo, przykuwający wzrok nagłówek, przewidywalne CTA.

W badaniach kultury remiksu i memów ważne staje się śledzenie, jak platformy uprzywilejowują pewne formaty (stories, shortsy) i w ten sposób współtworzą horyzont tego, co „normalne” w komunikacji. Kultura uczestnictwa ma więc bardzo konkretne ograniczenia – narzucone przez przyciski like, share, follow i sposób, w jaki gospodarka uwagi premiuje jedne zachowania kosztem innych.

Efekt standaryzacji praktyk przez interfejsy

Interfejsy platform wprowadzają zestaw prostych działań: polub, udostępnij, obserwuj, zasubskrybuj, skomentuj. Z czasem użytkownicy uczą się, że to właśnie te ruchy liczą się jako „aktywność”. Różnorodne formy zaangażowania – cicha lektura, refleksja, powolna praca koncepcyjna – stają się niewidoczne, bo nie generują mierzalnych sygnałów.

Standardowe metryki, takie jak liczba lajków czy komentarzy, robią z użytkowników zestandaryzowane jednostki uwagi. Badacz, który mechanicznie opiera się na tych wskaźnikach, wchodzi w logikę platform bez dystansu: bierze za dobrą monetę to, jak platformy same definiują „działanie” i „zaangażowanie”. Tymczasem różnice między np. polubieniem z przyzwyczajenia a wnikliwą odpowiedzią w komentarzu są jakościowe, a nie tylko ilościowe.

Kiedy „platformizacja wszystkiego” staje się pustym sloganem

Popularna teza, że „wszystko zostało spatformizowane”, brzmi efektownie, ale bywa analitycznie pusta. Nie każdy proces, w którym pojawia się aplikacja czy portal, podlega tej samej logice. Część praktyk opiera się platformom, tworząc alternatywne, zdecentralizowane rozwiązania (np. federowane sieci jak Mastodon). Inne z kolei tylko powierzchownie przyjmują formę platformy, ale zachowują instytucjonalne mechanizmy kontroli (np. zamknięte systemy e‑learningowe na uczelniach).

Lepszym rozwiązaniem niż ogólna diagnoza jest opisanie konkretnych mechanizmów platformizacji: jakie dane zbiera dana instytucja, komu je udostępnia, jak zmieniają się relacje między użytkownikami a operatorem systemu, jakie formy oporu lub obejścia powstają na obrzeżach. Te szczegóły są ważniejsze niż ogólne hasło, które szybko zamienia się w akademicki slogan.

Uśmiechnięci współpracownicy z telefonami przy ceglanej ścianie
Źródło: Pexels | Autor: Andrea Piacquadio

Algorytm – między kodem, praktyką a mitologią

Warstwy znaczeniowe pojęcia „algorytm”

Słowo algorytm zrobiło zawrotną karierę, ale funkcjonuje jednocześnie w kilku porządkach:

  • Algorytm jako procedura obliczeniowa – precyzyjny opis krok po kroku: „jeśli X, to Y”. W tym sensie algorytm to raczej przepis matematyczno‑logiczny niż „magiczny byt”.
  • Algorytm jako system socjotechniczny – połączenie kodu, danych, infrastruktury i ludzi, którzy go projektują, nadzorują, korygują. W praktyce „algorytm YouTube’a” to nie tylko kilka linii kodu, ale zespół produktowy, reguły moderacji, testy A/B, modele uczenia maszynowego.
  • Algorytm jako figura retoryczna – skrót, którym opisuje się wszystko, co niezrozumiałe i poza naszym wpływem: „algorytm mnie ukarał”, „algorytm to podbił”. W tym sensie pojęcie staje się współczesnym odpowiednikiem „niewidzialnej ręki rynku” lub „systemu”.

W badaniach internetu kluczowe jest jasne określenie, o którym poziomie mowa. Analiza polityk rekomendacji Netflixa wymaga innego warsztatu niż analiza tego, jak użytkownicy wyobrażają sobie działanie „algorytmu Netflixa” i jak dopasowują do tego swoją aktywność.

Od algorytmu deterministycznego do uczenia maszynowego

Tradycyjnie algorytmy kojarzone były z procedurami deterministycznymi: ten sam zestaw danych wejściowych prowadzi do tego samego wyniku. W przypadku algorytmów uczenia maszynowego sytuacja jest inna. Mamy do czynienia z modelami, które:

  • uczą się na dużych zbiorach danych historycznych,
  • adaptują się w czasie (nowe dane – nowe wzorce),
  • są często „nieprzezroczyste” nawet dla własnych twórców.

Popularne hasło „zrozumieć algorytm” bywa więc złudne. Pełne zrozumienie matematycznych mechanizmów działania sieci neuronowej niewiele mówi o tym, jak realnie kształtuje ona widoczność treści. Potrzebna jest raczej analiza zachowania systemu w kontekście: jak zmienia się zasięg różnych typów postów, co dzieje się przy wprowadzeniu nowych formatów (np. Reels), jak wpływają na to praktyki użytkowników.

Tu wchodzi klasyczny błąd „zbyt technicznej” perspektywy: skupienie tylko na architekturze modelu bez oglądu instytucjonalnych celów (utrzymanie uwagi, optymalizacja przychodu z reklam) i bez badania tego, jak użytkownicy uczą się obchodzić z tym systemem.

Algorytm jako praktyka instytucjonalna

Algorytmy w środowisku platform działają zawsze w ramach konkretnych celów biznesowych i organizacyjnych. Nawet pozornie neutralne cele, takie jak „maksymalizacja zaangażowania”, są osadzone w modelu reklamowym i logice monetyzacji. Z perspektywy badań oznacza to, że:

  • algorytmy nie są „obiektywne” – odzwierciedlają hierarchie wartości i priorytety instytucji, która je wdraża,
  • zmiany algorytmiczne są narzędziem polityki platformy – mogą nagle premiować jedne typy treści kosztem innych, przestawiając całe ekosystemy twórców i mediów,
  • decyzje „produktowe” (gdzie jest przycisk, jaki ma kolor, jakim tekstem zachęca) działają razem z kodem – rozdzielanie UX, „polityk” i „algorytmu” bywa sztuczne.

Kiedy wydawcy narzekają, że „algorytm Facebooka zabił ruch na stronę”, często opowiadają historię o zmianie priorytetów biznesowych platformy: od promowania treści zewnętrznych do zatrzymywania użytkownika w obrębie własnego ekosystemu. Kod jest tylko jednym z narzędzi realizacji tej strategii.

Mitologia algorytmów i „algorytmiczna świadomość” użytkowników

Użytkownicy platform nie mają bezpośredniego dostępu do kodu – ich wiedza o algorytmach opiera się na domysłach, plotkach, niepełnych komunikatach i własnym doświadczeniu. Z tego powstaje algorytmiczna świadomość (Taina Bucher) – zbiór przekonań o tym, „jak to działa”.

Ta potoczna wiedza jest jednocześnie:

  • częściowo trafna – twórcy zauważają, że regularność publikacji czy krótsze formaty pomagają w zasięgach,
  • częściowo mityczna – pojawiają się opowieści o „shadowbanie” za każde słowo tabu, o „tajnych limitach”, o potrzebie dodawania określonej liczby hashtagów.

Z badawczego punktu widzenia te mity nie są czymś, co trzeba jedynie „sprostować”. One realnie kształtują praktyki twórców i odbiorców – wpływają na autocenzurę, formatowanie wypowiedzi, planowanie publikacji. Czasem to wyobrażenie o algorytmie, a nie jego rzeczywiste działanie, najmocniej reguluje zachowanie.

Typowy przykład: nauczyciel akademicki, który na uczelnianej grupie na Facebooku unika słów „strajk”, „protest” w obawie przed „ucięciem zasięgów”, choć realny wpływ takich słów w zamkniętej grupie jest minimalny. Mity algorytmiczne w tym przypadku wzmacniają efekt autocenzury ponad to, co robi faktyczny system.

Algorytmiczna kuracja uwagi zamiast neutralnej „rekomendacji”

Platformy rzadko mówią, że ich systemy kuratorskie priorytetyzują jedne treści kosztem innych. Chętniej używają słów „dostosowujemy”, „personalizujemy”, „pomagamy odkrywać”. W praktyce mamy do czynienia z algorytmiczną kuracją uwagi, która:

  • filtruje ogromny nadmiar treści,
  • wprowadza hierarchię widoczności,
  • opiera się na założeniach, co jest „wartościowe” (czas oglądania, interakcje, przewidywana satysfakcja).

Popularna rada „twórz wartościowe treści, a algorytm sam cię wyniesie” działa tylko w ograniczonych warunkach: gdy „wartość” twórcy pokrywa się z tym, co system mierzy i nagradza. Głębokie, wymagające teksty, które zatrzymują użytkownika na dłużej, ale generują mniej natychmiastowych reakcji, przegrywają z materiałami projektowanymi pod szybkie kliknięcia i silne emocje.

Alternatywą bywa celowe korzystanie z kanałów, gdzie kuracja jest bardziej przejrzysta i przewidywalna – newslettery, RSS, mniejsze społeczności. Działają one gorzej, gdy twórca potrzebuje masowego, szybkiego zasięgu, ale lepiej, gdy kluczowa jest stabilność relacji z odbiorcami i odporność na kolejne „tąpnięcie algorytmu”.

Parametryzacja zachowań i „algorytmiczne wskaźniki”

Algorytmy platform opierają się na parametryzacji ludzkich zachowań: każde kliknięcie, zatrzymanie się na wideo, przewinięcie, zapisanie posta zamieniane są w liczby, które służą do trenowania modeli i podejmowania mikrodecyzji. Z tych wielu mikroliczb powstają algorytmiczne wskaźniki, z którymi użytkownicy wchodzą w codzienny kontakt: zasięgi, średni czas oglądania, współczynnik retencji.

Te wskaźniki nie są neutralne. Zostały wybrane, ponieważ wspierają określone cele platformy, a jednocześnie edukują użytkowników, co uznawać za sukces. Twórcy uczą się mierzyć swoją wartość liczbami, które dobrze służą reklamodawcom, a gorzej – jakościowym wymiarom komunikacji (zaufanie, zrozumienie, zmiana postaw).

Typowy efekt uboczny: organizacja społeczna, która zaczyna oceniać skuteczność kampanii wyłącznie liczbą wyświetleń wideo czy polubień posta. Algorytmiczne wskaźniki wypychają inne formy rozliczania działań, trudniejsze do pomiaru, ale bliższe realnym celom ruchu (np. liczba osób, które faktycznie przyszły na spotkanie, zmiana w dyskusji lokalnej).

Algorytmiczne uprzedzenia i nierówności

Pojęcie algorytmicznego biasu opisuje sytuacje, w których systematyczne stronniczości pojawiają się nie przez „złą wolę” programisty, ale przez sposób doboru danych, definicję celu optymalizacji lub konstrukcję modelu. W platformach społecznościowych przejawia się to na wiele sposobów:

  • treści z określonych regionów, języków czy grup społecznych są rzadziej promowane, bo dane treningowe są ubogie lub zniekształcone,
  • systemy moderacji automatycznej częściej „przestrzelają” w przypadku mniejszości językowych, slangów, języka ironii,
  • reklamy targetowane wzmacniają istniejące nierówności (np. pokazywanie ofert pracy czy mieszkań tylko wybranym grupom).

Popularna rada branżowa: „oddajmy decyzje algorytmom, będą bardziej obiektywne niż ludzie” załamuje się w praktyce tam, gdzie dane historyczne są nośnikiem wcześniejszych dyskryminacji. Algorytm, który „uczy się” z rekrutacji, w których latami preferowano wypalone ścieżki kariery białych mężczyzn z wielkich miast, odtworzy te preferencje w zautomatyzowanej formie.

Możliwą alternatywą nie jest prosty powrót do „ludzkiej decyzji”, ale hybrydowe modele: algorytm jako narzędzie wspierające, z wbudowanymi testami na nierówności i przestrzeniami na odwołania, zamiast jedynego „sędziego”. To właśnie takie konfiguracje są kluczowym polem badań kultury uczestnictwa poddanej algorytmicznej selekcji.

Taktyczne „granie algorytmem” przez użytkowników

Użytkownicy nie są bezradni wobec algorytmów. Rozwijają różne taktyki gry z systemem:

  • stosowanie określonych sekwencji działań (np. seria relacji po publikacji posta, by „podbić” zasięg),
  • celowe wywoływanie kontrowersji, bo treści polaryzujące częściej wywołują reakcje,
  • zakładanie alternatywnych kont, używanie kodów językowych i memicznych, by ominąć mechanizmy moderacji.

Paradoks polega na tym, że część tych strategii krótkoterminowo działa, a długoterminowo wzmacnia władzę algorytmu. Twórcy uczą się akceptować reguły gry zamiast je kwestionować – dopasowują treści i rytm życia do przewidywanych wymogów systemu. Skrajny przykład to „życie pod TikToka”: planowanie dnia, podróży, relacji tak, by generować „content” zgodny z aktualnie promowanymi formatami.

Kontrstrategią są praktyki świadomego ograniczania zależności od jednego systemu rekomendacji: rozproszenie obecności na wielu kanałach, budowanie bezpośrednich baz kontaktu (newslettery, listy mailingowe), współpraca z mniejszymi społecznościami, które mniej polegają na algorytmicznej kuracji.

Algorytmy moderacji a kultura uczestnictwa

Moderacja treści przeszła w ostatnich latach z poziomu ręcznego usuwania postów do złożonych, warstwowych systemów: połączenia zgłoszeń użytkowników, pracy moderatorów i algorytmów klasyfikujących. To ostatnie są szczególnie istotne, bo działają przed tym, jak użytkownik cokolwiek zobaczy lub opublikuje: blokują upload, obniżają widoczność, oznaczają treści jako wrażliwe.

Skutkiem jest algorytmiczne kształtowanie granic tego, co mówialne. Społeczności uczą się, że pewne formy ekspresji (np. drastyczne zdjęcia dokumentujące przemoc, język radykalnych ruchów politycznych, treści edukacyjne o seksualności) częściej napotykają bariery systemu. Zaczynają więc rozwijać kody omijające filtry: celowe literówki, memiczne skróty, wizualne aluzje zamiast dosłownych obrazów.

Popularna rada z działów PR: „trzymaj się wytycznych społeczności i nie będziesz mieć problemów z algorytmem” załamuje się tam, gdzie celem jest dokumentowanie i krytyka przemocy instytucjonalnej, konfliktów zbrojnych czy marginalizowanych doświadczeń. To właśnie te treści częściej są „szare” względem automatycznych reguł. Badania kultury uczestnictwa muszą tu śledzić nie tylko to, co widoczne, ale też to, co zostało wstępnie odcięte przez system.

Algorytmy rankingowe w wyszukiwarkach i na platformach treści

Algorytmy rankingowe – od wyszukiwarki Google po rekomendacje na YouTube czy Spotify – tworzą architekturę dostępu do wiedzy i kultury. To one decydują, które źródła są pierwsze, a które grzebane w dalszych wynikach. W praktyce:

  • kształtują kanon – np. to, które źródła informacji o historii czy zdrowiu są dla większości ludzi „pierwszym kontaktem”,
  • wzmacniają przewagę tych, którzy mają zasoby na optymalizację treści (SEO, profesjonalna produkcja wideo, płatna promocja),
  • przyzwyczajają użytkowników do zaufania „pierwszym wynikom”, wyłączając kompetencję krytycznego porównywania źródeł.

Popularne porady z zakresu „growth hackingu” – optymalizuj pod algorytm, żeby być wysoko – są użyteczne, jeśli celem jest widoczność komercyjnej oferty. Gorzej sprawdzają się tam, gdzie stawką jest pluralizm wiedzy, a nie sprzedaż. W badaniach oznacza to, że analiza jedynie „najbardziej widocznych” treści (pierwsze strony wyników, trendingi) daje obraz silnie przefiltrowany przez algorytmiczne priorytety.

Platformizacja życia codziennego i „logika platformy”

Pojęcie platformizacji opisuje proces, w którym coraz więcej obszarów życia i pracy zaczyna funkcjonować według logiki komercyjnych platform cyfrowych. Nie chodzi tylko o korzystanie z konkretnych aplikacji, ale o przeniesienie sposobów myślenia: od „stałych relacji” do „chwilowych połączeń”, od „członkostwa” do „obserwowania”, od „procesu” do „ciągłej optymalizacji wskaźników”.

Socjolożki i socjolodzy piszą o logice platformy, gdy opisują wspólny dla wielu serwisów wzór działania:

  • pośredniczenie między różnymi grupami użytkowników (twórcy – odbiorcy, sprzedawcy – kupujący, pracodawcy – pracownicy),
  • pobieranie opłat i danych za to pośrednictwo,
  • uzależnianie widoczności i dostępu od wyników w algorytmicznych rankingach.

Popularne hasło w zarządzaniu: „stań się platformą, a nie tylko produktem” wygląda atrakcyjnie na prezentacjach inwestorskich, ale w praktyce rozmywa odpowiedzialność. Gdy uczelnia ogłasza, że „jest platformą wymiany wiedzy”, łatwiej ukryć fakt, że realny dostęp jest warunkowany opłatami, rankingami cytowań i algorytmami oceny dorobku, a nie deklarowaną „otwartością”.

Alternatywą są modele, w których instytucja nie próbuje kopiować pełnej logiki komercyjnych platform, lecz odcina się od części ich mechanizmów: rezygnuje z wyświetlania „najpopularniejszych badań”, a zamiast tego eksponuje prace mniej widoczne; ogranicza rankingowanie ludzi wskaźnikami oglądalności wykładów, kładąc nacisk na współpracę i mentoring.

Platformy jako infrastruktura badań

Platformy cyfrowe stały się nie tylko przedmiotem badań, ale także infrastrukturą badawczą. Badacze korzystają z nich, by:

  • rekrutować uczestników (ogłoszenia w mediach społecznościowych, panele badawcze online),
  • prowadzić badania ankietowe i eksperymenty,
  • analizować dane śladowe (logi aktywności, interakcje, treści).

Popularna rada metodologiczna: „idź tam, gdzie są ludzie – badaj ich tam, gdzie spędzają czas” dobrze brzmi, dopóki nie pojawia się pytanie, kto kontroluje warunki dostępu i co może zostać nagle wyłączone. Zamknięcie API, jak wielokrotnie przy Twitterze czy Facebooku, potrafi w ciągu jednego dnia zablokować całe projekty badawcze.

Bardziej odporną strategią jest mieszanie źródeł i infrastruktur: łączenie danych z platform komercyjnych z własnymi dzienniczkami uczestników, wywiadami, obserwacją w mniejszych społecznościach, a także budowanie niezależnych repozytoriów danych, których logika nie jest podporządkowana reklamie.

Platformy uczestnictwa obywatelskiego i demokracji cyfrowej

W obszarze partycypacji obywatelskiej pojawiły się narzędzia określane jako platformy konsultacyjne lub systemy „e-demokracji”: miejskie portale konsultacji, aplikacje do głosowań budżetu obywatelskiego, narzędzia do zgłaszania problemów w przestrzeni publicznej.

Ich zwolennicy powtarzają hasło: „zróbmy aplikację, a ludzie zaczną się angażować”. W praktyce taki scenariusz pojawia się rzadko. Sam interfejs i algorytmiczna logika priorytetyzacji zgłoszeń wprowadzają ukryte filtry:

  • pierwszeństwo mają te tematy, które łatwo ująć w prosty formularz lub głosowanie,
  • propozycje wymagające długotrwałej debaty i złożonej wiedzy są marginalizowane,
  • aktywni stają się ci, którzy lepiej radzą sobie z językiem i technologią, a niekoniecznie ci, których problem najbardziej dotyczy.

Alternatywnie projektowane systemy partycypacji wykorzystują platformę tylko jako jedno z narzędzi, a nie jedyną przestrzeń. Głosowanie online wiąże się tam z procesem deliberacji offline, wsparciem animatorek i animatorów, możliwością składania wniosków na papierze, a algorytmy sortujące zgłoszenia są publicznie opisane i otwarte na korekty.

Ekonomia twórców i praca platformowa

Rozrost ekonomii twórców (creator economy) stworzył nowy rodzaj pracy, w której relacje z odbiorcami, widoczność i dochód są silnie zależne od algorytmów platform. Twórca jest jednocześnie mikroprzedsiębiorcą, marką osobistą i „pracownikiem” platformy, choć formalnie pozostaje niezależny.

Popularne porady biznesowe – „monetyzuj pasję”, „rób to, co kochasz, a pieniądze przyjdą” – przemilczają fakt, że to algorytmiczne systemy decydują, czy praca tej samej jakości będzie miała potencjał utrzymania, czy pozostanie hobbystyczna. Dwie osoby o podobnych kompetencjach mogą doświadczyć skrajnie różnych ścieżek tylko dlatego, że startowały w innym momencie cyklu zmian algorytmu lub trafiły na inny „okienko wzrostu”.

Kontrstrategia twórców polega na dywersyfikacji zależności: wprowadzeniu płatnych newsletterów, patronatu, sprzedaży własnych produktów lub usług, obecności na kilku platformach jednocześnie. Nie jest to jednak recepta dla każdego – wymaga zasobów czasowych, kompetencji organizacyjnych i często wsparcia zespołu, które są poza zasięgiem wielu mniejszych twórców.

Badania kultury uczestnictwa w tym obszarze dotykają także pojęcia pracy afektywnej: podtrzymywania relacji z odbiorcami, odpowiadania na wiadomości, budowania atmosfery „bliskości”. To rodzaj pracy słabo widocznej w statystykach, ale silnie powiązany z algorytmicznymi wskaźnikami lojalności i zaangażowania.

Platformy naukowe, preprinty i altmetryki

Świat nauki również ulega platformizacji. Serwisy z preprintami, sieci społecznościowe naukowców, repozytoria kodu i danych tworzą ekosystem platform badawczych. Na ich przecięciu pojawiają się altmetryki: nowe wskaźniki wpływu oparte na liczbie pobrań, cytowań w blogach, wzmianek w mediach społecznościowych.

Branżowa rada: „bądź widoczny w sieci, promuj swoje publikacje na Twitterze/LinkedInie” faktycznie pomaga w zwiększeniu zasięgu, ale wprowadza też presję na performowanie badań w formatach preferowanych przez platformy. Tekst, który dobrze nadaje się na wątek na Twitterze, ma inne cechy niż skomplikowana, długoletnia praca terenowa.

Altmetryki mogą być przydatne jako sygnał wczesnego zainteresowania, ale w roli głównego miernika wartości badań szybko stają się kolejną wersją algorytmicznego rankingowania. Naukowcy zaczynają optymalizować pod „klikalne tytuły” i proste grafiki, kosztem tematów ważnych, lecz trudniej komunikowalnych. W instytucjach, które bezrefleksyjnie włączają altmetryki do oceny dorobku, pogłębia to nierówności między dyscyplinami i językami.

„Dane społeczne” jako produkt i surowiec

Platformy gromadzą dane społeczne – informacje o relacjach, interakcjach, praktykach codziennych – w skali wcześniej niemożliwej. Te dane są jednocześnie:

  • surowcem do trenowania algorytmów rekomendacji, personalizacji i moderacji,
  • produktem sprzedawanym reklamodawcom i partnerom biznesowym,
  • potencjalnym źródłem wiedzy dla badań społecznych.

Popularne zdanie marketingowe: „użytkownicy chętnie dzielą się danymi w zamian za lepsze usługi” pomija asymetrię informacyjną. Użytkownik nie wie, w jakich modelach jego zachowania zostaną skategoryzowane i jakie decyzje na tej podstawie zostaną podjęte – od rekomendacji treści po ocenę wiarygodności kredytowej.

Dla badaczy kluczowe jest rozróżnienie między danymi jako śladem aktywności a danymi jako interpretacją. Sam fakt, że ktoś „polubił” post o proteście, nie oznacza automatycznie poparcia dla ruchu; może oznaczać gest solidarności, ironię albo chęć zachowania informacji. Algorytmy operują na uproszczonych kategoriach, a praca badawcza polega na odklejeniu się od tej automatycznej interpretacji i przywróceniu wieloznaczności praktyk użytkowników.

Kultura remiksu i algorytmy rozpoznawania treści

Kultura uczestnictwa w sieci od lat opiera się na remiksie: przerabianiu istniejących materiałów, memach, cytatach, mash-upach. Wraz z rozwojem algorytmów rozpoznawania treści (Content ID, systemy wykrywania muzyki i wideo) remiks wchodzi w bardziej konfliktowy związek z prawem autorskim i automatyczną moderacją.

Systemy te mają chronić twórców i wydawców, ale działają według prostego wzoru: wykryj podobieństwo i zablokuj, zmonetyzuj lub ogranicz widoczność. Drobna zmiana kontekstu – parodia, krytyka, analiza edukacyjna – często nie jest rozpoznawana algorytmicznie. Skutkiem jest chłodzący efekt na praktyki remiksu: część twórców rezygnuje z eksperymentów lub przechodzi do mniej widocznych przestrzeni.

Jedna z popularnych praktycznych rad krążących wśród twórców wideo: „zmień tonację muzyki, przyspiesz odtwarzanie, dodaj ramkę, a algorytm się nie zorientuje”. To krótkotrwałe obejścia, które raczej pogłębiają nieprzejrzystość zasad niż rozwiązują problem. Bardziej konstruktywne są ruchy na rzecz rozszerzenia dozwolonego użytku i jasnych licencji (Creative Commons), ale wymagają one pracy politycznej i prawnej, wykraczającej poza same platformy.

Platformowe „społeczności” a rzeczywiste więzi

Platformy chętnie operują językiem „naszej społeczności”, „społeczności twórców”, „społeczności graczy”. Tymczasem socjologicznie mamy tu często do czynienia z zatomizowanymi publicznościami, które współdzielą infrastrukturę, ale niekoniecznie relacje, normy i wzajemną odpowiedzialność.

Popularne zalecenie dla marek: „zbuduj wokół produktu społeczność” sprowadza się w praktyce do utrzymania wysokiego wskaźnika interakcji w komentarzach. Tymczasem realna społeczność wymaga:

  • przestrzeni na konflikt i negocjowanie zasad,
  • mechanizmów wsparcia i troski, nie tylko wymiany opinii,
  • możliwości wspólnego działania wykraczającego poza samą platformę.

Badania kultury uczestnictwa pokazują, że niekiedy mniejsze, mniej „sprytne” technologicznie przestrzenie (fora, listy mailingowe, zamknięte grupy z prostą moderacją) lepiej wspierają długotrwałe więzi niż zaawansowane, algorytmicznie kuratowane serwisy. Ich „wada” – gorsza skalowalność i brak spektakularnych statystyk – okazuje się zaletą, gdy mierzymy odporność i głębokość relacji.

Taktyki wycofania, minimalizmu cyfrowego i „półobecności”

W odpowiedzi na dominację platform część użytkowników i twórców wybiera strategie nie polegające na kolejnym „hackowaniu algorytmu”, lecz na ograniczaniu ekspozycji i świadomym projektowaniu dystansu. Pojawiają się praktyki minimalizmu cyfrowego, cyfrowego sabatu, czy – jak mówią niektórzy – „półobecności”: bycia na platformie tylko w wybranych rolach.

Branżowa rada: „musisz być wszędzie, na każdej platformie” jest sensowna tylko w modelu, w którym celem nadrzędnym jest maksymalizacja zasięgu. Gdy celem staje się ochrona czasu, zdrowia psychicznego lub utrzymanie jakości pracy badawczej, bardziej racjonalne jest zredukowanie liczby kanałów i zaufanie tym mniej spektakularnym, ale stabilnym.

Dla badaczy culture uczestnictwa oznacza to, że coraz ważniejsze staje się badanie nieobecności i wycofania: historii osób, które świadomie zrezygnowały z platform lub utrzymują tylko minimalne konto „dla formalności”. Ich perspektywa jest słabiej widoczna w danych, bo algorytmiczne wskaźniki premiują aktywnych, ale to właśnie tam ukrywają się często najciekawsze diagnozy o kosztach życia w środowisku algorytmicznie zarządzanej uwagi.

Najczęściej zadawane pytania (FAQ)

Po co w ogóle tworzyć słownik pojęć przy badaniach internetu?

Słownik pojęć porządkuje język w zespole badawczym. Programista, socjolożka i marketer mogą używać tych samych słów („algorytm”, „platforma”, „społeczność”), ale mieć na myśli zupełnie inne rzeczy. Bez doprecyzowania definicji mieszają się poziomy analizy, a wnioski stają się niespójne lub wzajemnie sprzeczne.

Słownik nie jest celem samym w sobie, ale narzędziem: ustala, co dokładnie badamy, jakich danych szukamy i jakie pytania zadajemy. Bez tego można przeprowadzić trzy różne badania pod jednym tytułem i dopiero przy recenzji odkryć, że każdy rozumiał podstawowe pojęcia inaczej.

Co to jest „platforma” w badaniach internetu i czym różni się od serwisu lub aplikacji?

W badaniach internetu „platforma” to nie tylko strona czy aplikacja, lecz cały ekosystem techniczno-biznesowy i społeczny. Obejmuje infrastrukturę (API, standardy, bazę danych), model biznesowy (np. jakie strony rynku łączy, jak zarabia) oraz środowisko społeczne (reguły, moderację, relacje między użytkownikami).

Serwis to konkretna usługa (np. YouTube jako serwis wideo), a aplikacja to interfejs dostępu do tej usługi (np. aplikacja mobilna YouTube). W praktyce: jeśli interesuje cię, jak zmiana polityki rekomendacji wpływa na twórców, badaj platformę; jeśli testujesz użyteczność konkretnego widoku w telefonie, analizujesz aplikację.

Jak rozumienie słowa „algorytm” wpływa na metody badawcze?

Gdy „algorytm” rozumiesz technicznie – jako procedurę obliczeniową – szukasz kodu, dokumentacji i testów. Metody to m.in. inżynieria wsteczna, symulacje, eksperymenty A/B, analiza parametrów modelu. Interesuje cię, jak działa logika sortowania lub rekomendowania.

Jeśli traktujesz algorytm jako system socjotechniczny, centrum uwagi przesuwa się na relacje: jak firmy go projektują, jak użytkownicy uczą się go „ograć”, kto jest wykluczony. Wtedy sięgasz po wywiady, netnografię, audyty algorytmiczne, analizę regulaminów i polityk. Ta druga perspektywa pokazuje, że wiele decyzji jest biznesowych lub politycznych, choć opakowanych w język „bezstronnego algorytmu”.

Dlaczego definicje pojęć są kwestią władzy, a nie tylko terminologii?

Kto narzuca język, ten po cichu ustawia granice tego, co uznajemy za „normalne” i „niezmienne”. Nazwanie Ubera „platformą”, a nie „pracodawcą”, przesuwa koszty i odpowiedzialność na kierowców, a firmie zostawia elastyczność i zyski. Podobnie mówienie o „algorytmie” zamiast „polityce rekomendacji” rozmywa odpowiedzialność konkretnych decydentów.

Badacz, który bezkrytycznie przejmuje język firm technologicznych, zaczyna powtarzać ich narrację, zamiast ją analizować. Świadome rozróżnienie między językiem PR a językiem analizy pozwala zadawać niewygodne pytania: jaka praca użytkowników jest niewidoczna, kto jest systemowo wypychany na margines, jakie praktyki są karane przez domyślne ustawienia platformy.

Czym różni się „społeczność” od „networked publics” w analizie mediów społecznościowych?

„Społeczność” sugeruje stosunkowo stabilną grupę z gęstymi więziami: ludzie się znają, wytwarzają normy, pełnią określone role. Jeśli tak nazwiesz badaną grupę, będziesz szukać struktur relacyjnych, zasad współżycia i mechanizmów włączania/wyłączania.

„Networked publics” to raczej publiczności sieciowe: zbiory ludzi połączonych przez infrastrukturę platformy, wspólne treści i punkty odniesienia, ale niekoniecznie przez bezpośrednie relacje. Tu bada się obiegi treści, widoczność, logikę „trendów”. W praktyce: fanów danego hashtagu na TikToku rzadko opłaca się nazywać „społecznością”, bo więzi są słabe, za to idealnie pasują do ujęcia „networked publics”.

Kiedy precyzyjne definicje pojęć mogą szkodzić badaniu internetu?

Sztywne trzymanie się jednej definicji potrafi oślepić. Platformy zmieniają interfejsy co kilka miesięcy, użytkownicy eksperymentują z formatami i rolami, granica między „nadawcą” a „odbiorcą” się rozmywa. Jeśli upierasz się, że społeczność musi spełniać kryteria z klasycznych badań sprzed dekad, możesz przegapić nowe formy organizowania się w sieci.

Bardziej elastyczne podejście to definicje robocze: jasno opisujesz, jak rozumiesz dane słowo w konkretnej pracy, wskazujesz alternatywne ujęcia i konsekwencje wyboru. To podejście jest mniej efektowne niż „ostateczne definicje”, ale lepiej znosi realną zmienność środowisk cyfrowych.

Jak praktycznie uzgodnić słownictwo w interdyscyplinarnym zespole badawczym?

Najprostsze narzędzie to krótki, wspólnie tworzony dokument z definicjami roboczymi. Każde kluczowe pojęcie (np. „platforma”, „społeczność”, „algorytm”, „kultura uczestnictwa”) dostaje opis: co dokładnie oznacza w tym projekcie, jakie inne użycia odkładamy na bok i dlaczego. Dobrze, gdy przy każdym terminie są konkretne przykłady „co się łapie, a co nie”.

Popularna rada „korzystaj z jednej, klasycznej definicji z literatury” sprawdza się głównie w wąskich, jednorodnych dziedzinach. W badaniach internetu – gdzie spotykają się informatycy, badacze kultury, ekonomiści i praktycy – lepiej działa procedura iteracyjna: wracanie do definicji na kolejnych etapach projektu i korekta po tym, jak zobaczy się pierwsze dane i praktyki użytkowników.

Poprzedni artykuł10 mniej znanych gier z otwartym światem, które warto nadrobić na PC i konsolach
Rafał Kucharski
Badacz i konsultant wspierający zespoły w projektach opartych na dowodach. Interesuje go to, jak kultura organizacyjna i kontekst społeczny wpływają na decyzje klientów, użytkowników i społeczności. Na AnthroEdu.pl pisze o projektowaniu badań: doborze metod, rekrutacji, pracy w terenie i analizie materiału, tak aby wyniki były użyteczne, a nie tylko „ciekawe”. Stawia na krytyczne myślenie, sprawdzanie alternatywnych wyjaśnień i porządną dokumentację. Dba o etykę, zgodę uczestników i minimalizowanie ryzyka, szczególnie w badaniach online.