Ostatnio przeczytałem arcyciekawy tekst na temat iluzji szczęścia, która kreowana jest przez wielkie korporacje. Nie mają one na celu poprawy jakości naszego życia, ale zarobienie pieniędzy. Jest to smutna prawda, z którą trudno dyskutować. W końcu są to firmy, a te do życia potrzebują pieniędzy. Gorąco polecam „Nie-podsumowanie roku 2014” autorstwa Ewy Lalik. Rzecz jest bardzo pesymistyczna, ale skłaniająca do przemyśleń. A to już bardzo dobrze.

Autorka skupia się na iluzji szczęścia, a ja chciałbym zająć się iluzją wiedzy oraz personalizacją, którą można postrzegać jako formę przemocy. Żyjemy w czasach, w których podstawowym źródłem informacji jest wyszukiwarka Google napędzana specjalnie przygotowanym algorytmem. Ma on na celu „wypluć” nam maksymalnie doprecyzowaną listę wyników, ale wszyscy zapominamy o jednej rzeczy – będą one dostosowanie do człowieka, który wpisał zapytanie. Celowo nie piszę człowieka, który szuka, bo szuka dla nas algorytm, my tylko zadajemy pytanie. Uważam, że dotarliśmy do momentu, w którym nie powinniśmy mówić: znalazłem w Google informację. Bardziej na miejscu będzie stwierdzenie: algorytm Google’a znalazł dla mnie. I w tym miejscu chciałbym zaznaczyć jedną rzecz – dla mnie sytuacja ta jest nienaturalna. To my powinniśmy zdobywać informacje, przeglądając także rzeczy, które nas mniej interesują. W ten sposób budujemy własny światopogląd. Jeżeli wykorzystujemy do jego tworzenia wyłącznie wyszukiwarkę, to jest oparty na kiepskich fundamentach. To tak jakby w pracy naukowej napisać, że w marcu Google wyświetliło 43 tysiące wyników na dany temat, a w sierpniu 132 tysiące i na tej podstawie orzec, że badana „rzecz” stała się bardziej istotna. Google najzwyczajniej w świecie dostosował wyniki na podstawie wcześniejszej wyszukiwanych informacji. I diabli biorą taki argument.

Searching / Kevin Dooley (CC BY 2.0)

Searching / Kevin Dooley (CC BY 2.0)

Jeszcze bardziej niebezpieczne jest to, że zaczynają się tworzyć „internety”, do których nie mamy dostępu. Sprawę tę w ciekawy sposób przedstawił Eli Pariser w krótkim TEDowym wykładzie „Beware online „filter „bubbles” (tłumaczenia moje).

Jeżeli ja szukam tego „czegoś” i ty również szukasz tego „czegoś”, i robimy to w tym samym czasie oraz w ten sam sposób, to możemy otrzymać bardzo odmienne wyniki wyszukiwania. Jeden inżynier powiedział mi, że nawet jeżeli jesteś wylogowany, to Google sprawdza 57 różnych „sygnałów” – z jakiej wyszukiwarki korzystasz, z jakiego komputera, gdzie jesteś – informacje te wykorzystuje do tego, aby dostosować wyniki wyszukiwania pod ciebie. Zastanów się nad tym: nie istnieje już standardowe Google. A najśmieszniejsze jest to, że tego nie widać. Nie jesteś w stanie dostrzec tego, jak bardzo różnią się twoje wyniki, od tych, które otrzymują inni.

I to jest bardzo przerażające, ponieważ zamyka użytkowników w „bańkach światopoglądowych” (modyfikuje określenie używane przez Eli’ego Parisera, który mówi o filter bubbles). Gdy zadajemy pytanie wyszukiwarce, to ona nie „mówi” nam jaki ten świat jest. Tylko pokazuje tę indywidualną rzeczywistość, w której na co dzień żyjemy. Korzystając wyłącznie z Google’a stajemy się więźniami własnych światów i nawet nie zdajemy sobie z tego sprawy.

Iluzja wiedzy

Google to narzędzie, a nie wyrocznia. Mam wrażenie, że coraz częściej o tym zapominamy. Odpowiedzi są dostosowane do nas, do naszych potrzeb, są związane z tym, czego szukaliśmy wcześniej. I coraz trudniej będzie nam znaleźć coś, co nas nie interesuje. Zaraz, zaraz – czy my w zasadzie powinniśmy czegoś takiego szukać? Tak. Z banalnej przyczyny – bo tylko w ten sposób tworzymy swój światopogląd. Warto czasem skonfrontować się z czymś, co nas odrzuca, aby zrozumieć dlaczego tak się dzieje. Być może jest to wynik naszych uprzedzeń? A może faktycznych różnic dotyczących postrzegania świata? Wtedy nie można się obrażać, ponieważ nikt nie ma monopolu na Prawdę. A wydaje mi się, że właśnie Google chciałby go mieć.

Zanim zaczniemy wykuwać własny światopogląd, powinniśmy najpierw zrozumieć jak myślimy. A to jest niemożliwe bez konfrontacji z różnymi informacjami, niekoniecznie z takimi, których akurat potrzebujemy. Współcześnie coraz więcej się mówi o tym, że powinniśmy uczyć dzieci korzystania z przeglądarki, aby były one w stanie wyszukiwać potrzebne im informacje. W tym przekonaniu jest kilka błędów. Po pierwsze Google daje to, co sam uzna za istotne na podstawie algorytmu wyszukiwania, a to może być tylko część informacji na dany temat. Po drugie trzeba uczyć myślenia, aby ludzie byli w stanie sprawdzać rzetelność znalezionych rzeczy, aby zdawali sobie sprawę z tego, że świat jest znacznie bardzie skomplikowany, niż to co można dostrzec na podstawie pierwszych 10 odpowiedzi. W przeciwnym razie będziemy żyli w „iluzji wiedzy”.

Stanem naturalnym dla każdego człowieka jest niewiedza. Nic nowego, bo stwierdził to już Sokrates wypowiadając swoje Wiem, że nic nie wiem. Stwierdzenie to stało się frazesem, kliszą i przestaliśmy rozumieć jego ciężar. A przecież wiemy bardzo niewiele, jednocześnie wspaniałe jest to, że otacza nas nieodkryta przestrzeń. Myśląc, że już „wiemy”, szybko wpadamy w pułapkę ignorancji. Bo zawsze jest „coś”, co nam umknęło. Zamiast bezmyślnie wklepywać kolejne zapytania, powinniśmy nauczyć się dwóch rzeczy – selekcji i umiejętności powstrzymywania siebie. Zewsząd zalewają nas informacje, więc musimy jakoś na nie reagować. Kiedyś robili to za nas – na przykład – krytycy, ale wyrugowaliśmy tę instytucję ze współczesnej kultury. Wydaje nam się, że zostaliśmy sami, ale tak nie jest – obok nas dzielnie stoi algorytm Google’a, który dopasowuje wyniki. Problem polega na tym, że jest to selekcja nieświadoma, ponieważ nie wiemy, co zostało odrzucone. A może właśnie w tych wykluczonych wynikach jest to „coś”, czego szukam? Selekcja prowadzona przez nas samych polega na rozumieniu dlaczego jedne informacje wykluczam, a innych nie. Jednocześnie mam świadomość tego, że istnieje „coś” więcej, niż „to” czego poszukiwałem. Google nie daje takiej wiedzy.

Search Technology Redux / brewbooks (CC BY-SA 2.0)

Search Technology Redux / brewbooks (CC BY-SA 2.0)

Ważna jest też umiejętność powstrzymywania siebie, szczególnie w pracy naukowej. Związana jest ona z rozumieniem, że jest się otoczonym przez różnego rodzaju ograniczenia. Myślę tutaj nie tylko o czasie, ale często o modelu świata, który tworzy każdy z nas. Jedne rzeczy tam włączamy, a inne wyrzucamy i nie ma w tym nic złego, tak długo jak mamy świadomość istnienia tych odrzuconych elementów. Musimy powstrzymywać siebie przed nieustannych wchodzeniem w głąb, przed ciągłym poznawaniem nowych ścieżek. Google daje nam „iluzję wiedzy”, która jest związana z potrzebą odkrywania kolejnych warstw informacji. Jednak algorytm nie mówi o jednej bardzo ważnej rzeczy – rozumieć, to nie znaczny posiadać informacje, ale je wykorzystywać. Google’owa „iluzja wiedzy” polega na tym, że dostajemy (pozorny) dostępy do wszystkich wyprodukowanych na świecie informacji, ale nigdzie nie jest powiedziane, co możemy z nimi zrobić. To już leży w gestii użytkownika, który prędzej zapyta wyszukiwarkę o to, jak przetworzyć informację, niż zrobi to sam.

Otrzymaliśmy genialne narzędzie, ale się nie zachłysnęliśmy. Zawsze uważałem, że wyszukiwarki można używać do odnalezienia źródeł danej informacji, jeżeli trafiliśmy na jej przetworzoną wersję. Moje myślenie okazało się bardzo idealistycznie – nie wszyscy poprawnie linkują do pierwotnej wersji, a okazuje się, że opieranie się na wynikach Google’a również może okazać się złudne.

Personalizacja to przemoc

Wszystko ostatnio dostosowujemy pod siebie. Opętała nas mania „indywidualności”. Myślę, że dopóki dotyczy, to takich rzeczy jak pulpit telefonu lub komputera, to nie ma w tym nic złego. Tam mamy mieć te programy, z których korzystamy i kropka. Niebezpiecznie zaczyna się robić, gdy wpadamy w bańkę filtrów („filter bubble”), o której mówi Eli Pariser:

Myślę, że jeżeli zbierzemy wszystkie te filtry, wszystkie te algorytmy, to otrzymamy bańkę filtrów. I każdy z nas siedzi w takiej bańce – jest on osobistym światem informacji, w którym żyjemy w sieci. Bańki oparte są na tym kim jesteśmy i co robimy. Problem polega na tym, że nie decydujemy o tym, co dostaje się do wewnątrz i – co najważniejsze – nie widzimy tego, co zostało odrzucone.

To jest właśnie przemoc personalizacji. Zostają nam wciśnięte różne rzeczy na podstawie rekomendacji układanych przez filtr. Oparte są one wyłącznie na tym, co widzieliśmy/przeczytaliśmy i co nam się podobało. Zamykamy się w tych sztucznie wykreowanych światach, skupiamy się na JA i przestajemy dostrzegać, że istnieje coś poza tym, co zostało nam zaserwowane przez algorytm.

Dlatego ginie umiejętność dyskusji. Umiera rozmowa. Za bardzo jesteśmy skupieni na JA. Agresywnie reagujemy na treści, które nam się nie podobają, ponieważ nie pojawiły się na liście rekomendacji. Żaden algorytm nie nauczył nas w jaki sposób zareagować na coś odmiennego, innego. Być może właśnie stąd bierze się się złość w komentarzach i inne formy agresji w Internecie. Traktować to jako nieświadome odreagowanie presonalizacyjnego ucisku? Nie wiem. Przyznam szczerze, że taka interpretacja wydaje mi się kusząca, ale mam zbyt mało danych, aby jednoznacznie stwierdzić, że faktycznie tak może być. Na pewno jest to ścieżka, którą warto rozważyć.

Przede wszystkim musimy pogodzić się z tym, że nie żyjemy w spersonalizowanym świecie. Otacza nas kultura pełna różnych instytucji narzucających nam granice i formy postrzegania. Nikt z nas nie jest jednostką, której należy się wszystko. Personalizacja uczy nas czegoś innego – oczekiwania, że otrzymamy tylko to, co nam się podoba. To błędne i niebezpieczne założenie, ponieważ tracimy w ten sposób tysiące innych elementów, które składają się na otaczającą nas rzeczywistości.

Jak wyjść z „bańki filtrów”, „więzienia personalizacji” oraz „iluzji wiedzy”? Myślę, że przez rzetelne i wielowątkowe poznawanie świata. Na pewno nie przez zadawanie pytań wyszukiwarce.