Tag: google

Ban od korpo

Znowu będzie o Stadii. Miałem przetestować, ale jakoś się nie składa. Gram sobie w trzecią część “Wiedźmina”, buduję osadę w “Valheim”, a wieczorami chwytam Pstryka i łowię ryby w “Animal Crossing: New Horizions”. Gdzie mam wcisnąć testowanie tej rewolucyjnej usługi Google’a? Mam przestać spać? Nie ma mowy! Już nie te lata! Ale w dalszym ciągu mam oko na Stadię i obserwuję, to co wokół niej się dzieje. Pisałem o aktualnym stanie tej usługi na łamach DailyWeb, a teraz chciałbym skoncentrować się na innym problemie.

Jest taka gra, która nazywa się “Terraria”. Popularna, lubiana przez odbiorców. Osobiście nie mogłem się do niej przekonać, ale rozumiem, że może fascynować. Ten tytuł miał wylądować na Stadii, ale, tak się jakoś dziwnie zdarzyło, że Google zablokował konto twórcy “Terrarii”. Całkowicie! Andrew Spinks nie ma dostępu do swoich maili, do konta na YT, nawet do plików na Dysku! Jak długo to trwa?

10 lutego, na Twitterze, poinformował, że od 25 (sic!) dni. W chwili pisania tego tekstu (19 lutego 2021) nie pojawiła się żadna aktualizacja, więc zakładam, że dalej jest zablokowany.

Trudno się dziwić, że twórca “Terrarii” się wściekł i ogłosił, że nie ma zamiaru współpracować już dalej z Googlem. Tym samym, port jego produkcji, nie pojawi się na Stadii. Można z tego tworzyć fajne nagłówki. Pisać, że przedstawiciel indie gamedevu pluje na praktyki wielkiej korporacji. Ale! Warto pamiętać o tym, że “Teraria” sprzedała się w 30 milionach egzemplarzy (źródło: Terraria reaches 30m units sold, gameindustry.biz), co stawia Andrew Spinksa w zupełnie innej sytuacji, niż wielu innych twórców gier indy, których spotkałby podobny los. Załóżmy, że ktoś robi gry mobilne. Sprzedaje za pośrednictwem Sklepu Google’a, bo w zasadzie to niespecjalnie ma wybór.

Aż nagle korporacja zdejmuje jego produkty i w ogólnikowy sposób informuje o naruszeniu określonych zasad. Co wtedy? Dyskusje? Rozmowy? Internet jest pełen wątków, których twórcy opisują swoje trudne relacje z Googlem.

To jest problem! Wydaje się, że tylko dla twórców, ale klienci również cierpią. W każdej chwili mogą stracić dostęp do swojej ulubionej gry, wystarczy, że “coś pójdzie nie tak”. Czytasz to i myślisz, że moje ogólnikowe stwierdzenia są denerwujące? Gwarantuję, że po napisaniu pierwszego odwołania do Facebooka lub Google’a szybko zmienisz zdanie. Odpowiedzi rzadko bywają konkretne. Właśnie dlatego uważam, że w dobie subskrypcji specyficzna samowola korporacji może być szkodliwa. Rynek gier komputerowych zaczyna się konsolidować wokół usług abonamentowych.

Od tego, czy dana gra będzie dostępna w danym sklepie i tym samym danej subskrypcji, będzie zależał los wielu małych studiów. Co im pozostaje? Bolesna prawda jest taka, że pojedynczo nie mają szans. Najlepiej jeśli trafią pod skrzydła jakiegoś mądrego wydawcy.

Uważam, że nadszedł już czas na poszukiwanie bardziej zdecentralizowanego modelu dystrybucji cyfrowej rozrywki. Legalnego, bo jestem przekonany, że za sprawą ograniczonej czasowo dostępności gier, odżyją torrenty.

Lokalizacja rozsądku

Porozmawiajmy o big data. O danych. O tym co wielkie korporacje mają na nasz temat. Po żadnym pozorem nie wzruszajcie ramionami i nie mówcie, że teraz ta dyskusja nie ma znaczenia ze względu na pandemię koronawirusa. Teraz jest doskonały moment na to, aby porozmawiać na temat tego, jak wyglądają nasze cyfrowe profile. Wyobraźcie sobie świat, w którym koncerny doskonale znają wasze przyzwyczajenia, nawyki i bez problemu są w stanie opisać waszą codzienną rutynę. A potem zaczynają wpływać na wasze decyzje. Moment! Nic nie musicie sobie wyobrażać, to nasza szara codzienności.

Słyszeliście o raportach mobilności, które udostępnił Google na czas pandemii koronawirusa? Jeśli nie, to zapraszam do odwiedzenia tej strony. Obejrzyjcie wykresy, zobaczcie, jak zmieniło się nasze zachowanie. Miło ze strony Google’a prawda? Taka dobra korporacja, podzieliła się danymi, wszyscy możemy się z nimi zapoznać. Skąd Google ma takie informacje? Z historii lokalizacji, o której możecie poczytać tutaj. Jeśli macie ją włączoną, to zachęcam do sprawdzenia Waszych osi czasu w mapach Google’a. To właśnie stąd wzięły się dane zawarte w raportach mobilności.

W wielu newsach na temat tej inicjatywy Google’a mogliście przeczytać, że jest to rozwiązanie tymczasowe. Pozwolę sobie doprecyzować jedną rzecz – raporty z mobilności są publicznie dostępne na czas ogólnoświatowego zagrożenia zdrowia, historia lokalizacji dalej spokojnie będzie zbierana i przetwarzana przez algorytmy Google’a. Przez cały czas informacje o nas są mielone, nie tylko przez wielkie korporacje, ale także przez rządy. Pandemia pokazała wszystkim, jak istotne w obecnym świecie są nowe technologii, w dużej mierze korzystające z różnych form big data. Właśnie dlatego tak istotne jest to, abyśmy zaczęli się zastanawiać nie tylko nad tym, kto zbierania dane i gdzie są przechowywane, ale także, w jakim celu są przetwarzane.

Jeśli ktoś Wam powie, że robi to specjalny algorytm i zamilknie, to pytajcie dalej. Drążcie, domagajcie się informacji na temat tego, z jakich danych korzysta, jak je przetwarza, jak tworzone są wyniki jego pracy, jak są interpretowane i czy macie możliwość odwołania się. Ten ostatni element jest dość istotny, ponieważ w ten sposób możecie żądać tego, aby pracy maszyny przyjrzał się człowiek. Jedną z wielu rzeczy, o których nie mówi się w kontekście big data, jest to, że algorytmy mogą być stronnicze. Dlaczego tak się dzieje? Powodów jest mnóstwo, dlatego tak ważne jest to, aby wiedzieć, na jakim zbiorze danych była trenowana podejmująca decyzje maszyna. Może już na tym etapie pojawiła się pewna stronniczość, którą potem struktura zaczęła utrwalać?

Dlatego w przypadku przetwarzania naszych danych w trakcie trwania pandemii koronawirusa, istotne jest pytanie o to, na jakich zasadach będzie ono przebiegało. Pytajcie o to, czytajcie regulaminy, sprawdzajcie po kilka razy, co będzie działo się z waszą lokalizacją, informacjami o kontaktach, WiFi, a nawet Bluetooth.

Iluzja wiedzy i przemoc presonalizacji

Ostatnio przeczytałem arcyciekawy tekst na temat iluzji szczęścia, która kreowana jest przez wielkie korporacje. Nie mają one na celu poprawy jakości naszego życia, ale zarobienie pieniędzy. Jest to smutna prawda, z którą trudno dyskutować. W końcu są to firmy, a te do życia potrzebują pieniędzy. Gorąco polecam „Nie-podsumowanie roku 2014” autorstwa Ewy Lalik. Rzecz jest bardzo pesymistyczna, ale skłaniająca do przemyśleń. A to już bardzo dobrze.

Autorka skupia się na iluzji szczęścia, a ja chciałbym zająć się iluzją wiedzy oraz personalizacją, którą można postrzegać jako formę przemocy. Żyjemy w czasach, w których podstawowym źródłem informacji jest wyszukiwarka Google napędzana specjalnie przygotowanym algorytmem. Ma on na celu „wypluć” nam maksymalnie doprecyzowaną listę wyników, ale wszyscy zapominamy o jednej rzeczy – będą one dostosowanie do człowieka, który wpisał zapytanie. Celowo nie piszę człowieka, który szuka, bo szuka dla nas algorytm, my tylko zadajemy pytanie. Uważam, że dotarliśmy do momentu, w którym nie powinniśmy mówić: znalazłem w Google informację. Bardziej na miejscu będzie stwierdzenie: algorytm Google’a znalazł dla mnie. I w tym miejscu chciałbym zaznaczyć jedną rzecz – dla mnie sytuacja ta jest nienaturalna. To my powinniśmy zdobywać informacje, przeglądając także rzeczy, które nas mniej interesują. W ten sposób budujemy własny światopogląd. Jeżeli wykorzystujemy do jego tworzenia wyłącznie wyszukiwarkę, to jest oparty na kiepskich fundamentach. To tak jakby w pracy naukowej napisać, że w marcu Google wyświetliło 43 tysiące wyników na dany temat, a w sierpniu 132 tysiące i na tej podstawie orzec, że badana „rzecz” stała się bardziej istotna. Google najzwyczajniej w świecie dostosował wyniki na podstawie wcześniejszej wyszukiwanych informacji. I diabli biorą taki argument.

Searching / Kevin Dooley (CC BY 2.0)

Searching / Kevin Dooley (CC BY 2.0)

Jeszcze bardziej niebezpieczne jest to, że zaczynają się tworzyć „internety”, do których nie mamy dostępu. Sprawę tę w ciekawy sposób przedstawił Eli Pariser w krótkim TEDowym wykładzie „Beware online „filter „bubbles” (tłumaczenia moje).

Jeżeli ja szukam tego „czegoś” i ty również szukasz tego „czegoś”, i robimy to w tym samym czasie oraz w ten sam sposób, to możemy otrzymać bardzo odmienne wyniki wyszukiwania. Jeden inżynier powiedział mi, że nawet jeżeli jesteś wylogowany, to Google sprawdza 57 różnych „sygnałów” – z jakiej wyszukiwarki korzystasz, z jakiego komputera, gdzie jesteś – informacje te wykorzystuje do tego, aby dostosować wyniki wyszukiwania pod ciebie. Zastanów się nad tym: nie istnieje już standardowe Google. A najśmieszniejsze jest to, że tego nie widać. Nie jesteś w stanie dostrzec tego, jak bardzo różnią się twoje wyniki, od tych, które otrzymują inni.

I to jest bardzo przerażające, ponieważ zamyka użytkowników w „bańkach światopoglądowych” (modyfikuje określenie używane przez Eli’ego Parisera, który mówi o filter bubbles). Gdy zadajemy pytanie wyszukiwarce, to ona nie „mówi” nam jaki ten świat jest. Tylko pokazuje tę indywidualną rzeczywistość, w której na co dzień żyjemy. Korzystając wyłącznie z Google’a stajemy się więźniami własnych światów i nawet nie zdajemy sobie z tego sprawy.

Iluzja wiedzy

Google to narzędzie, a nie wyrocznia. Mam wrażenie, że coraz częściej o tym zapominamy. Odpowiedzi są dostosowane do nas, do naszych potrzeb, są związane z tym, czego szukaliśmy wcześniej. I coraz trudniej będzie nam znaleźć coś, co nas nie interesuje. Zaraz, zaraz – czy my w zasadzie powinniśmy czegoś takiego szukać? Tak. Z banalnej przyczyny – bo tylko w ten sposób tworzymy swój światopogląd. Warto czasem skonfrontować się z czymś, co nas odrzuca, aby zrozumieć dlaczego tak się dzieje. Być może jest to wynik naszych uprzedzeń? A może faktycznych różnic dotyczących postrzegania świata? Wtedy nie można się obrażać, ponieważ nikt nie ma monopolu na Prawdę. A wydaje mi się, że właśnie Google chciałby go mieć.

Zanim zaczniemy wykuwać własny światopogląd, powinniśmy najpierw zrozumieć jak myślimy. A to jest niemożliwe bez konfrontacji z różnymi informacjami, niekoniecznie z takimi, których akurat potrzebujemy. Współcześnie coraz więcej się mówi o tym, że powinniśmy uczyć dzieci korzystania z przeglądarki, aby były one w stanie wyszukiwać potrzebne im informacje. W tym przekonaniu jest kilka błędów. Po pierwsze Google daje to, co sam uzna za istotne na podstawie algorytmu wyszukiwania, a to może być tylko część informacji na dany temat. Po drugie trzeba uczyć myślenia, aby ludzie byli w stanie sprawdzać rzetelność znalezionych rzeczy, aby zdawali sobie sprawę z tego, że świat jest znacznie bardzie skomplikowany, niż to co można dostrzec na podstawie pierwszych 10 odpowiedzi. W przeciwnym razie będziemy żyli w „iluzji wiedzy”.

Stanem naturalnym dla każdego człowieka jest niewiedza. Nic nowego, bo stwierdził to już Sokrates wypowiadając swoje Wiem, że nic nie wiem. Stwierdzenie to stało się frazesem, kliszą i przestaliśmy rozumieć jego ciężar. A przecież wiemy bardzo niewiele, jednocześnie wspaniałe jest to, że otacza nas nieodkryta przestrzeń. Myśląc, że już „wiemy”, szybko wpadamy w pułapkę ignorancji. Bo zawsze jest „coś”, co nam umknęło. Zamiast bezmyślnie wklepywać kolejne zapytania, powinniśmy nauczyć się dwóch rzeczy – selekcji i umiejętności powstrzymywania siebie. Zewsząd zalewają nas informacje, więc musimy jakoś na nie reagować. Kiedyś robili to za nas – na przykład – krytycy, ale wyrugowaliśmy tę instytucję ze współczesnej kultury. Wydaje nam się, że zostaliśmy sami, ale tak nie jest – obok nas dzielnie stoi algorytm Google’a, który dopasowuje wyniki. Problem polega na tym, że jest to selekcja nieświadoma, ponieważ nie wiemy, co zostało odrzucone. A może właśnie w tych wykluczonych wynikach jest to „coś”, czego szukam? Selekcja prowadzona przez nas samych polega na rozumieniu dlaczego jedne informacje wykluczam, a innych nie. Jednocześnie mam świadomość tego, że istnieje „coś” więcej, niż „to” czego poszukiwałem. Google nie daje takiej wiedzy.

Search Technology Redux / brewbooks (CC BY-SA 2.0)

Search Technology Redux / brewbooks (CC BY-SA 2.0)

Ważna jest też umiejętność powstrzymywania siebie, szczególnie w pracy naukowej. Związana jest ona z rozumieniem, że jest się otoczonym przez różnego rodzaju ograniczenia. Myślę tutaj nie tylko o czasie, ale często o modelu świata, który tworzy każdy z nas. Jedne rzeczy tam włączamy, a inne wyrzucamy i nie ma w tym nic złego, tak długo jak mamy świadomość istnienia tych odrzuconych elementów. Musimy powstrzymywać siebie przed nieustannych wchodzeniem w głąb, przed ciągłym poznawaniem nowych ścieżek. Google daje nam „iluzję wiedzy”, która jest związana z potrzebą odkrywania kolejnych warstw informacji. Jednak algorytm nie mówi o jednej bardzo ważnej rzeczy – rozumieć, to nie znaczny posiadać informacje, ale je wykorzystywać. Google’owa „iluzja wiedzy” polega na tym, że dostajemy (pozorny) dostępy do wszystkich wyprodukowanych na świecie informacji, ale nigdzie nie jest powiedziane, co możemy z nimi zrobić. To już leży w gestii użytkownika, który prędzej zapyta wyszukiwarkę o to, jak przetworzyć informację, niż zrobi to sam.

Otrzymaliśmy genialne narzędzie, ale się nie zachłysnęliśmy. Zawsze uważałem, że wyszukiwarki można używać do odnalezienia źródeł danej informacji, jeżeli trafiliśmy na jej przetworzoną wersję. Moje myślenie okazało się bardzo idealistycznie – nie wszyscy poprawnie linkują do pierwotnej wersji, a okazuje się, że opieranie się na wynikach Google’a również może okazać się złudne.

Personalizacja to przemoc

Wszystko ostatnio dostosowujemy pod siebie. Opętała nas mania „indywidualności”. Myślę, że dopóki dotyczy, to takich rzeczy jak pulpit telefonu lub komputera, to nie ma w tym nic złego. Tam mamy mieć te programy, z których korzystamy i kropka. Niebezpiecznie zaczyna się robić, gdy wpadamy w bańkę filtrów („filter bubble”), o której mówi Eli Pariser:

Myślę, że jeżeli zbierzemy wszystkie te filtry, wszystkie te algorytmy, to otrzymamy bańkę filtrów. I każdy z nas siedzi w takiej bańce – jest on osobistym światem informacji, w którym żyjemy w sieci. Bańki oparte są na tym kim jesteśmy i co robimy. Problem polega na tym, że nie decydujemy o tym, co dostaje się do wewnątrz i – co najważniejsze – nie widzimy tego, co zostało odrzucone.

To jest właśnie przemoc personalizacji. Zostają nam wciśnięte różne rzeczy na podstawie rekomendacji układanych przez filtr. Oparte są one wyłącznie na tym, co widzieliśmy/przeczytaliśmy i co nam się podobało. Zamykamy się w tych sztucznie wykreowanych światach, skupiamy się na JA i przestajemy dostrzegać, że istnieje coś poza tym, co zostało nam zaserwowane przez algorytm.

Dlatego ginie umiejętność dyskusji. Umiera rozmowa. Za bardzo jesteśmy skupieni na JA. Agresywnie reagujemy na treści, które nam się nie podobają, ponieważ nie pojawiły się na liście rekomendacji. Żaden algorytm nie nauczył nas w jaki sposób zareagować na coś odmiennego, innego. Być może właśnie stąd bierze się się złość w komentarzach i inne formy agresji w Internecie. Traktować to jako nieświadome odreagowanie presonalizacyjnego ucisku? Nie wiem. Przyznam szczerze, że taka interpretacja wydaje mi się kusząca, ale mam zbyt mało danych, aby jednoznacznie stwierdzić, że faktycznie tak może być. Na pewno jest to ścieżka, którą warto rozważyć.

Przede wszystkim musimy pogodzić się z tym, że nie żyjemy w spersonalizowanym świecie. Otacza nas kultura pełna różnych instytucji narzucających nam granice i formy postrzegania. Nikt z nas nie jest jednostką, której należy się wszystko. Personalizacja uczy nas czegoś innego – oczekiwania, że otrzymamy tylko to, co nam się podoba. To błędne i niebezpieczne założenie, ponieważ tracimy w ten sposób tysiące innych elementów, które składają się na otaczającą nas rzeczywistości.

Jak wyjść z „bańki filtrów”, „więzienia personalizacji” oraz „iluzji wiedzy”? Myślę, że przez rzetelne i wielowątkowe poznawanie świata. Na pewno nie przez zadawanie pytań wyszukiwarce.

Powered by WordPress & Theme by Anders Norén