Konsumenci nie mają zaufania do AI

Od autonomicznych taksówek po gry wideo – jakie są wyzwania i obawy związane z AI? Na pewno kluczowym problemem jest kwestia zaufania.

Integracja sztucznej inteligencji z codziennością stanowi kluczowy temat wielu artykułów, które pojawiły się ciągu ostatniego roku. Nie ma w tym nic dziwnego, ponieważ rosnąca popularność takich usług jak ChatGPT lub Claude, sprawiła, że nagle każdy poczuł konieczność, by dorzucić połączenie z modelem językowym do swojego produktu. Moim zdaniem ostatnio uwaga konsumentów skupia się głównie na tej formie sztucznej inteligencji, a przecież to tylko i wyłącznie fragment złożonego tematu. SI jest z nami od dawna, w różnych formach, jednak to wcale nie oznacza, że się z nią oswoiliśmy.

Za mało czasu, za dużo treści

Ten tekst powstał jako dygresja w trakcie prac nad kolejnym artykułem na temat rozwoju AMP. Jest to mój prywatny projekt, w którym skupiam się na wykorzystywaniu generatywnej sztucznej inteligencji w praktykach biznesowych w gamedevie. Pisząc kolejne słowa, wpadłem w dygresję, bo zacząłem się zastanawiać nad tym, co dzieje się po drugiej stronie, czyli wśród konsumentów. Koniec końców gamedev to sektor rozrywkowy, więc bez odbiorców po prostu nie istnieje. Z pomocą przyszedł mi artykuł  Adverse impacts of revealing the presence of “Artificial Intelligence (AI)” technology in product and service descriptions on purchase intentions: the mediating role of emotional trust and the moderating role of perceived risk. Tytuł długi, ale warto się zagłębić w tekst.

Przeczytałem, trochę się poodbijam z kilkoma koncepcjami, które się tam pojawiły. Najważniejsze jest to, że tekst dotyczy produktów oraz usług dalekich od sektora rozrywkowego. Trzeba czekać na takie treści, ale sądzę, że wraz z rozwojem oraz rosnącą popularnością narzędzi opartych na sztucznej inteligencji, to tylko kwestia czasu. Otwarta pozostaje kwestia tego, jak na takie produkty zareagują odbiorcy. Wspomniany przeze mnie artykuł, wyraźnie wskazuje na to, że klienci nie mają zaufania i odnoszą się z niechęcią do produktów opisanych jako „wykorzystujące sztuczną inteligencję”. Jest to ważna wskazówka dla wszystkich osób zarządzających cyklem życia produktów, a także dla działów marketingowych, na których spoczywa obowiązek budowania komunikacji oraz prezentowania tego, czym zajmuje się firma.

Tylko skąd bierze się ta niechęć? Czy powodem się tylko i wyłącznie etyczne kwestie dotyczące sztucznej inteligencji? A może to, że generatywne SI kojarzy się z kradzieżą praw autorskich i nielegalnym wykorzystywaniem treści w trakcie trenowania modeli? Kiwasz głową, czytając te pytania? Wziąłem je ze swojej bańki, z otoczenia, z którym jestem związany. Od razu mówię, że nie dla wszystkich będą to istotne kwestie, bo istnieje inny kluczowy problem. Klienci nie mają czasu, żeby zmierzyć się z tym, jak dokładnie wygląda integracja ze sztuczną inteligencją w proponowanym im produkcie. Na dodatek nie wiedzą też czego oczekiwać i jak to wszystko sprawdzić, bo już za rogiem, już za chwilę, kolejna firma właśnie wrzuca im na głowy świeżutki produkt cudownie zintegrowany z AI.

Casey Fleser / Video Game Violence (55 / 365) (CC BY 2.0)
Casey Fleser / Video Game Violence (55 / 365) (CC BY 2.0)

Zaufaj mi, koleżko

Interesujące jest dla mnie to, że w artykule zostaje położona duża waga na kwestię zaufania konsumentów do produktu. Sądzę, że zdecydowanie zbyt rzadko się o tym mówi, przynajmniej w mojej branży. Jednak dalej korzystając z rozróżnienia z artykułu, gamedev należy do usług (lub produktów) niskiego ryzyka. Jeśli kupisz grę opisaną jako współtworzona przez dedykowane AI, to w najgorszym razie czeka cię rozczarowanie i poczucie straty po wydanych pieniądzach. Natomiast usługi lub produkty wysokiego ryzyka, to, na przykład, chatbot diagnozujący choroby albo autonomiczna taksówka. To rozróżnienie pokazuje też, jak bardzo szeroko rozumiany jest termin sztuczna inteligencja, jeśli chodzi o sprzedaż i marketing. Dlatego trudno dziwić się klientom, że mają całkowity mętlik w głowach, bo sami nie wiedzą czego się spodziewać.

Warto tutaj dodać duże rozczarowania w postaci takich urządzeń jak Humane AI oraz Rabbit R1. Miały być cudownymi urządzeniami, które zmienią świat, a wyszło mało przekonująco. W specjalnym wydaniu „The Wired”, twórcy Humane AI, przekonywali, że ich sprzęt zakończy erę panowania smartfonów i wprowadzi wszystkich w nowy czas asystentów napędzanych sztuczną inteligencją. Oba te urządzenia to dwa przykłady, mocne przykłady, dość dobrze obrazujące problemy z zaufaniem klientów do obietnic producentów. Szczególnie w momencie, w którym nagle pojawia się fraza wyraźnie wskazująca na wykorzystywanie modeli językowych, a w komunikacji marketingowej ten element celowo zakrywa wszystkie ewentualnie niedogodności oraz niedociągnięcia. Nic dziwnego, że dla autorów artykułu tak istotna stała się kwestia zaufana. Muszę zaznaczyć, że rozszerzyli ją także o informacje zwracane przez AI. Co też jest interesujące, ponieważ pokazuje, że my, ludzie, nie jesteśmy, aż tak przekonani co do zwrotek, jakie otrzymujemy.

Osoby, które wzięły udział w badaniu stanowiącym fundament artykułu, a także respondenci innych ankiet również dotyczących kwestii zaufania do nowych technologii, wskazywali, że są dalecy od tego, aby w pełni zdać się na to, co zwracają im algorytmy. Na dodatek ewentualnie błędy AI spotykają się z silniejszą krytyką, niż gdyby popełnił je człowiek. Myślę, że dowodem mogą być tutaj wszystkie wpisy w mediach społecznościowych pokazujące halucynacje modeli językowych. Obrazki, zrzuty ekranu, których jedynym celem jest udowodnienie jak bardzo głupi jest ChatGPT wciąż pojawiają się w Internecie. Mnie zastanawia wtedy, czy osoba publikująca taki post, nigdy niczego nie zmyśliła? Zawsze porusza się w maksymalnie nasyconym danymi kontekście i wyciąga słuszne wnioski, nie popełnia błędów? Oczywiście, że tak nie jest, po prostu wyraźnie widać, że w stosunku do algorytmów ludzie mają większe oczekiwania. Wręcz graniczące z nieomylnością. Warto się zastanowić czy to aby nie jest efekt marketingu dużych korporacji, które za wszelką cenę próbują sprzedać produkt i dlatego koncentrują się tylko i wyłącznie na dobrej ścieżce, na sukcesach reklamowanego rozwiązania.

bionic hand and human hand finger pointing
Photo by cottonbro studio on Pexels.com

A jak będzie w przemyśle rozrywkowym?

Nie mam pojęcia. Cały czas się nad tym zastanawiam i obserwuję różne kierunki, w jakich rozwija się temat generatywnej sztucznej inteligencji. Zauważyłem istnienie przynajmniej dwóch obozów. Zwolenników, którzy są skłonni, wciskać ten sposób tworzenia treści absolutnie wszędzie i przeciwników, którzy najchętniej chcieliby, aby ten cały ChatGPT rozbił sobie głupi ryj o bruk. Patrzę na dyskusje tych obu obozów i coraz częściej rozmawiam z osobami, które są pośrodku. Widzą pewne zastosowania, rozumieją problemy związane z rozwojem generatywnej sztucznej inteligencji i widzą w aktualnej sytuacji ważny moment przełamania. Dlaczego? Niezależnie od tego, jak bardzo zaangażowani się rozmówcy, to w wielu, nawet w najbardziej ognistych dyskusjach, pojawiają się pytania o ważne kwestie.

Takie jak prawa autorskie. Od dawna było wiadomo, że prawodawstwo nie nadąża za rozwojem technologicznym, ale dopiero pojawienie się modeli językowych wytrenowanych na treściach z Internetu, pokazało, jak ten problem ugryzł wszystkich twórców w kostki. Pojawiają się też pytania od szeroko rozumiane doświadczenie. Czy maszyna potrafi tak projektować treść, aby odbiorca czuł różnego rodzaju emocje? A może to właśnie odbiorca jest kluczowym aktorem budującym doświadczenie. Zastanów się nad tym, czy faktycznie ma znacznie to, kto stworzył dla ciebie dany film, grę czy album muzyczny. Skoro tego doświadczasz, to jeśli się dowiesz, że było to dzieło maszyny, to wtedy twoje doświadczenie stanie się mniej ważne? Sam zadaję sobie to pytania i jeszcze nie wiem, jak dokładnie na nie odpowiedzieć. Oglądając Rebel Moon, szczególnie pierwszą część stwierdziłem, że fabuła wygląda tak jakby napisał ją ChatGPT, co miało oznaczać, że jest słabej jakości. Złapałem się na tym stwierdzeniu, bo skoro zakładam, że ten model językowy tworzy kiepskie rzeczy, to dlaczego wykorzystuję go w innych, często biznesowych, kontekstach?

Sam w swoich praktykach dostrzegam wyraźnie rozdarcie. Nie mam zamiaru ukrywać tego, że ja dostrzegam przyszłość w wykorzystywaniu modeli językowych właśnie w procesach biznesowych. Generowaniu raportów, badaniu rynku — wszędzie tam, gdzie w grę wchodzi przegrzebanie dużej ilości danych, które często nie są zbyt dobrze opisane oraz ustrukturyzowane. Weryfikowanie tego, czy produkt się sprzeda, a także estymowanie zainteresowania odbiorców, zawsze wymaga pracy z wieloma, często niedookreślonymi, zmiennymi. Tutaj widzę duże znaczenie modeli językowych! Bywa, że dostrzegają one powiązania oraz struktury będące dla człowieka niewidoczne. Kluczowe staje się zarządzanie ich uwagą, zadawanie dobrych pytań oraz karmienie ich dobrze przygotowanymi danymi.

Piszę te słowa z perspektywy osoby, która miała czas na zapoznanie się aktualnie popularnymi usługami oferującymi wykorzystanie modeli językowych. Mam odrobinę wiedzy na temat tego, jak działają, jak przetwarzają dane, jak modyfikować ich wyniki, aby zmniejszyć ryzyko pojawienia się niskiej jakości treści. Czy to oznacza, że mam do nich zaufanie? Na pewno nie mam zaufania do firm, które je oferują, dlatego coraz więcej czasu poświęcam na prace z modelami otwartoźródłowymi, ale do samych LLMów pewne zaufanie mam. Jednak daleki jestem od twierdzenia, że absolutnie wszyscy je zdobędą, jeśli tylko kilka razy porozmawiają z Claudem lub ChatemGPT. Rozumiem, że obecnie obserwujemy i doświadczamy bańki, która pewnie pęknie z hukiem, jak to już wiele razy się zdarzyło. Jednak sądzę, że rola sztucznej inteligencji, w tym tej generatywnej, zostanie na tyle ustabilizowana, że w niektórych branżach stanie się wymaganą kompetencją.