To jest wydanie premium newslettera Listy do internetu: długie, ważne i bardzo czasochłonne w przygotowaniu, ale wciąż dostępne za darmo. Proszę: po lekturze postaw kawę autorowi, bym mógł pisać takich więcej. Dziękuję za każde wsparcie!
1. U zarania internetu, aby odnaleźć się w gąszczu stron WWW, korzystaliśmy z katalogów, grupujących zasoby sieci według rozmaitych kategorii. Każdy wiodący portal, od Yahoo po Onet, miał swoje zestawienie tego typu, a jeszcze w 1998 roku pojawiła się inicjatywa Open Directory Project (inaczej: DMOZ) mająca być uniwersalnym, wielojęzycznym, otwartym i utrzymywanym przez społeczność redaktorów-wolontariuszy zbiorem adresów witryn internetowych. Ten miał nam służyć jako ostateczny internetowy drogowskaz.
Wtedy jednak na atrakcyjności zyskała alternatywna metoda nawigacji po internecie: wyszukiwarki, w których użytkownik podawał słowa kluczowe, program zaś wyłuskiwał ze swojej bazy danych odpowiadające im adresy. Już w połowie lat 90. strony internetowe były regularnie odwiedzane nie tylko przez internautów, ale też przez roboty, które uważnie skanowały każde użyte przez webmastera słowo, by następnie zindeksować je i dać użytkownikom najlepsze odpowiedzi dla ich wyszukań. Serwisy takie jak WebCrawler, Lycos, Infoseek czy AltaVista stawały się coraz popularniejsze, szybko pojawiły się także ich polskie odpowiedniki: NEToskop, Sieciowid i Polski Infoseek, które musiały radzić sobie z naszymi znakami diakrytycznymi i formami fleksyjnymi.
W 1998 roku w sieci zadebiutował stworzony przez dwóch absolwentów Uniwersytetu Stanforda Google – wyszukiwarka oparta na innowacyjnym algorytmie PageRank, który ważył wartość odnośników. W uproszczeniu opierało się to na zasadzie, że im częściej ktoś linkował do strony, tym istotniejsza mogła mieć ona znaczenie dla internautów i tym wyżej pojawiała się w wynikach wyszukiwania, a ocenie systemu podlegały też strony linkujące, więc odwołanie z witryny, która sama miała wysoki ranking, ważyło więcej niż z takiej niepopularnej. Dzięki temu Google potrafił trafniej niż konkurenci odnajdywać to, o co pytali użytkownicy, a w konsekwencji zyskał dominującą pozycję na tym rynku. Wymienione wyżej konkurencyjne usługi są już dziś tylko hasłami z historii internetu, a czynność wyszukiwania czegoś w sieci zaczęto określać mianem “guglania” (choć prof. Mirosław Bańko w Poradni Językowej PWN preferował formę “guglować”).
Dziś wiemy, że szefostwo Google dostrzegało też lenistwo użytkowników, w większości niezmieniających domyślnych ustawień oprogramowania. Już dwie dekady temu firma płaciła więc krocie twórcom przeglądarek, np. Mozilli, by to właśnie ich wyszukiwarka była tą domyślną, gotową do pracy zaraz po uruchomieniu aplikacji (i po cichu pracując nad swoją przeglądarką, która miała wykończyć konkurencję). Natomiast, szczególnie w początkowej fazie tego procederu, mogło się to wydawać pewną rozrzutnością. Wystarczyło przecież zapytać o coś Google’a i np. AltaVistę, a potem porównać wyniki, i wybór domyślnej wyszukiwarki narzucał się sam.
A skoro już mowa o lenistwie użytkowników i wpływie Google na internet, warto zauważyć, że to właśnie dzięki algorytmom PageRank narodziła się nowa profesja – tzw. SEO, czyli optymalizacja treści stron internetowych w taki sposób, by wyszukiwarka w odpowiedzi na słowa z zapytania, wyświetlała odnośnik do naszej witryny wyżej niż te prowadzące do konkurencji. Okazało się bowiem, że użytkownicy przeważnie zadowalają się pierwszymi linkami, jakie widzą, co w wielu komercyjnych serwisach (portalach, sklepach…) rodziło konieczność stosowania chwytów takich jak używanie specjalnych słów w artykułach czy pozycjonowanie, tj. zdobywanie linków z adresów zewnętrznych, które wzmacniałyby PageRank optymalizowanej witryny. Specyfiką SEO był również fakt, że algorytmy Google pozostawały niejawne i zmieniały się w czasie, nikt zatem z optymalizujących nie mógł być pewien, że jego działania okażą się skuteczne. Życie dopisało do tego wątku interesującą puentę, o której jednak nieco niżej.
2. Dalszy ciąg tej historii jest doskonale znany chyba wszystkim internautom. Google zwyciężyło, a na fali tego sukcesu stworzyło również inne, przeważnie też znakomite, usługi. Np. pocztę elektroniczną Gmail, która w 2004 roku oferował gigabajt przestrzeni na wirtualną korespondencję (gdy standardem u konkurencji było 15 MB), rewolucyjny system wątkowania odpowiedzi oraz – co nie powinno dziwić – świetną wyszukiwarkę wiadomości.
Oczywiście nie wszystko się Google’owi udawało (zwłaszcza bolesne musiały być porażki na froncie mediów społecznościowych, jak m.in. Buzz czy później Google+), ale dobre usługi i aplikacje zdecydowanie przeważały nad tymi kiepskimi. Google Reader (2005) okazał się praktycznym czytnikiem kanałów RSS. Calendar (2006) – wygodnym i prostym w obsłudze narzędziem do zarządzania własnym czasem. Docs (2006) – ascetyczną, elegancką alternatywą dla przeładowanego funkcjami Worda, do tego z unikatowymi opcjami zdalnej współpracy. Chrome (2008) – szybką i lekką przeglądarką z minimalistycznym interfejsem. Itd., itp.
Do tego wszystkie te przełomowe i innowacyjne rozwiązania (jak omnibox, czyli łączone okno adresu i wyszukiwarki, z Chrome’a, który później “pożyczyła” cała konkurencja) były udostępniane przez Google’a całkowicie za darmo. Tzn. w cenie naszych danych, ale raczej powszechnie uznawaliśmy to za uczciwą transakcję. Jakiż bowiem – śmialiśmy się – można zrobić użytek np. z historii wyszukiwań czy pocztowej korespondencji. Zresztą wszelkie obawy, jeśli w ogóle się pojawiały, uciszało hasło reklamowe internetowego dobroczyńcy – don’t be evil. No i przecież nie mógł być zły ktoś, kto robił takie śmieszne Google Doodle i (jak czytaliśmy w kolorowej prasie) zatrudniał owce do strzyżenia trawników przed siedzibą firmy.
Tak nam się przynajmniej wydawało.
3. Dziś wiemy, że byliśmy naiwni i mamy do czynienia z korporacją tak samo złą jak inne. Informacje o grzechach Google’a coraz śmielej przebijają się do mediów. Począwszy od zakrojonej na szeroką skalę optymalizacji podatkowej, by przelać do wspólnej kasy najmniej jak to jest możliwe, przez monetyzowanie patologicznych treści i świadome ogłupianie internautów algorytmami (np. na YouTubie), wspieranie klimatycznych denialistów, współpracę z chińskim reżimem przy cenzurowaniu wyników wyszukiwania i nieuczciwe praktyki monopolistyczne, aż po naruszanie prywatności użytkowników, które może być groźne dla ich życia (proszę wyguglać hasło “Project Nimbus”).
Oczywiście powyższy akapit to ledwie zaczątek listy przewin internetowego giganta, z których można by złożyć nie tylko artykuł, ale grubą książkę. Takie zestawienie miałoby jednak co najwyżej kronikarski charakter i nie sądzę, by mogło zaszkodzić korporacji, która – to trzeba jej przyznać – już dawno przestała używać hasła don’t be evil. Gdzież bowiem skromny pisarczyk, a gdzie Google. Prawdę mówiąc, gdy rząd Stanów Zjednoczonych czy władze Unii Europejskiej próbują nieco przytemperować politykę internetowego giganta, wcale nie jestem pewien, czy dadzą radę tak potężnemu przeciwnikowi.
Co ciekawe, prawdopodobnie Google’owi nie jest już w stanie zaszkodzić nawet sam Google. Gdy firma bezwzględnie zabiła swój czytnik RSS (przy okazji likwidując jedno z ostatnich miejsc, gdzie to sami internauci, nie algorytmy, dobierali sobie treści do konsumpcji) – wybaczyliśmy. Choć ociężały, zasobożerny i niezbyt chroniący prywatność użytkowników Chrome przegrywa walkę na argumenty z prawie każdą z alternatywnych przeglądarek, korzysta z niego 65% internautów. Choć już dobrze wiemy, że układ “aplikacje za wasze dane” nie jest dla nas tak korzystny, jak wydawało nam się dwie dekady temu, nadal nie potrafimy wyzwolić się z tej toksycznej relacji.
Ba!, sam – choć piszę to wszystko i życzę Google’owi tak samo źle, jak wszystkim złym korporacjom – korzystam przecież z wielu ich usług. W Gmailu mam historię korespondencji z 20 lat i żadnego pomysłu, gdzie mógłbym ją przenieść. W Docsach pracuje wielu zaprzyjaźnionych redakcji, więc ja również. Keep – minimalistyczny notatnik – to dla mnie “stary, dobry Google” i trzymam w nim ogromną bazę wiedzy do książek i artykułów (w tym – paradoksalnie – również do tego, który teraz czytacie).
A zatem: czy Google może upaść? Raczej nieprędko, ale jest promyk nadziei. Od pewnego czasu bohater tego tekstu zawala element, w którym zawsze był najlepszy i od którego zaczęły się jego sukcesy. Ma fatalną wyszukiwarkę.
4. Oczywiście osobny tekst należałoby poświęcić zmianom w samej usłudze, w efekcie których Google – zamiast, jak dawniej, wyświetlać linki do zasobów internetu – stara się zatrzymać użytkownika na swojej stronie. Gdybyśmy kiedyś zapytali wyszukiwarkę np. o przepis na sernik, odpowiedzią byłyby odnośniki do stron, które mogą mieć tę informację, posortowanych według oceny algorytmu PageRank. To działanie zgodne z filozofią sieci. Dziś – zgodnie z filozofią chciwej korporacji – Google spróbuje odpowiedzieć na takie pytania bezpośrednio w swoim oknie.
Czasem odpowie dobrze, czasem źle (do anegdoty przeszła sztuczna inteligencja Google, zalecająca internautom jedzenie jednego kamienia dziennie). Zawsze jednak będzie żerować na treściach zabranych z innych miejsc internetu. Ktoś – np. dziennikarze pracujący w mediach – przygotował je po to, by przyciągnąć gości na swoją stronę, lecz goście nie przyjdą, bo uzyskali potrzebną informację bezpośrednio w Google’u. “Nakarmiliśmy Google’a, jesteśmy mu już niepotrzebni” – podsumowuje problem twórca Spider’s Web, Przemysław Pająk, wieszcząc serwisom internetowym rychłą zagładę. Pytanie za sto punktów: skąd Google będzie czerpać wiedzę, gdy zbankrutują ostatni dostawcy tejże wiedzy, pozbawieni przez Google ruchu na swoich witrynach.
5. Ale nawet z punktu widzenia zwykłego użytkownika, któremu powyższe “usprawnienia” nie przeszkadzają (a może nawet czynią jego życie trochę wygodniejszym), wyszukiwarka Google jest coraz gorsza. Oczywiście są na to badania, np. w 2023 roku niemieccy naukowcy dowiedli, że w recenzjach produktów, które pokazują się w odpowiedzi na zapytania internautów, reklamowy spam całkowicie zdominował prawdziwe opinie, a wyszukiwarka nie radzi sobie z działalnością speców od SEO. Obserwację tę potwierdzi każdy, kto szukałby w Google’u rzetelnych wiadomości o przedmiocie, którego zakupem jest zainteresowany. Nawet jeśli w sieci istnieje gdzieś, choćby na czyimś blogu, taka recenzja, Google raczej nie wyświetli tego adresu. Za to zbombarduje nas opisami reklamowymi, sponsorowanymi linkami do sklepów i fałszywymi pochwałami, które bardzo słabo próbują udawać, że stworzył je prawdziwy użytkownik.
Na marginesie: ten ostatni element coraz częściej przejmuje sztuczna inteligencja, która lepiej niż ludzie potrafi napisać coś, co później będzie czytać i ewaluować inna sztuczna inteligencja, ta od Google’a. Osiągamy więc sytuację, w której SI pisze dla SI, a użytkownik nie ma z tego nic, poza porcją wyświetlonych mu reklam. Często – dodajmy – chybionych, bowiem, jak potwierdzają przytoczone wyżej badania, pionier SEO ewidentnie nie radzi sobie z nową falą optymalizacji.
Problem dotyczy właściwie całej internetowej aktywności, która dzieje się poza dużymi portalami i mediami społecznościowymi, a która – jak strony domowe czy prywatne blogi – była kiedyś fundamentem sieci. Treści tak publikowane, nawet jeśli są unikatowe, algorytmy Google uznają za niewarte pokazywania, a w konsekwencji pozostaną one niewidoczne dla użytkowników. A więc i ich autorzy tracą motywację do działania poza korporacyjnymi ekosystemami. Po co pisać bloga czy aktualizować stronę domową, skoro nikt tam nie trafi?
6. Oczywiście można zadać sobie pytanie, czy szefostwo Google nie widzi, że ich flagowy produkt nie działa. Odpowiedź brzmi: owszem, widzi. Ale nie zamierza nic z tym zrobić. A przynajmniej nie ma w planach naprawienia swojej wyszukiwarki.
Jest to poniekąd pokłosiem jej dominującej pozycji na rynku. Jak słusznie zauważa Cory Doctorow, publicysta i pisarz science-fiction, gdy masz praktycznie 100% użytkowników, nie możesz rosnąć, pozyskując nowych. A w chorą logikę kapitalizmu wpisany jest przecież ciągły wzrost – nie zadowoli cię to, że zarabiasz wciąż tyle samo, nawet jeśli to już bardzo dużo, znacznie więcej niż zarabiają inni. Słupki zysku na korporacyjnych wykresach muszą piąć się w górę, a skoro nie ma już więcej użytkowników do przejęcia, trzeba mocniej wyciskać tych, którzy są. A więc np. wyświetlać im jeszcze więcej reklam, których nie potrzebują. Może będą tak leniwi, że nawet nie zapytają Google’a o alternatywne wyszukiwarki.
To niestety prawdopodobne założenie, bo ruch kciuka w górę po dotykowym ekranie generujący konsumpcję kolejnych treści podsuwanych przez algorytm, zastąpił przecież gest kliknięcia w odnośnik. Link – fundament hipertekstu, na którym zbudowano World Wide Web – odszedł do lamusa. Wyszukiwarka Google – niegdyś oparta właśnie na linkach – wspiera ten proces. Nie chce być już przystankiem w drodze “surfujących” po internecie, lecz stacją końcową. Dlatego, jak się zdaje, na liście priorytetów firmy jest nie poprawa wyszukiwarki w sposób taki, by pokazywała lepsze odnośniki, lecz rozwój opartego na sztucznej inteligencji czatbota Gemini, który ma udzielać odpowiedzi na pytania użytkowników bezpośrednio w oknie Google. W efekcie dostaniemy więcej sztucznie generowanych kompilacji. Dotarcie do treści tworzonych przez ludzi stanie się jeszcze trudniejsze.
Na marginesie: ciekawy jest ten szpagat. Z jednej strony, Google musi walczyć z zaśmiecającymi sieć i wyniki wyszukiwania bezwartościowymi treściami od różnych SI, z drugiej – buduje swoją SI, która ten problem będzie przecież pogłębiać. Dylematy monopolisty powinny nas jednak interesować mniej niż skutki jego działań. A te są opłakane: użytkownicy internetu, który mógłby przecież być wielką bazą wiedzą całej ludzkości, będą dostawać coraz mniej przydatne i coraz głupsze treści; twórcy wartościowych tekstów, których nie da się wyguglać, przestaną je tworzyć; media – pozbawione ruchu z wyszukiwarek – zbankrutują i upadną. Google przetrwa.
7. Oczywiście to, że Google źle szuka i nie pozwala znaleźć odpowiedzi, nie oznacza, że konkurencyjne wyszukiwarki – czy to Bing od Microsoftu czy choćby Yahoo – są lepsze. Spoiler: nie są. Ale – skoro wszystkie wyszukują słabo – można by, nawet dla przekory i by nieco przytrzeć nosa gigantowi, korzystać właśnie z alternatyw. Nic nie tracimy, a jeśli Google’owi choć trochę spadną słupki statystyk, to tyle naszej satysfakcji.
Wystarczy pokonać lenistwo i przetestować konkurencyjne rozwiązania (ciekawostka: można wyszukać je w Google’u, nikt tego nie sprawdza!). DuckDuckGo obiecuje szanować prywatność użytkowników. Ecosia chwali się proekologicznymi działaniami. Brave Search kusi systemem filtrów (nazwanych… Goggles) modyfikujących wyniki wyszukiwania. Gibiru twierdzi, że chce być jak Google z dawnych czasów… A to zaledwie część z wielu interesujących propozycji, jakie dzisiejszy internet oferuje tym, którzy zapragną wyjść poza domyślne rozwiązania.
Jan Jęcz w eseju “W poszukiwaniu działającej wyszukiwarki” podaje jeszcze kilka oddolnych praktyk, którymi można w pewnym stopniu zniwelować niekorzystne działania Google’a, a – być może – także przyspieszyć upadek giganta. Po pierwsze, polecać innym ciekawe treści, na które się natkniemy (np. w mejlach, newsletterach czy swoich kanałach społecznościowych). Po drugie, pominąć pośredników – zamiast pytać o przepis na sernik wyszukiwarkę, mieć zaufaną stronę z przepisami. Po trzecie, korzystać z usług kuratorów – wciąż są w internecie indywidualni bloggerzy czy serwisy linkujące do wartościowych treści z zewnątrz. W tym artykule również znajdziecie odnośniki do ciekawych artykułów, wystarczy w nie kliknąć dać się ponieść hipertekstowi. Internetu może nie zmienimy, ale przynajmniej ten nasz jego zakątek uczynimy choć troszkę lepszym.
Przeczytałe(a)ś wydanie premium newslettera Listy do internetu. Jeśli Ci się podobało i chciał(a)byś czytać tu takie częściej, skorzystaj z przycisku powyżej i podziękuj mi kawą. Bez kawy nie dam rady pisać tekstów na takim poziomie, Twoja pomoc jest zatem niezbędna, by newsletter się rozwijał.
Ponieważ, jak opisano wyżej, Google nie pomaga w upowszechnianiu treści z tak niszowych źródeł, będę wdzięczny również za wszystkie “lajki”, polecajki i udostępnienia ww. tekstu w swoich mediach społecznościowych. Bez oddolnego wsparcia artykuł nie dotrze do odbiorców (a już na pewno nie trafi do wyników w najpopularniejszej wyszukiwarce :)).
Następny list do internetu wyślę za tydzień, a jeśli nie chcesz przegapić aktualizacji, skorzystaj z aplikacji Substacka lub bezpłatnej subskrypcji e-mailowej.
Pozdrawiam i do przeczytania!
Świetny tekst! Właściwie wszystko, co piszesz, jest mi znane i wiadome od pewnego czasu. ale Twój artykuł sprawdza się doskonale jako syntetyczne ujęcie problemu, więc przy każdej okazji (nie to, żeby tych okazji miałoby być bardzo dużo...) będę go linkował lub podsyłał link znajomym w celach oświeceniowych.
Dwie marginalne uwagi ode mnie:
> W Gmailu mam historię korespondencji z 20 lat i żadnego pomysłu, gdzie mógłbym ją przenieść.
Tutaj akurat (i tylko tutaj :)) hamletyzujesz. Pobranie archiwum swojej korespondencji z Gugla jest proste (bodajże dyrektywa UE ich do tego zmusiła?), format standardowy, więc lokalnie istnieje wiele sposób na skatalogowanie swojej starej poczty. Na Linuksie kwerendę wypada zacząć od potężnego, ale hakerskiego nutmuch[0]. Na Windowsie podobne rozwiązania też pewnie istnieją – jeśli okazałoby się, że zwykły import do Thunderbirda nie da rady.
> Pytanie za sto punktów: skąd Google będzie czerpać wiedzę, gdy zbankrutują ostatni dostawcy tejże wiedzy, pozbawieni przez Google ruchu na swoich witrynach.
Ja czasami zadaję sobie analogiczne pytanie w kontekście Wikipedii. Wikipedia zaczerpnęła znaczącą część swoich treści z tradycyjnych encyklopedii, pozbawiając jednocześnie encyklopedycznych wydawców źródła dochodów i doprowadzając tradycyjne encyklopedie do śmierci. Na razie problem nie jest jeszcze widoczny, ale czy za 10-20 lat nie okaże się, że wiedza na Wikipedii się „starzeje” i że nie ma nowych wydań encyklopedii, gdzie można by ową wiedzę odnowić?
[0]: https://notmuchmail.org
Cześć Bartłomiej :) Twój tekst jest świetny! Obecnie piszę na tematy związane z chrześcijaństwem i życiem duchowym, ale był taki czas w moim życiu, że związany byłem z prasą komputerową. Pisałem między innymi do Magazynu INTERNET i do PC Worlda (2007-2013). Pamiętam jak w jednej z publikacji opisywałem "ukryte" możliwości wyszukiwarki Google. Te funkcje były naprawdę potężne, gdy wiedziałeś czego chcesz szukać. Obserwowałem jak z czasem te funkcje przestają działać. Rzadka sytuacja - znikanie przydatnych narzędzi. Później, oczywiście, przez gg, grono, naszą-klasę dotarło się do Facebooka z Messengerem. I też, na początku, możliwości wydawały się nieograniczone (np. te związane z wyszukiwaniem, ale też z promocją swoich działań, poza tym otrzymywało się faktycznie treści znajomych i dobre narzędzie do kontaktu z nimi). Trwało to na tyle długo, że zamknąłem się na Facebooku (+oczywiście w narzędziach Google'a, a w tym na YouTube'ie). Czy może zostałem zamknięty? Fajne możliwości dla mnie jako prywatnej osoby i jako piszącego już wtedy na temat wiary w Jezusa "gdzieś" zaginęły (nie wiem czy do tego dotarłeś, ale treści religijne obcięto drastycznie kilka lat temu: nie czytałem nawet badań, doświadczyłem osobiście na własnych stronkach). Zaginęło też w ogóle to, co sprawiało radość w korzystaniu z social media. Żadne z nowo powstających serwisów tego typu do mnie nie trafiają, ale to pewnie też wiek, może kiedyś pochłonąłby mnie TikTok. A tak to jestem tu, czytam Twój długi, ciekawy tekst i w nowych kartach otwieram hiperłącza... I jak starszy człowiek ;) piszę długi komentarz, żeby dać Ci znać, że to co robisz ma dla kogoś sens i wartość. Pozdrawiam!
PS: Przy okazji mam pytanie techniczne. Udostępniłem Twój tekst na Facebooku (Tak, nadal tam jestem :D ) i gdy to zrobiłem to pojawiła się normalnie grafika reklamująca tekst oraz Twój tytuł i podtytuł. Kiedy jednak próbuję udostępnić swoje własne materiały to wyskakuje mi tylko substackowy ołóweczek jako reklama i wygląda jakbym linkował do głównej strony substacka, a nie do własnego tekstu. Nie wiesz może co musiałbym zrobić, żeby to naprawić w swoich materiałach?